
En un momento crucial para el mercado de la Inteligencia Artificial generativa (Generative AI) de consumo, Claude de Anthropic ha superado oficialmente a ChatGPT de OpenAI en descargas diarias en EE. UU., lo que señala un cambio masivo en el sentimiento de los usuarios impulsado por las preocupaciones sobre la privacidad. Los datos publicados esta semana confirman que mientras OpenAI lidia con un éxodo de usuarios tras su nueva asociación con el Departamento de Defensa (DoD), Anthropic está capitalizando su negativa a comprometer sus salvaguardas éticas.
A partir del 2 de marzo de 2026, los usuarios activos diarios (DAU) de Claude aumentaron a 11,3 millones, un asombroso incremento del 183% desde el comienzo del año. Esta trayectoria de crecimiento coincide directamente con la reacción pública contra la decisión de OpenAI de integrar ChatGPT en las redes de vigilancia militar, un acuerdo que Anthropic rechazó explícitamente.
La perturbación en el liderazgo de la IA no es simplemente el resultado de actualizaciones de productos, sino una reacción directa de los consumidores a la ética corporativa. A finales del mes pasado, el Pentágono emitió un ultimátum a los principales proveedores de IA, exigiendo la eliminación de las restricciones sobre la "vigilancia masiva doméstica" y el "armamento totalmente autónomo" para asegurar lucrativos contratos de defensa.
El CEO de Anthropic, Dario Amodei, rechazó públicamente la demanda, declarando: "No podemos, por conciencia, proporcionar tecnología que permita la vigilancia masiva de los ciudadanos estadounidenses, lo que constituye una violación de los derechos fundamentales". En consecuencia, la administración Trump designó a Anthropic como un "riesgo para la cadena de suministro", prohibiéndole de facto los contratos federales.
En marcado contraste, OpenAI aceptó los términos, integrando sus modelos en las redes clasificadas del DoD. La medida, destinada a consolidar la posición de OpenAI en el sector público, ha fracasado espectacularmente en el mercado de consumo. El movimiento "QuitGPT", organizado por defensores de la privacidad, ha ganado más de 1,5 millones de seguidores en menos de una semana, instando a los usuarios a eliminar sus cuentas de OpenAI.
Las firmas de inteligencia de mercado Sensor Tower y Appfigures han proporcionado datos que ilustran la velocidad de este cambio. Por primera vez desde su lanzamiento, ChatGPT ha perdido su corona como la aplicación de IA más descargada en los Estados Unidos, con los usuarios acudiendo en masa a Claude como la alternativa centrada en la privacidad.
La siguiente tabla resume la dramática divergencia en las métricas clave de rendimiento entre las dos plataformas durante la última semana:
Rendimiento del mercado: Claude vs. ChatGPT (27 feb - 5 mar, 2026)
| Métrica | Claude (Anthropic) | ChatGPT (OpenAI) |
|---|---|---|
| Descargas diarias (EE. UU.) | 149.000 (Puesto #1) | 124.000 (Puesto #2) |
| Usuarios activos diarios (DAU) | 11,3 millones (Sube 183% YTD) | En descenso (Cifra exacta retenida) |
| Tasa de desinstalación (Acuerdo DoD) | Base normal | Oleada del +295% |
| Tendencia de calificación en App Store | Positiva (Enfoque en privacidad) | Negativa (Pico del 775% en reseñas de 1 estrella) |
| Estado gubernamental | Designado "Riesgo de cadena de suministro" | Contratista oficial del DoD |
El aumento del 295% en las desinstalaciones de ChatGPT representa más que una simple caída temporal; sugiere un reajuste fundamental de lo que los consumidores valoran en la IA generativa. Durante años, la capacidad y la velocidad fueron los principales motores de adopción. Sin embargo, a medida que la IA se integra más en la vida personal —manejando correos electrónicos, datos de salud y trabajo creativo—, la confianza ha surgido como la moneda definitiva.
"Los usuarios están votando con sus teléfonos", señala Sarah Kreps, Directora del Tech Policy Institute de la Universidad de Cornell. "Se suponía que a los consumidores no les importarían los acuerdos gubernamentales de fondo. Esa suposición era errónea. Cuando los usuarios supieron que el mismo modelo que escribe su poesía podría usarse para la vigilancia doméstica, la propuesta de valor colapsó".
Las plataformas de redes sociales se han inundado con capturas de pantalla de usuarios cancelando sus suscripciones a ChatGPT Plus, citando a menudo la "Constitución" de Anthropic y la negativa de Amodei a ceder ante la presión del Pentágono como su razón principal para cambiar.
Anthropic ha promocionado durante mucho tiempo su enfoque de IA Constitucional (Constitutional AI), un método en el que el modelo se entrena para alinearse con un conjunto de principios éticos en lugar de solo con la retroalimentación humana. Los críticos argumentaron anteriormente que esto dificultaría el rendimiento del modelo o su viabilidad comercial. Sin embargo, en el clima actual, esta marca de "seguridad primero" se ha convertido en una ventaja competitiva masiva.
A pesar de que la designación de "riesgo para la cadena de suministro" podría perjudicar los ingresos B2B de Anthropic con los contratistas gubernamentales, la respuesta de los consumidores probablemente ha compensado esas pérdidas. Los registros diarios de Claude se han cuadruplicado, pasando de 250.000 en enero a más de 1 millón a principios de marzo.
Además, el auge no se limita a los Estados Unidos. Claude ha alcanzado el primer puesto en las categorías de "Productividad" y "Aplicaciones gratuitas" en más de 20 países, incluidos el Reino Unido y Canadá, lo que sugiere que la preocupación por la vigilancia habilitada por IA es un fenómeno global.
La divergencia entre el sentimiento del consumidor y los requisitos gubernamentales coloca a los CIO de las empresas en una posición difícil. Si bien el acuerdo con el DoD valida los protocolos de seguridad de OpenAI para uso clasificado, la revuelta de los consumidores introduce un riesgo reputacional para las empresas que integran ChatGPT en sus productos orientados al cliente.
Por el contrario, Anthropic ahora está posicionando a Claude no solo como un chatbot más seguro, sino como la "elección ética" para las empresas preocupadas por la soberanía de los datos y la responsabilidad corporativa.
A medida que se asienta el polvo de la disputa con el Pentágono, el panorama de las guerras de la IA ha cambiado fundamentalmente. OpenAI puede haber ganado al Pentágono, pero Anthropic se está ganando a la gente. Con 11,3 millones de usuarios activos diarios y sumando, Claude ha demostrado que en 2026, rechazar un contrato de vigilancia gubernamental podría ser la decisión comercial más rentable que puede tomar una empresa de IA. Queda por ver si OpenAI puede recuperar la confianza del público o si esto marca el comienzo de una fractura permanente en el mercado de la IA.