
En un acontecimiento que destaca la relación cada vez más compleja entre las empresas de inteligencia artificial (Artificial Intelligence) y los intereses gubernamentales, el chatbot Claude de Anthropic ha ascendido a la posición número dos en las listas de aplicaciones gratuitas de la App Store de EE. UU. Este ascenso meteórico —ocurrido durante el fin de semana del 28 de febrero de 2026— se produce, paradójicamente, tras un grave conflicto con el Pentágono y una directiva posterior de la Casa Blanca que prohíbe a las agencias federales el uso de esta tecnología.
El repunte sitúa a Claude inmediatamente detrás de ChatGPT de OpenAI y por delante de Gemini de Google, lo que indica un cambio en el sentimiento del consumidor donde la ética corporativa y la resistencia a la presión estatal pueden estar funcionando como un motor de marketing poderoso, aunque poco convencional. Para los observadores de la industria, este momento representa un caso de estudio fundamental del "Efecto Streisand" (Streisand Effect), donde los intentos de suprimir o marginar una plataforma terminan amplificando su visibilidad y atractivo.
El catalizador de esta perturbación del mercado fue la ruptura de una negociación de alto nivel entre Anthropic y el Departamento de Defensa (DoD). Fuentes cercanas al asunto confirman que el Pentágono había intentado integrar los modelos de frontera de Anthropic en los flujos de trabajo de defensa con el requisito de renunciar a ciertas "protecciones de seguridad" (safety guardrails). Específicamente, se informa que los funcionarios de defensa exigieron la capacidad de utilizar la IA para "todos los fines lícitos", una categorización amplia que la dirección de Anthropic temía que abriera la puerta a la vigilancia masiva nacional y al suministro de energía para sistemas de armas letales totalmente autónomos.
El CEO de Anthropic, Dario Amodei, rechazó públicamente estos términos, afirmando que la empresa no podía, "en buena conciencia", acceder a demandas que anularían su constitución de IA constitucional (Constitutional AI) y sus protocolos de seguridad. La respuesta de Washington fue rápida y punitiva. Para el viernes, la administración había designado a Anthropic como un "riesgo para la cadena de suministro" (supply chain risk) —una clasificación reservada habitualmente para adversarios extranjeros o proveedores comprometidos— y ordenó el cese de todos los contratos federales con la startup.
Si bien tal designación tradicionalmente paralizaría a un contratista de defensa, la valoración principal de Anthropic reside en su software para consumidores y empresas. La naturaleza pública de la disputa, caracterizada por las críticas del presidente Trump a la dirección de la empresa calificándola de "santurrona", parece haber movilizado a una base de usuarios preocupada por la privacidad y la militarización desenfrenada de la inteligencia artificial.
El posterior aumento de las descargas sugiere que una parte significativa del público general ve la negativa de Anthropic no como una insubordinación, sino como una característica de confiabilidad. En una era donde las preocupaciones por la privacidad de los datos son primordiales, la narrativa de una empresa de IA que rechaza lucrativos contratos gubernamentales para proteger los límites éticos ha resonado profundamente.
Los análisis de Sensor Tower indican que Claude se encontraba justo fuera del top 20 de aplicaciones a principios de febrero. Sin embargo, tras la noticia de la prohibición y los intercambios televisados entre el Pentágono y los ejecutivos de Anthropic, las descargas se aceleraron en más del 300% en un período de 48 horas.
Este fenómeno plantea preguntas críticas para los modelos económicos de la industria de la IA. Históricamente, la "alineación" (alignment) se ha discutido en términos técnicos respecto al comportamiento del modelo. Este evento replantea la alineación como un activo de marca: alinearse con los valores del usuario frente a lo que se percibe como una extralimitación del Estado. Los usuarios están votando con su espacio de almacenamiento, eligiendo efectivamente la IA "disidente" sobre competidores que han adoptado un enfoque más complaciente con la asociación gubernamental.
El contraste con el principal rival de Anthropic, OpenAI, no podría ser más marcado. Horas después de que la Casa Blanca emitiera su directiva contra Anthropic, surgieron informes de que OpenAI había finalizado un nuevo acuerdo con el Pentágono (Pentagon) para suministrar capacidades de IA para redes militares clasificadas.
Esta divergencia ha creado una clara bifurcación en el mercado:
Si bien OpenAI mantiene el primer puesto en la App Store, probablemente debido a su ventaja de ser el primero en llegar y a su masiva base de usuarios existentes, la repentina proximidad de Claude sugiere que el segmento de mercado de "IA ética" es mucho mayor de lo estimado anteriormente.
La posición actual de las tres principales aplicaciones de IA revela la dinámica competitiva en juego. La siguiente tabla resume el estado de los principales chatbots de IA en la App Store de EE. UU. al 1 de marzo de 2026.
Clasificación de IA en la App Store (Listas gratuitas de EE. UU.)
| Rango | Nombre de la aplicación | Contexto clave y factores recientes |
|---|---|---|
| 1 | ChatGPT (OpenAI) | Mantiene el liderazgo del mercado; recientemente aseguró contratos ampliados con el Departamento de Defensa (DoD) para el despliegue de redes clasificadas. |
| 2 | Claude (Anthropic) | Subió desde el Top 20; impulsado por la designación de "riesgo para la cadena de suministro" y el rechazo público a las cláusulas de vigilancia. |
| 3 | Google Gemini | Mantiene un crecimiento constante; aprovechando la profunda integración con los ecosistemas Android y Workspace. |
El "Auge de Claude" complica la narrativa para los reguladores y los responsables políticos. El intento de la administración de utilizar tácticas de exclusión del mercado (la designación de riesgo para la cadena de suministro) para forzar el cumplimiento ha sido contraproducente en el dominio del consumidor. Esto limita la influencia del gobierno; si prohibir a una empresa la hace más popular, el Estado pierde su principal herramienta de presión no regulatoria.
Además, este estancamiento destaca la fragilidad de la actual era de "compromiso voluntario" en la seguridad de la IA. La negativa de Anthropic demuestra que las protecciones voluntarias solo son significativas hasta que entran en conflicto con las demandas de un cliente poderoso. Al mantenerse firme, Anthropic ha sentado un precedente de que los compromisos de seguridad son limitaciones vinculantes, no solo material de marketing.
Los expertos legales predicen que es probable que Anthropic impugne la designación de "riesgo para la cadena de suministro" ante los tribunales, argumentando que negarse a construir armas autónomas (autonomous weapons) no constituye un riesgo para la seguridad. El resultado de tal batalla legal definiría los derechos de las empresas tecnológicas a rechazar el trabajo gubernamental por motivos éticos sin enfrentarse a represalias mediante listas negras.
A medida que se asienta el polvo de esta semana caótica, el mensaje del mercado es inequívoco: la ética es un diferenciador competitivo. La apuesta de Anthropic por priorizar su constitución de seguridad sobre los ingresos del Pentágono ha dado sus frutos, por ahora, en la moneda de la atención y la confianza del usuario. Queda por ver si este impulso puede mantenerse más allá del ciclo de noticias inmediato, pero el ascenso de Claude al puesto n.º 2 sirve como una poderosa señal de que el público está observando de cerca cómo las empresas de IA navegan por las complejidades morales de la próxima década.