
En un momento crucial para la industria de la Inteligencia Artificial (Artificial Intelligence, AI), la tensión entre el desarrollo ético de la IA y los imperativos de la defensa nacional ha estallado en un conflicto público a gran escala. Tras una directiva del Pentágono que designa a Anthropic como un "riesgo para la cadena de suministro" para la seguridad nacional, el CEO Dario Amodei ha emitido una respuesta desafiante pero profundamente nacionalista, afirmando: "Somos estadounidenses patriotas", al tiempo que se niega a cruzar lo que la empresa define como líneas rojas éticas críticas.
La disputa, que culminó esta semana en una prohibición general ordenada por la administración Trump y el Secretario de Defensa Pete Hegseth, se centra en la negativa de Anthropic a modificar sus Términos de Servicio para permitir un uso militar sin restricciones, específicamente en lo que respecta a la vigilancia masiva doméstica y las armas letales totalmente autónomas.
El conflicto alcanzó su punto de ruptura el viernes cuando el Departamento de Defensa (Department of Defense, DoD) emitió un ultimátum a Anthropic: eliminar las salvaguardas de seguridad que restringen el uso militar del modelo Claude, o enfrentarse a la inclusión en la lista negra. Cuando pasó el plazo de las 5:01 PM sin la capitulación de Anthropic, el Secretario Hegseth cumplió con una designación que rara vez se aplica a empresas nacionales, categorizando efectivamente al gigante de la IA junto a adversarios extranjeros en términos de toxicidad de la cadena de suministro.
"Los combatientes de Estados Unidos nunca serán rehenes de los caprichos ideológicos de las grandes tecnológicas", declaró Hegseth, anunciando que ningún contratista que haga negocios con el ejército de los EE. UU. podría continuar sus actividades comerciales con Anthropic.
In una entrevista de alto perfil y en una declaración posterior, Dario Amodei rechazó la narrativa de que su empresa está obstruyendo la seguridad nacional (national security). En su lugar, enmarcó la negativa de Anthropic como una defensa de los valores fundamentales estadounidenses. "Todo lo que hemos hecho ha sido por el bien de este país, por el bien de apoyar la seguridad nacional de los EE. UU.", afirmó Amodei. "Las líneas rojas que hemos trazado, las trazamos porque creemos que cruzar esas líneas es contrario a los valores estadounidenses".
El quid del desacuerdo radica en dos casos de uso específicos que Anthropic ha prohibido sistemáticamente en su Política de Escalado Responsable (Responsible Scaling Policy, RSP) y en sus Términos de Servicio, incluso para clientes gubernamentales:
El Pentágono, bajo el cambio de marca de la actual administración a "Departamento de Guerra", argumenta que estas restricciones equivalen a un "poder de veto" sobre las operaciones militares. Los funcionarios de defensa han sostenido que requieren "todos los usos legales" de la tecnología para mantener la superioridad sobre adversarios como China, que no enfrentan tales limitaciones éticas por parte de su sector tecnológico nacional.
La clasificación de Anthropic como un "riesgo en la cadena de suministro (supply chain risk)" es una medida económica draconiana con ramificaciones que se extienden mucho más allá del Pentágono. Esta designación no se limita a terminar los contratos directos entre Anthropic y el DoD; crea un efecto de contagio en toda la base industrial de defensa.
Los principales contratistas de defensa y socios tecnológicos —que potencialmente incluyen proveedores de la nube como AWS y Google Cloud, si prestan servicios a contratos militares— se ven ahora presionados legalmente a cortar vínculos con Anthropic para preservar su propia posición ante el gobierno. Con Anthropic valorada recientemente en aproximadamente 380 mil millones de dólares y preparándose para una posible oferta pública, este movimiento representa una amenaza financiera existencial diseñada para forzar el cumplimiento.
"Esto es represivo y punitivo", dijo Amodei a los periodistas, señalando que la empresa tiene la intención de impugnar la designación en los tribunales. Los expertos legales sugieren que aplicar un marco de riesgo de la cadena de suministro —normalmente reservado para hardware de naciones hostiles— a una empresa de software estadounidense por desacuerdos políticos no tiene precedentes y puede enfrentar un escrutinio judicial significativo.
La prohibición ha creado un vacío inmediato en el sector de la IA de defensa, uno que los competidores se han apresurado a llenar. Horas después de que se anunciara la designación, OpenAI confirmó una nueva asociación con el Pentágono, aceptando términos que permiten aplicaciones militares más amplias.
Esta divergencia marca una bifurcación significativa en la industria de la IA: aquellos que se alinean estrictamente con los requisitos de "guerra sin restricciones" de la administración, y aquellos que intentan mantener una gobernanza ética independiente.
Tabla: La división de la defensa en la IA
| Contratista | Postura sobre armas autónomas | Postura sobre vigilancia masiva (mass surveillance) | Estado en el Pentágono |
|---|---|---|---|
| Anthropic | Estrictamente prohibido Cita falta de fiabilidad técnica y riesgos éticos. |
Estrictamente prohibido Se considera una violación de las libertades civiles. |
Prohibido Designado como "riesgo en la cadena de suministro" |
| OpenAI | Permitido Bajo el marco de "uso legal". |
Permitido Alineado con los requisitos del DoD. |
Socio activo Nuevo contrato firmado en feb. de 2026 |
| Palantir | Totalmente integrado Apoyo de larga data a la autonomía letal. |
Totalmente integrado Oferta de producto central. |
Socio activo Integrador de defensa principal |
La defensa de Amodei se basa en gran medida en la realidad técnica de los modelos de lenguaje grandes (Large Language Models, LLMs) actuales. Más allá del argumento moral, Anthropic afirma que la tecnología simplemente no está lista para ser sacada "del bucle" en escenarios letales.
"Creemos en derrotar a nuestros adversarios autocráticos", aclaró Amodei. "Pero desplegar sistemas que alucinan o que pueden ser fácilmente vulnerados (jailbroken) para formar cadenas de ejecución autónomas no hace que Estados Unidos sea más seguro; introduce un nuevo vector de caos".
Este argumento de "la seguridad es protección" postula que el verdadero patriotismo implica prevenir el despliegue de tecnología inmadura que podría resultar en fuego amigo, escaladas no deseadas o crímenes de guerra. Sin embargo, la administración ve esta precaución como obstruccionismo, interpretando el "escalado responsable" como un eufemismo para una vacilación "woke" que frena la modernización militar estadounidense.
A medida que comienza el período de liquidación de seis meses para los contratos gubernamentales actuales de Anthropic, la industria experimenta un efecto disuasorio. El mensaje de Washington es claro: en la nueva era de la guerra de IA, el cumplimiento es obligatorio y la disidencia ética conlleva un precio muy alto.
El desafío legal de Anthropic probablemente sentará un precedente definitorio para el siglo XXI. ¿Puede el gobierno obligar a una empresa privada estadounidense a construir herramientas que considera moral y técnicamente inseguras? ¿O incluye la definición de innovación "patriótica" el derecho a decir que no?
Por ahora, Dario Amodei y Anthropic se mantienen firmes en sus líneas rojas, apostando a que el sistema legal estadounidense —y quizás el juicio a largo plazo de la historia— valorará su moderación basada en principios por encima de la utilidad militar inmediata. Pero a corto plazo, la empresa se enfrenta a todo el peso del gobierno federal, decidido a someter a Silicon Valley.