
En una medida que fractura fundamentalmente la relación entre los laboratorios de IA (AI labs) centrados en la seguridad de Silicon Valley y el ejército de EE. UU., el Secretario de Defensa Pete Hegseth ha designado formalmente a Anthropic como un "riesgo de la cadena de suministro para la seguridad nacional" (supply chain risk to national security). La designación, anunciada el viernes a última hora, corta efectivamente los vínculos de la empresa de IA con el gobierno federal y prohíbe a decenas de miles de contratistas de defensa utilizar su tecnología.
La acción sin precedentes sigue a un dramático enfrentamiento entre la dirección de Anthropic y el Pentágono —al que la administración actual se refiere como el Departamento de Guerra— sobre los límites éticos de la inteligencia artificial (artificial intelligence) en el combate. Tras la designación, el presidente Donald Trump emitió una directiva ordenando a todas las agencias federales "cesar inmediatamente" el uso de los productos de Anthropic, incluido su modelo insignia Claude, con un período estricto de retirada progresiva de seis meses.
"Esta semana, Anthropic ofreció una clase magistral de arrogancia y traición", declaró Hegseth en X (antes Twitter), anunciando la prohibición apenas unas horas después de que expirara un ultimátum a las 17:01. "Ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos podrá llevar a cabo ninguna actividad comercial con Anthropic".
Esta designación crea una elección binaria para la base industrial de defensa estadounidense: abandonar Claude o perder sus contratos gubernamentales. Se trata de una clasificación reservada históricamente para adversarios extranjeros como Huawei o Kaspersky Lab, lo que marca la primera vez que un laboratorio de IA estadounidense de primer nivel es objeto de un mecanismo tan severo.
El conflicto se centra en un desacuerdo fundamental con respecto a la "Política de Uso Aceptable" (Acceptable Use Policy, AUP) que rige cómo se pueden desplegar los modelos de IA. Durante meses, las negociaciones entre Anthropic y los funcionarios de defensa se han estancado debido a dos "líneas rojas" no negociables establecidas por la empresa:
Los funcionarios de defensa argumentaron que estas restricciones eran incompatibles con las necesidades de seguridad nacional, exigiendo que Anthropic otorgara al ejército "acceso sin restricciones" para "todos los fines lícitos".
El CEO de Anthropic, Dario Amodei, se negó a capitular. En un comunicado publicado poco después de la designación, Amodei argumentó que los modelos de frontera actuales no son lo suficientemente fiables como para que se les confíe la autonomía letal. "No podemos, con la conciencia tranquila, acceder a su petición", dijo Amodei. "Permitir que los modelos actuales se utilicen de esta manera pondría en peligro a los combatientes y civiles de Estados Unidos".
Fuentes internas sugieren que la fricción alcanzó un punto álgido en enero de 2026, tras los informes de que Claude fue utilizado junto con el software de Palantir durante una operación militar de EE. UU. en Venezuela. La operación, que resultó en la captura de Nicolás Maduro, supuestamente activó una alarma interna en Anthropic sobre cómo su tecnología estaba siendo interpretada por los operadores militares, reforzando la determinación de la empresa de aplicar salvaguardas más estrictas.
Las implicaciones de la inclusión de Anthropic en la lista negra fueron inmediatas y quedaron ilustradas con crudeza por su principal competidor. Apenas unas horas después del anuncio del Pentágono, OpenAI confirmó que había llegado a un nuevo acuerdo con el Departamento de Defensa para desplegar sus modelos dentro de redes clasificadas.
Si bien el CEO de OpenAI, Sam Altman, declaró que su acuerdo incluye "salvaguardas técnicas" y principios sobre la responsabilidad humana, el momento sugiere una clara divergencia en la industria. El mercado se está dividiendo ahora en dos campos distintos: aquellos dispuestos a alinearse plenamente con la "Doctrina Hegseth" de aplicación militar sin restricciones, y aquellos que intentan mantener controles éticos independientes.
La siguiente tabla describe la divergencia en la política que condujo a este cisma histórico:
Comparación de posturas políticas
| Característica | Posición de Anthropic | Demanda del DoD / Hegseth |
|---|---|---|
| Armas autónomas | Estrictamente prohibido (Citando fiabilidad) | Permitido ("Todos los fines lícitos") |
| Vigilancia nacional | Estrictamente prohibido (Libertades civiles) | Permitido (Prioridad de seguridad nacional) |
| Estado del contrato | Designado Riesgo de la cadena de suministro | Buscando "acceso sin restricciones" |
| Control operativo | Salvaguardas definidas por el proveedor | Parámetros definidos por el gobierno |
La retórica del Secretario Hegseth ha enmarcado la disputa no simplemente como un desacuerdo contractual, sino como una batalla ideológica. Al calificar a Anthropic como una "empresa woke de izquierda radical", la administración señala que la negativa a cumplir con las demandas militares será tratada como una falta de patriotismo.
Esto sitúa a los principales contratistas de defensa en una posición precaria. Empresas como Lockheed Martin, Boeing y Northrop Grumman —muchas de las cuales utilizan diversos modelos de IA para codificación, logística y análisis— deben ahora auditar sus cadenas de suministro para garantizar que Claude sea eliminado por completo. La orden prohíbe la "actividad comercial", un término amplio que teóricamente podría penalizar a un contratista de defensa si su departamento de recursos humanos utiliza Claude para redactar correos electrónicos o sus equipos de ingeniería lo utilizan para la generación de código no clasificado.
Expertos legales advierten que la designación de "riesgo de la cadena de suministro", utilizada habitualmente bajo autoridades como la Ley de Seguridad de la Cadena de Suministro de Adquisiciones Federales (Federal Acquisition Supply Chain Security Act, FASCSA), está diseñada para proteger contra el espionaje y el sabotaje, no para castigar a empresas nacionales por desacuerdos políticos.
Anthropic ha prometido impugnar la designación ante los tribunales, calificándola de "legalmente infundada". La empresa sostiene que el Pentágono carece de la autoridad estatutaria para prohibir a una empresa privada estadounidense participar en toda la cadena de suministro federal simplemente por negarse a alterar sus Términos de Servicio.
"Creemos que esta designación... sienta un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno", afirmó Anthropic. La empresa sostiene que el gobierno está intentando utilizar su poder de monopsonio para obligar a un discurso y uso de código que viola los principios constitucionales fundacionales de la firma.
Sin embargo, históricamente los tribunales han otorgado al Poder Ejecutivo un amplio margen de maniobra en cuestiones de seguridad nacional. Hasta que un juez intervenga, la prohibición se mantiene, bloqueando de hecho uno de los sistemas de IA más avanzados del mundo fuera del sector público y obligando a toda la industria tecnológica a tomar partido en una guerra que escala rápidamente por el alma de la IA militar.