
Washington, D.C. — En una escalada histórica y sin precedentes del conflicto entre los laboratorios de Inteligencia Artificial (Artificial Intelligence - AI) de Silicon Valley y el gobierno federal, el Departamento de Guerra (Department of War) (anteriormente el Departamento de Defensa) ha rescindido su contrato de 200 millones de dólares con Anthropic. La medida se produce después de que la firma de seguridad de IA se negara a levantar las restricciones operativas sobre el uso de sus modelos para armamento autónomo y vigilancia masiva.
En una directiva emitida a última hora de ayer, el Secretario de Guerra Pete Hegseth designó formalmente a Anthropic como un "Riesgo para la cadena de suministro para la seguridad nacional" (Supply-Chain Risk to National Security), una etiqueta reservada históricamente para adversarios extranjeros y proveedores de telecomunicaciones considerados hostiles a los intereses de EE. UU. La designación desencadena una prohibición inmediata de todas las interacciones comerciales entre la vasta red de contratistas del ejército de EE. UU. y la empresa de IA con sede en San Francisco.
La terminación marca el clímax de una disputa de meses sobre las "líneas rojas" éticas integradas en el modelo insignia de Anthropic, Claude. Mientras que el Pentágono ha buscado acceso "sin restricciones" a modelos de IA de frontera (frontier AI) para mantener la dominancia estratégica, Anthropic se ha negado firmemente a modificar su Política de Uso Aceptable (Acceptable Use Policy - AUP) para dar cabida a aplicaciones específicas letales y de vigilancia.
Fuentes cercanas a las negociaciones informan que el Departamento de Guerra exigió la eliminación de las salvaguardas que impiden que Claude sea utilizado para pilotar drones totalmente autónomos o analizar datos de comunicaciones domésticas a gran escala. Según se informa, el CEO de Anthropic, Dario Amodei, rechazó estos términos, afirmando que la empresa no podía "en buena conciencia" permitir que su tecnología se desplegara de formas que pudieran socavar los valores democráticos o carecieran de una supervisión humana significativa.
"Esto no es un fallo de capacidad, sino un choque de principios", dijo un analista senior de Creati.ai. "Anthropic está apostando efectivamente su negocio a la idea de que la seguridad de la IA (AI safety) es innegociable, incluso cuando el cliente es el ejército más poderoso de la tierra".
El desarrollo más significativo no es la pérdida del contrato en sí, sino la invocación de la autoridad de "Riesgo para la cadena de suministro" contra una empresa estadounidense nacional. La orden del Secretario Hegseth se extiende mucho más allá de una simple cancelación de servicios.
Implicaciones clave de la designación:
Los juristas ya han cuestionado la validez del uso de las autoridades de cadena de suministro —diseñadas para prevenir el espionaje y el sabotaje extranjeros— para castigar una disputa contractual nacional sobre directrices éticas. Anthropic ha prometido impugnar la designación ante un tribunal federal, describiéndola como una "represalia ideológica" en lugar de una evaluación de seguridad genuina.
A medida que Anthropic sale de la cartera del Pentágono, el laboratorio rival OpenAI ha actuado con rapidez para consolidar su posición como el principal socio de IA del ejército. Los informes indican que OpenAI ha aceptado los términos que Anthropic rechazó, lo que ha llevado a un nuevo y lucrativo acuerdo para desplegar sistemas basados en GPT-4 dentro de redes clasificadas.
La transición ha provocado una amarga disputa pública entre los dos gigantes de la IA. Tras los informes sobre el nuevo acuerdo de OpenAI, Dario Amodei emitió un mordaz memorando interno, partes del cual se filtraron a los medios tecnológicos. Amodei acusó a OpenAI de participar en un "teatro de seguridad" y caracterizó sus mensajes públicos sobre las salvaguardas militares como "mentiras directas".
"OpenAI se presenta como un pacificador mientras firma acuerdos que erosionan los mismos estándares de seguridad que afirman defender", escribió Amodei. Alegó que el acuerdo de OpenAI probablemente incluye "lagunas jurídicas" que anulan efectivamente las restricciones sobre la letalidad autónoma, una afirmación que OpenAI ha negado enérgicamente, afirmando que su asociación se centra únicamente en "aplicaciones defensivas legales".
La inclusión de Anthropic en la lista negra envía una señal escalofriante al ecosistema de IA en general. Sugiere que el gobierno de EE. UU. ya no está dispuesto a tolerar la "fricción ética" de sus proveedores de tecnología. Para las startups de IA respaldadas por capital de riesgo, el mensaje es claro: la alineación con los objetivos del Departamento de Guerra es ahora un requisito previo para la viabilidad en el sector público.
La siguiente tabla describe los caminos divergentes de los principales laboratorios de IA con respecto a la colaboración militar a partir de marzo de 2026:
Estado de los principales laboratorios de IA con el Depto. de Guerra
| Nombre del laboratorio | Estado del contrato | Postura sobre la autonomía letal |
|---|---|---|
| Anthropic | Terminado / Lista negra | Prohibición estricta mediante IA constitucional (Constitutional AI) |
| OpenAI | Activo / Ampliado | Permite el uso "defensivo legal" |
| Google DeepMind | Bajo revisión | Restringido, solo con intervención humana (human-in-the-loop) |
| xAI | Activo / Clasificado | Adhesión al "uso legal" sin restricciones |
Las próximas semanas serán críticas para Anthropic. Si la designación de "riesgo para la cadena de suministro" sobrevive al escrutinio legal, la empresa se enfrenta a una amenaza existencial para su negocio empresarial. Los clientes corporativos que también prestan servicios al sector de defensa pueden verse obligados a migrar a modelos alternativos para evitar el fuego cruzado regulatorio.
Mientras tanto, el Departamento de Guerra ha señalado que su paciencia con la "IA progre" (woke AI) —un término utilizado por el Secretario Hegseth para describir modelos con un fuerte filtrado de seguridad— se ha agotado. A medida que EE. UU. compite por integrar la IA generativa (Generative AI) en su infraestructura de mando y control, la división entre los desarrolladores de IA "patrióticos" y los laboratorios de "seguridad primero" está destinada a convertirse en la línea de fractura que definirá la industria.