
El precario equilibrio entre el desarrollo ético de la Inteligencia Artificial (AI) y los imperativos de seguridad nacional ha llegado a un punto de ruptura. Anthropic, el laboratorio de IA con sede en San Francisco, reconocido por su Inteligencia Artificial Constitucional (Constitutional AI) y su filosofía de "la seguridad primero", se enfrenta a una amenaza existencial por parte de su cliente potencial más poderoso: el Departamento de Defensa de los Estados Unidos (DoD). Los informes confirman que el Pentágono está considerando activamente designar a Anthropic como un "riesgo en la cadena de suministro" (supply chain risk), una etiqueta draconiana reservada típicamente para adversarios extranjeros, tras acaloradas disputas sobre el uso de sus modelos Claude en operaciones militares activas.
En el centro de esta tormenta se encuentra un contrato de defensa de 200 millones de dólares y un desacuerdo fundamental sobre el papel de los agentes autónomos (Autonomous Agents) en la guerra. Mientras que competidores como OpenAI y xAI han avanzado para satisfacer la demanda de los militares de "todos los fines lícitos", Anthropic se ha mantenido firme en sus líneas rojas, específicamente en lo que respecta a la vigilancia masiva y las armas letales totalmente autónomas. El conflicto ha escalado de las negociaciones en la sala de juntas a una posible lista negra en toda la industria, lo que señala un momento decisivo para la integración de la IA de frontera en la base industrial de defensa.
Según se informa, la fricción entre Anthropic y los funcionarios de defensa estalló tras una operación clasificada en enero de 2026 que involucró el intento de captura del ex presidente venezolano Nicolás Maduro. Según fuentes familiarizadas con el asunto, el Pentágono utilizó a Claude, a través de una integración con su socio de análisis de datos Palantir, para procesar inteligencia en tiempo real durante la misión.
Aunque la operación fue considerada un éxito táctico según los estándares militares, las secuelas desencadenaron una grave brecha diplomática entre la empresa tecnológica y el DoD. Durante una revisión de rutina posterior a la operación, los ingenieros de Anthropic supuestamente cuestionaron la aplicación específica de su modelo en la incursión, expresando su preocupación de que el despliegue se acercara demasiado a las cadenas de toma de decisiones letales. Esta consulta fue percibida por el liderazgo del Pentágono no como una supervisión responsable, sino como una intrusión inaceptable por parte de un proveedor privado en la conducta militar soberana.
El Secretario de Defensa, Pete Hegseth, ha adoptado desde entonces una postura de línea dura, declarando supuestamente que el DoD "no empleará modelos que no permitan luchar en guerras". El sentimiento refleja una creciente frustración dentro del Pentágono de que las barreras ideológicas de Anthropic son incompatibles con la velocidad y la letalidad requeridas en los conflictos modernos. El DoD argumenta que si un caso de uso es legal bajo el derecho internacional y estadounidense, sus proveedores de tecnología no deberían tener poder de veto basado en la moralidad corporativa privada.
El núcleo de la disputa reside en las definiciones divergentes de "seguridad". Para Anthropic, la seguridad está codificada en la arquitectura misma de Claude, diseñada para rechazar solicitudes que violen su constitución, incluyendo la facilitación de abusos contra los derechos humanos o actuar como un arma totalmente autónoma. Para el Pentágono, la seguridad significa la garantía de que una herramienta funcionará de manera confiable y sin restricciones cuando un comandante emita una orden legal.
Anthropic se ha negado explícitamente a cruzar dos umbrales específicos:
Si bien estas restricciones se alinean con los valores de muchos en la comunidad de investigación de IA, los planificadores de defensa las ven como desventajas. El contraargumento del Pentágono es que "todos los fines lícitos" abarca una amplia gama de actividades letales y de vigilancia necesarias para la defensa nacional. Al negarse a otorgar una exención general para estas categorías, se considera que Anthropic está creando una brecha de confiabilidad que podría poner en peligro al personal en el terreno.
La tabla a continuación resume la situación actual de los principales laboratorios de IA con respecto a la integración militar:
Comparación de la postura de los principales laboratorios de IA sobre los contratos de defensa
---|---|----
Laboratorio de IA|Postura militar|Conflictos clave/Estado
Anthropic|Restrictiva / Barreras éticas|Riesgo de designación de "Riesgo en la cadena de suministro" debido al rechazo de la autonomía letal.
OpenAI|Flexible / Colaborativa|Eliminó la prohibición de "uso militar y bélico"; negociando vínculos más estrechos para uso "lícito".
xAI|Sin restricciones / Belicista|Buscando agresivamente contratos de defensa; alineado con las iniciativas de defensa de "Estados Unidos primero" (America First).
Google (DeepMind)|Moderada / Específica por proyecto|Resistencia interna histórica (Project Maven) pero persiguiendo contratos JADC2.
El aspecto más alarmante de esta historia en desarrollo es la amenaza del Pentágono de etiquetar a Anthropic como un "riesgo en la cadena de suministro" (supply chain risk). Esta designación es mucho más perjudicial que simplemente perder un único contrato de 200 millones de dólares. En el ecosistema de contratación federal, una etiqueta de riesgo en la cadena de suministro actúa como un contagio.
Si se aplica, obligaría legalmente a los contratistas principales, como Lockheed Martin, Northrop Grumman y Palantir, a eliminar el código de Anthropic de sus sistemas para mantener su propia elegibilidad para el trabajo gubernamental. Podría exiliar efectivamente a Claude de todo el mercado federal, incluidas las agencias no militares que se adhieren a los estándares de seguridad del DoD.
Los analistas de la industria advierten que este movimiento está diseñado para dar un ejemplo con Anthropic. "El Pentágono está enviando un mensaje claro a Silicon Valley", señala un experto en políticas de defensa del Lawfare Institute. "Puedes tener tus declaraciones de ética, o puedes tener contratos gubernamentales, pero no puedes dictar las reglas de combate al ejército de los Estados Unidos".
El momento de este enfrentamiento no es casualidad. Llega cuando Anthropic lanza su nueva generación de "agentes autónomos" (Autonomous Agents), sistemas de IA capaces de ejecutar tareas complejas de varios pasos con una intervención humana mínima. A medida que estos agentes pasan de ser chatbots a operadores activos capaces de escribir código, controlar sistemas cibernéticos y analizar datos geoespaciales, lo que está en juego para su control ha aumentado exponencialmente.
El Pentágono ve a estos agentes autónomos como críticos para mantener la paridad con adversarios cercanos como China, que están integrando rápidamente la IA en sus cadenas de eliminación. El temor dentro del DoD es que confiar en un modelo que podría "rechazar" un comando durante una ofensiva cibernética crítica o la coordinación de un enjambre de drones es una vulnerabilidad estratégica que no pueden permitirse.
Mientras Anthropic se mantiene firme, sus competidores están capitalizando la brecha. Los informes indican que xAI y OpenAI han acelerado sus procesos de acreditación, ofreciendo versiones "sin censura" o "capaces para la misión" de sus modelos para entornos clasificados. Estas alternativas prometen al Pentágono exactamente lo que exige: poderosas capacidades de inteligencia sin la fricción del arbitraje moral.
Para los lectores de Creati.ai y la industria tecnológica en general, este enfrentamiento representa una divergencia fundamental. Si Anthropic es penalizada, esto podría enfriar las iniciativas de "la seguridad primero" en todo el sector, incentivando a los laboratorios a priorizar el cumplimiento sobre la conciencia. Por el contrario, si Anthropic mantiene su posición, podría establecer un nuevo precedente donde la ética del sector privado frene con éxito la automatización desenfrenada de la guerra.
A medida que se acerca la fecha límite para la renovación del contrato, la industria observa con expectación. El resultado decidirá no solo el destino de un acuerdo de 200 millones de dólares, sino también si el futuro de la IA militar será moldeado por las demandas del Pentágono o por las líneas rojas éticas de sus creadores.