
En un momento decisivo para la industria de la inteligencia artificial (Artificial Intelligence), el panorama de la contratación de defensa gubernamental se ha remodelado radicalmente en un solo período de 24 horas. El viernes 28 de febrero de 2026, el CEO de OpenAI, Sam Altman, anunció un acuerdo histórico para desplegar los modelos avanzados de la compañía dentro de las redes clasificadas del Pentágono. Este anuncio contrastó de manera polarizada con el destino del laboratorio rival Anthropic, al cual la administración Trump ha designado oficialmente como un "riesgo para la cadena de suministro (supply chain risk)", prohibiéndole efectivamente los negocios federales.
Los desarrollos simultáneos marcan la culminación de meses de creciente tensión entre los laboratorios de IA de vanguardia de Silicon Valley y una Casa Blanca decidida a imponer el "acceso sin restricciones" a la tecnología para la defensa nacional. Mientras que OpenAI ha navegado con éxito las exigencias de la administración a través de lo que describe como "salvaguardas técnicas", la negativa de Anthropic a ceder terreno en sus principios de IA constitucional ha resultado en una acción punitiva sin precedentes contra una empresa estadounidense.
A última hora de la noche del viernes, Sam Altman confirmó que OpenAI había llegado a un acuerdo con el Departamento de Defensa —referido por la administración actual y en la declaración de Altman como el "Departamento de Guerra" (Department of War o DoW). El trato otorga al ejército acceso a los modelos de frontera de OpenAI para operaciones clasificadas, un movimiento que los críticos argumentan contradice el estatuto original sin fines de lucro de la empresa, pero que Altman defiende como una evolución necesaria de la seguridad de la IA (AI safety) en la gobernanza democrática.
El acuerdo se centra en una arquitectura de despliegue "solo en la nube". Según OpenAI, esta estructura les permite mantener una "pila de seguridad" que impone líneas rojas específicas, incluso dentro de entornos clasificados.
Disposiciones clave del acuerdo entre OpenAI y el Pentágono:
"En todas nuestras interacciones, el DoW mostró un profundo respeto por la seguridad y el deseo de asociarse para lograr el mejor resultado posible", escribió Altman en una declaración en X. Además, afirmó que el contrato de OpenAI ofrece "mejores garantías y salvaguardas más responsables" que los acuerdos previos mantenidos por la competencia, haciendo referencia implícita al arreglo ahora desaparecido de Anthropic.
Mientras el liderazgo de OpenAI celebraba su nueva asociación, Anthropic enfrentaba un asalto regulatorio existencial. Según los informes, el conflicto alcanzó un punto de ruptura el jueves, cuando Anthropic rechazó un ultimátum del Pentágono para eliminar salvaguardas específicas relativas a armamento autónomo y capacidades de vigilancia.
El Secretario de Defensa Pete Hegseth respondió con una crítica mordaz, calificando la negativa de la empresa como una "clase magistral de arrogancia y traición". En consecuencia, el Departamento de Defensa ha designado formalmente a Anthropic como un "riesgo para la cadena de suministro (supply chain risk)". Esta clasificación, reservada históricamente para entidades extranjeras consideradas amenazas para la seguridad nacional —como Huawei o Kaspersky Lab— se está aplicando ahora a una startup con sede en San Francisco fuertemente financiada por Amazon y Google.
El presidente Trump escaló la retórica en Truth Social, caracterizando al liderazgo de la empresa como actores de "izquierda radical y progresistas (Woke)" que intentan "presionar" al ejército. La administración ha emitido una directiva para que todas las agencias federales "cesen de inmediato" el uso de la tecnología de Anthropic, aunque se ha otorgado un período de eliminación gradual de seis meses para que ciertos sistemas de defensa críticos realicen la transición a proveedores alternativos, probablemente OpenAI o Palantir.
El cisma resalta un desacuerdo fundamental sobre el papel de las empresas tecnológicas privadas en la seguridad nacional. La administración Trump ha dejado claro que ve la negativa a cumplir con los requisitos militares como una falta de patriotismo, mientras que Anthropic sostiene que su negativa se basa en deberes éticos que trascienden las directivas gubernamentales.
La siguiente tabla resume las diferencias críticas en cómo los dos laboratorios líderes de IA han abordado esta negociación de alto riesgo:
Tabla: Análisis comparativo de las estrategias de defensa de OpenAI y Anthropic
| Métrica | Enfoque de OpenAI | Enfoque de Anthropic |
|---|---|---|
| Postura principal | Compromiso con "salvaguardas técnicas" | Negativa basada en "líneas rojas" éticas |
| Estado del contrato | Activo, acceso clasificado ampliado | Terminado, designado "Riesgo para la cadena de suministro" |
| Concesión clave | Aceptó los términos del "Departamento de Guerra" | Rechazó la modificación de modelos sin restricciones |
| Postura sobre vigilancia | Prohibida mediante cláusulas contractuales | Capacidad rechazada a nivel técnico |
| Relación con la administración | Colaborativa, marca "Patriótica" | Adversaria, etiquetada como "Woke/Riesgo" |
| Modelo de despliegue | Solo en la nube (Control retenido) | Rechazó el despliegue incondicional en el borde |
La designación de Anthropic como un riesgo para la cadena de suministro es trascendental desde el punto de vista legal y económico. Prohíbe no solo los contratos gubernamentales directos, sino que efectivamente prohíbe a cualquier contratista federal el uso de las herramientas de Anthropic en sus flujos de trabajo. Para una base industrial de defensa que depende en gran medida de cadenas de suministro de software interconectadas, esto obliga a empresas como Lockheed Martin, Booz Allen Hamilton e incluso potencialmente proveedores de nube como AWS a segregar o purgar los modelos Claude de Anthropic de sus ecosistemas para seguir cumpliendo con la normativa.
Los expertos legales anticipan una feroz batalla judicial. Anthropic ha prometido impugnar la designación, calificándola de "legalmente infundada" y un acto de "intimidación". La empresa argumenta que el poder ejecutivo carece de la autoridad para poner en la lista negra a una empresa nacional simplemente por un desacuerdo contractual sobre los términos de servicio. Sin embargo, bajo la Ley de Producción de Defensa (Defense Production Act), que la administración amenazó con invocar, el gobierno federal posee amplios poderes para dirigir los recursos industriales para la defensa nacional.
La noticia ha enviado ondas de choque a través del sector de la IA. Los inversores ya están reajustando el valor a largo plazo de los laboratorios que priorizan la seguridad y que corren el riesgo de alienar a los clientes gubernamentales. Se espera que la valoración de OpenAI vea una presión positiva por la certeza de los ingresos gubernamentales a largo plazo, mientras que Anthropic enfrenta una potencial crisis de liquidez si la lista negra asusta a los clientes de empresas comerciales que temen el contagio regulatorio.
Además, el uso por parte de la administración del término "Departamento de Guerra" —una reversión al apelativo anterior a 1947— señala un cambio ideológico más amplio. Sugiere una postura más agresiva y orientada al combate para la política de defensa de EE. UU., una que exige una alineación total de sus socios industriales.
La velocidad a la que se deterioró la relación entre Anthropic y la Casa Blanca resalta la volatilidad del entorno regulatorio actual.
Tabla: Eventos clave que condujeron a la lista negra
| Fecha/Hora | Descripción del evento | Actor clave |
|---|---|---|
| Julio 2025 | Anthropic firma contrato piloto inicial de $200M. | DOD / Anthropic |
| 26 Feb, 2026 | El Pentágono emite un ultimátum para "acceso sin restricciones". | Sec. Defensa Hegseth |
| 27 Feb, 2026 | Anthropic rechaza demandas; incumple plazo de 5:01 PM. | CEO Dario Amodei |
| 27 Feb, 2026 | Trump ordena prohibición federal; Hegseth emite etiqueta de "Riesgo". | Casa Blanca |
| 28 Feb, 2026 | OpenAI anuncia acuerdo con el "Departamento de Guerra". | Sam Altman |
| 28 Feb, 2026 | Anthropic promete desafío legal contra la designación. | Equipo Legal de Anthropic |
A medida que el polvo se asienta en esta semana caótica, el mensaje de Washington es inequívoco: en la carrera por la supremacía de la IA, el gobierno de EE. UU. exige sumisión de sus proveedores. OpenAI ha optado por adaptarse, creando un marco que le permite servir al "Departamento de Guerra" mientras afirma mantener su misión de seguridad. Anthropic, al mantenerse firme en sus principios, enfrenta ahora todo el peso del aparato federal.
El resultado del desafío legal de Anthropic probablemente definirá los límites de la autonomía corporativa en la era de la IA de seguridad nacional. Por ahora, sin embargo, el Pentágono ha tomado su decisión y OpenAI ha dado un paso hacia el vacío.