
El creciente conflicto entre Anthropic y el Departamento de Defensa (DoD) de los EE. UU. ha alcanzado un punto de inflexión crítico, subrayando la profunda fricción entre la gobernanza privada de la Inteligencia Artificial (AI) y los requisitos de la estrategia de defensa moderna. En marzo de 2026, el Pentágono designó oficialmente a la firma de inteligencia artificial con sede en San Francisco como un "riesgo para la cadena de suministro" (supply chain risk). Esta medida sin precedentes —que efectivamente excluye a Anthropic de ciertos contratos de defensa— sirve como un caso de estudio de alto riesgo en la lucha más amplia por definir los límites del despliegue de la AI en operaciones militares.
En el corazón del conflicto se encuentra un desacuerdo fundamental sobre la autonomía y la supervisión. Anthropic, conocida por su enfoque en la seguridad de la AI y la IA constitucional (Constitutional AI), ha buscado mantener "líneas rojas" específicas respecto al uso de su modelo insignia, Claude. Estas restricciones, según la empresa, prohíben la aplicación de la tecnología en escenarios que involucren vigilancia doméstica masiva o sistemas de armas letales totalmente autónomos. El Pentagon, sin embargo, ha adoptado una postura firme, exigiendo que los contratistas operen bajo un marco de "todo uso legal", argumentando que las rígidas limitaciones éticas impuestas por la empresa obstaculizan la flexibilidad operativa y la dominancia estratégica de las fuerzas armadas.
La designación de un importante proveedor de tecnología nacional como un "riesgo para la cadena de suministro" es una medida rara vez vista en el sector tecnológico, típicamente reservada para entidades asociadas con adversarios extranjeros. El Pentágono invocó autoridades legales específicas, incluyendo el 10 U.S.C. § 3252 y la Ley de Seguridad de la Cadena de Suministro de Adquisiciones Federales de 2018 (FASCSA), para formalizar la decisión.
Para el Departamento de Defensa, el problema no es solo de política; se trata de la confiabilidad de las herramientas utilizadas por los combatientes. Los funcionarios de defensa han expresado su preocupación de que un modelo de AI con restricciones éticas "integradas" pueda actuar de manera impredecible en el campo. Si un sistema está diseñado para rechazar comandos basados en su propia Constitución de seguridad interna, los militares argumentan que podría fallar en un momento crítico, "contaminando" efectivamente la cadena de suministro con activos ineficaces o poco confiables.
Las repercusiones administrativas han sido inmediatas. Tras la directiva, varias agencias federales han comenzado el proceso de eliminación gradual de la tecnología de Anthropic, un período de transición que se estima durará aproximadamente seis meses. Si bien el impacto en el negocio comercial general de Anthropic sigue siendo limitado —ya que la gran mayoría de sus ingresos proviene de asociaciones con el sector privado—, el peso simbólico y estratégico de la exclusión es significativo.
La retórica en torno a la disputa se ha vuelto cada vez más aguda. Emil Michael, Director de Tecnología del Pentágono y Subsecretario de Defensa para Investigación e Ingeniería, criticó recientemente la postura de Anthropic, describiendo célebremente la insistencia de la empresa en sus propios protocolos de seguridad como "una locura" (bananas) durante unas declaraciones públicas.
La perspectiva de Michael refleja un sentimiento más amplio dentro de la administración actual: que los laboratorios privados de AI no deben dictar los parámetros del compromiso militar. Durante las entrevistas, Michael enfatizó que permitir que una empresa de AI tenga poder de veto sobre cómo el ejército utiliza sus herramientas socavaría la cadena de mando. Caracterizó las negociaciones como si hubieran llegado a un punto muerto, afirmando firmemente que el Pentágono está "siguiendo adelante" y requiere socios que estén alineados con el alcance total de los objetivos militares, en lugar de aquellos que buscan imponer su propio marco moral en las operaciones de defensa.
| Característica | Posición de Anthropic | Perspectiva del Pentágono |
|---|---|---|
| Política de uso de AI | Insiste en "líneas rojas" estrictas que prohíben armas autónomas y vigilancia masiva | Exige acceso de "todo uso legal" para garantizar una flexibilidad operativa total |
| Control Operativo | Aboga por un despliegue de AI seguro y alineado con el ser humano para evitar un uso indebido catastrófico | Considera las limitaciones impuestas por la empresa como una interferencia en el mando militar |
| Estado de la Cadena de Suministro | Cuestiona la designación, citándola como un exceso de autoridad ejecutiva | Cita el 10 U.S.C. § 3252, alegando que la tecnología que no cumple representa un riesgo |
| Objetivo de la Industria | Se enfoca en el desarrollo de una AI segura, confiable y constitucional | Prioriza la "dominancia de la AI" y la velocidad en los entornos competitivos globales |
En respuesta a la designación, Anthropic ha iniciado acciones legales en un tribunal federal. La empresa argumenta que la medida del Pentágono no está justificada y plantea cuestiones constitucionales sobre la libertad de expresión y el debido proceso. Al solicitar una orden de restricción temporal y una medida cautelar, Anthropic pretende detener la implementación de la designación de riesgo para la cadena de suministro mientras el caso avanza.
Los expertos legales que observan el caso sugieren que probablemente pondrá a prueba los límites del poder ejecutivo en el ámbito de la adquisición de AI. La cuestión legal central es si el gobierno puede incluir en una lista negra a una empresa estadounidense por sus políticas internas de seguridad cuando dichas políticas no violan las leyes existentes, sino que las superan. Si los tribunales fallan a favor del Pentágono, podría sentar un poderoso precedente para las futuras relaciones entre el gobierno y la tecnología, obligando potencialmente a las empresas de AI a alinear sus productos comerciales por completo con los requisitos militares para mantener la elegibilidad para contratos federales.
Este enfrentamiento no es meramente un asunto bilateral entre una empresa y un departamento gubernamental; es un anticipo de los desafíos que enfrentará la industria global de la AI a medida que se acelere su integración en infraestructuras críticas. A medida que los modelos de AI se arraiguen profundamente en todo, desde la logística y el análisis de inteligencia hasta los sistemas de defensa antimisiles, el deseo de control del gobierno chocará inevitablemente con el deseo del sector privado de seguridad y gestión de la percepción pública.
Varias implicaciones clave para la industria en general han surgido de este conflicto:
A medida que se asienta el polvo sobre las acciones administrativas inmediatas, la disputa entre Anthropic y el Pentágono probablemente será recordada como el momento en que terminó la "fase de luna de miel" de la integración de la AI y la defensa. La era de colaboración laxa, caracterizada por la experimentación rápida y el beneficio mutuo, está transitando hacia un período de regulación rígida y alineación estratégica.
Para las partes interesadas en el ecosistema de la AI, la lección es clara: las consideraciones de seguridad nacional son ahora el motor principal de la política de AI. Ya sea que los tribunales confirmen la decisión del Pentágono o fuercen un compromiso, la industria ha sido advertida. La capacidad de innovar y escalar ya no es suficiente; para seguir siendo un actor en los niveles más altos del gobierno, las empresas de AI deben lidiar con la realidad de que su software puede ser desplegado finalmente en entornos —y para fines— que existen mucho más allá del alcance de sus estatutos de seguridad originales. A medida que la carrera por la dominancia de la AI continúa intensificándose a nivel global, queda la duda de si los EE. UU. pueden integrar con éxito el software más avanzado del mundo sin comprometer los mismos valores que estas tecnologías fueron diseñadas para proteger.