
En una escalada histórica de tensiones entre Silicon Valley y Washington, la potencia de IA Anthropic ha presentado oficialmente una demanda contra el gobierno de los Estados Unidos. La acción legal se produce apenas unos días después de que el Pentágono —denominado por la administración actual como el Departamento de Guerra— designara formalmente a la empresa con sede en San Francisco como un "riesgo para la cadena de suministro" (Supply Chain Risk). Esta designación, históricamente reservada para entidades extranjeras vinculadas a naciones adversarias, marca la primera vez que una empresa tecnológica estadounidense es blanco de tal clasificación, preparando el escenario para una batalla legal definitoria sobre el futuro de la inteligencia artificial en la seguridad nacional.
La demanda, anunciada por el CEO de Anthropic, Dario Amodei, busca una orden judicial inmediata para revocar la designación. Amodei califica la medida del gobierno como "legalmente errónea" y una medida punitiva diseñada para coaccionar a la empresa para que abandone sus barreras de seguridad ética. En el centro del conflicto se encuentra un desacuerdo fundamental sobre la aplicación militar de la IA: mientras que el Pentágono exige "todo uso legal" de la tecnología, Anthropic se ha negado firmemente a permitir que sus modelos Claude sean desplegados para vigilancia doméstica masiva o sistemas de armas letales totalmente autónomos.
El concepto de una designación de "riesgo para la cadena de suministro" se estableció originalmente para proteger la infraestructura de los EE. UU. del espionaje y el sabotaje extranjero. Los objetivos anteriores han incluido a gigantes de las telecomunicaciones chinos como Huawei y ZTE, así como a la empresa rusa de ciberseguridad Kaspersky Lab. Aplicar esta etiqueta a Anthropic —una empresa fundada por antiguos ejecutivos de OpenAI con un mandato de seguridad de la IA (AI Safety)— representa un giro radical en la política de defensa de los EE. UU.
Bajo los términos de la designación, emitida el 4 de marzo de 2026, el Departamento de Defensa está prohibiendo efectivamente a sus contratistas y socios utilizar la tecnología de Anthropic para trabajos relacionados con el ejército. El Secretario de Defensa, Pete Hegseth, ha enmarcado la decisión como un paso necesario para garantizar que las fuerzas armadas de los EE. UU. no se vean limitadas por el "altruismo defectuoso" de las corporaciones privadas.
En su presentación, Amodei sostiene que el gobierno no ha logrado demostrar ninguna vulnerabilidad de seguridad real en los sistemas de Anthropic. En cambio, la empresa sostiene que el "riesgo" citado por el Pentágono es ideológico más que técnico: una negativa a ceder ante demandas que eliminarían la supervisión humana de los ciclos de toma de decisiones letales.
Implicaciones clave de la designación:
La ruptura entre Anthropic y el Pentágono no ocurrió de la noche a la mañana. Es la culminación de meses de negociaciones fallidas con respecto a la renovación y expansión de los contratos de defensa. Los puntos de fricción son específicos e ideológicos. Anthropic ha integrado principios de "IA constitucional (Constitutional AI)" en sus modelos, que codifican negativas para solicitudes que involucren violaciones de derechos humanos, tortura o la automatización de la fuerza letal sin autorización humana.
El Pentágono, persiguiendo una estrategia de "Dominancia de la IA" (AI Dominance), ha argumentado que estas negativas codificadas representan un riesgo operativo. En simulaciones de combate de alto riesgo o análisis de inteligencia rápidos, el Departamento de Defensa sostiene que una IA que cuestiona las órdenes basándose en la ética corporativa es un lastre.
La siguiente tabla resume las posiciones divergentes que llevaron a este estancamiento:
Comparación de posturas: Anthropic vs. El Pentágono
---|---|----
Filosofía central|Seguridad de la IA y restricciones de "IA constitucional (Constitutional AI)"|"Todo uso legal" sin restricciones para la dominancia
Líneas rojas|Sin vigilancia masiva; sin armas autónomas|Sin restricciones corporativas en la aplicación militar
Visión de seguridad|Las funciones de seguridad previenen el mal uso y los accidentes|Los mecanismos de rechazo crean responsabilidades operativas
Estado del contrato|Se negó a firmar sin exenciones éticas|Proveedor designado como "Riesgo para la cadena de suministro"
Resultado|Presentó una demanda citando extralimitación administrativa|Se movió para reemplazar al proveedor con competidores
La designación ha causado conmoción en el sector tecnológico estadounidense. Expertos legales y analistas de la industria advierten que el uso de las autoridades de la cadena de suministro para castigar desacuerdos de política interna podría desestabilizar la sólida asociación entre el gobierno de los EE. UU. y el sector tecnológico privado, una asociación que ha sido el motor de la innovación estadounidense durante décadas.
"Esta es una militarización de la ley de adquisiciones", afirmó un analista senior de políticas en el Centro de Estudios Estratégicos e Internacionales. "Si el gobierno puede etiquetar a una empresa estadounidense como un riesgo para la seguridad nacional simplemente porque no construirá un tipo específico de arma, todas las empresas de tecnología de doble uso en Estados Unidos están ahora bajo aviso".
Sin embargo, el vacío dejado por Anthropic ya está siendo llenado. Coincidiendo con la ruptura de las relaciones entre Anthropic y el Pentágono, la firma rival OpenAI anunció una nueva y amplia asociación con el Departamento de Defensa. OpenAI ha aceptado términos que, según se informa, permiten una aplicación militar más amplia de sus modelos, aunque la empresa insiste en que mantiene barreras de seguridad contra el mal uso. Esta divergencia ha creado un panorama fracturado en Silicon Valley: un bando dispuesto a alinearse plenamente con las prioridades de defensa para asegurar contratos gubernamentales masivos, y otro, liderado por Anthropic, que intenta mantener la independencia ética incluso al costo de ser incluido en la lista negra federal.
La queja legal de Anthropic se basa en la Ley de Procedimiento Administrativo (Administrative Procedure Act, APA) y disposiciones específicas sobre la seguridad de la cadena de suministro. Los abogados de la empresa argumentan que el estatuto requiere que el gobierno utilice los "medios menos restrictivos" necesarios para mitigar un riesgo. Al saltar inmediatamente a una designación de "riesgo para la cadena de suministro" —la "opción nuclear" de las regulaciones de adquisiciones—, el gobierno ignoró remedios menores, como simplemente no renovar contratos específicos.
Además, Amodei ha declarado públicamente que la gran mayoría de los clientes de Anthropic no se ven afectados. "Se aplica claramente solo al uso de Claude por parte de clientes como parte directa de contratos con el Departamento de Guerra, no a todo el uso de Claude por parte de clientes que tengan tales contratos", escribió Amodei en un mensaje tranquilizador para los clientes comerciales. A pesar de esto, el daño reputacional de ser agrupado con adversarios extranjeros es severo.
La demanda también alega que la designación fue una represalia. Los memorandos internos citados en la presentación sugieren que los funcionarios de la administración estaban frustrados por la falta de apoyo político de Anthropic y sus críticas vocales a las agresivas políticas de desregulación de la IA de la administración.
A medida que el caso se dirige a la corte federal, lo que está en juego va mucho más allá de los ingresos gubernamentales de Anthropic. El fallo probablemente definirá el alcance del poder del gobierno de los EE. UU. para obligar a las empresas privadas a asistir en operaciones militares.
Si los tribunales confirman la designación del Pentágono, se afirma una doctrina donde los intereses de seguridad nacional prevalecen sobre el gobierno corporativo y los estatutos éticos. Si Anthropic prevalece, podría establecer un escudo legal para las empresas tecnológicas, permitiéndoles participar en el mercado gubernamental mientras mantienen su propia brújula moral.
Por ahora, la industria observa con aliento contenido. El resultado determinará si la "Seguridad de la IA" sigue siendo un modelo de negocio viable para las empresas adyacentes a la defensa, o si la alineación con los objetivos militares del estado se convierte en el precio de entrada no negociable.
Cronología de eventos que llevaron a la demanda:
Este conflicto representa la maduración de la industria de la IA. Ya no es solo una curiosidad científica o una herramienta de productividad, la IA avanzada ahora se ve como un activo nacional crítico y un arma. La resistencia de Anthropic marca el primer intento significativo por parte de un creador de esta tecnología de afirmar el control sobre su destino final contra la voluntad del estado.