
En un giro dramático que subraya la fricción de alto riesgo entre Silicon Valley y Washington, el CEO de Anthropic, Dario Amodei, ha reanudado según se informa las negociaciones con altos funcionarios del Pentágono. Este acontecimiento se produce pocos días después de que el Departamento de Defensa (DoD) designara formalmente a la startup de seguridad de la IA como un riesgo en la cadena de suministro (Supply Chain Risk)—una clasificación severa reservada típicamente para adversarios extranjeros—y estableciera una asociación rival con OpenAI.
Según fuentes cercanas al asunto, Amodei está participando actualmente en discusiones de "último recurso" con Emil Michael, el Subsecretario de Defensa para Investigación e Ingeniería. El objetivo es lograr un compromiso que permita a Anthropic retener sus contratos de defensa sin capitular totalmente en las salvaguardas éticas que desencadenaron la ruptura inicial.
El contexto de estas conversaciones renovadas es un movimiento sin precedentes por parte del DoD. Tras el colapso de las negociaciones iniciales el pasado viernes, el Secretario de Defensa, Pete Hegseth, procedió a calificar a Anthropic como un "riesgo en la cadena de suministro". Esta designación actúa efectivamente como una lista negra, prohibiendo no solo los contratos directos con el Pentágono, sino también prohibiendo a cualquier contratista o proveedor de defensa realizar actividad comercial con Anthropic.
Para una empresa tecnológica con sede en EE. UU., esta etiqueta es catastrófica. Amenaza con separar a Anthropic de un vasto ecosistema de socios gubernamentales y podría enfriar la inversión privada al señalar que la empresa está en conflicto con los intereses de seguridad nacional.
El conflicto se centra en el lenguaje contractual específico sobre el uso de la IA. Anthropic se ha negado firmemente a eliminar las cláusulas que prohibirían al ejército utilizar sus modelos Claude para la vigilancia doméstica masiva (Mass domestic surveillance) y armas autónomas letales (Lethal autonomous weapons). El Pentágono, por el contrario, ha exigido la eliminación de estas restricciones, insistiendo en el derecho a utilizar la tecnología para "todos los fines lícitos".
Según se informa, la ruptura de las conversaciones anteriores dependió de una sola frase específica. Los memorandos internos indican que el DoD ofreció aceptar los términos más amplios de Anthropic solo si la empresa eliminaba una cláusula que restringía el "análisis de datos adquiridos de forma masiva" (analysis of bulk acquired data).
Amodei vio esta petición con profunda sospecha, interpretándola como un vacío legal que permitiría los mismos escenarios de vigilancia masiva que la empresa busca prevenir. "Encontramos eso muy sospechoso", escribió Amodei en una nota al personal, caracterizando la demanda del gobierno como una línea roja que la empresa no podía cruzar en buena conciencia.
La tensión se vio agravada por la animosidad personal. Emil Michael, el funcionario que ahora se sienta frente a Amodei, criticó públicamente al CEO en las redes sociales la semana pasada, acusándolo de tener un "complejo de Dios" por retener tecnología de los esfuerzos de defensa nacional. La reanudación de las conversaciones sugiere que los instintos pragmáticos de supervivencia empresarial están obligando a una desescalada de esta retórica.
Mientras Anthropic se mantuvo firme en sus principios éticos, su principal competidor, OpenAI, se movió rápidamente para capitalizar el vacío. A las pocas horas de la ruptura entre Anthropic y el Pentágono, el CEO de OpenAI, Sam Altman, anunció una nueva asociación con el DoD.
El acuerdo de OpenAI supuestamente se alinea con el requisito de "todos los fines lícitos" del Pentágono. Si bien OpenAI sostiene que sus estándares de seguridad siguen siendo robustos, Amodei ha sido duramente crítico con este movimiento, describiendo las afirmaciones de seguridad de su rival en este contexto como "teatro de seguridad" y "mendaces".
La divergencia en la estrategia ha creado una clara bifurcación en el panorama de la defensa de la IA:
Comparación de gigantes de la IA en el sector defensa (marzo de 2026)
| Empresa | Postura clave sobre contratos de defensa | Estado actual en el Pentágono |
|---|---|---|
| Anthropic | Se niega a eliminar cláusulas antivigilancia; bloquea específicamente el "análisis de datos masivos". | Designada como "Riesgo en la cadena de suministro"; intentando renegociar. |
| OpenAI | Acepta el estándar de "todos los fines lícitos"; confía en su "pila de seguridad" interna. | Contrato activo firmado; reemplazando a Anthropic en flujos de trabajo clave. |
| Google DeepMind | Participación cautelosa; se centra en ciberseguridad y logística en lugar de operaciones cinéticas. | Mantiene contratos heredados; observando las consecuencias actuales. |
Las negociaciones reanudadas entre Amodei y Michael señalan que ninguna de las partes puede beneficiarse de un distanciamiento permanente. Para el Pentágono, perder el acceso a los modelos Claude de Anthropic—que son ampliamente reconocidos por su interpretabilidad y capacidades de razonamiento—reduce la diversidad de su arsenal de IA. Para Anthropic, la etiqueta de "riesgo en la cadena de suministro" es una amenaza financiera existencial que podría descarrilar su valoración de 60.000 millones de dólares y alienar a los socios comerciales cautelosos de entrar en conflicto con el DoD.
Los analistas de la industria sugieren que un compromiso podría implicar "excepciones", donde los modelos de Anthropic sean aprobados para tareas específicas de logística e inteligencia no relacionadas con el combate, mientras se mantienen protegidos de sistemas de vigilancia o armamento autónomo. Sin embargo, la confianza sigue siendo baja.
El resultado de estas conversaciones probablemente sentará un precedente sobre cómo el gobierno de los EE. UU. coacciona o colabora con los laboratorios privados de IA. Si Anthropic se ve obligada a capitular para eliminar la designación de la lista negra, envía un mensaje escalofriante a la industria: que las líneas rojas éticas pueden ser insostenibles cuando entran en conflicto con las demandas del estado. Por el contrario, si Amodei logra una concesión, podría validar el enfoque de IA constitucional (Constitutional AI) como un modelo de negocio viable incluso en el sector de la defensa.
Hasta la mañana del viernes, la designación permanece activa y el sector tecnológico espera para ver si la etiqueta de "riesgo" puede revertirse antes de que el daño sea permanente.