
Washington, D.C. — La tensión entre el movimiento ético de la IA de Silicon Valley y el estamento militar de los Estados Unidos ha llegado a un punto de ruptura. El CEO de Anthropic, Dario Amodei, ha sido convocado al Pentágono para una reunión de alto nivel con el Secretario de Defensa, Pete Hegseth, programada para finales de esta semana. La cumbre se produce en medio de informes de que el Departamento de Defensa (DoD, Department of Defense) —recientemente rebautizado por orden ejecutiva como el "Departamento de Guerra" (Department of War)— amenaza con designar a Anthropic como un "riesgo para la cadena de suministro" (supply chain risk). Tal etiqueta excluiría de facto a la empresa de los contratos federales y obligaría a los contratistas de defensa principales a romper vínculos con el creador de Claude.
El conflicto se centra en la negativa de Anthropic a relajar sus salvaguardas de "IA Constitucional" (Constitutional AI) para aplicaciones militares. Mientras el Pentágono busca un acceso "sin restricciones" a la IA generativa (Generative AI) para lo que considera "fines legítimos", Anthropic supuestamente ha bloqueado solicitudes específicas relacionadas con la fijación de objetivos de armas autónomas y capacidades de vigilancia nacional.
La amenaza de etiquetar a Anthropic como un "riesgo para la cadena de suministro" representa una escalada sin precedentes en la relación del gobierno con el sector privado de la IA. Reservada históricamente para adversarios extranjeros o proveedores comprometidos (como Kaspersky Lab o Huawei), esta designación tendría consecuencias comerciales catastróficas para Anthropic.
Fuentes cercanas a las negociaciones indican que el Secretario de Defensa Hegseth está frustrado por lo que percibe como una extralimitación corporativa. La postura del Pentágono es que, una vez que se adquiere una tecnología, su "uso legítimo" es determinado por el Comandante en Jefe y el Congreso, no por los Términos de Servicio de una empresa privada.
Si la designación se lleva a cabo, desencadenaría una desvinculación inmediata:
El catalizador de este enfrentamiento parece ser una operación clasificada llevada a cabo en enero de 2026. Informes de The Wall Street Journal y Axios revelaron que las fuerzas de operaciones especiales de EE. UU. utilizaron una versión personalizada de Claude —a la que se accedió a través del AIP de Palantir— para analizar inteligencia en tiempo real durante la misión que condujo a la captura del ex presidente venezolano Nicolás Maduro.
Aunque la operación se consideró un éxito, los ejecutivos de Anthropic supuestamente se vieron sorprendidos por la aplicación específica de su modelo, la cual argumentaron que violaba sus Estándares de Uso Universal con respecto a la "acción militar cinética" (kinetic military action) y la "intervención política". Cuando los ingenieros de Anthropic intentaron parchear el modelo para evitar usos similares en el futuro, los funcionarios del Pentágono vieron el movimiento como un acto de interferencia en las operaciones de seguridad nacional.
El subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, criticó públicamente la postura de la empresa a principios de esta semana. "El Congreso redacta los proyectos de ley, el Presidente los firma y las agencias los implementan", afirmó Michael. "No es democrático que un proveedor privado de software dicte las reglas de enfrentamiento para el ejército de los Estados Unidos. Necesitamos salvaguardas, sí, pero deben estar ajustadas para el combate, no para las relaciones públicas corporativas".
La brecha con Anthropic contrasta fuertemente con las relaciones cada vez más estrechas del Pentágono con otros gigantes de la IA. Bajo la nueva "Estrategia de Aceleración de la IA", el Departamento de Guerra ha pasado a integrar modelos que ofrecen menos puntos de fricción respecto a la autonomía letal y la vigilancia.
Tabla 1: Integración militar y postura política de los principales proveedores de IA
| Empresa | Modelo insignia | Estado de integración militar | Distinción clave de la política |
|---|---|---|---|
| Anthropic | Claude 3.5 Opus | En riesgo (Bajo revisión) | La estricta "IA Constitucional" prohíbe las armas autónomas y la vigilancia nacional. Se niega a renunciar a la responsabilidad por errores letales. |
| xAI | Grok 3 | Activa (Socio de GenAI.mil) | Alineación con la política "America First" (Estados Unidos primero). Promueve el uso sin restricciones para intereses de seguridad nacional. |
| OpenAI | GPT-5 | Activa (Fase piloto) | Políticas de uso modificadas para permitir aplicaciones de "seguridad nacional". Mantiene las prohibiciones sobre el desarrollo de armas pero permite el análisis operativo. |
| Gemini Ultra | Activa (Project Maven) | Profundamente integrada en logística y ciberdefensa. Se centra en sistemas "human-in-the-loop" (humano en el bucle) para mitigar preocupaciones éticas. |
En el corazón de este estancamiento hay una divergencia filosófica fundamental. Anthropic se fundó sobre la premisa de la seguridad de la IA (AI Safety), utilizando una "Constitución" para entrenar modelos para que sean útiles, inofensivos y honestos. Dario Amodei ha advertido frecuentemente sobre los "riesgos catastróficos" que plantea una IA no alineada, citando específicamente el potencial de la IA para reducir la barrera de entrada a las armas biológicas o los ciberataques.
Sin embargo, el Departamento de Guerra argumenta que en una era de "Guerra Fría 2.0", las limitaciones éticas autoimpuestas equivalen a un desarme unilateral. Con adversarios como China integrando agresivamente la IA en sus cadenas de ataque (kill chains), la doctrina del Secretario Hegseth enfatiza la velocidad y la letalidad. La iniciativa de la "fuerza de combate centrada en la IA" del Pentágono exige modelos que puedan procesar transmisiones de drones, generar soluciones de fijación de objetivos y ejecutar ciberofensivas sin "restricciones ideológicas".
Se espera que la próxima reunión entre Amodei y Hegseth sea contenciosa. Los analistas predicen tres posibles resultados:
Para la industria de la IA en general, el resultado de esta reunión sentará un precedente definitivo. Determinará si la "Seguridad de la IA" sigue siendo un principio rector para el despliegue de la tecnología, o si las necesidades de la defensa nacional acabarán anulando las constituciones éticas de Silicon Valley.