
En un momento decisivo para el futuro de la inteligencia artificial (IA) en la defensa nacional, el Departamento de Defensa ha emitido un duro ultimátum a la startup de seguridad de la IA (AI safety) Anthropic. El Secretario de Defensa, Pete Hegseth, ha dado a la empresa de plazo hasta este viernes, 27 de febrero de 2026, para conceder al ejército de los EE. UU. acceso sin restricciones a su modelo insignia de IA Claude o enfrentarse a una severa intervención federal.
La confrontación, que se intensificó tras una tensa reunión a puerta cerrada el martes entre el Secretario Hegseth y el CEO de Anthropic Dario Amodei, se centra en un desacuerdo fundamental respecto a las "salvaguardas" (guardrails) éticas integradas en los sistemas de IA. El Pentágono amenaza con invocar la Ley de Producción de Defensa (Defense Production Act, DPA) o calificar a Anthropic como un "riesgo para la cadena de suministro (supply chain risk)"—una designación que podría incluir efectivamente a la empresa en una lista negra del mercado federal—a menos que elimine las restricciones que impiden que su software se utilice para armas autónomas y vigilancia nacional.
Aquí en Creati.ai, estamos siguiendo de cerca este enfrentamiento, ya que representa el choque más significativo hasta la fecha entre los laboratorios de IA de Silicon Valley centrados en la seguridad y los imperativos operativos del aparato de seguridad nacional de los EE. UU.
En el corazón del conflicto está la negativa de Anthropic a modificar sus Condiciones de Servicio para aplicaciones militares. Aunque Anthropic ha asegurado un contrato de 200 millones de dólares con el Departamento de Defensa y su modelo Claude es actualmente el único modelo de lenguaje extenso (Large Language Model, LLM) aprobado para su uso en redes clasificadas del Pentágono, la empresa ha trazado "líneas rojas" firmes sobre cómo se puede desplegar su tecnología.
Específicamente, Anthropic restringe el uso de Claude para:
El Secretario Hegseth y los funcionarios del Pentágono argumentan que estas restricciones corporativas privadas son impedimentos innecesarios para la seguridad nacional. La postura del Departamento de Defensa es que sus operaciones ya se rigen por la Constitución de los EE. UU. y las leyes federales, lo que hace que las capas éticas adicionales de Anthropic sean redundantes y obstruccionistas.
Según fuentes familiarizadas con la reunión del martes, Hegseth le dijo explícitamente a Amodei que el ejército requiere acceso a Claude para "todos los fines legales", sin "limitaciones ideológicas". Esto se alinea con la iniciativa más amplia de Hegseth para garantizar que los sistemas de IA militar sean letales y sin trabas, una postura que resumió a principios de este año con la declaración de que la IA del Pentágono "no será woke".
La amenaza entregada a Anthropic no tiene precedentes en el sector comercial de la IA. Si el plazo del viernes pasa sin concesiones, el Pentágono ha esbozado dos posibles cursos de acción, ambos con consecuencias devastadoras para el modelo de negocio de Anthropic.
La Ley de Producción de Defensa de 1950 otorga al Presidente una amplia autoridad para obligar a las industrias nacionales a priorizar los contratos gubernamentales y asignar recursos para la defensa nacional. Utilizada históricamente durante tiempos de guerra o emergencias como la pandemia de COVID-19, invocar la DPA para obligar a una empresa de software a alterar el código de seguridad de su producto sería una aplicación legal novedosa. Esencialmente, el gobierno podría exigir legalmente que Anthropic proporcione una versión sin censura de Claude, anulando la constitución de seguridad de la empresa.
Quizás aún más perjudicial es la amenaza de calificar a Anthropic como un "riesgo para la cadena de suministro". Esta designación se reserva típicamente para adversarios extranjeros o entidades comprometidas (similar a las acciones tomadas contra Huawei o Kaspersky).
Si se aplica a Anthropic, esta etiqueta:
La urgencia de la demanda del Pentágono parece estar ligada a fricciones operativas recientes. Los informes indican que el ejército de los EE. UU. utilizó a Claude durante una redada de operaciones especiales en enero de 2026 que resultó en la captura del presidente venezolano, Nicolás Maduro. Aunque la operación fue exitosa, surgieron disputas posteriores sobre si el uso de la IA violaba las políticas de uso de Anthropic, lo que llevó a lo que los funcionarios describieron como un "déficit de confianza".
Además, el panorama de la IA militar está cambiando rápidamente. Mientras Anthropic se demora, sus competidores se mueven para llenar el vacío. Se informa que xAI de Elon Musk ha aceptado los términos de "cualquier uso legal" del Pentágono, y sus modelos fueron autorizados recientemente para trabajos clasificados. Del mismo modo, OpenAI y Google compiten activamente por una mayor parte del presupuesto de defensa.
Para Anthropic, el dilema es existencial. El CEO Dario Amodei ha construido la reputación de la empresa sobre el desarrollo basado en la "seguridad primero" (safety-first). Ceder a la demanda de armamento autónomo alienaría a su personal de investigación principal y contradiría su misión fundacional. Sin embargo, perder al gobierno de los EE. UU. como cliente—y enfrentarse a la DPA—podría paralizar su posición financiera y su acceso al mercado.
Para aclarar lo que está en juego con el plazo de este viernes, desglosamos las posturas opuestas a continuación.
Tabla: Demandas del Pentágono frente a la política de Anthropic
---|---|----
Requisito central|Postura del Pentágono|Postura de Anthropic
Límites de uso|Exige "todos los casos de uso legal", incluidas las aplicaciones de combate.|Prohíbe los ataques autónomos y la vigilancia masiva.
Supervisión|Se basa en la ley, la Constitución y la cadena de mando de los EE. UU.|Se basa en protocolos internos de seguridad de "IA constitucional" (Constitutional AI).
Control humano|Abierto a sistemas autónomos si están legalmente autorizados.|Requiere "intervención humana" (human-in-the-loop) para todas las decisiones letales.
Consecuencia del fracaso|Invocación de la Ley de Producción de Defensa; lista negra de la cadena de suministro.|Pérdida potencial del contrato de 200 millones de dólares; daño a la reputación.
Estado|Busca la "supremacía operativa" sin limitaciones del proveedor.|Defiende el "escalado responsable" y los límites éticos.
El resultado de este enfrentamiento sentará un precedente permanente para la relación entre el gobierno de los EE. UU. y el sector privado de la IA. Si el Pentágono utiliza con éxito la DPA para eliminar las salvaguardas (guardrails) de seguridad, nacionalizaría efectivamente los estándares éticos de los modelos de IA utilizados para la defensa. Las empresas privadas ya no conservarían el derecho a rechazar el servicio para aplicaciones militares específicas basadas en objeciones morales.
Por el contrario, si Anthropic mantiene su posición y sobrevive a las consecuencias, establece que las capacidades de IA de primer nivel siguen siendo un mercado de vendedores, donde el proveedor dicta los términos del compromiso.
El plazo del viernes sirve como una coyuntura crítica. La industria tecnológica está esperando a ver si la dinámica de la era de transición Biden-Trump—donde la seguridad nacional triunfa agresivamente sobre la política corporativa—obligará a ceder al actor más idealista de Silicon Valley. Tal como están las cosas, Anthropic es el único laboratorio importante que se resiste a la integración total de su inteligencia en la maquinaria de guerra. Para el fin de semana, esa distinción podría dejar de existir.
Creati.ai continuará actualizando esta historia a medida que se acerque el plazo.