
En una revelación que expone el abismo cada vez más profundo entre las directivas políticas de Washington y las realidades operativas de la guerra moderna, los informes confirman que el ejército de los EE. UU. (US military) dependió en gran medida de la IA Claude (Claude AI) de Anthropic durante los ataques aéreos masivos del sábado contra Irán. Este uso ocurrió apenas unas horas después de que el presidente Donald Trump emitiera una orden ejecutiva (Executive Order) de gran alcance que prohibía la herramienta en todas las agencias federales.
La operación, que tuvo como objetivo sitios de misiles iraníes clave e infraestructura de mando y control, se ejecutó con una precisión atribuida en parte a las evaluaciones de inteligencia avanzada procesadas por Claude. El incidente pone de relieve una contradicción evidente: la misma tecnología designada como un "riesgo para la seguridad nacional" por el Comandante en Jefe el viernes por la noche fue, el sábado por la mañana, fundamental para ejecutar uno de los enfrentamientos militares más significativos de la década.
La secuencia de eventos que condujeron a los ataques ilustra la fricción entre la rápida integración tecnológica y la gobernanza burocrática. El viernes 27 de febrero de 2026, la Casa Blanca intensificó su disputa de meses con Anthropic. Citando la negativa de la empresa a eliminar las "líneas rojas" éticas con respecto a la fuerza letal autónoma, el presidente Trump ordenó el cese inmediato de todos los contratos gubernamentales con la firma de IA con sede en San Francisco.
El secretario de Defensa Pete Hegseth reforzó esta directiva a última hora de la tarde del viernes, designando formalmente a Anthropic como un "riesgo para la cadena de suministro", una clasificación reservada históricamente para adversarios extranjeros como Huawei. Sin embargo, mientras el sol salía sobre Oriente Medio el sábado, el Mando Central de los EE. UU. (US Central Command - CENTCOM) ya estaba inmerso en la fase operativa de los ataques, utilizando el software prohibido para procesar datos del campo de batalla en tiempo real.
La siguiente tabla describe las directivas y acciones contradictorias que definieron esta caótica ventana de 24 horas:
Directiva frente a realidad: El conflicto de 24 horas
---|---|----
Directiva de política (viernes)|Realidad operativa (sábado)|Resultado
Orden presidencial: Cese inmediato de todas las herramientas de Anthropic.|Uso de CENTCOM: Uso continuado de Claude para inteligencia en tiempo real.|Violación directa de la Orden Ejecutiva (Executive Order) durante el combate activo.
Clasificación del DoD: "Riesgo para la cadena de suministro" y "Amenaza a la seguridad nacional".|Dependencia en el campo de batalla: Utilizada para la identificación de objetivos y simulación de escenarios.|Dependencia demostrada de tecnología "prohibida" para el éxito de la misión.
Estado del proveedor: Se ordenó a todos los contratistas romper vínculos.|Nivel de integración: Profundamente arraigada en los flujos de trabajo de mando.|Eliminación inmediata considerada operativamente imposible.
Según fuentes de defensa, la aplicación específica de Claude durante los ataques a Irán (Iran strikes) fue mucho más allá de las tareas administrativas básicas. Según los informes, el modelo de IA se utilizó para sintetizar vastas cantidades de imágenes satelitales, inteligencia de señales (SIGINT - Signals Intelligence) y datos de fuente abierta para identificar objetivos viables dentro de la compleja red de defensa aérea de Irán.
Fuentes internas militares sugieren que la capacidad de Claude para procesar datos "no estructurados" dio a los planificadores una ventaja de velocidad crítica. En las horas previas al ataque, la IA ayudó en:
La dependencia de Claude para estas aplicaciones letales contradice directamente los propios Términos de Servicio de Anthropic, que prohíben estrictamente el uso de sus modelos para "fines violentos" o el "desarrollo de armas". Esto sugiere que el Pentágono (Pentagon) podría haber estado utilizando una versión "con jailbreak" o local del modelo, o simplemente ignorando las restricciones éticas del proveedor en el fragor de la batalla.
La prohibición emitida por el presidente Trump no fue meramente procedimental sino ideológica. La administración ha criticado con frecuencia a Anthropic por su enfoque de "IA constitucional" (Constitutional AI), que incorpora principios de seguridad que la Casa Blanca considera impedimentos "woke" para el dominio militar estadounidense.
En Truth Social, el presidente arremetió contra la empresa calificándola de organización de "izquierda radical", argumentando que su negativa a conceder al Pentágono acceso sin restricciones a su código constituía una traición. La postura de la administración es clara: en tiempos de guerra, el ejército de los EE. UU. debe tener un control absoluto sobre su arsenal digital, sin las trabas de los escrúpulos morales de los ingenieros de Silicon Valley.
Esta postura política culminó en el ultimátum del viernes entregado por el secretario Hegseth. La demanda era simple: Anthropic debe renunciar a sus "líneas rojas", específicamente a aquellas que impiden el ataque autónomo sin supervisión humana, o enfrentarse a una lista negra federal total. Cuando el CEO Dario Amodei se negó, se firmó la prohibición.
El incidente ha desencadenado una crisis silenciosa pero intensa dentro del Pentágono. Mientras que el liderazgo político bajo el mando de Hegseth está alineado con la prohibición del presidente, el liderazgo uniformado y los comandantes operativos se enfrentan a una realidad diferente. Para ellos, las herramientas de IA como Claude se han vuelto tan esenciales como el GPS.
"No se puede simplemente 'desinstalar' una capa de inteligencia fundamental seis horas antes de un ataque", señaló un analista de defensa. "La Casa Blanca trató esto como borrar una aplicación de un teléfono, pero en realidad, es más como arrancar el cableado de una casa mientras las luces están encendidas".
Esta desconexión sugiere que, si bien existe la voluntad política de alejarse de los proveedores de IA "éticamente limitados", la transición técnica es mucho más lenta. La consecuencia inmediata ha sido una carrera de los competidores por llenar el vacío, con informes de que OpenAI está finalizando un acuerdo clasificado para desplegar sus modelos dentro de los sistemas del DoD (Department of Defense) apenas unas horas después de que se anunciara la prohibición de Anthropic.
Los eventos de este fin de semana sirven como un caso de estudio crítico para el futuro de la gobernanza de la IA. La "Paradoja de Anthropic", donde una herramienta es simultáneamente un riesgo de seguridad prohibido y un activo crítico para el combate, expone la fragilidad de las políticas actuales de adquisición de IA.
Las conclusiones clave para la industria de la defensa incluyen:
Mientras el polvo se asienta sobre los objetivos en Irán, la batalla en Washington apenas comienza. Se espera que la administración inicie una investigación sobre el desafío del CENTCOM a la prohibición, lo que podría conducir a consejos de guerra o renuncias. Sin embargo, la victoria silenciosa pertenece al algoritmo: independientemente de la política, la IA estaba en el proceso y funcionó.
Los ataques de los EE. UU. a Irán han remodelado el panorama geopolítico, pero también han trazado una nueva línea de batalla en el sector tecnológico nacional. El uso de la IA Claude (Claude AI) de Anthropic en violación directa de una orden presidencial demuestra que, en la era moderna, la capacidad tecnológica a menudo anula la autoridad política.
Para Creati.ai, esto marca un punto de inflexión. La era de la IA de "doble uso" (dual-use AI), donde el mismo modelo escribe poesía y planifica ataques aéreos, puede estar llegando a su fin. En su lugar, estamos presenciando la bifurcación de la industria en IA "segura para civiles" y herramientas de "grado militar", con el gobierno de los EE. UU. exigiendo que sus soldados de silicio sigan órdenes con la misma ceguera que los humanos.