
En una revelación que subraya las crecientes complejidades de la gobernanza de la IA generativa (Generative AI) dentro del sector de defensa, han surgido informes que confirman que la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés) está utilizando activamente la herramienta de IA "Mythos" de Anthropic. Este despliegue se produce a pesar de la reciente inclusión de Anthropic por parte del Pentágono en una lista de riesgos de la cadena de suministro, lo que crea un punto de fricción notable entre las operaciones de inteligencia y la política de adquisiciones de defensa. Como la principal agencia encargada de la inteligencia de señales y la ciberseguridad, la decisión de la NSA de integrar modelos de IA de última generación señala una necesidad operativa urgente que, en algunos casos, puede priorizar la capacidad sobre la clasificación administrativa.
Anthropic, ampliamente reconocida por su énfasis en la "IA constitucional" y los modelos de lenguaje alineados con la seguridad, lanzó Mythos Preview como una herramienta generativa de alto rendimiento capaz de procesar grandes cantidades de datos de inteligencia con capacidades de razonamiento mejoradas. Para la comunidad de inteligencia, la promesa de tales herramientas es transformadora: pasar del procesamiento manual de datos a la síntesis automatizada y de alto nivel de informes dispares de múltiples fuentes.
Se cree que el despliegue interno de Mythos ayuda a los analistas de la NSA a navegar por flujos de datos burocráticos complejos e identificar patrones que los sistemas heredados tradicionales podrían pasar por alto. Sin embargo, la eficacia de la herramienta actúa como un arma de doble filo, contraponiendo su utilidad a la naturaleza opaca de sus datos de entrenamiento y su infraestructura corporativa.
La decisión del Pentágono de etiquetar a Anthropic como un "riesgo para la cadena de suministro" se basa en un marco riguroso, aunque rígido, diseñado para evaluar a los proveedores frente a posibles influencias extranjeras, preocupaciones sobre la soberanía de los datos y dependencias arquitectónicas. La clasificación no prohíbe explícitamente el uso de tales modelos, pero crea importantes obstáculos regulatorios para los componentes del Departamento de Defensa (DoD).
A continuación, se detalla una breve comparación entre los requisitos estándar de inteligencia y los hallazgos actuales de la cadena de suministro:
| Criterios de evaluación | Estándar de la cadena de suministro del DoD | Factores de riesgo observados |
|---|---|---|
| Soberanía de datos | Se requiere aislamiento total en la nube basado en EE. UU. | Transparencia de la infraestructura en la nube |
| Alineación ética | Modelos constitucionalmente conformes | Dependencia de conjuntos de datos de entrenamiento no evaluados |
| Política de adquisiciones | Lista negra o estado restringido | Integración de proveedores y asociaciones transfronterizas |
El acceso continuo de la NSA a las herramientas de Anthropic, a pesar de la designación del Pentágono, plantea preguntas fundamentales sobre cómo el gobierno de los EE. UU. gestiona la adopción de la IA. La NSA opera bajo un mandato diferente al del DoD en general, lo que a menudo requiere el uso de la tecnología más avanzada disponible para mantener una ventaja informativa sobre los adversarios a nivel estatal.
Los analistas de la industria sugieren que la NSA podría estar aprovechando despliegues de "jardín vallado" (donde la IA está aislada de redes externas) para mitigar los riesgos identificados por el Pentágono. Al desplegar Mythos en un entorno aislado (air-gapped) o altamente controlado, la agencia evita efectivamente los riesgos típicamente asociados con la IA generativa de terceros, como la fuga de datos o el envenenamiento de modelos, mientras sigue obteniendo los beneficios de la tecnología.
La discrepancia entre la NSA y el Pentágono con respecto al software de Anthropic representa una lucha más amplia dentro del gobierno federal de los EE. UU.: la necesidad urgente de estandarizar la adquisición de IA frente a la necesidad de mantener la agilidad tecnológica. Si las agencias de inteligencia se ven obligadas a elegir entre un estricto cumplimiento administrativo y la superioridad operativa, es casi seguro que favorecerán esta última, siempre que puedan implementar salvaguardas tecnológicas internas.
Además, esta situación sirve como catalizador para una posible reforma de políticas. Es probable que los futuros ciclos de adquisición cambien hacia la "Adopción ajustada al riesgo", donde el enfoque no sea solo si una empresa está en una lista negra, sino la arquitectura técnica de la implementación de la IA en sí. El movimiento de la NSA sugiere que la definición de "seguro" en la era de la IA generativa está evolucionando de una etiqueta binaria de "seguro/inseguro" a una evaluación dinámica basada en la configuración.
Es poco probable que la situación con respecto a la NSA y Mythos AI desaparezca discretamente. A medida que se intensifica el escrutinio político, la transparencia se convertirá en la moneda principal para los proveedores de IA que buscan contratos gubernamentales. Para Anthropic, el desafío será reconciliar su estructura corporativa y sus prácticas de desarrollo con las demandas cada vez más estrictas de las unidades de seguridad de la cadena de suministro del DoD.
En Creati.ai, observamos esta tensión como una evolución natural en el ciclo de vida de la tecnología disruptiva. La disposición de la NSA para utilizar esta tecnología destaca que, si bien existen riesgos, el potencial para aumentar la capacidad de inteligencia se ve como un imperativo que supera la cautela administrativa. De cara al futuro, la industria debe observar cómo el Pentágono adapta sus marcos de adquisición para incorporar mejor la naturaleza dinámica de la IA, asegurando que los protocolos de seguridad no sofoquen inadvertidamente las herramientas mismas necesarias para proteger a la nación.