
En un momento decisivo para el futuro de la política de Inteligencia Artificial (Artificial Intelligence - AI) en los Estados Unidos, el presidente Donald Trump ha emitido una amplia orden ejecutiva (executive order) ordenando a todas las agencias federales romper vínculos de inmediato con Anthropic. La directiva, firmada a última hora del viernes, califica explícitamente al laboratorio de investigación de IA con sede en San Francisco como un "riesgo para la seguridad nacional" (national security risk). La medida prohíbe de facto el uso del modelo insignia de Anthropic, Claude, en todo el gobierno federal, desde el Departamento de Energía hasta el Departamento de Defensa.
La rueda de prensa de la Casa Blanca tras la orden caracterizó la decisión como un paso necesario para garantizar la supremacía militar y estratégica estadounidense. Funcionarios de la administración citaron la "negativa rígida" de Anthropic a alinear su tecnología con las prioridades de defensa nacional como el principal catalizador de la prohibición. Este acontecimiento marca la intervención más significativa del poder ejecutivo en el sector de la IA comercial hasta la fecha, señalando un cambio de una regulación colaborativa a una aplicación estricta de la lealtad a las directivas federales.
Para los lectores de Creati.ai, este evento subraya una fractura cada vez más profunda en el ecosistema de la IA: la brecha creciente entre los laboratorios que priorizan la seguridad y los requisitos de capacidad exigidos por el estado. A medida que se vacían los contratos federales, la industria se prepara para un reajuste de poder, con competidores probablemente luchando por llenar el vacío dejado por uno de los principales proveedores de Modelos de Lenguaje de Gran Tamaño (Large Language Models - LLM) del mercado.
El conflicto entre la administración Trump y Anthropic parece haber surgido de una ruptura en las negociaciones relativas a los casos de uso específicos del Pentágono para la IA generativa (Generative AI). Fuentes familiarizadas con el asunto indican que el Departamento de Defensa (Department of Defense - DoD), encabezado por el secretario Pete Hegseth, había solicitado una versión especializada de Claude con protocolos de seguridad modificados.
Según se informa, el Pentágono buscaba la eliminación de "barandillas de rechazo" específicas —las restricciones éticas integradas en el modelo que le impiden ayudar en operaciones cinéticas, estrategias ciberofensivas y simulaciones de armas biológicas. Estas restricciones son fundamentales para el marco de "IA constitucional (Constitutional AI)" de Anthropic, que prioriza la utilidad, la honestidad y la inofensividad por encima de la capacidad en escenarios de alto riesgo.
Según los informes, el CEO de Anthropic, Dario Amodei, rechazó la solicitud, manteniendo que debilitar estas medidas de seguridad violaría la misión principal de la empresa y potencialmente desencadenaría riesgos incontrolables. Esta negativa fue interpretada por la Casa Blanca no simplemente como un desacuerdo de política corporativa, sino como un acto de incumplimiento con los intereses de seguridad nacional.
La administración Trump argumenta que en una era de intensificada competencia geopolítica, particularmente con China, el gobierno de los EE. UU. no puede depender de software que "cuestiona" a los comandantes militares. La narrativa impulsada por la Casa Blanca es que la "IA woke" o los modelos excesivamente restringidos obstaculizan las ventajas estratégicas estadounidenses. Al calificar a Anthropic como una amenaza para la seguridad nacional, la administración argumenta efectivamente que el pacifismo de la IA en forma de software es una debilidad.
Para comprender la magnitud de este cambio, es esencial comparar los estándares a los que se adhiere Anthropic frente a los nuevos requisitos que surgen del Pentágono. La siguiente tabla resume la divergencia que condujo a la orden ejecutiva.
| Característica | Estándar de "IA constitucional" de Anthropic | Requisito de "Preparado para la Defensa" del Pentágono |
|---|---|---|
| Anulación ética | El modelo rechaza comandos que violan la constitución de seguridad | La autoridad de mando prevalece sobre la ética del modelo |
| Operaciones cinéticas | Estrictamente prohibidas (tolerancia cero para ayuda letal) | Capacidad requerida para análisis táctico |
| Soberanía de datos | Privacidad rígida centrada en la reducción de daños al usuario | Transparencia total para auditoría gubernamental |
| Modificabilidad de barandillas | Fijado por el desarrollador (Anthropic) | Modificable por el usuario final (DoD/Agencia Federal) |
| Alcance del despliegue | Propósito general, limitado por la seguridad | Específico para misiones, límites sin restricciones |
Las secuelas inmediatas de la orden han sido turbulentas. Anthropic, que había estado asegurando un número creciente de contratos gubernamentales para análisis de datos y automatización administrativa, ahora enfrenta un bloqueo total del mercado del sector público. Si bien los ingresos de la empresa provienen en gran medida de los sectores empresarial y de consumo, la designación reputacional de ser un "riesgo para la seguridad nacional" podría asustar a los clientes de Fortune 500 que dependen de la buena voluntad del gobierno.
Por el contrario, esto crea una apertura masiva para los competidores. Analistas tecnológicos sugieren que las empresas dispuestas a ofrecer modelos "sin trabas" o "soberanos" —sistemas de IA que permiten al cliente el control total sobre los parámetros de seguridad— podrían ganar miles de millones en fondos federales redirigidos. Esto se alinea con la iniciativa más amplia de la administración "IA primero para Estados Unidos" (America First AI), que prioriza la capacidad pura y la lealtad nacional sobre las filosofías de seguridad abstractas.
Es probable que veamos un cambio de marca en todo el sector. Las empresas de IA pueden comenzar a comercializar soluciones de "IA patriótica" diseñadas explícitamente para adherirse a la cadena de mando en lugar de a pautas éticas universales. Esta bifurcación del mercado podría resultar en dos clases distintas de IA:
In una declaración publicada poco después de la orden ejecutiva, Anthropic reafirmó su compromiso con la seguridad. "Construimos a Claude para ser útil e inofensivo", decía el comunicado. "Creemos que eliminar las barandillas de seguridad de los sistemas potentes de IA, independientemente del usuario, presenta un riesgo inaceptable para la humanidad. No comprometeremos la seguridad de nuestros sistemas".
Esta postura de principios traza una línea clara en la arena. Al elegir perder contratos federales en lugar de comprometer su arquitectura de seguridad, Anthropic está poniendo a prueba la viabilidad económica de la IA ética en un entorno regulatorio hostil. Desafía la suposición de que las empresas tecnológicas siempre se doblegarán ante la voluntad del estado para asegurar lucrativos dólares de defensa.
Sin embargo, la etiqueta de "riesgo para la seguridad nacional" conlleva un peso legal que va más allá de los contratos perdidos. Teóricamente, podría conducir a restricciones en la inversión, controles de exportación sobre su tecnología o incluso el escrutinio de sus empleados. La batalla legal sobre si se puede obligar a una empresa de software a alterar su producto para el ejército es probable que termine en los tribunales federales.
Esta orden ejecutiva sienta un precedente que resonará en Silicon Valley. Envía el mensaje de que el patrocinio federal está condicionado a la alineación total con los objetivos de la administración, incluso cuando esos objetivos entran en conflicto con la investigación de seguridad de una empresa.
Para los investigadores y desarrolladores de IA, el efecto disuasorio es real. La pregunta ahora ya no es solo "¿podemos construirlo?", sino "si lo construimos de manera segura, ¿seremos incluidos en la lista negra?". Mientras la administración Trump presiona por una aceleración agresiva de las capacidades de la IA para contrarrestar a los adversarios globales, el espacio para los matices —y para los "mecanismos de rechazo"— se está reduciendo rápidamente.
Creati.ai continuará monitoreando esta historia en desarrollo, particularmente cómo otros actores importantes como OpenAI y Google responden a presiones similares del Pentágono. La era del proveedor de tecnología "neutral" puede estar llegando a su fin.