
En un movimiento que podría remodelar la relación entre el estamento de defensa de los EE. UU. y el sector privado de la inteligencia artificial, la senadora Elissa Slotkin (D-MI) ha presentado una propuesta legislativa histórica diseñada para imponer límites legales estrictos y no negociables al uso de la inteligencia artificial por parte del Pentágono. Esta iniciativa surge tras un enfrentamiento de alto perfil entre el Departamento de Defensa (Department of Defense, DoD) y el desarrollador de IA Anthropic, lo que ilumina un conflicto cada vez más profundo sobre cómo deben desplegarse los potentes modelos de IA generativa (Generative AI) en operaciones militares y de inteligencia.
La propuesta de la senadora Slotkin, que se está posicionando para una posible integración en la próxima Ley de Autorización de Defensa Nacional (National Defense Authorization Act, NDAA), tiene como objetivo consagrar en la ley federal "líneas rojas" específicas con respecto a la capacidad y el despliegue de la IA. A medida que el ejército de los EE. UU. acelera su adopción de tecnologías emergentes, la ausencia de límites legislativos claros ha provocado un intenso debate entre legisladores, defensores de la privacidad y líderes de la industria por igual.
En el núcleo de la legislación se encuentran tres prohibiciones fundamentales y distintas. Al codificar estas restricciones, la senadora Slotkin pretende evitar que el Departamento de Defensa aproveche la IA avanzada de formas que podrían plantear riesgos éticos, legales o existenciales significativos para las normas democráticas y la estabilidad global.
Las "líneas rojas" propuestas son las siguientes:
La urgencia detrás del proyecto de ley de la senadora Slotkin está directamente ligada a las recientes tensiones que involucran al Departamento de Defensa y a Anthropic, uno de los principales desarrolladores de IA en los Estados Unidos. Los informes han indicado que el Pentágono, bajo el liderazgo del secretario Pete Hegseth, buscó adquirir capacidades de IA de Anthropic. Sin embargo, según se informa, la empresa se resistió a proporcionar acceso sin restricciones a sus modelos, oponiéndose específicamente a los requisitos que permitirían al ejército utilizar la tecnología para ataques letales autónomos o vigilancia doméstica.
Este punto de fricción ha resaltado una desconexión crítica: el DoD ve la IA como un imperativo estratégico, presionando a menudo para obtener la máxima flexibilidad operativa, mientras que muchas empresas de IA de primer nivel están cada vez más comprometidas con la "IA constitucional" (Constitutional AI) y filosofías de desarrollo que priorizan la seguridad. El estancamiento sugiere que, sin claridad legislativa, el gobierno de los EE. UU. corre el riesgo de una alienación estratégica de los mismos socios del sector privado en los que confía para la supremacía tecnológica.
La legislación de la senadora Slotkin tiene como objetivo resolver esta incertidumbre estableciendo reglas de compromiso estándar para todos los contratistas. Al codificar estos límites, el gobierno crearía efectivamente un "puerto seguro" (safe harbor) para las empresas tecnológicas, permitiéndoles apoyar los objetivos de defensa sin temor a que sus modelos sean manipulados para violar las restricciones éticas que han integrado en sus sistemas.
Para comprender las implicaciones del proyecto de ley, es útil categorizar las restricciones junto con los fundamentos que las impulsan. La siguiente tabla proporciona un análisis de las salvaguardas legislativas propuestas:
| Restricción | Razón principal | Impacto potencial |
|---|---|---|
| Autonomía letal | Prevenir la pérdida de vidas no comandada | "Humano en el bucle" obligatorio para el uso de fuerza letal |
| Vigilancia masiva | Proteger las libertades civiles | Restricciones en el uso de datos domésticos/objetivos |
| Mando nuclear | Prevenir riesgos sistémicos catastróficos | Prohibición explícita de la IA en las cadenas de decisión de armas de destrucción masiva |
Si bien la propuesta ha ganado terreno como punto de discusión en el Comité de Servicios Armados del Senado, el camino hacia su promulgación sigue plagado de obstáculos políticos. El estamento de defensa, incluido el liderazgo actual del DoD, históricamente ha desconfiado de las restricciones "generales", argumentando a menudo que tales limitaciones podrían ceder una ventaja competitiva a adversarios como China, que también están invirtiendo fuertemente en IA militar.
La senadora Slotkin aboga por la inclusión de estas disposiciones dentro de la Ley de Autorización de Defensa Nacional (NDAA), la legislación anual de "aprobación obligatoria" (must-pass) que financia al ejército de los EE. UU. Al vincular las salvaguardas de la IA a la NDAA, los partidarios creen que pueden forzar el tema en el debate principal de la política de defensa, dificultando que el poder ejecutivo evite la conversación.
Sin embargo, la oposición sigue siendo significativa. Los críticos dentro del aparato de seguridad argumentan que la tecnología debería regirse por políticas administrativas en lugar de estatutos rígidos, que podrían tener dificultades para seguir el ritmo de la rápida evolución de la IA. Por el contrario, los grupos de la sociedad civil y algunos legisladores moderados sostienen que la política por sí sola es insuficiente, señalando que las órdenes ejecutivas pueden ser anuladas por administraciones posteriores, mientras que la ley federal proporciona un marco duradero para la rendición de cuentas.
El debate suscitado por el proyecto de ley de Slotkin trasciende las preocupaciones inmediatas del Pentágono y Anthropic. Toca la tensión fundacional del siglo XXI: el equilibrio entre la rápida adopción tecnológica y la preservación de las salvaguardas democráticas.
Para los observadores de Creati.ai, este desarrollo sirve como una prueba de fuego para la industria. Señala un alejamiento de la era de "moverse rápido y romper cosas" (move fast and break things) del desarrollo tecnológico y un avance hacia una fase más madura donde la ingeniería ética es un requisito previo para la asociación con el gobierno. Si se aprueba, la legislación probablemente sentaría un precedente global, influyendo en cómo otras naciones abordan la regulación de la IA en contextos militares.
En última instancia, el impulso de la senadora Slotkin por la legislación representa un reconocimiento de que la IA no es simplemente una herramienta, sino una fuerza transformadora. Al establecer límites ahora, los EE. UU. tienen la oportunidad de liderar el desarrollo de una IA "responsable", garantizando que la próxima generación de tecnología de defensa siga siendo un servidor de la intención humana en lugar de un motor autónomo de volatilidad geopolítica. Queda por ver si el proyecto de ley obtiene el apoyo bipartidista necesario para sobrevivir al proceso legislativo, pero la conversación que ha encendido es, innegablemente, esencial.