
En un momento trascendental para la industria de la inteligencia artificial, Anthropic ha rechazado pública y definitivamente la oferta de contrato "última y final" del Departamento de Defensa de los EE. UU. El rechazo, entregado por el CEO Dario Amodei el 26 de febrero de 2026, marca uno de los enfrentamientos más significativos entre Silicon Valley y Washington desde que comenzó el auge de la IA. En el corazón del conflicto se encuentra un desacuerdo fundamental sobre el despliegue del modelo insignia de Anthropic, Claude, en sistemas de armas autónomas letales y redes de vigilancia doméstica masiva.
Las negociaciones, que según se informa han estado en curso durante meses a puerta cerrada, trascendieron a la esfera pública cuando Amodei emitió un comunicado afirmando: "No podemos, con la conciencia tranquila, acceder a su petición". Este movimiento posiciona a Anthropic como el único gran resistente entre los laboratorios de IA de primer nivel, planteando preguntas críticas sobre el futuro de la alineación de la IA (AI alignment), el exceso de autoridad gubernamental y la independencia de las empresas tecnológicas privadas en una era de mayor tensión geopolítica.
Según fuentes cercanas a las negociaciones, la propuesta finalizada del Pentágono no era simplemente un contrato de adquisición estándar, sino un marco de integración integral. El Departamento de Defensa (DoD) buscaba acceso sin restricciones al código fuente y a los pesos (weights) de Claude para potenciar los sistemas de combate de próxima generación.
El núcleo del desacuerdo se centra en dos casos de uso específicos que violan los principios de la "IA Constitucional" (Constitutional AI) de Anthropic:
El rechazo de Amodei fue categórico. En un memorando enviado al personal de Anthropic y compartido posteriormente con la prensa, enfatizó que permitir que Claude se use para estos fines "corrompería irreversiblemente las salvaguardas de seguridad que hemos pasado años construyendo".
Quizás el aspecto más alarmante de este enfrentamiento es la respuesta del gobierno. Tras el rechazo, se informa que funcionarios del Pentágono han amenazado con invocar la Ley de Producción de Defensa (Defense Production Act, DPA) de 1950. Diseñada originalmente para garantizar el suministro de materiales industriales durante la Guerra de Corea, la DPA otorga al Presidente una amplia autoridad para obligar a las empresas a priorizar los contratos gubernamentales considerados necesarios para la defensa nacional.
Posibles implicaciones de la aplicación de la DPA:
Los expertos legales advierten que invocar la DPA para software y propiedad intelectual de esta naturaleza desencadenaría una batalla legal constitucional sin precedentes, poniendo a prueba los límites del poder gubernamental sobre la innovación privada.
El rechazo de Anthropic resalta una fractura creciente dentro de la industria de la IA. Mientras que Anthropic ha redoblado su ética de "la seguridad primero", los competidores han tomado caminos diferentes, citando la necesidad de la superioridad tecnológica estadounidense sobre sus rivales geopolíticos.
La siguiente tabla compara la postura actual de los principales laboratorios de IA con respecto a la integración militar:
Comparación de la postura militar de los principales laboratorios de IA (febrero de 2026)
| Organización | Postura central sobre contratos militares | Restricciones clave |
|---|---|---|
| Anthropic | Rechazo total del uso letal/vigilancia | Prohíbe las armas autónomas y la integración de vigilancia masiva |
| OpenAI | Cooperación condicional | Permite el uso de "Seguridad Nacional"; ambiguo en autonomía letal |
| Google DeepMind | Asociación restringida | Se aplican las restricciones del Proyecto Maven; centrado en logística/ciberdefensa |
| Palantir | Integración total | Activamente construye plataformas de vigilancia y selección de objetivos letales |
| Microsoft | Alianza estratégica | Proporciona infraestructura/LLM para el DoD; el mandato no letal a menudo se omite |
Esta divergencia coloca a Anthropic en una posición financiera precaria, pero fortalece su marca entre los clientes empresariales conscientes de la seguridad e inversores éticos.
La frase de Dario Amodei "No podemos, con la conciencia tranquila, acceder" se hace eco del lenguaje utilizado durante la revuelta interna de Google contra el Proyecto Maven en 2018, pero lo que está en juego en 2026 es significativamente mayor. Las capacidades de los modelos de frontera actuales como Claude 5 superan con creces las herramientas de visión por computadora de la década anterior.
Marco ético frente a necesidad nacional
El Pentágono argumenta que, sin acceso a la mejor IA estadounidense, los EE. UU. corren el riesgo de quedarse atrás de sus adversarios, quienes no enfrentan tales limitaciones éticas. Los funcionarios de defensa han calificado el rechazo de Anthropic como "ingenuo" y "potencialmente peligroso" para los intereses nacionales.
Sin embargo, los analistas de Creati.ai sugieren que Anthropic está jugando a largo plazo. Al adherirse estrictamente a su estatuto, la empresa preserva la integridad de su investigación de alineación. Si Claude fuera reentrenado para la letalidad, las restricciones de "útil, honesto e inofensivo" (helpful, honest, and harmless) que hacen que el modelo sea confiable para el uso empresarial podrían desestabilizarse fundamentalmente, lo que llevaría a un comportamiento impredecible en aplicaciones no militares.
Los informes desde el interior de la sede de Anthropic en San Francisco indican una moral alta tras la decisión, aunque la ansiedad con respecto a las amenazas de la DPA sigue siendo elevada. "No construimos esto para lastimar a la gente", dijo un investigador senior a Creati.ai bajo condición de anonimato. "Si cruzamos esa línea, nos convertiremos en un contratista de defensa más".
A medida que se desarrolla la situación, el mundo tecnológico observa para ver si la administración Biden-Harris cumplirá las amenazas de aplicar la Ley de Producción de Defensa. Tal medida enfriaría a la comunidad de código abierto y podría llevar el desarrollo de la IA a la clandestinidad o al extranjero.
Por ahora, Anthropic se mantiene desafiante. El rechazo de la oferta final del Pentágono es más que una disputa contractual; es una prueba de fuego para la gobernabilidad de los sistemas superinteligentes. Si una empresa privada puede rechazar con éxito al ejército más poderoso del mundo por motivos éticos, establece un precedente de que la seguridad y la moralidad aún pueden dictar la trayectoria del progreso tecnológico.
Las próximas semanas serán cruciales. ¿Se inclinará el Pentágono hacia un competidor como Palantir u OpenAI para llenar el vacío, o forzarán la mano de Anthropic mediante la coacción legal? Para el equipo de Creati.ai, continuaremos monitoreando esta historia en desarrollo, ya que el resultado definirá la relación entre la IA y el estado durante las próximas décadas.