
En una rara muestra de solidaridad intersectorial que trasciende las rivalidades corporativas, empleados de Google y OpenAI se han unido para apoyar a Anthropic en su enfrentamiento de alto riesgo con el Departamento de Defensa de los Estados Unidos. El viernes 27 de febrero de 2026, más de 300 empleados de Google DeepMind y más de 60 de OpenAI firmaron una carta abierta titulada "No seremos divididos" (We Will Not Be Divided), instando a sus respectivos liderazgos a mantenerse firmes contra la demanda del Pentágono de acceso irrestricto a modelos avanzados de Inteligencia Artificial (Artificial Intelligence, AI).
Esta acción colectiva marca un momento crucial en el debate en curso sobre la militarización de la inteligencia artificial. Destaca una brecha creciente entre los desarrolladores de modelos de IA de frontera (frontier AI models), que buscan mantener salvaguardas éticas, y los funcionarios de defensa que ven estas tecnologías como activos críticos en una "carrera armamentista en tiempos de guerra". Mientras el Pentágono amenaza con invocar la Ley de Producción de Defensa (Defense Production Act) para obligar al cumplimiento, la fuerza laboral tecnológica está señalando que las "líneas rojas" éticas con respecto a las armas autónomas y la vigilancia doméstica no son negociables.
En el corazón de esta controversia se encuentra la negativa de Anthropic a modificar sus Términos de Servicio para acomodar la solicitud del Pentágono de "uso irrestricto" de sus modelos Claude. Anthropic, dirigida por el CEO Dario Amodei, ha mantenido consistentemente dos prohibiciones específicas en sus contratos gubernamentales:
El Departamento de Defensa, representado por el Secretario de Defensa Pete Hegseth, supuestamente ha exigido que Anthropic renuncie a estas restricciones específicas y permita "todos los propósitos legales". Si bien el Pentágono afirma que no tiene intención de realizar vigilancia ilegal, argumenta que el lenguaje contractual que restringe el uso "legal" crea vulnerabilidades operativas y sienta un precedente peligroso para el control de los proveedores sobre las capacidades militares.
La carta abierta de los empleados de Google y OpenAI respalda explícitamente la posición de Anthropic. "Esperamos que nuestros líderes dejen de lado sus diferencias y se mantengan unidos para continuar rechazando las demandas actuales del Departamento de Guerra", afirma la carta. Los firmantes argumentan que la campaña de presión del gobierno está diseñada para fracturar el consenso ético de la industria enfrentando a las empresas entre sí.
El enfrentamiento escaló significativamente a finales de febrero de 2026, cuando se informó que el Pentágono emitió un ultimátum a Anthropic. El incumplimiento del plazo del viernes podría resultar en la invocación de la Ley de Producción de Defensa (Defense Production Act, DPA), una ley de la era de la Guerra Fría que permite al presidente obligar a las empresas privadas a priorizar los contratos de defensa nacional.
Además, los funcionarios de defensa han amenazado con etiquetar a Anthropic como un "riesgo para la cadena de suministro" (supply chain risk) si no accede a las demandas. Esta designación, típicamente reservada para entidades extranjeras consideradas hostiles a los intereses de EE. UU. (como ciertas empresas de telecomunicaciones chinas), efectivamente pondría a Anthropic en una lista negra para las adquisiciones federales y podría dañar su reputación comercial.
La carta abierta condena estas tácticas como represalias. "El Departamento de Guerra está amenazando con invocar la Ley de Producción de Defensa... todo en represalia porque Anthropic se mantiene fiel a sus líneas rojas", dice el texto. Los empleados advierten que si el Pentágono logra coaccionar a Anthropic, centrará su atención en Google y OpenAI a continuación, exigiendo la eliminación de sus salvaguardas restantes bajo el pretexto de la estandarización.
Un tema clave de la carta de los empleados es la acusación de que el Pentágono está utilizando una estrategia de "divide y vencerás". Al negociar por separado con Google, OpenAI y Anthropic, el Departamento de Defensa crea un dilema del prisionero: cada empresa teme que si se mantiene firme en los estándares éticos, un competidor capitulará y asegurará los lucrativos contratos gubernamentales.
"Están tratando de dividir a cada empresa con el temor de que la otra ceda", explica la carta. "Esa estrategia solo funciona si ninguno de nosotros sabe cuál es la posición de los demás".
Este temor no es infundado. Los informes indican que OpenAI y Google han mostrado previamente más flexibilidad en sus negociaciones con respecto al uso militar "no clasificado". A principios de 2024, OpenAI eliminó silenciosamente la prohibición explícita de "uso militar y bélico" de sus políticas de uso, reemplazándola con una prohibición más general sobre el "daño", aparentemente para permitir colaboraciones en ciberseguridad y socorro en desastres con el ejército. Sin embargo, la demanda actual de autonomía letal y capacidades de vigilancia irrestrictas parece ser un paso demasiado lejano incluso para las fuerzas laborales de estas empresas más permisivas.
Para comprender el panorama de este conflicto, es esencial comparar las posturas públicas actuales de los principales laboratorios de IA con respecto a la integración militar.
Tabla: Principales laboratorios de IA y posturas de política militar
| Empresa | Postura principal sobre el uso militar | "Líneas rojas" específicas | Estado de las relaciones con el Pentágono |
|---|---|---|---|
| Anthropic | Cooperación condicional estricta | No negociable: Sin vigilancia doméstica. No negociable: Sin armas letales autónomas. |
Hostil: Enfrenta amenazas de invocación de la DPA y etiquetado como "Riesgo para la cadena de suministro". |
| OpenAI | Colaborativa / Evolutiva | Generalmente se opone a las armas autónomas. La política cambió en 2024 para permitir el uso en "seguridad nacional". |
Negociación activa: Se informa que el CEO Sam Altman busca salvaguardas similares a las de Anthropic. |
| Cautelosa / Tensión interna | Principios de IA (2018): Sin armas ni vigilancia que viole los derechos humanos. Prohíbe tecnología cuyo propósito principal sea el daño. |
Tensa: Empleados presionando al liderazgo (Jeff Dean) para mantener los compromisos de 2018. | |
| Microsoft | Socio estratégico | Se alinea con la legalidad del cliente (DoD). Proporciona infraestructura para modelos clasificados. |
Integrada: Profundamente arraigada en la infraestructura de defensa a través de la asociación Azure/OpenAI. |
La ola actual de activismo tiene paralelismos directos con la controversia del "Proyecto Maven" (Project Maven) de Google en 2018. Durante ese período, miles de empleados de Google firmaron una petición protestando por un contrato del Pentágono para usar IA en el análisis de imágenes de drones, lo que finalmente obligó a la empresa a dejar que el contrato expirara y a publicar un conjunto de "Principios de IA" que prohibían el uso de la IA de Google para armamento.
Sin embargo, el clima geopolítico de 2026 es marcadamente diferente. Con la intensificación de la competencia global en IA y las amenazas percibidas de naciones rivales, la presión para desplegar capacidades de "IA soberana" ha aumentado. La carta "No seremos divididos" sugiere que los trabajadores tecnológicos son muy conscientes de que las victorias éticas de 2018 se están erosionando.
"Esta carta sirve para crear un entendimiento compartido y solidaridad frente a esta presión", escribieron los empleados. La coalición incluye ingenieros, investigadores y personal de políticas que argumentan que el despliegue de la IA en la guerra requiere una responsabilidad humana estricta, una característica de la que carecen inherentemente los sistemas totalmente autónomos.
La respuesta del liderazgo corporativo ha sido mixta, pero indica que la presión está funcionando. Tras la publicación de la carta, surgieron informes de que el CEO de OpenAI, Sam Altman, se dirigió al personal, afirmando que él también está buscando un acuerdo con el Pentágono que incluya líneas rojas similares a las de Anthropic. Esto sugiere que el "frente unido" solicitado por los empleados también podría estar formándose a nivel ejecutivo.
En Google, la presión interna se dirige a Jeff Dean, Científico Jefe de Google DeepMind. Una carta interna separada firmada por más de 100 empleados de Google lo instó específicamente a garantizar que Google no socave la posición de Anthropic.
La confrontación entre Anthropic y el Pentágono, amplificada por el apoyo de los empleados de Google y OpenAI, representa una coyuntura crítica en la historia de la gobernanza tecnológica. Plantea una pregunta fundamental: ¿Quién decide en última instancia cómo se utiliza una IA poderosa: el gobierno que la financia o los creadores que comprenden sus riesgos?
Si el Pentágono utiliza con éxito la Ley de Producción de Defensa para obligar a Anthropic, podría establecer un precedente de que los intereses de seguridad nacional anulan los compromisos éticos del sector privado. Por el contrario, si el "frente unido" de los trabajadores tecnológicos se mantiene, podría obligar al ejército a aceptar que incluso en la guerra, el despliegue de la inteligencia artificial debe tener límites.
A medida que pasa el plazo del viernes y la industria espera el próximo movimiento del Pentágono, la solidaridad mostrada por estos más de 360 empleados sirve como recordatorio de que el elemento humano en el desarrollo de la IA sigue siendo una fuerza política potente.
Este informe se basa en eventos ocurridos hasta el 1 de marzo de 2026.