
En una amarga escalada de la guerra ideológica entre los principales laboratorios de IA de Silicon Valley, el CEO de Anthropic, Dario Amodei, ha acusado a su rival OpenAI de participar en un "teatro de seguridad" (safety theater) y de difundir "mentiras descaradas" con respecto a su reciente asociación con el Departamento de Defensa de los Estados Unidos. Las acusaciones, reveladas en un memorando interno del que informó The Information, marcan una fractura definitiva en el frente unido de la industria sobre la seguridad de la IA, destrozando la apariencia de cortesía que ha caracterizado durante mucho tiempo la relación entre las dos potencias.
El memorando, distribuido al personal de Anthropic esta semana, llega días después de que OpenAI anunciara un polémico acuerdo para desplegar sus modelos dentro de las redes clasificadas del Pentágono; un trato cerrado apenas unas horas después de que, según se informa, Anthropic se retirara de negociaciones similares por "líneas rojas" éticas.
La comunicación interna de Amodei prescinde de las sutilezas diplomáticas corporativas. Según el informe, se centró específicamente en cómo el CEO de OpenAI, Sam Altman, presentó públicamente el acuerdo con el Pentágono. Altman había caracterizado el convenio como una victoria para el despliegue responsable de la IA, afirmando que OpenAI había negociado con éxito salvaguardas estrictas contra las armas autónomas y la vigilancia doméstica, términos que Anthropic supuestamente no había logrado asegurar.
"De hecho, hemos mantenido nuestras líneas rojas con integridad en lugar de coludir con ellos para producir un 'teatro de seguridad' en beneficio de los empleados", escribió Amodei, según los informes. Fue más allá, calificando la narrativa de Altman como "mentiras descaradas" y un "intento falso de presentarse como un pacificador" en un entorno regulatorio caótico.
El núcleo de la queja de Amodei parece ser el fondo de las "salvaguardas" que OpenAI afirma haber implementado. Mientras que Anthropic rechazó los términos del Pentágono porque no prohibían contractualmente el uso de su IA para la vigilancia masiva doméstica o el ataque letal autónomo total, los críticos argumentan que el acuerdo de OpenAI simplemente requiere el cumplimiento de las "leyes existentes", un estándar que los defensores de la privacidad advierten que es mucho más poroso que una prohibición contractual.
La cronología de estos eventos ha alimentado la intensidad del conflicto. A finales de febrero de 2026, las negociaciones entre Anthropic y el Departamento de Guerra (anteriormente Departamento de Defensa) colapsaron. Anthropic se mantuvo firme en dos condiciones no negociables:
El Pentágono rechazó estos términos. En una medida de represalia draconiana, la agencia calificó a Anthropic como un "riesgo para la cadena de suministro" (supply-chain risk), prohibiendo de hecho su tecnología para uso federal.
Menos de 24 horas después, un viernes por la noche, Sam Altman anunció la asociación de OpenAI con la misma agencia. Altman admitió en una publicación posterior que el acuerdo fue "apresurado" y "descuidado", pero sostuvo que OpenAI había asegurado las barreras éticas necesarias. El memorando de Amodei sugiere que OpenAI simplemente capituló ante las demandas del gobierno para capturar el lucrativo contrato, empaquetando la capitulación como un "compromiso estratégico".
La siguiente tabla resume las divergencias críticas en la forma en que las dos empresas han abordado la colaboración militar a partir de marzo de 2026.
| Postura sobre la colaboración militar | Anthropic | OpenAI |
|---|---|---|
| Principales "líneas rojas" éticas | Prohibición contractual de la vigilancia masiva y el ataque con armas autónomas. | Dependencia de las "leyes existentes" y las políticas de "responsabilidad humana". |
| Resultado de las conversaciones con el Pentágono | Acuerdo rechazado; calificado como "Riesgo para la cadena de suministro" por el DoD. | Acuerdo firmado para el despliegue en redes clasificadas. |
| Enfoque público del CEO | Advirtió sobre el "poder gubernamental sin control" y se negó a "acceder en conciencia". | Reivindicó el éxito en la negociación de salvaguardas; más tarde admitió que el proceso fue "descuidado". |
| Reacción de los empleados | Solidaridad interna; cartas abiertas apoyando el rechazo del CEO. | Malestar significativo; pérdida de investigadores clave citando problemas de "confianza". |
| Estado en las redes gubernamentales | Baneado/Restringido. | Aprobado para despliegue clasificado. |
Para colmo de males, la brecha ideológica está empezando a manifestarse en una fuga de cerebros. En un golpe significativo para el liderazgo de investigación de OpenAI, el Vicepresidente de Investigación, Max Schwarzer, ha dimitido para unirse a Anthropic. Schwarzer, una figura clave en los equipos de post-entrenamiento y razonamiento de OpenAI, anunció su partida en X (anteriormente Twitter), afirmando que "muchas de las personas en las que más confío y respeto se han unido a Anthropic en los últimos dos años".
La salida de Schwarzer no es un incidente aislado, sino parte de un patrón creciente donde los investigadores preocupados por la seguridad están migrando a Anthropic, viéndola como el último bastión del desarrollo de IA basado en principios. Esta "fuga de cerebros" refuerza la narrativa interna de Amodei de que OpenAI está perdiendo su brújula moral en busca del dominio comercial y gubernamental.
La disputa entre Amodei y Altman es más que una disputa personal; representa un cisma en la filosofía de la gobernanza de la IA. El enfoque "pragmático" de OpenAI argumenta que el compromiso con el ejército es inevitable y que es mejor que una empresa estadounidense de IA generativa (Generative AI) de forma al despliegue desde el interior. La postura de "principios" de Anthropic postula que las empresas tecnológicas deben actuar como un control del poder estatal, incluso a costa de contratos gubernamentales masivos.
Al acusar a OpenAI de mentir, Amodei está señalando que la era de la "coopetición" cooperativa ha terminado. A medida que el Pentágono integra la IA generativa en sus cadenas de ataque y aparatos de vigilancia, la industria está obligando a sus mentes más brillantes a elegir un bando: el colaborador pragmático o el objetor de conciencia desafiante. Por ahora, el Departamento de Guerra ha elegido a OpenAI, pero los investigadores que construyen el futuro parecen estar votando con los pies.