
En una dramática escalada de tensiones entre Silicon Valley y Washington, una coalición extraordinaria de destacados investigadores de Inteligencia Artificial (AI) se ha unido para desafiar al gobierno de los Estados Unidos. Más de 30 empleados de potencias de la IA como OpenAI y Google DeepMind han presentado un escrito de amicus curiae (amicus brief) en un tribunal federal, brindando su apoyo a la firma rival Anthropic en su demanda de alto riesgo contra el Departamento de Defensa (DoD). Esta inusual solidaridad entre empresas subraya un momento crucial en la gobernanza de la IA, reflejando las profundas preocupaciones de la industria sobre el exceso de regulación, los mandatos de seguridad nacional y el despliegue ético de los sistemas de IA de frontera.
La confrontación legal surge de una controvertida decisión de la administración Trump a finales de febrero de 2026 de designar oficialmente a Anthropic como un "riesgo en la cadena de suministro para la seguridad nacional". Históricamente, esta severa clasificación se ha reservado estrictamente para adversarios extranjeros y empresas internacionales con vínculos cuestionables con estados rivales, como el gigante tecnológico chino Huawei. Aplicar una etiqueta tan debilitante a una empresa de IA nacional con sede en San Francisco —fundada por antiguos ejecutivos de OpenAI y respaldada por miles de millones en capital estadounidense— representa un giro de paradigma drástico e inesperado en la forma en que el gobierno maneja la adquisición de tecnología.
Las sanciones contra Anthropic entraron en vigor inmediatamente después de que las negociaciones del contrato con el Pentágono se deterioraran por completo. Según los documentos judiciales oficiales, Anthropic se negó firmemente a renunciar a sus estrictas políticas de uso, prohibiendo específicamente que sus modelos de IA Claude fueran utilizados para dos aplicaciones militares fuertemente debatidas:
Esta designación paraliza severamente la capacidad operativa de Anthropic en el sector público, prohibiendo de hecho que las agencias gubernamentales y los contratistas de defensa integren la tecnología de Anthropic en sus flujos de trabajo. En respuesta a lo que considera una amenaza existencial, Anthropic presentó una queja exhaustiva de 48 páginas en el tribunal federal de San Francisco, buscando una orden de restricción temporal para detener las sanciones y declarando que la designación es fundamentalmente ilegal.
El panorama ferozmente competitivo de la IA generativa (Generative AI) suele ver a OpenAI, Google y Anthropic enfrascados en una carrera encarnizada por el dominio del mercado, los contratos empresariales y la cuota de atención del consumidor. Sin embargo, la medida sin precedentes del Pentágono ha catalizado un rápido cierre de filas en todo el sector. Apenas unas horas después de que Anthropic presentara su demanda, investigadores de sus mayores competidores presentaron formalmente un escrito de amicus curiae ante el tribunal para reforzar la moción de Anthropic.
Los firmantes del escrito incluyen figuras altamente influyentes en el sector de la inteligencia artificial, actuando a título personal en lugar de como representantes corporativos oficiales. Están unidos por la creencia compartida de que las salvaguardas de seguridad son una necesidad, no un lujo opcional.
Figuras clave que apoyan el Escrito de Amicus Curiae:
| Nombre del firmante | Afiliación de la empresa | Posición/Rol destacado |
|---|---|---|
| Jeff Dean | Google DeepMind | Científico Jefe y Líder de Gemini |
| Zhengdong Wang | Google DeepMind | Investigador de IA |
| Alexander Matt Turner | Google DeepMind | AI Researcher |
| Noah Siegel | Google DeepMind | AI Researcher |
| Gabriel Wu | OpenAI | AI Researcher |
| Pamela Mishkin | OpenAI | AI Researcher |
| Roman Novak | OpenAI | AI Researcher |
(Nota: La tabla anterior destaca solo una fracción de los casi 40 firmantes que han superado las divisiones corporativas para defender una línea base ética compartida).
La presentación legal de los empleados presenta un argumento procesal y ético convincente contra las acciones de mano dura del gobierno. Afirman que los modelos actuales de IA de frontera aún no son lo suficientemente fiables o transparentes como para que se les confíen decisiones de objetivos letales. Además, la integración de una IA potente con vastos conjuntos de datos plantea graves amenazas al tejido de la vida pública y la privacidad.
El escrito advierte explícitamente al tribunal: "De permitirse continuar, este esfuerzo por castigar a una de las empresas líderes de IA de EE. UU. tendrá sin duda consecuencias para el United