
Em uma escalada dramática de tensões entre o Vale do Silício e Washington, uma coalizão extraordinária de importantes pesquisadores de inteligência artificial se uniu para desafiar o governo dos Estados Unidos. Mais de 30 funcionários das potências de IA OpenAI e Google DeepMind apresentaram um amicus brief no tribunal federal, oferecendo seu apoio à empresa rival Anthropic em seu processo de alto risco contra o Departamento de Defesa (DoD). Esta rara solidariedade entre empresas ressalta um momento crucial na governança da IA, refletindo preocupações profundas da indústria sobre excessos regulatórios, mandatos de segurança nacional e a implementação ética de sistemas de IA de fronteira (frontier AI).
O confronto jurídico decorre de uma decisão controversa do governo Trump no final de fevereiro de 2026 para designar oficialmente a Anthropic como um "risco na cadeia de suprimentos para a segurança nacional". Historicamente, esta classificação severa tem sido reservada estritamente para adversários estrangeiros e empresas internacionais com laços questionáveis com estados rivais, como a gigante tecnológica chinesa Huawei. Aplicar um rótulo tão debilitante a uma empresa doméstica de IA baseada em São Francisco — fundada por ex-executivos da OpenAI e apoiada por bilhões em capital dos EUA — representa uma mudança de paradigma drástica e inesperada na forma como o governo lida com a aquisição de tecnologia.
As sanções contra a Anthropic entraram em vigor imediatamente após o colapso total das negociações contratuais com o Pentágono. De acordo com petições judiciais oficiais, a Anthropic recusou-se firmemente a renunciar às suas políticas de uso estritas, proibindo especificamente que seus modelos de IA Claude fossem utilizados para duas aplicações militares altamente debatidas:
Esta designação prejudica severamente a capacidade operacional da Anthropic no setor público, impedindo efetivamente que agências governamentais e contratentes de defesa integrem a tecnologia da Anthropic em seus fluxos de trabalho. Em resposta ao que vê como uma ameaça existencial, a Anthropic apresentou uma queixa abrangente de 48 páginas no tribunal federal de São Francisco, buscando uma ordem de restrição temporária para interromper as sanções e declarando a designação fundamentalmente ilegal.
O cenário ferozmente competitivo da IA generativa (Generative AI) geralmente vê a OpenAI, o Google e a Anthropic travados em uma corrida acirrada pela dominância do mercado, contratos corporativos e preferência do consumidor. No entanto, o movimento sem precedentes do Pentágono catalisou uma rápida união de forças em todo o setor. Apenas algumas horas após a Anthropic entrar com o processo, pesquisadores de seus maiores concorrentes enviaram formalmente um amicus brief ao tribunal para reforçar a moção da Anthropic.
Os signatários do documento incluem figuras altamente influentes no setor de inteligência artificial, atuando em caráter pessoal e não como representantes corporativos oficiais. Eles estão unidos por uma crença compartilhada de que as salvaguardas de segurança são uma necessidade, não um luxo opcional.
Figuras-Chave que Apoiam o Amicus Brief:
| Nome do Signatário | Afiliação Empresarial | Cargo/Função Notável |
|---|---|---|
| Jeff Dean | Google DeepMind | Cientista-Chefe e Líder do Gemini |
| Zhengdong Wang | Google DeepMind | Pesquisador de IA |
| Alexander Matt Turner | Google DeepMind | Pesquisador de IA |
| Noah Siegel | Google DeepMind | Pesquisador de IA |
| Gabriel Wu | OpenAI | Pesquisador de IA |
| Pamela Mishkin | OpenAI | Pesquisador de IA |
| Roman Novak | OpenAI | Pesquisador de IA |
(Nota: A tabela acima destaca apenas uma fração dos quase 40 signatários que superaram as divisões corporativas para defender uma base ética compartilhada.)
O peticionamento jurídico dos funcionários apresenta um argumento processual e ético convincente contra as ações pesadas do governo. Eles afirmam que os modelos atuais de IA de fronteira ainda não são confiáveis ou transparentes o suficiente para receberem a confiança em decisões de alvos letais. Além disso, a integração de IA poderosa com vastos conjuntos de dados representa ameaças graves ao tecido da vida pública e à privacidade.
O documento adverte explicitamente o tribunal: "Se for permitido prosseguir, este esforço para punir uma das principais empresas de IA dos EUA terá, sem dúvida, consequências para os Estados