
Em uma escalada feroz da guerra ideológica entre os principais laboratórios de IA (AI) do Vale do Silício, o CEO da Anthropic, Dario Amodei, acusou a rival OpenAI de se envolver em um "teatro de segurança" (safety theater) e de propagar "mentiras descaradas" em relação à sua recente parceria com o Departamento de Defesa dos EUA. As acusações, reveladas em um memorando interno relatado pelo The Information, marcam uma fratura definitiva na frente unida do setor sobre a segurança de IA, estilhaçando a fachada de polidez que há muito caracterizava a relação entre as duas potências.
O memorando, circulado para a equipe da Anthropic esta semana, surge dias após a OpenAI anunciar um acordo controverso para implementar seus modelos dentro das redes classificadas do Pentágono — um negócio fechado meras horas após a Anthropic supostamente abandonar negociações semelhantes devido a "linhas vermelhas" éticas.
A comunicação interna de Amodei dispensa as sutilezas diplomáticas corporativas. De acordo com o relatório, ele visou especificamente o enquadramento público feito pelo CEO da OpenAI, Sam Altman, sobre o acordo com o Pentágono. Altman caracterizou o acordo como uma vitória para a implementação responsável de IA, afirmando que a OpenAI havia negociado com sucesso salvaguardas rigorosas contra armas autônomas (autonomous weapons) e vigilância doméstica — termos que a Anthropic supostamente não conseguiu garantir.
"Nós realmente mantivemos nossas linhas vermelhas com integridade, em vez de conluio com eles para produzir um 'teatro de segurança' em benefício dos funcionários", escreveu Amodei, segundo relatos. Ele foi além, caracterizando a narrativa de Altman como "mentiras descaradas" e uma "tentativa falsa de se apresentar como um pacificador" em um ambiente regulatório caótico.
O cerne da queixa de Amodei parece ser a substância das "salvaguardas" que a OpenAI afirma ter promulgado. Enquanto a Anthropic recusou os termos do Pentágono porque eles não proibiam contratualmente o uso de sua IA para vigilância doméstica em massa ou segmentação letal totalmente autônoma, críticos argumentam que o acordo da OpenAI exige apenas conformidade com as "leis existentes" — um padrão que defensores da privacidade alertam ser muito mais poroso do que uma proibição contratual.
O momento desses eventos alimentou a intensidade do conflito. No final de fevereiro de 2026, as negociações entre a Anthropic e o Departamento de Guerra (anteriormente o Departamento de Defesa) colapsaram. A Anthropic manteve-se firme em duas condições não negociáveis:
O Pentágono recusou esses termos. Em uma medida retaliatória draconiana, a agência rotulou a Anthropic como um "risco na cadeia de suprimentos" (supply-chain risk), proibindo efetivamente sua tecnologia de uso federal.
Menos de 24 horas depois, em uma noite de sexta-feira, Sam Altman anunciou a parceria da OpenAI com a mesmíssima agência. Altman admitiu em uma postagem subsequente que o acordo foi "apressado" e "desleixado", mas manteve que a OpenAI havia garantido as proteções éticas necessárias. O memorando de Amodei sugere que a OpenAI simplesmente capitulou às exigências do governo para capturar o contrato lucrativo, reembalando a capitulação como um "compromisso estratégico".
A tabela a seguir descreve as divergências críticas em como as duas empresas abordaram a colaboração militar até março de 2026.
| Postura sobre Colaboração Militar | Anthropic | OpenAI |
|---|---|---|
| Principais "Linhas Vermelhas" Éticas | Proibição contratual de vigilância em massa e segmentação por armas autônomas. | Confiança nas "leis existentes" e políticas de "responsabilidade humana". |
| Resultado das Conversas com o Pentágono | Acordo rejeitado; rotulada como "Risco na Cadeia de Suprimentos" pelo DoD. | Acordo assinado para implementação em rede classificada. |
| Enquadramento Público do CEO | Alertou sobre o "poder governamental desenfreado" e recusou-se a "aceder em sã consciência". | Alegou sucesso na negociação de salvaguardas; posteriormente admitiu que o processo foi "desleixado". |
| Reação dos Funcionários | Solidariedade interna; cartas abertas apoiando a recusa do CEO. | Agitação significativa; perda de pesquisadores de ponta citando problemas de "confiança". |
| Status em Redes Governamentais | Banida/Restrita. | Aprovada para implementação classificada. |
Adicionando insulto à injúria, a fenda ideológica está começando a se manifestar em uma fuga de cérebros (brain drain). Em um golpe significativo para a liderança de pesquisa da OpenAI, o vice-presidente de pesquisa, Max Schwarzer, renunciou para se juntar à Anthropic. Schwarzer, uma figura-chave nas equipes de pós-treinamento e raciocínio da OpenAI, anunciou sua partida no X (anteriormente Twitter), afirmando que "muitas das pessoas em quem mais confio e respeito se juntaram à Anthropic nos últimos dois anos".
A saída de Schwarzer não é um incidente isolado, mas parte de um padrão crescente onde pesquisadores preocupados com a segurança estão migrando para a Anthropic, vendo-a como o último reduto do desenvolvimento de IA fundamentado em princípios. Essa "fuga de cérebros" reforça a narrativa interna de Amodei de que a OpenAI está perdendo sua bússola moral em busca de dominância comercial e governamental.
A disputa entre Amodei e Altman é mais do que uma rixa pessoal; representa um cisma na filosofia de governança de IA. A abordagem "pragmática" da OpenAI argumenta que o engajamento com os militares é inevitável e que é melhor para uma empresa dos EUA moldar a implementação por dentro. A postura "baseada em princípios" da Anthropic postula que as empresas de tecnologia devem atuar como um freio ao poder estatal, mesmo ao custo de contratos governamentais massivos.
Ao acusar a OpenAI de mentir, Amodei sinaliza que a era da "coopetição" cooperativa terminou. À medida que o Pentágono integra a IA generativa (Generative AI) em suas cadeias de ataque e aparelhos de vigilância, a indústria está forçando suas mentes mais brilhantes a escolher um lado: o colaborador pragmático ou o objetor de consciência desafiador. Por enquanto, o Departamento de Guerra escolheu a OpenAI, mas os pesquisadores que constroem o futuro parecem estar votando com os pés.