
Em uma guinada dramática que ressalta a fricção de alto risco entre o Vale do Silício e Washington, o CEO da Anthropic, Dario Amodei, supostamente retomou as negociações com altos funcionários do Pentágono. Este desdobramento ocorre poucos dias após o Departamento de Defesa (DoD) designar formalmente a startup de segurança de IA como um "risco na cadeia de suprimentos" (Supply Chain Risk) — uma classificação severa tipicamente reservada para adversários estrangeiros — e fechar uma parceria rival com a OpenAI.
De acordo com fontes próximas ao assunto, Amodei está atualmente envolvido em discussões de "última hora" com Emil Michael, o Subsecretário de Defesa para Pesquisa e Engenharia. O objetivo é salvar um compromisso que permitiria à Anthropic manter seus contratos de defesa sem capitular totalmente nas proteções éticas (Ethical Guardrails) que desencadearam o impasse inicial.
O contexto para estas novas conversas é um movimento sem precedentes do DoD. Após o colapso das negociações iniciais na última sexta-feira, o Secretário de Defesa, Pete Hegseth, agiu para rotular a Anthropic como um "risco na cadeia de suprimentos". Esta designação funciona efetivamente como uma lista negra, proibindo não apenas contratos diretos com o Pentágono, mas também banindo qualquer empreiteiro ou fornecedor de defesa de realizar atividades comerciais com a Anthropic.
Para uma empresa de tecnologia sediada nos EUA, este rótulo é catastrófico. Ele ameaça separar a Anthropic de um vasto ecossistema de parceiros governamentais e pode desestimular o investimento privado ao sinalizar que a empresa está em desacordo com os interesses de segurança nacional.
O conflito centra-se em linguagem contratual específica sobre o uso de IA. A Anthropic tem se recusado firmemente a remover cláusulas que proibiriam os militares de usar seus modelos Claude para "vigilância doméstica em massa" e "armas autônomas letais". O Pentágono, inversamente, exigiu a remoção dessas restrições, insistindo no direito de usar a tecnologia para "todos os fins legais".
O colapso das conversas anteriores supostamente dependeu de uma única frase específica. Memorandos internos indicam que o DoD ofereceu aceitar os termos mais amplos da Anthropic apenas se a empresa excluísse uma cláusula que restringia a "análise de dados adquiridos em massa" (Bulk Data).
Amodei viu este pedido com profunda suspeita, interpretando-o como uma brecha que permitiria os exatos cenários de vigilância em massa que a empresa busca evitar. "Achamos isso muito suspeito", escreveu Amodei em uma nota aos funcionários, caracterizando a demanda do governo como uma linha vermelha que a empresa não poderia cruzar em sã consciência.
A tensão foi ainda mais inflamada por animosidade pessoal. Emil Michael, o funcionário que agora está sentado do outro lado da mesa de Amodei, criticou publicamente o CEO nas redes sociais na semana passada, acusando-o de ter um "complexo de Deus" por reter tecnologia dos esforços de defesa nacional. A retomada das conversas sugere que instintos pragmáticos de sobrevivência empresarial estão forçando uma desescalada desta retórica.
Enquanto a Anthropic manteve sua posição sobre princípios éticos, sua principal concorrente, OpenAI, agiu rapidamente para capitalizar o vácuo. Poucas horas após o rompimento entre a Anthropic e o Pentágono, o CEO da OpenAI, Sam Altman, anunciou uma nova parceria com o DoD.
O acordo da OpenAI supostamente se alinha com a exigência de "todos os fins legais" do Pentágono. Embora a OpenAI sustente que seus padrões de segurança permanecem robustos, Amodei tem criticado duramente esse movimento, descrevendo as alegações de segurança dos rivais neste contexto como "teatro de segurança" (Safety Theater) e "mendazes".
A divergência na estratégia criou uma bifurcação clara no cenário de defesa de IA:
Comparação de Gigantes da IA no Setor de Defesa (Março de 2026)
| Empresa | Posição Principal em Contratos de Defesa | Status Atual no Pentágono |
|---|---|---|
| Anthropic | Recusa a remoção de cláusulas antivigilância; bloqueia especificamente a "análise de dados em massa". | Designada como "Risco na Cadeia de Suprimentos"; tentando renegociar. |
| OpenAI | Aceita o padrão de "todos os fins legais"; baseia-se em sua "pilha de segurança" interna. | Contrato ativo assinado; substituindo a Anthropic em fluxos de trabalho cruciais. |
| Google DeepMind | Engajamento cauteloso; foca em cibersegurança e logística em vez de operações cinéticas. | Mantém contratos legados; observando o desfecho atual. |
As negociações retomadas entre Amodei e Michael sinalizam que nenhum dos lados pode se beneficiar de um distanciamento permanente. Para o Pentágono, perder o acesso aos modelos Claude da Anthropic — que são amplamente reconhecidos por sua interpretabilidade e capacidades de raciocínio — reduz a diversidade de seu arsenal de IA. Para a Anthropic, o rótulo de "risco na cadeia de suprimentos" é uma ameaça financeira existencial que poderia descarrilar sua avaliação de US$ 60 bilhões e alienar parceiros comerciais receosos de contrariar o DoD.
Analistas do setor sugerem que um compromisso pode envolver "exceções" (Carve-outs), onde os modelos da Anthropic seriam aprovados para tarefas específicas de logística e inteligência não relacionadas a combate, enquanto seriam protegidos de sistemas de vigilância ou armamento autônomo. No entanto, a confiança permanece baixa.
O desfecho dessas conversas provavelmente estabelecerá um precedente para a forma como o governo dos EUA coage ou colabora com laboratórios privados de IA. Se a Anthropic for forçada a capitular para remover a designação da lista negra, isso enviará uma mensagem desanimadora para a indústria: que linhas vermelhas éticas podem ser insustentáveis quando conflitam com as demandas do Estado. Por outro lado, se Amodei garantir uma concessão, isso poderá validar a abordagem de "IA Constitucional" (Constitutional AI) como um modelo de negócio viável, mesmo no setor de defesa.
Até a manhã de sexta-feira, a designação permanece ativa, e o setor de tecnologia aguarda para ver se o rótulo de "risco" pode ser revertido antes que o dano se torne permanente.