
Washington, D.C. — Em uma escalada histórica e sem precedentes no conflito entre os laboratórios de IA (Inteligência Artificial) do Vale do Silício e o governo federal, o Departamento de Guerra (Department of War, anteriormente o Departamento de Defesa) rescindiu seu contrato de US$ 200 milhões com a Anthropic. A medida ocorre após a empresa de segurança de IA (AI safety) se recusar a suspender as restrições operacionais ao uso de seus modelos para armamentos autônomos e vigilância em massa.
Em uma diretriz emitida no final do dia de ontem, o Secretário de Guerra Pete Hegseth designou formalmente a Anthropic como um "Risco para a Cadeia de Suprimentos à Segurança Nacional" (Supply-Chain Risk to National Security), um rótulo historicamente reservado para adversários estrangeiros e fornecedores de telecomunicações considerados hostis aos interesses dos EUA. A designação desencadeia uma proibição imediata de todas as interações comerciais entre a vasta rede de contratados das forças militares dos EUA e a empresa de IA sediada em San Francisco.
A rescisão marca o clímax de uma disputa de meses sobre as "linhas vermelhas" éticas incorporadas no modelo principal da Anthropic, o Claude. Enquanto o Pentágono buscava acesso "irrestrito" a modelos de IA de fronteira (frontier AI) para manter a dominância estratégica, a Anthropic recusou-se firmemente a modificar sua Política de Uso Aceitável (Acceptable Use Policy - AUP) para acomodar aplicações específicas letais e de vigilância.
Fontes próximas às negociações relatam que o Departamento de Guerra exigiu a remoção de salvaguardas que impedem o Claude de ser usado para pilotar drones totalmente autônomos ou analisar dados de comunicações domésticas em escala. O CEO da Anthropic, Dario Amodei, teria rejeitado esses termos, afirmando que a empresa não poderia, "em sã consciência", permitir que sua tecnologia fosse implantada de maneiras que pudessem minar os valores democráticos ou carecer de supervisão humana significativa.
"Isso não é uma falha de capacidade, mas um choque de princípios", disse um analista sênior da Creati.ai. "A Anthropic está efetivamente apostando seu negócio na ideia de que a segurança de IA é inegociável, mesmo quando o cliente é a força militar mais poderosa da Terra."
O desenvolvimento mais significativo não é a perda do contrato em si, mas a invocação da autoridade de "Risco para a Cadeia de Suprimentos" contra uma empresa doméstica americana. A ordem do Secretário Hegseth vai muito além de um simples cancelamento de serviços.
Principais implicações da designação:
Estudiosos do direito já questionaram a validade do uso de autoridades de cadeia de suprimentos — projetadas para prevenir espionagem e sabotagem estrangeiras — para punir uma disputa contratual doméstica sobre diretrizes éticas. A Anthropic prometeu contestar a designação em tribunal federal, descrevendo-a como uma "retaliação ideológica" em vez de uma avaliação de segurança genuína.
Enquanto a Anthropic sai do portfólio do Pentágono, o laboratório rival OpenAI agiu rapidamente para consolidar sua posição como o principal parceiro de IA das forças militares. Relatórios indicam que a OpenAI concordou com os termos que a Anthropic rejeitou, levando a um novo e lucrativo acordo para implantar sistemas baseados em GPT-4 em redes classificadas.
A transição desencadeou uma amarga disputa pública entre as duas gigantes da IA. Após os relatos do novo acordo da OpenAI, Dario Amodei emitiu um contundente memorando interno, partes do qual foram vazadas para a mídia tecnológica. Amodei acusou a OpenAI de se envolver em um "teatro de segurança" e caracterizou suas mensagens públicas sobre salvaguardas militares como "mentiras deslavadas".
"A OpenAI está se apresentando como uma pacificadora enquanto assina acordos que corroem os próprios padrões de segurança que afirmam defender", escreveu Amodei. Ele alegou que o acordo da OpenAI provavelmente inclui "brechas" que efetivamente anulam as restrições sobre letalidade autônoma, uma afirmação que a OpenAI negou veementemente, afirmando que sua parceria se concentra apenas em "aplicações defensivas legais".
A inclusão da Anthropic na lista negra envia um sinal assustador para o ecossistema de IA mais amplo. Isso sugere que o governo dos EUA não está mais disposto a tolerar "fricção ética" de seus provedores de tecnologia. Para startups de IA financiadas por capital de risco, a mensagem é clara: o alinhamento com os objetivos do Departamento de Guerra é agora um pré-requisito para a viabilidade no setor público.
A tabela a seguir descreve os caminhos divergentes dos principais laboratórios de IA em relação à colaboração militar em março de 2026:
Status dos principais laboratórios de IA com o Depto. de Guerra
| Nome do Laboratório | Status do Contrato | Postura sobre Autonomia Letal |
|---|---|---|
| Anthropic | Encerrado / Na lista negra | Proibição rigorosa via IA constitucional (Constitutional AI) |
| OpenAI | Ativo / Expandido | Permite uso "defensivo legal" |
| Google DeepMind | Em análise | Restrito, apenas com supervisão humana (human-in-the-loop) |
| xAI | Ativo / Classificado | Adesão irrestrita ao "uso legal" |
As próximas semanas serão críticas para a Anthropic. Se a designação de "risco para a cadeia de suprimentos" sobreviver ao escrutínio jurídico, a empresa enfrentará uma ameaça existencial ao seu negócio empresarial. Clientes corporativos que também atendem ao setor de defesa podem ser forçados a migrar para modelos alternativos para evitar o fogo cruzado regulatório.
Enquanto isso, o Departamento de Guerra sinalizou que sua paciência com a "IA woke" — um termo usado pelo Secretário Hegseth para descrever modelos com filtragem pesada de segurança — acabou. À medida que os EUA correm para integrar a IA generativa (Generative AI) em sua infraestrutura de comando e controle, a divisão entre desenvolvedores de IA "patrióticos" e laboratórios "focados em segurança" deve se tornar a linha de falha definidora da indústria.