
Em um momento decisivo para o futuro da inteligência artificial (IA) na defesa nacional, o Departamento de Defesa (Department of Defense - DoD) emitiu um ultimato severo à startup de segurança de IA, Anthropic. O Secretário de Defesa, Pete Hegseth, deu à empresa até esta sexta-feira, 27 de fevereiro de 2026, para conceder aos militares dos EUA acesso irrestrito ao seu principal modelo Claude AI ou enfrentar uma severa intervenção federal.
O confronto, que escalou após uma tensa reunião a portas fechadas na terça-feira entre o Secretário Hegseth e o CEO da Anthropic, Dario Amodei, centra-se em um desacordo fundamental em relação às "barreiras de proteção" (guardrails) éticas incorporadas nos sistemas de IA. O Pentágono está ameaçando invocar a Lei de Produção de Defesa (Defense Production Act - DPA) ou rotular a Anthropic como um "risco na cadeia de suprimentos" — uma designação que poderia efetivamente banir a empresa do mercado federal — a menos que ela remova as restrições que impedem que seu software seja usado para armas autônomas e vigilância doméstica.
Aqui na Creati.ai, estamos monitorando de perto esse impasse, pois ele representa o confronto mais significativo até o momento entre os laboratórios de IA focados em segurança do Vale do Silício e os imperativos operacionais do aparato de segurança nacional dos EUA.
No cerne do conflito está a recusa da Anthropic em modificar seus Termos de Serviço para aplicações militares. Embora a Anthropic tenha garantido um contrato de US$ 200 milhões com o Departamento de Defesa e seu modelo Claude seja atualmente o único Modelo de Linguagem de Grande Escala (Large Language Model - LLM) aprovado para uso em redes classificadas do Pentágono, a empresa traçou "linhas vermelhas" firmes sobre como sua tecnologia pode ser implantada.
Especificamente, a Anthropic restringe o uso do Claude para:
O Secretário Hegseth e oficiais do Pentágono argumentam que essas restrições corporativas privadas são impedimentos desnecessários à segurança nacional. A posição do Departamento de Defesa é de que suas operações já são regidas pela Constituição dos EUA e pela lei federal, tornando as camadas éticas adicionais da Anthropic redundantes e obstrucionistas.
De acordo com fontes familiarizadas com a reunião de terça-feira, Hegseth disse explicitamente a Amodei que os militares exigem acesso ao Claude para "todos os fins legais", sem "restrições ideológicas". Isso se alinha com a iniciativa mais ampla de Hegseth para garantir que os sistemas de IA militar sejam letais e sem entraves, uma postura que ele resumiu no início deste ano com a declaração de que a "IA do Pentágono não será woke".
A ameaça entregue à Anthropic não tem precedentes no setor comercial de IA. Se o prazo de sexta-feira passar sem concessão, o Pentágono delineou dois cursos de ação potenciais, ambos os quais teriam consequências devastadoras para o modelo de negócios da Anthropic.
A Lei de Produção de Defesa de 1950 concede ao Presidente ampla autoridade para obrigar as indústrias domésticas a priorizar contratos governamentais e alocar recursos para a defesa nacional. Historicamente usada durante tempos de guerra ou emergências como a pandemia de COVID-19, invocar a DPA para forçar uma empresa de software a alterar o código de segurança de seu produto seria uma aplicação jurídica inovadora. Essencialmente, o governo poderia legalmente exigir que a Anthropic fornecesse uma versão sem censura do Claude, anulando a constituição de segurança da empresa.
Talvez ainda mais prejudicial seja a ameaça de rotular a Anthropic como um "risco na cadeia de suprimentos". Essa designação é tipicamente reservada para adversários estrangeiros ou entidades comprometidas (semelhante às ações tomadas contra a Huawei ou a Kaspersky).
Se aplicada à Anthropic, este rótulo iria:
A urgência da demanda do Pentágono parece ligada a atritos operacionais recentes. Relatórios indicam que os militares dos EUA utilizaram o Claude durante uma incursão de operações especiais em janeiro de 2026 que resultou na captura do presidente venezuelano Nicolás Maduro. Embora a operação tenha sido bem-sucedida, surgiram disputas subsequentes sobre se o uso da IA violou as políticas de uso da Anthropic, levando ao que oficiais descreveram como um "déficit de confiança".
Além disso, o cenário da IA militar está mudando rapidamente. Enquanto a Anthropic demora, seus concorrentes estão se movendo para preencher o vazio. A xAI de Elon Musk supostamente concordou com os termos de "qualquer uso legal" do Pentágono, e seus modelos foram recentemente liberados para trabalho classificado. Da mesma forma, OpenAI e Google estão disputando ativamente uma fatia maior do orçamento de defesa.
Para a Anthropic, o dilema é existencial. O CEO Dario Amodei construiu a reputação da empresa no desenvolvimento de "segurança em primeiro lugar" (safety-first). Capitular à demanda por armamento autônomo alienaria sua equipe principal de pesquisa e contradiria sua missão fundadora. No entanto, perder o governo dos EUA como cliente — e enfrentar a DPA — poderia prejudicar sua posição financeira e acesso ao mercado.
Para esclarecer o que está em jogo no prazo desta sexta-feira, dividimos as posições opostas abaixo.
Tabela: Demandas do Pentágono vs. Política da Anthropic
---|---|----
Requisito Principal|Posição do Pentágono|Posição da Anthropic
Limites de Uso|Exige "todos os casos de uso legal", incluindo aplicações de combate.|Proíbe o direcionamento autônomo e a vigilância em massa.
Supervisão|Baseia-se na Lei dos EUA, na Constituição e na Cadeia de Comando.|Baseia-se em protocolos internos de segurança de "IA Constitucional" (Constitutional AI).
Controle Humano|Aberto a sistemas autônomos se legalmente liberados.|Exige "humano no circuito" (human-in-the-loop) para todas as decisões letais.
Consequência da Falha|Invocação da Lei de Produção de Defesa; Lista Negra de Cadeia de Suprimentos.|Perda potencial de contrato de US$ 200 milhões; danos à reputação.
Status|Buscando "supremacia operacional" sem restrições de fornecedores.|Defendendo o "escalonamento responsável" e limites éticos.
O resultado desse impasse estabelecerá um precedente permanente para o relacionamento entre o governo dos EUA e o setor privado de IA. Se o Pentágono usar com sucesso a DPA para remover as barreiras de proteção de segurança, ele efetivamente nacionaliza os padrões éticos dos modelos de IA usados para defesa. As empresas privadas não teriam mais o direito de recusar serviços para aplicações militares específicas com base em objeções morais.
Por outro lado, se a Anthropic mantiver sua posição e sobreviver às consequências, estabelece que as capacidades de IA de alto nível continuam sendo um mercado de vendedores, onde o provedor dita os termos de engajamento.
O prazo de sexta-feira serve como um ponto crítico. A indústria de tecnologia está esperando para ver se a dinâmica da era de transição Biden-Trump — onde a segurança nacional supera agressivamente a política corporativa — forçará a mão do player mais idealista do Vale do Silício. No estado atual, a Anthropic é o único grande laboratório que resiste à integração total de sua inteligência na máquina de guerra. Até o fim de semana, essa distinção pode não mais existir.
Creati.ai continuará a atualizar esta história à medida que o prazo se aproxima.