
Em uma medida que fratura fundamentalmente o relacionamento entre os laboratórios de IA focados em segurança do Vale do Silício e as forças armadas dos EUA, o Secretário de Defesa, Pete Hegseth, designou formalmente a Anthropic como um "risco na cadeia de suprimentos (supply chain risk) para a segurança nacional". A designação, anunciada no final da sexta-feira, rompe efetivamente os laços da empresa de Inteligência Artificial (Artificial Intelligence - AI) com o governo federal e proíbe que dezenas de milhares de contratantes de defesa utilizem sua tecnologia.
A ação sem precedentes segue um impasse dramático entre a liderança da Anthropic e o Pentágono — referido pela atual administração como o Departamento de Guerra — sobre os limites éticos da inteligência artificial em combate. Após a designação, o Presidente Donald Trump emitiu uma diretriz ordenando que todas as agências federais "cessem imediatamente" o uso dos produtos da Anthropic, incluindo seu modelo principal Claude, com um período estrito de desativação de seis meses.
"Esta semana, a Anthropic deu uma aula mestre de arrogância e traição", afirmou Hegseth no X (antigo Twitter), anunciando a proibição apenas algumas horas após a expiração de um ultimato às 17h01. "Nenhum contratante, fornecedor ou parceiro que faça negócios com os militares dos Estados Unidos poderá realizar qualquer atividade comercial com a Anthropic."
Esta designação cria uma escolha binária para a base industrial de defesa americana: abandonar o Claude ou perder seus contratos governamentais. É uma classificação historicamente reservada para adversários estrangeiros como a Huawei ou o Kaspersky Lab, marcando a primeira vez que um laboratório de IA americano de primeira linha é alvo de um mecanismo tão severo.
O conflito centra-se em uma discordância fundamental em relação à "Política de Uso Aceitável" (Acceptable Use Policy - AUP) que governa como os modelos de IA podem ser implantados. Durante meses, as negociações entre a Anthropic e oficiais de defesa estagnaram em relação a duas "linhas vermelhas" não negociáveis estabelecidas pela empresa:
Oficiais de defesa argumentaram que essas restrições eram incompatíveis com as necessidades de segurança nacional, exigindo que a Anthropic concedesse aos militares "acesso irrestrito" para "todos os fins legais".
O CEO da Anthropic, Dario Amodei, recusou-se a capitular. Em um comunicado divulgado logo após a designação, Amodei argumentou que os modelos de fronteira (frontier models) atuais não são confiáveis o suficiente para serem incumbidos de autonomia letal. "Não podemos, em sã consciência, aceder ao pedido deles", disse Amodei. "Permitir que os modelos atuais sejam usados desta forma colocaria em perigo os combatentes e civis da América."
Fontes internas sugerem que a fricção atingiu o ponto de ebulição em janeiro de 2026, após relatos de que o Claude foi utilizado em conjunto com o software da Palantir durante uma operação militar dos EUA na Venezuela. A operação, que resultou na captura de Nicolás Maduro, teria provocado um alarme interno na Anthropic sobre como sua tecnologia estava sendo interpretada por operadores militares, endurecendo a determinação da empresa em aplicar salvaguardas mais rigorosas.
As implicações da lista negra da Anthropic foram imediatas e nitidamente ilustradas por seu principal concorrente. Meras horas após o anúncio do Pentágono, a OpenAI confirmou que havia chegado a um novo acordo com o Departamento de Defesa para implantar seus modelos em redes classificadas.
Embora o CEO da OpenAI, Sam Altman, tenha afirmado que o acordo inclui "salvaguardas técnicas" e princípios sobre responsabilidade humana, o momento sugere uma divergência clara na indústria. O mercado está agora se dividindo em dois campos distintos: aqueles dispostos a se alinhar totalmente com a "Doutrina Hegseth" de aplicação militar irrestrita e aqueles que tentam manter controles éticos independentes.
A tabela abaixo descreve a divergência de política que levou a este cisma histórico:
Comparação de Postura Política
| Recurso | Posição da Anthropic | Demanda do DoD / Hegseth |
|---|---|---|
| Armas Autônomas | Estritamente Proibido (Citando Confiabilidade) | Permitido ("Todos os Fins Legais") |
| Vigilância Doméstica | Estritamente Proibido (Liberdades Civis) | Permitido (Prioridade de Segurança Nacional) |
| Status do Contrato | Designada como Risco na Cadeia de Suprimentos | Buscando "Acesso Irrestrito" |
| Controle Operacional | Salvaguardas Definidas pelo Fornecedor | Parâmetros Definidos pelo Governo |
A retórica do Secretário Hegseth enquadrou a disputa não meramente como um desentendimento contratual, mas como uma batalha ideológica. Ao rotular a Anthropic como uma "empresa woke de esquerda radical", a administração está sinalizando que a recusa em cumprir as demandas militares será tratada como falta de patriotismo.
Isso coloca os principais contratantes de defesa em uma posição precária. Empresas como Lockheed Martin, Boeing e Northrop Grumman — muitas das quais utilizam vários modelos de IA para codificação, logística e análise — devem agora auditar suas cadeias de suprimentos para garantir que o Claude seja totalmente removido. A ordem proíbe "atividade comercial", um termo amplo que poderia teoricamente penalizar um contratante de defesa se seu departamento de RH usar o Claude para redigir e-mails ou se suas equipes de engenharia o usarem para geração de código não classificado.
Especialistas jurídicos alertam que a designação de "risco na cadeia de suprimentos", normalmente usada sob autoridades como a Lei de Segurança da Cadeia de Suprimentos de Aquisição Federal (FASCSA), é projetada para proteger contra espionagem e sabotagem, não para punir empresas domésticas por discordâncias políticas.
A Anthropic prometeu contestar a designação na justiça, chamando-a de "legalmente infundada". A empresa argumenta que o Pentágono carece de autoridade estatutária para banir uma empresa privada americana de toda a cadeia de suprimentos federal simplesmente por se recusar a alterar seus Termos de Serviço.
"Acreditamos que esta designação... estabelece um precedente perigoso para qualquer empresa americana que negocie com o governo", afirmou a Anthropic. A empresa sustenta que o governo está tentando usar seu poder de monopsônio para compelir discursos e o uso de códigos que violam os princípios constitucionais fundamentais da firma.
No entanto, os tribunais historicamente deram ao Poder Executivo ampla latitude em questões de segurança nacional. Até que um juiz intervenha, a proibição permanece, bloqueando efetivamente um dos sistemas de IA mais avançados do mundo do setor público e forçando toda a indústria de tecnologia a escolher lados em uma guerra em rápida escalada pela alma da IA militar.