
Em uma revelação que expõe o abismo crescente entre as diretrizes políticas de Washington e as realidades operacionais da guerra moderna, relatórios confirmam que os militares dos EUA dependeram fortemente da IA Claude (Claude AI) da Anthropic durante os ataques aéreos massivos de sábado contra o Irã. Esse uso ocorreu poucas horas após o Presidente Donald Trump emitir uma Ordem Executiva (Executive Order) abrangente proibindo a ferramenta em todas as agências federais.
A operação, que visou locais importantes de mísseis iranianos e infraestrutura de comando e controle, foi executada com precisão parcialmente atribuída a avaliações de inteligência avançadas processadas pelo Claude. O incidente destaca uma contradição gritante: a própria tecnologia designada como um "risco à segurança nacional" (national security risk) pelo Comandante-em-Chefe na noite de sexta-feira foi, na manhã de sábado, instrumental na execução de um dos engajamentos militares mais significativos da década.
A sequência de eventos que antecedeu os ataques ilustra a fricção entre a rápida integração tecnológica e a governança burocrática. Na sexta-feira, 27 de fevereiro de 2026, a Casa Branca intensificou sua disputa de meses com a Anthropic. Citando a recusa da empresa em remover "linhas vermelhas" (red lines) éticas em relação à força letal autônoma, o Presidente Trump ordenou a cessação imediata de todos os contratos governamentais com a empresa de IA sediada em São Francisco.
O Secretário de Defesa Pete Hegseth reforçou essa diretriz no final da noite de sexta-feira, designando formalmente a Anthropic como um "risco na cadeia de suprimentos" (supply chain risk) — uma classificação historicamente reservada para adversários estrangeiros como a Huawei. No entanto, enquanto o sol nascia sobre o Oriente Médio no sábado, o US Central Command (CENTCOM) já estava profundamente na fase operacional dos ataques, utilizando o software proibido para processar dados do campo de batalha em tempo real.
A tabela a seguir descreve as diretrizes e ações conflitantes que definiram essa janela caótica de 24 horas:
Diretriz vs. Realidade: O Conflito de 24 Horas
---|---|----
Diretriz de Política (Sexta-feira)|Realidade Operacional (Sábado)|Resultado
Ordem Presidencial: Cessação imediata de todas as ferramentas da Anthropic.|Uso do CENTCOM: Uso contínuo do Claude para inteligência em tempo real.|Violação direta da Executive Order durante combate ativo.
Classificação do DoD: "Risco na Cadeia de Suprimentos" e "Ameaça à Segurança Nacional".|Dependência no Campo de Batalha: Usado para identificação de alvos e simulação de cenários.|Dependência comprovada de tecnologia "proibida" para o sucesso da missão.
Status do Fornecedor: Todos os contratados ordenados a cortar laços.|Nível de Integração: Profundamente incorporado nos fluxos de trabalho de comando.|Remoção imediata considerada operacionalmente impossível.
De acordo com fontes de defesa, a aplicação específica do Claude durante os ataques ao Irã foi muito além de tarefas administrativas básicas. O modelo de IA foi supostamente usado para sintetizar vastas quantidades de imagens de satélite, inteligência de sinais (SIGINT) e dados de fontes abertas para identificar alvos viáveis dentro da complexa rede de defesa aérea do Irã.
Especialistas militares sugerem que a capacidade do Claude de processar dados "não estruturados" deu aos planejadores uma vantagem crítica de velocidade. Nas horas que antecederam o ataque, a IA auxiliou em:
A dependência do Claude para essas aplicações letais contradiz diretamente os próprios Termos de Serviço (Terms of Service) da Anthropic, que proíbem estritamente o uso de seus modelos para "fins violentos" ou "desenvolvimento de armas". Isso sugere que o Pentágono pode ter utilizado uma versão desbloqueada ("jailbroken") ou localizada do modelo, ou simplesmente ignorado as restrições éticas do fornecedor no calor da batalha.
A proibição emitida pelo Presidente Trump não foi meramente processual, mas ideológica. O governo criticou frequentemente a Anthropic por sua abordagem de "IA Constitucional" (Constitutional AI), que incorpora princípios de segurança que a Casa Branca vê como impedimentos progressistas ("woke") à dominância militar americana.
No Truth Social, o Presidente atacou a empresa como uma organização de "Extrema Esquerda", argumentando que sua recusa em conceder ao Pentágono acesso irrestrito ao seu código constituía uma traição. A posição do governo é clara: em tempos de guerra, os militares dos EUA devem ter controle absoluto sobre seu arsenal digital, sem as preocupações morais dos engenheiros do Vale do Silício.
Essa postura política culminou no ultimato de sexta-feira entregue pelo Secretário Hegseth. A exigência era simples: a Anthropic deve renunciar às suas "linhas vermelhas" — especificamente aquelas que impedem o direcionamento autônomo sem supervisão humana — ou enfrentar uma lista negra federal total. Quando o CEO Dario Amodei recusou, a proibição foi assinada.
O incidente desencadeou uma crise silenciosa, mas intensa, dentro do Pentágono. Enquanto a liderança política sob Hegseth está alinhada com a proibição do Presidente, a liderança uniformizada e os comandantes operacionais enfrentam uma realidade diferente. Para eles, ferramentas de IA como o Claude tornaram-se tão essenciais quanto o GPS.
"Você não pode simplesmente 'desinstalar' uma camada fundamental de inteligência seis horas antes de um ataque", observou um analista de defesa. "A Casa Branca tratou isso como excluir um aplicativo de um telefone, mas na realidade, é mais como arrancar a fiação de uma casa enquanto as luzes estão acesas."
Essa desconexão sugere que, embora exista vontade política para se afastar de provedores de IA "eticamente restritos", a transição técnica é muito mais lenta. O resultado imediato foi uma corrida de competidores para preencher o vazio, com a OpenAI supostamente finalizando um acordo confidencial para implantar seus modelos nos sistemas do DoD apenas algumas horas após o anúncio da proibição da Anthropic.
Os eventos deste fim de semana servem como um estudo de caso crítico para o futuro da governança da IA. O "Paradoxo da Anthropic" — onde uma ferramenta é simultaneamente um risco de segurança proibido e um ativo crítico de combate — expõe a fragilidade das políticas atuais de aquisição de IA.
As principais conclusões para a indústria de defesa incluem:
As poeira baixa sobre os alvos no Irã, a batalha em Washington está apenas começando. Espera-se que o governo lance uma investigação sobre a desobediência do CENTCOM à proibição, potencialmente levando a cortes marciais ou renúncias. No entanto, a vitória silenciosa pertence ao algoritmo: independentemente da política, a IA estava no circuito, e funcionou.
Os ataques dos EUA ao Irã remodelaram o cenário geopolítico, mas também traçaram uma nova linha de batalha no setor tecnológico doméstico. O uso da Claude AI da Anthropic em violação direta de uma ordem presidencial prova que, na era moderna, a capacidade tecnológica muitas vezes se sobrepõe à autoridade política.
Para Creati.ai, isso marca um ponto de virada. A era da IA de "uso duplo" (dual-use) — onde o mesmo modelo escreve poesia e planeja ataques aéreos — pode estar chegando ao fim. Em seu lugar, estamos testemunhando a bifurcação da indústria em IA "segura para civis" e ferramentas de "nível militar", com o governo dos EUA exigindo que seus soldados de silício sigam ordens tão cegamente quanto os humanos.