
O equilíbrio precário entre o desenvolvimento de Inteligência Artificial (Artificial Intelligence - AI) ética e os imperativos de segurança nacional atingiu um ponto de rutura. A Anthropic, o laboratório de IA sediado em São Francisco, reconhecido pela sua "IA Constitucional" (Constitutional AI) e filosofia de segurança em primeiro lugar, enfrenta uma ameaça existencial do seu mais poderoso potencial cliente: o Departamento de Defesa dos Estados Unidos (Department of Defense - DoD). Relatórios confirmam que o Pentágono está a considerar ativamente designar a Anthropic como um "risco na cadeia de suprimentos" (supply chain risk), um rótulo draconiano tipicamente reservado a adversários estrangeiros, após disputas acaloradas sobre o uso dos seus modelos Claude em operações militares ativas.
No centro desta tempestade está um contrato de defesa de 200 milhões de dólares e um desacordo fundamental sobre o papel dos agentes autónomos na guerra. Enquanto concorrentes como a OpenAI e a xAI se moveram para acomodar a exigência militar para "todos os fins legais", a Anthropic manteve-se firme nas suas linhas vermelhas—especificamente em relação à vigilância em massa e armas letais totalmente autónomas. O conflito escalou de negociações em salas de reuniões para uma potencial lista negra em todo o setor, sinalizando um momento decisivo para a integração da IA de fronteira na base industrial de defesa.
A fricção entre a Anthropic e os oficiais de defesa terá transbordado após uma operação classificada em janeiro de 2026, envolvendo a tentativa de captura do ex-presidente venezuelano Nicolás Maduro. Segundo fontes familiarizadas com o assunto, o Pentágono utilizou o Claude—através de uma integração com o parceiro de análise de dados Palantir—para processar inteligência em tempo real durante a missão.
Embora a operação tenha sido considerada um sucesso tático pelos padrões militares, o rescaldo desencadeou uma grave rutura diplomática entre a empresa tecnológica e o DoD. Durante uma revisão rotineira pós-operação, os engenheiros da Anthropic terão questionado a aplicação específica do seu modelo na incursão, levantando preocupações de que a implementação se aproximou demasiado de cadeias de decisão letais. Esta investigação foi percebida pela liderança do Pentágono não como uma supervisão responsável, mas como uma intrusão inaceitável de um fornecedor privado na conduta militar soberana.
O Secretário de Defesa, Pete Hegseth, adotou desde então uma postura de linha dura, afirmando alegadamente que o DoD "não empregará modelos que não permitam lutar guerras". O sentimento reflete uma frustração crescente dentro do Pentágono de que as salvaguardas ideológicas da Anthropic são incompatíveis com a velocidade e letalidade exigidas no conflito moderno. O DoD argumenta que, se um caso de uso é legal sob o direito internacional e dos EUA, os seus fornecedores de tecnologia não devem ter poder de veto baseado em moralidade corporativa privada.
O cerne da disputa reside nas definições divergentes de "segurança". Para a Anthropic, a segurança está codificada na própria arquitetura do Claude, desenhada para recusar pedidos que violem a sua constituição—incluindo permitir abusos de direitos humanos ou atuar como uma arma totalmente autónoma. Para o Pentágono, segurança significa a garantia de que uma ferramenta funcionará de forma fiável e sem restrições quando um comandante emitir uma ordem legal.
A Anthropic recusou explicitamente ultrapassar dois limiares específicos:
Embora estas restrições se alinhem com os valores de muitos na comunidade de investigação de IA, são vistas como passivos pelos planeadores de defesa. O contra-argumento do Pentágono é que "todos os fins legais" abrange uma vasta gama de atividades letais e de vigilância necessárias para a defesa nacional. Ao recusar conceder uma isenção geral para estas categorias, a Anthropic é vista como criando uma lacuna de fiabilidade que pode colocar em perigo o pessoal no terreno.
A tabela abaixo descreve a posição atual dos principais laboratórios de IA em relação à integração militar:
Comparação da Postura dos Principais Laboratórios de IA em Relação a Contratos de Defesa
---|---|----
Laboratório de IA|Postura Militar|Principais Conflitos/Status
Anthropic|Restritiva / Salvaguardas Éticas|Risco de designação de "Risco na Cadeia de Suprimentos" devido à recusa de autonomia letal.
OpenAI|Flexível / Colaborativa|Removeu a proibição de "militar e guerra"; negociando laços mais estreitos para uso "legal".
xAI|Sem restrições / Belicista|Cortejando agressivamente contratos de defesa; alinhada com iniciativas de defesa "America First".
Google (DeepMind)|Moderada / Específica por Projeto|Resistência interna histórica (Project Maven), mas em busca de contratos JADC2.
O aspeto mais alarmante desta história em desenvolvimento é a ameaça do Pentágono de rotular a Anthropic como um "risco na cadeia de suprimentos" (supply chain risk). Esta designação é muito mais prejudicial do que simplesmente perder um único contrato de 200 milhões de dólares. No ecossistema de contratação federal, um rótulo de risco na cadeia de suprimentos funciona como um contágio.
Se aplicado, obrigaria legalmente os contratantes principais—como a Lockheed Martin, Northrop Grumman e Palantir—a remover o código da Anthropic dos seus sistemas para manter a sua própria elegibilidade para trabalho governamental. Poderia efetivamente exilar o Claude de todo o mercado federal, incluindo agências não militares que aderem aos padrões de segurança do DoD.
Analistas da indústria alertam que este movimento foi desenhado para fazer da Anthropic um exemplo. "O Pentágono está a enviar uma mensagem clara para Silicon Valley", observa um especialista em política de defesa do Lawfare Institute. "Podem ter as vossas declarações de ética, ou podem ter contratos governamentais, mas não podem ditar as regras de engajamento às forças armadas dos Estados Unidos."
O momento deste embate não é coincidência. Surge quando a Anthropic lança a sua mais recente geração de "agentes autónomos" (autonomous agents)—sistemas de IA capazes de executar tarefas complexas de várias etapas com intervenção humana mínima. À medida que estes agentes passam de chatbots para operadores ativos capazes de escrever código, controlar sistemas cibernéticos e analisar dados geoespaciais, os riscos para o seu controlo aumentaram exponencialmente.
O Pentágono vê estes agentes autónomos como críticos para manter a paridade com adversários de nível próximo, como a China, que estão a integrar rapidamente a IA nas suas cadeias de abate. O receio dentro do DoD é que confiar num modelo que possa "recusar" um comando durante uma ofensiva cibernética crítica ou coordenação de enxames de drones é uma vulnerabilidade estratégica que não podem permitir.
Enquanto a Anthropic mantém a sua posição, os seus concorrentes estão a capitalizar a rutura. Relatórios indicam que a xAI e a OpenAI aceleraram os seus processos de autorização, oferecendo versões "não censuradas" ou "capazes de missão" dos seus modelos para ambientes classificados. Estas alternativas prometem ao Pentágono exatamente o que ele exige: capacidades de inteligência poderosas sem a fricção da arbitragem moral.
Para os leitores da Creati.ai e para a indústria tecnológica em geral, este impasse representa uma divergência crucial. Se a Anthropic for penalizada, isso poderá arrefecer as iniciativas de "segurança em primeiro lugar" em todo o setor, incentivando os laboratórios a priorizar a conformidade em detrimento da consciência. Por outro lado, se a Anthropic mantiver a sua posição, poderá estabelecer um novo precedente onde a ética do setor privado trava com sucesso a automatização desenfreada da guerra.
À medida que o prazo para a renovação do contrato se aproxima, a indústria observa com expectativa. O resultado decidirá não apenas o destino de um negócio de 200 milhões de dólares, mas se o futuro da IA militar será moldado pelas exigências do Pentágono ou pelas linhas vermelhas éticas dos seus criadores.