
Em uma rara demonstração de solidariedade intersetorial que transcende as rivalidades corporativas, funcionários do Google e da OpenAI uniram forças para apoiar a Anthropic em seu impasse de alto risco com o Departamento de Defesa dos EUA (U.S. Department of Defense). Na sexta-feira, 27 de fevereiro de 2026, mais de 300 funcionários do Google DeepMind e mais de 60 da OpenAI assinaram uma carta aberta intitulada "Não Seremos Divididos" ("We Will Not Be Divided"), instando suas respectivas lideranças a permanecerem firmes contra a exigência do Pentágono de acesso irrestrito a modelos avançados de IA.
Esta ação coletiva marca um momento crucial no debate contínuo sobre a militarização da inteligência artificial. Ela destaca uma fenda crescente entre os desenvolvedores de modelos de IA de fronteira (frontier AI models), que buscam manter salvaguardas éticas, e autoridades de defesa que veem essas tecnologias como ativos críticos em uma "corrida armamentista de tempo de guerra". Enquanto o Pentágono ameaça invocar a Lei de Produção de Defesa (Defense Production Act - DPA) para forçar a conformidade, a força de trabalho tecnológica está sinalizando que as "linhas vermelhas" éticas em relação a armas autônomas e vigilância doméstica são não negociáveis.
No cerne desta controvérsia está a recusa da Anthropic em modificar seus Termos de Serviço para acomodar a solicitação do Pentágono de "uso irrestrito" de seus modelos Claude. A Anthropic, liderada pelo CEO Dario Amodei, tem mantido consistentemente duas proibições específicas em seus contratos governamentais:
O Departamento de Defesa, representado pelo Secretário de Defesa Pete Hegseth, teria exigido que a Anthropic renunciasse a essas restrições específicas e permitisse o uso para "todos os fins legais". Embora o Pentágono afirme que não tem intenção de realizar vigilância ilegal, ele argumenta que a linguagem contratual que restringe o uso "legal" cria vulnerabilidades operacionais e estabelece um precedente perigoso para o controle de fornecedores sobre as capacidades militares.
A carta aberta dos funcionários do Google e da OpenAI endossa explicitamente a posição da Anthropic. "Esperamos que nossos líderes deixem de lado suas diferenças e se unam para continuar a recusar as atuais demandas do Departamento de Guerra", afirma a carta. Os signatários argumentam que a campanha de pressão do governo foi projetada para fraturar o consenso ético da indústria, jogando as empresas umas contra as outras.
O impasse escalou significativamente no final de fevereiro de 2026, quando o Pentágono teria emitido um ultimato à Anthropic. O não cumprimento do prazo de sexta-feira poderia resultar na invocação da Lei de Produção de Defesa (DPA) — uma lei da era da Guerra Fria que permite ao presidente obrigar empresas privadas a priorizar contratos de defesa nacional.
Além disso, autoridades de defesa ameaçaram rotular a Anthropic como um "risco na cadeia de suprimentos" (supply chain risk) se ela não ceder às demandas. Essa designação, normalmente reservada a entidades estrangeiras consideradas hostis aos interesses dos EUA (como certas empresas de telecomunicações chinesas), efetivamente colocaria a Anthropic em uma lista negra de compras federais e poderia prejudicar sua reputação comercial.
A carta aberta condena essas táticas como retaliatórias. "O Departamento de Guerra está ameaçando invocar a Lei de Produção de Defesa... tudo em retaliação à Anthropic por manter suas linhas vermelhas", diz o texto. Os funcionários alertam que, se o Pentágono conseguir coagir a Anthropic, voltará sua atenção para o Google e a OpenAI em seguida, exigindo a remoção de suas salvaguardas restantes sob o pretexto de padronização.
Um tema central da carta dos funcionários é a acusação de que o Pentágono está utilizando uma estratégia de "dividir e conquistar". Ao negociar separadamente com o Google, a OpenAI e a Anthropic, o Departamento de Defesa cria um dilema do prisioneiro: cada empresa teme que, se mantiver seus padrões éticos, um concorrente capitulará e garantirá os lucrativos contratos governamentais.
"Eles estão tentando dividir cada empresa com o medo de que a outra ceda", explica a carta. "Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros."
Esse medo não é infundado. Relatórios indicam que a OpenAI e o Google mostraram anteriormente mais flexibilidade em suas negociações em relação ao uso militar "não classificado". No início de 2024, a OpenAI removeu discretamente a proibição explícita de "uso militar e de guerra" de suas políticas de uso, substituindo-a por uma proibição mais geral de "dano", ostensivamente para permitir colaborações de segurança cibernética e alívio de desastres com os militares. No entanto, a demanda atual por autonomia letal irrestrita e capacidades de vigilância parece ser um passo longe demais até mesmo para a força de trabalho dessas empresas mais permissivas.
Para entender o cenário deste conflito, é essencial comparar as atuais posturas públicas dos principais laboratórios de IA em relação à integração militar.
Tabela: Principais Laboratórios de IA e Posturas de Política Militar
| Empresa | Postura Principal sobre Uso Militar | "Linhas Vermelhas" Específicas | Status das Relações com o Pentágono |
|---|---|---|---|
| Anthropic | Cooperação Estritamente Condicional | Não negociável: Sem vigilância doméstica. Não negociável: Sem armas letais autônomas. |
Hostil: Enfrentando ameaças de invocação da DPA e rotulação de "Risco na Cadeia de Suprimentos". |
| OpenAI | Colaborativa / Em Evolução | Geralmente se opõe a armas autônomas. A política mudou em 2024 para permitir uso em "segurança nacional". |
Negociação Ativa: CEO Sam Altman estaria buscando salvaguardas semelhantes às da Anthropic. |
| Cautelosa / Tensão Interna | Princípios de IA (2018): Sem armas ou vigilância que viole direitos humanos. Proíbe tecnologia cujo propósito principal seja o dano. |
Tensa: Funcionários pressionando a liderança (Jeff Dean) para manter os compromissos de 2018. | |
| Microsoft | Parceira Estratégica | Alinha-se com a legalidade do cliente (DoD). Fornece infraestrutura para modelos classificados. |
Integrada: Profundamente inserida na infraestrutura de defesa via parceria Azure/OpenAI. |
A atual onda de ativismo traça paralelos diretos com a controvérsia do "Projeto Maven" (Project Maven) do Google em 2018. Durante aquele período, milhares de funcionários do Google assinaram uma petição protestando contra um contrato do Pentágono para usar IA na análise de imagens de drones, eventualmente forçando a empresa a deixar o contrato expirar e lançar um conjunto de "Princípios de IA" que proibia o uso da IA do Google para armamentos.
No entanto, o clima geopolítico de 2026 é marcadamente diferente. Com a intensificação da competição global de IA e as ameaças percebidas de nações rivais, a pressão para implantar capacidades de "IA soberana" (Sovereign AI) aumentou. A carta "Não Seremos Divididos" sugere que os trabalhadores de tecnologia estão agudamente conscientes de que as vitórias éticas de 2018 estão sendo erodidas.
"Esta carta serve para criar um entendimento compartilhado e solidariedade diante desta pressão", escreveram os funcionários. A coalizão inclui engenheiros, pesquisadores e equipes de política que argumentam que a implantação de IA na guerra requer uma responsabilidade humana estrita — uma característica que os sistemas totalmente autônomos inerentemente não possuem.
A resposta da liderança corporativa tem sido mista, mas indica que a pressão está funcionando. Após a divulgação da carta, surgiram relatos de que o CEO da OpenAI, Sam Altman, dirigiu-se à equipe, afirmando que ele também está buscando um acordo com o Pentágono que inclua linhas vermelhas semelhantes às da Anthropic. Isso sugere que a "frente unida" solicitada pelos funcionários pode estar se formando também no nível executivo.
No Google, a pressão interna é direcionada a Jeff Dean, Cientista-Chefe do Google DeepMind. Uma carta interna separada, assinada por mais de 100 funcionários do Google, instou-o especificamente a garantir que o Google não prejudique a posição da Anthropic.
O confronto entre a Anthropic e o Pentágono, amplificado pelo apoio dos funcionários do Google e da OpenAI, representa uma conjuntura crítica na história da governança tecnológica. Ele coloca uma questão fundamental: Quem decide, em última instância, como a IA poderosa é usada — o governo que a financia ou os criadores que entendem seus riscos?
Se o Pentágono usar com sucesso a Lei de Produção de Defesa para forçar a mão da Anthropic, isso poderá estabelecer um precedente de que os interesses de segurança nacional se sobrepõem aos compromissos éticos do setor privado. Por outro lado, se a "frente unida" dos trabalhadores de tecnologia se mantiver, poderá forçar os militares a aceitar que, mesmo na guerra, a implantação da inteligência artificial deve ter limites.
À medida que o prazo de sexta-feira passa e a indústria aguarda o próximo passo do Pentágono, a solidariedade demonstrada por esses mais de 360 funcionários serve como um lembrete de que o elemento humano no desenvolvimento da IA continua sendo uma força política potente.
Este relatório é baseado em eventos ocorridos até 1º de março de 2026.