
Em um movimento que pode reformular a relação entre o establishment de defesa dos EUA e o setor privado de inteligência artificial, a Senadora Elissa Slotkin (D-MI) apresentou uma proposta legislativa histórica projetada para impor limites legais estritos e não negociáveis ao uso de inteligência artificial pelo Pentágono. Esta iniciativa surge logo após um impasse de alto nível entre o Departamento de Defesa (DoD — Department of Defense) e a desenvolvedora de IA Anthropic, iluminando um conflito crescente sobre como modelos poderosos de IA generativa (Generative AI) devem ser implantados em operações militares e de inteligência.
A proposta da Senadora Slotkin, que está sendo posicionada para uma potencial integração na próxima Lei de Autorização de Defesa Nacional (National Defense Authorization Act — NDAA), visa consagrar na lei federal "linhas vermelhas" específicas sobre a capacidade e implantação de IA. À medida que os militares dos EUA aceleram a adoção de tecnologias emergentes, a ausência de fronteiras legislativas claras desencadeou um intenso debate entre legisladores, defensores da privacidade e líderes da indústria.
No cerne da legislação estão três proibições fundamentais e distintas. Ao codificar essas restrições, a Senadora Slotkin visa impedir que o Departamento de Defesa aproveite a IA avançada de formas que possam representar riscos éticos, legais ou existenciais significativos às normas democráticas e à estabilidade global.
As "linhas vermelhas" propostas são as seguintes:
A urgência por trás do projeto de lei da Senadora Slotkin está diretamente ligada às recentes tensões envolvendo o Departamento de Defesa e a Anthropic, uma das principais desenvolvedoras de IA nos Estados Unidos. Relatos indicaram que o Pentágono, sob a liderança do Secretário Pete Hegseth, buscou adquirir capacidades de IA da Anthropic. No entanto, a empresa teria resistido em fornecer acesso irrestrito aos seus modelos, objetivando especificamente requisitos que permitiriam aos militares usar a tecnologia para segmentação letal autônoma ou vigilância doméstica.
Este ponto de fricção destacou uma desconexão crítica: o DoD vê a IA como um imperativo estratégico, muitas vezes pressionando pela máxima flexibilidade operacional, enquanto muitas empresas de IA de primeira linha estão cada vez mais comprometidas com a "IA Constitucional" (Constitutional AI) e filosofias de desenvolvimento que priorizam a segurança. O impasse sugere que, sem clareza legislativa, o governo dos EUA corre o risco de uma alienação estratégica dos mesmos parceiros do setor privado nos quais confia para a supremacia tecnológica.
A legislação da Senadora Slotkin visa resolver essa incerteza estabelecendo regras de engajamento padrão para todos os contratados. Ao codificar esses limites, o governo criaria efetivamente um "porto seguro" (safe harbor) para as empresas de tecnologia, permitindo que elas apoiem objetivos de defesa sem medo de que seus modelos sejam manipulados para violar as restrições éticas que construíram em seus sistemas.
Para entender as implicações do projeto de lei, é útil categorizar as restrições juntamente com as justificativas que as impulsionam. A tabela a seguir fornece uma análise das salvaguardas legislativas propostas:
| Restrição | Justificativa Primária | Impacto Potencial |
|---|---|---|
| Autonomia Letal | Prevenir perda de vida não comandada | "Humano no Circuito" (Human-in-the-Loop) obrigatório para força letal |
| Vigilância em Massa | Proteger liberdades civis | Restrições no uso/direcionamento de dados domésticos |
| Comando Nuclear | Prevenir risco sistêmico catastrófico | Proibição explícita de IA em cadeias de decisão de Armas de Destruição em Massa (WMD) |
Embora a proposta tenha ganhado tração como ponto de discussão no Comitê de Serviços Armados do Senado, o caminho para a promulgação continua repleto de obstáculos políticos. O establishment de defesa, incluindo a atual liderança do DoD, historicamente tem sido cauteloso com restrições "abrangentes", muitas vezes argumentando que tais limitações poderiam ceder uma vantagem competitiva a adversários como a China, que também estão investindo pesadamente em IA militar.
A Senadora Slotkin está defendendo a inclusão dessas disposições na Lei de Autorização de Defesa Nacional (NDAA), a legislação anual de "passagem obrigatória" que financia as forças armadas dos EUA. Ao vincular as salvaguardas de IA à NDAA, os apoiadores acreditam que podem forçar a questão para o debate principal da política de defesa, tornando difícil para o ramo executivo contornar a conversa.
No entanto, a oposição continua significativa. Críticos dentro do aparato de segurança argumentam que a tecnologia deve ser governada por políticas administrativas em vez de estatutos rígidos, que poderiam ter dificuldade em acompanhar a rápida evolução da IA. Por outro lado, grupos da sociedade civil e alguns legisladores moderados argumentam que a política por si só é insuficiente, observando que ordens executivas podem ser anuladas por administrações subsequentes, enquanto a lei federal fornece uma estrutura duradoura para a responsabilidade.
O debate desencadeado pelo projeto de lei de Slotkin transcende as preocupações imediatas do Pentágono e da Anthropic. Ele toca na tensão fundamental do século XXI: o equilíbrio entre a rápida adoção tecnológica e a preservação das salvaguardas democráticas.
Para os observadores da Creati.ai, este desenvolvimento serve como um teste decisivo para a indústria. Sinaliza um afastamento da era "mova-se rápido e quebre as coisas" (move fast and break things) do desenvolvimento tecnológico e em direção a uma fase mais madura, onde a engenharia ética é um pré-requisito para a parceria governamental. Se aprovada, a legislação provavelmente estabelecerá um precedente global, influenciando como outras nações abordam a regulação da IA em contextos militares.
Em última análise, o impulso da Senadora Slotkin por legislação representa um reconhecimento de que a IA não é meramente uma ferramenta, mas uma força transformadora. Ao estabelecer limites agora, os EUA têm a oportunidade de liderar no desenvolvimento de IA "responsável", garantindo que a próxima geração de tecnologia de defesa continue sendo uma serva da intenção humana, em vez de um motor autônomo de volatilidade geopolítica. Se o projeto de lei obterá o apoio bipartidário necessário para sobreviver ao processo legislativo continua a ser visto, mas a conversa que ele iniciou é inegavelmente essencial.