
Em 18 de março de 2026, a senadora dos EUA Marsha Blackburn (R-Tenn.) apresentou um esboço de discussão abrangente do "Trump America AI Act". Esta iniciativa legislativa representa uma das tentativas mais significativas do Congresso para estabelecer uma estrutura federal unificada (Unified Federal Framework) para a inteligência artificial, visando substituir o "mosaico" fragmentado de regulamentações estaduais que surgiu nos últimos dois anos. Com quase 300 páginas, o projeto de lei busca codificar os princípios delineados nas ordens executivas anteriores do Presidente Trump, criando um padrão nacional que prioriza a proteção do consumidor, a moderação de conteúdo e a dominância competitiva na corrida global de IA.
O projeto de lei, formalmente intitulado "Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act", não é apenas uma atualização técnica; é uma mudança fundamental na forma como os Estados Unidos abordam a governança digital. Ao visar a interseção entre o desenvolvimento de IA, a propriedade intelectual e a responsabilidade online, a proposta da senadora Blackburn aborda queixas conservadoras de longa data, ao mesmo tempo que estabelece novas obrigações, potencialmente onerosas, para as empresas de tecnologia.
A marca central do Trump America AI Act centra-se no que a senadora Blackburn descreve como os "4 Cs" — um mandato para proteger Crianças (Children), Criadores (Creators), Conservadores (Conservatives) e Comunidades (Communities). Esta estrutura foi projetada para lidar com danos específicos percebidos associados a modelos de inteligência artificial de grande escala e às plataformas que os implantam.
Um componente importante da legislação é a implementação de um rigoroso "dever de cuidado" (duty of care) para desenvolvedores de IA. Esta disposição exige que as empresas exerçam o cuidado razoável no design, desenvolvimento e operação de plataformas de IA para prevenir e mitigar "danos previsíveis" aos usuários. Esta linguagem é particularmente direcionada à proteção de menores. O projeto de lei restringiria a capacidade das plataformas de realizar pesquisas de mercado ou de produtos com crianças menores de 13 anos e exige o consentimento dos pais para pesquisas envolvendo menores de até 17 anos. Ao forçar os desenvolvedores a implementar salvaguardas robustas contra transtornos de saúde mental e assédio ligados ao engajamento online, a legislação visa transferir a responsabilidade da segurança do usuário para o desenvolvedor.
Para os "Criadores", a Lei inclui disposições significativas de direitos autorais (Copyright). Ela postula que o uso não autorizado de obras protegidas por direitos autorais para treinamento, ajuste fino ou desenvolvimento de modelos de IA não se qualifica como uso aceitável (Fair Use) sob a Lei de Direitos Autorais. Além disso, considera o conteúdo gerado por sistemas de IA sem autorização como inelegível para proteção de direitos autorais. Isso representa uma postura forte contra a atual dependência da indústria em vastos conjuntos de dados não curados, potencialmente forçando os laboratórios de IA a migrar para modelos de dados licenciados ou sintéticos.
Talvez o aspecto mais controverso do Trump America AI Act seja o seu desafio direto à Seção 230 (Section 230) da Lei de Comunicações. Considerada por muito tempo o estatuto fundamental da internet moderna, a Seção 230 oferece imunidade legal às plataformas online por conteúdo postado por terceiros. O projeto de lei da senadora Blackburn propõe o encerramento (sunset) dessas proteções, argumentando que o atual escudo de responsabilidade permite que as plataformas evitem a prestação de contas por decisões algorítmicas que podem prejudicar usuários ou infringir direitos.
A tabela a seguir resume a mudança proposta no cenário regulatório trazida por este esboço legislativo:
| Recurso | Status Atual | Mudança Proposta sob o Trump America AI Act |
|---|---|---|
| Responsabilidade de IA | Limitada/Variável | "Dever de Cuidado" estatutário aplicado pela FTC |
| Seção 230 | Ampla Imunidade de Plataforma | Encerramento Total das Proteções |
| Dados de Treinamento | Defesa de Uso Aceitável Prevalente | Treinamento não autorizado considerado infração |
| Viés Político | Autorregulamentado | Auditorias obrigatórias para neutralidade política |
A introdução deste projeto de lei sinaliza um fim potencial para o ambiente regulatório de "toque leve" que muitos no setor de tecnologia têm defendido. Para oficiais de conformidade (Compliance) e equipes jurídicas, o esboço introduz um conjunto complexo de requisitos que vão além do gerenciamento de riscos padrão.
O projeto de lei exige auditorias de terceiros para evitar a discriminação baseada na afiliação política. Este requisito, voltado para o componente "Conservadores" dos 4 Cs, visa preocupações de que os sistemas de IA estejam sendo ajustados com vieses ideológicos que favorecem pontos de vista culturais ou políticos específicos. Enquanto os proponentes argumentam que isso garante a neutralidade, críticos da indústria de tecnologia alertam que isso poderia levar a uma pressão apoiada pelo governo sobre os desenvolvedores para manipular os resultados do modelo a fim de alinhá-los com as prioridades políticas atuais, criando efetivamente um "complexo industrial de auditoria de IA" (AI-audit industrial complex) que poderia retardar a inovação e aumentar significativamente os custos de desenvolvimento.
Ao expandir os caminhos legais disponíveis para o Procurador-Geral dos EUA, procuradores-gerais estaduais e cidadãos comuns, a Lei aumenta drasticamente o risco de litígio para os desenvolvedores de IA. As empresas podem se ver enfrentando ações de execução paralelas por "design defeituoso", "falha em alertar" ou sistemas de IA "irrazoavelmente perigosos". Para startups menores e contribuidores de código aberto (Open-Source), o custo de defesa contra tais reivindicações — que muitas vezes envolvem processos complexos de descoberta (Discovery) sobre a tomada de decisão algorítmica proprietária — poderia se mostrar insuperável, levando potencialmente a uma consolidação de mercado onde apenas as maiores e mais bem financiadas empresas podem se dar ao luxo de operar.
Embora o "Trump America AI Act" esteja atualmente na fase de esboço de discussão, sua existência serve como um marcador para o futuro da política federal de IA. O projeto de lei incorpora vários elementos bipartidários, como a Lei de Segurança Online para Crianças (Kids Online Safety Act) e a Lei NO FAKES, que tiveram graus variados de apoio em ambos os lados do espectro político. No entanto, a inclusão de disposições mais agressivas, como o encerramento total da Seção 230 e a postura específica sobre o uso aceitável de direitos autorais, garante que o debate legislativo será contencioso.
Analistas da indústria estão acompanhando de perto como a Casa Branca reagirá a esta estrutura. Dada a marca explícita do projeto de lei e seu alinhamento com a ordem executiva de dezembro de 2025 sobre IA, ele claramente pretende servir como um "livro de regras" legislativo. No entanto, como demonstrado pelas reações de organizações como o Cato Institute e outros grupos de política, há uma resistência significativa contra a ideia de que a intervenção governamental pesada seja a solução para os riscos relacionados à IA. A tensão entre o desejo de uniformidade federal e o medo de sufocar a competitividade tecnológica provavelmente dominará a conversa nos próximos meses.
O Trump America AI Act é uma tentativa ousada, embora polarizadora, de reescrever as regras da era digital. Ao codificar um "dever de cuidado" e desafiar as proteções de imunidade que definiram a internet por décadas, a senadora Blackburn forçou a indústria de IA a confrontar uma nova realidade: a era da experimentação desenfreada provavelmente está chegando ao fim. À medida que o Congresso se move para avaliar este esboço, desenvolvedores, investidores e formuladores de políticas devem se preparar para um futuro onde a conformidade, a transparência e a responsabilidade não são apenas melhores práticas, mas requisitos estatutários. O resultado desta legislação estabelecerá o precedente para a liderança americana em IA — e para o padrão global de governança tecnológica — nos próximos anos.