
O cenário regulatório para a inteligência artificial (IA) nos Estados Unidos passou por uma mudança sísmica entre 2023 e 2025. De acordo com dados do Future of Privacy Forum (FPF), legisladores em 14 estados promulgaram 27 peças distintas de legislação relacionada à IA, sinalizando um afastamento de estruturas amplas e teóricas em direção a uma regulação direcionada e de alto impacto.
No início de 2026, a maioria dessas leis já está em vigor, criando obrigações imediatas de conformidade para desenvolvedores, implantadores e plataformas. Esta onda de legislação aborda áreas críticas que variam desde a segurança de modelos de fronteira (frontier models) e riscos catastróficos até a transparência de chatbots e a distribuição não consensual de imagens íntimas (nonconsensual distribution of intimate imagery, NCII). Para profissionais e empresas de IA, compreender este mosaico de requisitos estaduais e federais não é mais uma questão de planejamento futuro, mas de necessidade legal atual.
Em 2024, a tendência legislativa inclinou-se fortemente para leis abrangentes de privacidade de dados do consumidor com componentes de IA. No entanto, 2025 marcou uma mudança distinta em direção a medidas mais estreitas e baseadas em risco. As legislaturas estaduais, particularmente na Califórnia e em Nova York, assumiram a liderança no preenchimento do vácuo regulatório federal ao visar tecnologias e casos de uso específicos.
A sessão legislativa de 2025 foi definida por um foco em "modelos de fronteira" — sistemas de IA altamente capazes treinados em vastas quantidades de poder computacional — e nos riscos específicos associados à IA generativa (Generative AI), como deepfakes e manipulação emocional por chatbots. Essa abordagem direcionada reflete um consenso crescente entre os legisladores de que diferentes modalidades de IA exigem salvaguardas regulatórias distintas.
Duas das conquistas legislativas mais significativas em 2025 foram o Projeto de Lei do Senado 53 (SB 53) da Califórnia e a Lei RAISE de Nova York. Ambas as leis estabelecem os primeiros regimes substanciais de conformidade para desenvolvedores dos sistemas de IA mais avançados, definindo um padrão nacional de fato para a governança de modelos de fronteira.
Sancionada em setembro de 2025, a SB 53 da Califórnia é o primeiro estatuto dos EUA especificamente projetado para abordar o "risco catastrófico" da IA. A lei aplica-se a "desenvolvedores de fronteira" que criam modelos treinados com mais de 10^26 operações de ponto flutuante (floating-point operations, FLOPs) — um limite atualmente atingido apenas pelos modelos de fundação mais avançados.
As principais disposições incluem:
Logo em seguida, Nova York promulgou a Lei de Segurança e Educação em IA Responsável (Responsible AI Safety and Education, RAISE) em dezembro de 2025. Com vigência a partir de 1º de janeiro de 2027, a Lei RAISE espelha os limites de computação da Califórnia (>10^26 FLOPs), mas introduz um escritório de supervisão dedicado dentro do Departamento de Serviços Financeiros.
A Lei RAISE exige:
Além dos modelos fundamentais, 2025 viu um surto de leis regulamentando a interação do usuário com a IA, particularmente em relação a chatbots e conteúdo sintético.
Transparência de Chatbots
Cinco estados — Califórnia, Maine, New Hampshire, Nova York e Utah — promulgaram leis abordando especificamente chatbots de IA. Essas regulamentações exigem divulgação clara quando um usuário está interagindo com um sistema de IA. A "Lei de Modelo de IA de Companhia" de Nova York e a SB 243 da Califórnia vão além, focando em proteções de saúde mental. Elas exigem que os operadores de chatbots de "companhia" implementem protocolos de segurança para detectar e mitigar o sofrimento do usuário ou ideação suicida, refletindo preocupações sobre o impacto emocional da IA antropomórfica.
A Lei TAKE IT DOWN
No nível federal, a "Lei TAKE IT DOWN", sancionada em maio de 2025, representa uma rara vitória bipartidária para a regulação da IA. Esta lei criminaliza a criação e distribuição de imagens íntimas não consensuais (NCII), incluindo deepfakes gerados por IA. Ela impõe obrigações estritas de "notificação e retirada" (notice-and-takedown) às plataformas, exigindo que removam o conteúdo infrator dentro de 48 horas após uma solicitação válida, apoiada pelo poder de fiscalização da FTC.
Embora muitas leis já estejam em vigor, várias regulamentações críticas possuem datas de implementação faseadas que as empresas devem acompanhar.
Datas de Vigência da Legislação de IA Principal
| Lei | Jurisdição | Data de Vigência |
|---|---|---|
| Lei TAKE IT DOWN (Remoção de Deepfake) | Federal | 19 de maio de 2026 |
| SB 205 (Lei de IA do Colorado) | Colorado | 30 de junho de 2026 |
| SB 1295 (Tomada de Decisão Automatizada) | Connecticut | 1 de julho de 2026 |
| AB 853 (Emendas à Lei de Transparência de IA) | Califórnia | 2 de agosto de 2026 |
| Lei RAISE (Segurança de Modelos de Fronteira) | Nova York | 1 de janeiro de 2027 |
| AB 853 (Requisitos de Detecção de Proveniência) | Califórnia | 1 de janeiro de 2027 |
A promulgação dessas 27 leis cria um ambiente de conformidade complexo para o público de desenvolvedores e líderes de negócios da Creati.ai. A era da autorregulação voluntária acabou efetivamente para sistemas de IA de alto risco e de fronteira.
1. A proveniência é obrigatória
Com a Lei de Transparência de IA alterada da Califórnia (AB 853) entrando em pleno vigor em 2026 e 2027, os desenvolvedores de ferramentas de IA generativa devem integrar padrões de marca d'água e detecção de proveniência (como o C2PA) em seus sistemas. As plataformas que hospedam conteúdo de IA serão legalmente obrigadas a rotulá-lo, necessitando de uma gestão robusta de metadados.
2. O "Efeito Bruxelas" nos EUA
Assim como o GDPR estabeleceu um padrão global para a privacidade, o alinhamento entre a Califórnia e Nova York no limite de 10^26 FLOPs para modelos de fronteira sugere que um padrão doméstico unificado está surgindo. Mesmo empresas não sediadas nesses estados provavelmente adotarão essas estruturas de segurança para garantir o acesso ao mercado, nacionalizando efetivamente esses requisitos de nível estadual.
3. Responsabilidade pelo uso posterior
A Lei TAKE IT DOWN e as leis estaduais de chatbots introduzem uma responsabilidade significativa para plataformas que hospedam conteúdo gerado pelo usuário. As empresas devem atualizar sua infraestrutura de moderação de conteúdo para lidar com solicitações rápidas de retirada e detectar mídia sintética, ou arriscar responsabilidade criminal federal e multas civis substanciais.
À medida que 2026 avança, antecipamos mais atividades legislativas focadas em aplicações setoriais específicas na saúde e no emprego. Por enquanto, a prioridade para organizações de IA é auditar seus modelos atuais em relação a estas novas definições estatutárias de sistemas de "fronteira" e de "alto risco" para garantir que não sejam pegas de surpresa pelas datas de vigência que se aproximam na segunda metade do ano.