
O cenário da regulamentação da Inteligência Artificial (Artificial Intelligence) nos Estados Unidos mudou significativamente com a última iniciativa legislativa do Estado de Washington. No final de março de 2026, o Governador Bob Ferguson assinou um par de projetos de lei históricos — o House Bill 1170 e o House Bill 2225 — que estabelecem novos padrões rigorosos para mídia gerada por IA (AI-generated media) e chatbots de companhia. À medida que essas tecnologias se tornam profundamente integradas ao tecido da vida cotidiana, Washington está se posicionando na vanguarda do esforço para mitigar riscos potenciais, particularmente em relação à desinformação e ao bem-estar dos usuários jovens.
Este marco legislativo não é meramente uma atualização regulatória localizada; ele serve como um prenúncio para o resto do país. Ao codificar requisitos para divulgação, marca d'água e protocolos de segurança específicos para menores, Washington desafiou efetivamente a indústria de tecnologia a priorizar a transparência e a segurança do usuário em detrimento da implantação irrestrita. Para desenvolvedores, partes interessadas e consumidores, compreender esses novos mandatos é essencial, pois eles fornecem um vislumbre do futuro da conformidade operacional na era da IA generativa (Generative AI).
O House Bill 1170 representa uma resposta direta à crescente ansiedade pública em torno da desinformação gerada por IA e da dificuldade de distinguir entre conteúdo feito por humanos e conteúdo gerado por máquinas. À medida que os deepfakes (Deepfakes) e as mídias alteradas por IA se tornam cada vez mais sofisticados, a capacidade do usuário comum de verificar a autenticidade de informações visuais e auditivas despencou.
De acordo com a nova lei, as grandes empresas de IA — definidas por sua escala de operações e base de usuários — são agora legalmente obrigadas a garantir que a mídia alterada criada por seus sistemas possa ser rastreada até sua origem artificial.
A legislação exige que as empresas de IA identifiquem quando imagens, vídeos ou conteúdos de áudio foram substancialmente modificados ou criados usando seus sistemas. O requisito central é que esta divulgação deve ser "comercial e tecnicamente razoável". Para atender a esse limite, espera-se que as empresas implementem:
Ao exigir essas divulgações, o estado de Washington visa frear a propagação de conteúdo enganoso. Essa mudança efetivamente coloca o ônus da prova sobre os desenvolvedores de modelos de IA, garantindo que a tecnologia seja acompanhada pelos metadados necessários para evitar que seja usada para alimentar campanhas de desinformação ou atividades fraudulentas.
Enquanto o HB 1170 aborda a procedência da mídia, o House Bill 2225 aborda o impacto comportamental e emocional dos "chatbots de companhia de IA" — sistemas projetados para imitar a conversa humana e promover relacionamentos contínuos. Essas ferramentas, embora inovadoras, levantaram alarmes quanto ao seu potencial de manipular usuários ou exacerbar crises de saúde mental, particularmente em demografias mais jovens.
A lei estabelece um alto padrão de segurança, exigindo que qualquer plataforma que ofereça chatbots de estilo companhia deve integrar salvaguardas específicas projetadas para proteger menores.
Os requisitos para operadores de companhia de IA são bifurcados com base na idade do usuário e na natureza da conversa. Os principais pilares regulatórios incluem:
A tabela a seguir resume os principais mandatos estabelecidos sob a nova legislação do Estado de Washington, contrastando os requisitos para mídia de IA padrão com aqueles para chatbots de companhia.
| Categoria | Requisito | Aplicação a Menores |
|---|---|---|
| Mídia Gerada por IA | Marca d'água obrigatória ou metadados incorporados para arquivos alterados | N/A |
| Chatbots Gerais | Divulgação inicial e lembrete de recorrência a cada 3 horas | Lembrete de recorrência a cada 1 hora |
| Protocolos de Segurança | Nenhum requisito explícito | Deve banir conteúdo manipulativo e produção sugestiva sexualmente |
| Intervenção em Crises | Prática recomendada | Protocolos obrigatórios para detecção de automutilação e suicídio |
A aprovação desses projetos de lei sinaliza uma transição de uma era de "mover-se rápido e quebrar as coisas" para um período de "mover-se com responsabilidade e cumprir as normas". Para empresas como OpenAI, Anthropic e outros laboratórios de IA emergentes, os requisitos estabelecidos por Washington necessitam de uma recalibração de suas estratégias de implantação.
A indústria há muito argumenta que a autorregulamentação é o caminho mais eficaz a seguir. No entanto, a tendência legislativa — não apenas em Washington, mas também em estados como Oregon e Califórnia — sugere que os formuladores de políticas não consideram mais as diretrizes voluntárias suficientes. Ao estabelecer essas proteções, Washington está efetivamente criando um novo "piso" de conformidade para a indústria.
Além disso, a inclusão de um direito privado de ação (private right of action) no HB 2225 é particularmente significativa. Ela capacita os indivíduos a buscar recursos legais, o que adiciona uma camada de responsabilidade que a supervisão regulatória tradicional muitas vezes carece. As empresas que ignoram esses requisitos enfrentam não apenas um escrutínio potencial do procurador-geral do estado, mas também o risco de litígios por parte dos consumidores.
À medida que a data de vigência de 1º de janeiro de 2027 se aproxima, o setor de tecnologia enfrenta um período de ajuste rápido. Os desenvolvedores devem agora integrar princípios de conformidade por design (compliance-by-design) em suas arquiteturas de IA. Isso significa que a rastreabilidade, a filtragem apropriada para a idade e os recursos de detecção de crise não podem mais ser recursos "adicionais"; eles devem ser elementos fundamentais de qualquer produto de IA voltado para o consumidor.
Embora alguns críticos argumentem que essas regulamentações podem sufocar a inovação ou criar um fardo indevido para startups menores, os proponentes sustentam que elas são essenciais para o crescimento sustentável da IA. Ao construir uma base de confiança e segurança, Washington está tentando garantir que a adoção da IA generativa não ocorra às custas da segurança pública ou da verdade.
À medida que outros estados observam a implementação dessas leis em Washington, é altamente provável que veremos um efeito cascata. Para a Creati.ai, essa mudança ressalta a necessidade de as empresas permanecerem ágeis e voltadas para o futuro. O ambiente regulatório está evoluindo, e aqueles que priorizam a segurança do usuário e a divulgação de IA transparente estarão mais bem posicionados para liderar nesta nova era de maior responsabilidade.