
O cenário da governança de inteligência artificial nos Estados Unidos mudou decisivamente esta semana, à medida que Nova York entrou totalmente na arena da regulamentação de modelos de fronteira (frontier models). Com a promulgação da Lei de Segurança e Educação de IA Responsável (Responsible AI Safety and Education - RAISE Act), Nova York juntou-se à Califórnia no estabelecimento de uma estrutura de segurança rigorosa a nível estadual para os sistemas de IA mais avançados do mundo. A medida sinaliza a emergência de um padrão nacional de facto impulsionado pelas duas maiores economias tecnológicas do país, preenchendo o vácuo deixado por um processo regulatório federal estagnado.
Para a indústria de IA, a mensagem é clara: a era da autorregulação voluntária para modelos de fronteira está chegando ao fim. Enquanto os desenvolvedores lidam com as implicações do Projeto de Lei do Senado 53 (SB 53) da Califórnia, assinado no final do ano passado, a Lei RAISE (RAISE Act) de Nova York adiciona uma segunda camada de obrigações de conformidade, ligeiramente diferente. Embora a governadora Kathy Hochul tenha enfatizado o "alinhamento" entre os dois estados, as nuances na legislação de Nova York criam um ambiente de conformidade complexo que exigirá ajustes estratégicos significativos dos principais laboratórios de IA.
A Lei RAISE (S6953B/A6453B) foca explicitamente em "modelos de fronteira", definidos por um limiar de computação de $10^{26}$ operações de ponto flutuante (FLOPs). Este patamar elevado captura atualmente apenas os sistemas mais potentes desenvolvidos por gigantes da indústria, como os sucessores do GPT-4, Claude 3 e Gemini Ultra. Ao visar este estrato específico da tecnologia, Nova York pretende mitigar riscos catastróficos — como o potencial da IA para auxiliar em ataques cibernéticos ou na criação de armas biológicas — sem sufocar a inovação no ecossistema de IA mais amplo e de menor risco.
Sob a nova lei, os desenvolvedores dos modelos abrangidos devem aderir a um conjunto rigoroso de protocolos de segurança e transparência. A legislação exige que essas empresas implementem o "cuidado razoável" para evitar que seus modelos causem danos críticos. Isso inclui testes rigorosos de pré-implementação, a implementação de salvaguardas de biossegurança para evitar o roubo do modelo e a capacidade de desligar prontamente um modelo se ele se comportar de forma perigosa — uma disposição frequentemente referida como requisito de "botão de desligamento" (kill switch).
Criticamente, a Lei RAISE estabelece um escritório de supervisão dedicado dentro do Departamento de Serviços Financeiros de Nova York (DFS). Este escritório tem o poder de registrar desenvolvedores de modelos de fronteira, revisar suas certificações anuais de conformidade e emitir regulamentos interpretando os amplos mandatos de segurança do estatuto. A escolha do DFS, um regulador conhecido por sua execução agressiva no setor financeiro, sugere que Nova York pretende adotar uma abordagem proativa de "policiamento" para a segurança da IA.
Embora a Lei RAISE tenha sido redigida com atenção ao SB 53 da Califórnia para evitar uma colcha de retalhos regulatória caótica, "alinhamento" não significa "identidade". Ambas as leis compartilham o mesmo limiar de computação ($10^{26}$ FLOPs) e a filosofia central de "transparência e preparação", mas divergem nos mecanismos de execução e nos cronogramas específicos de relatórios. Essas diferenças são onde as equipes jurídicas dos principais laboratórios de IA provavelmente enfrentarão mais atrito.
A tabela a seguir descreve as diferenças críticas entre as duas estruturas estaduais:
| Recurso | Nova York (Lei RAISE) | Califórnia (SB 53) |
|---|---|---|
| Escopo Alvo | Modelos de Fronteira (> $10^{26}$ FLOPs) | Modelos de Fronteira (> $10^{26}$ FLOPs) |
| Janela de Relatório de Incidentes | 72 horas a partir da determinação | 15 dias (padrão); 24 horas (ameaça iminente) |
| Órgão de Supervisão Principal | Departamento de Serviços Financeiros (DFS) | Procurador-Geral e Agência de Operações Governamentais |
| Mecanismo de Execução | Ação civil pelo Procurador-Geral; regras administrativas do DFS | Ação civil pelo Procurador-Geral |
| Penalidades Civis | Até US$ 1 milhão (1ª violação); US$ 3 milhões (subsequentes) | Até US$ 1 milhão por violação (teto) |
| Direito de Ação Privada | Não | Não |
A diferença operacional mais significativa reside no cronograma de relato de incidentes. A exigência de Nova York de que os desenvolvedores relatem "incidentes críticos de segurança" em 72 horas é consideravelmente mais agressiva do que o padrão de 15 dias da Califórnia. Este cronograma comprimido exige que as empresas de IA tenham capacidades maduras de resposta a incidentes 24 horas por dia, 7 dias por semana, que possam não apenas detectar anomalias, mas também avaliá-las e relatá-las juridicamente em tempo quase real.
Além disso, o envolvimento do DFS de Nova York introduz um novo regulador no espaço tecnológico. Ao contrário da Califórnia, que depende em grande parte do Procurador-Geral para a execução, Nova York criou uma estrutura administrativa que poderia promulgar regras detalhadas sobre como os testes de segurança devem ser conduzidos. Isso levanta a perspectiva de um regime de conformidade de "via dupla", onde um modelo pode passar pelos requisitos de transparência da Califórnia, mas falhar nos protocolos de segurança específicos de Nova York se o DFS adotar uma interpretação mais prescritiva de "cuidado razoável".
Analistas da indústria observaram que, embora as definições de "dano crítico" estejam harmonizadas, a divergência processual cria um efeito de "maior denominador comum". Para estarem seguros, os desenvolvedores provavelmente adotarão por padrão o padrão de relatório mais rigoroso de 72 horas de Nova York e a documentação de transparência mais ampla da Califórnia, fundindo efetivamente os aspectos mais difíceis de ambas as leis em um único protocolo interno de conformidade.
A promulgação da Lei RAISE ocorre em um momento de incerteza significativa a nível federal. Com a atual administração revertendo ordens executivas anteriores sobre segurança de IA para buscar uma agenda mais focada na desregulamentação, os estados intervieram para preencher o vazio. Este fenômeno espelha o "Efeito Bruxelas" (Brussels Effect), onde uma jurisdição regulatória rigorosa estabelece o padrão para o mercado mais amplo. Neste caso, trata-se de um "efeito bi-costeiro", com Sacramento e Albany escrevendo efetivamente o livro de regras nacional para a segurança da IA.
Especialistas jurídicos alertam que esta abordagem liderada pelos estados, embora forneça salvaguardas necessárias, corre o risco de fragmentação se outros estados como Colorado, Texas ou Massachusetts promulgarem suas próprias leis de modelos de fronteira com limiares ou definições diferentes. No entanto, dada a força econômica de Nova York e da Califórnia — lar da grande maioria da indústria de IA dos EUA — é provável que sua estrutura combinada se torne o padrão nacional de facto no futuro próximo.
Para a indústria de IA, o cronômetro está agora correndo em direção às datas de vigência em 2027. A prioridade imediata para os Diretores de Tecnologia e Consultores Jurídicos em laboratórios de fronteira é realizar uma "análise de lacunas" entre suas práticas internas atuais de segurança e os requisitos estatutários da Lei RAISE e do SB 53.
Prioridades estratégicas para 2026 incluem:
À medida que 2026 avança, a implementação da Lei RAISE será um caso de teste crítico para saber se a regulamentação a nível estadual pode governar efetivamente uma tecnologia tão fluida e global como a inteligência artificial. Por enquanto, Nova York plantou sua bandeira, garantindo que o caminho para a AGI passe tanto por Albany quanto pelo Vale do Silício.