
Ландшафт управления искусственным интеллектом (AI) в Соединенных Штатах решительно изменился на этой неделе, когда Нью-Йорк полноценно вступил на арену регулирования передовых моделей (frontier models). С принятием Закона об ответственной безопасности и образовании в сфере ИИ (Responsible AI Safety and Education, RAISE Act), Нью-Йорк присоединился к Калифорнии в создании строгой системы безопасности на уровне штата для самых продвинутых систем ИИ в мире. Этот шаг сигнализирует о появлении фактического национального стандарта, продвигаемого двумя крупнейшими технологическими экономиками страны, что заполняет вакуум, оставленный зашедшим в тупик федеральным законодательным процессом.
Для индустрии ИИ сигнал ясен: эпоха добровольного саморегулирования передовых моделей подходит к концу. Пока разработчики справляются с последствиями калифорнийского законопроекта Сената 53 (SB 53), подписанного в конце прошлого года, нью-йоркский RAISE Act добавляет второй, несколько иной уровень обязательств по соблюдению нормативных требований. Хотя губернатор Кэти Хокул (Kathy Hochul) подчеркнула «согласованность» между двумя штатами, нюансы в законодательстве Нью-Йорка создают сложную среду комплаенса, которая потребует значительной стратегической корректировки со стороны крупных лабораторий ИИ.
Закон RAISE Act (S6953B/A6453B) фокусируется исключительно на «передовых моделях» (frontier models), определяемых по порогу вычислительной мощности в $10^{26}$ операций с плавающей запятой (FLOPs). Эта высокая планка на данный момент охватывает только самые мощные системы, разработанные гигантами индустрии, такими как преемники GPT-4, Claude 3 и Gemini Ultra. Ориентируясь на этот конкретный уровень технологий, Нью-Йорк стремится снизить катастрофические риски — такие как возможность использования ИИ для содействия кибератакам или созданию биологического оружия — без подавления инноваций в более широкой экосистеме ИИ с низким уровнем риска.
Согласно новому закону, разработчики подпадающих под действие моделей должны придерживаться строгого набора протоколов безопасности и прозрачности. Законодательство предписывает этим компаниям проявлять «разумную осторожность», чтобы не допустить причинения их моделями критического вреда. Это включает в себя тщательное тестирование перед развертыванием, внедрение мер кибербезопасности для предотвращения кражи моделей и возможность оперативного отключения модели, если она ведет себя опасно — положение, которое часто называют требованием о «выключателе» (kill switch).
Критически важно, что RAISE Act учреждает специальный надзорный офис в составе Департамента финансовых услуг штата Нью-Йорк (DFS). Этот офис наделен полномочиями регистрировать разработчиков передовых моделей, проверять их ежегодные сертификаты соответствия и издавать постановления, интерпретирующие широкие мандаты закона по безопасности. Выбор DFS, регулятора, известного своим агрессивным правоприменением в финансовом секторе, предполагает, что Нью-Йорк намерен занять проактивную позицию в «полицейском надзоре» за безопасностью ИИ.
Хотя закон RAISE Act был разработан с оглядкой на калифорнийский SB 53, чтобы предотвратить хаотичное лоскутное одеяло из правил, «согласованность» не означает «идентичность». Оба закона разделяют один и тот же вычислительный порог ($10^{26}$ FLOPs) и основную философию «прозрачности и готовности», но они расходятся в механизмах правоприменения и конкретных сроках отчетности. Именно в этих различиях юридические отделы крупных лабораторий ИИ, скорее всего, столкнутся с наибольшими трениями.
В следующей таблице представлены критические различия между двумя структурами штатов:
| Характеристика | Нью-Йорк (RAISE Act) | Калифорния (SB 53) |
|---|---|---|
| Целевой охват | Передовые модели (> $10^{26}$ FLOPs) | Передовые модели (> $10^{26}$ FLOPs) |
| Окно отчетности об инцидентах | 72 часа с момента установления | 15 дней (стандартно); 24 часа (непосредственная угроза) |
| Основной орган надзора | Департамент финансовых услуг (DFS) | Генеральный прокурор и Агентство правительственных операций |
| Механизм правоприменения | Гражданский иск Генпрокурора; административные правила DFS | Гражданский иск Генпрокурора |
| Гражданские штрафы | До $1 млн (1-е нарушение); $3 млн (последующие) | До $1 млн за нарушение (с ограничением суммы) |
| Частное право на иск | Нет | Нет |
Наиболее значительное операционное различие заключается в сроках отчетности об инцидентах. Требование Нью-Йорка о том, чтобы разработчики сообщали о «критических инцидентах безопасности» в течение 72 часов, значительно более агрессивно, чем стандартное 15-дневное окно в Калифорнии. Такой сжатый график требует, чтобы компании, занимающиеся ИИ, обладали зрелыми, работающими в режиме 24/7 возможностями реагирования на инциденты, которые могут не только обнаруживать аномалии, но и юридически оценивать их и сообщать о них почти в реальном времени.
Кроме того, участие нью-йоркского DFS вводит нового регулятора в технологическое пространство. В отличие от Калифорнии, которая в значительной степени полагается на Генерального прокурора в вопросах правоприменения, Нью-Йорк создал административную структуру, которая может издавать подробные правила о том, как должно проводиться тестирование безопасности. Это порождает перспективу «двухпутевого» режима комплаенса, при котором модель может соответствовать требованиям Калифорнии по прозрачности, но не пройти специфические протоколы безопасности Нью-Йорка, если DFS примет более предписывающую интерпретацию «разумной осторожности».
Отраслевые аналитики отмечают, что, хотя определения «критического вреда» гармонизированы, процедурные расхождения создают эффект «наивысшего общего знаменателя». Чтобы обезопасить себя, разработчики, скорее всего, по умолчанию примут более строгий 72-часовой стандарт отчетности Нью-Йорка и более широкую документацию по прозрачности Калифорнии, фактически объединив самые жесткие аспекты обоих законов в единый внутренний протокол комплаенса.
Принятие закона RAISE Act происходит в момент значительной неопределенности на федеральном уровне. Поскольку нынешняя администрация сворачивает предыдущие исполнительные указы по безопасности ИИ в пользу политики дерегулирования, штаты вмешались, чтобы заполнить пустоту. Это явление зеркально отражает «Брюссельский эффект» (Brussels Effect), когда строгая юрисдикция устанавливает стандарты для всего рынка. В данном случае это «двухполюсный эффект», когда Сакраменто и Олбани фактически пишут национальный свод правил безопасности ИИ.
Юридические эксперты предупреждают, что такой подход, возглавляемый штатами, хотя и обеспечивает необходимые барьеры, рискует привести к фрагментации, если другие штаты, такие как Колорадо, Техас или Массачусетс, примут свои собственные законы о передовых моделях с другими порогами или определениями. Однако, учитывая экономический вес Нью-Йорка и Калифорнии, где базируется подавляющее большинство индустрии ИИ в США, вполне вероятно, что их комбинированная структура станет фактическим национальным стандартом в обозримом будущем.
Для индустрии ИИ пошел отсчет времени до даты вступления законов в силу в 2027 году. Немедленным приоритетом для главных технических директоров (CTO) и генеральных юрисконсультов в передовых лабораториях является проведение «анализа пробелов» (gap analysis) между их текущими внутренними практиками безопасности и законодательными требованиями RAISE Act и SB 53.
Стратегические приоритеты на 2026 год включают:
По мере продвижения 2026 года реализация RAISE Act станет критическим испытанием того, может ли регулирование на уровне штатов эффективно управлять технологией, столь же гибкой и глобальной, как генеративный ИИ (Generative AI). На данный момент Нью-Йорк обозначил свою позицию, гарантируя, что путь к сильному ИИ (AGI) пролегает через Олбани в той же мере, что и через Кремниевую долину.