
Нормативно-правовая база в области искусственного интеллекта в Соединенных Штатах претерпела сейсмический сдвиг в период с 2023 по 2025 год. Согласно данным Форума будущего приватности (Future of Privacy Forum, FPF), законодатели в 14 штатах приняли 27 отдельных законодательных актов, связанных с ИИ, что свидетельствует о переходе от широких теоретических рамок к целевому высокоэффективному регулированию.
По состоянию на начало 2026 года большинство этих законов уже вступили в силу, создавая немедленные обязательства по соблюдению требований для разработчиков, внедренцев и платформ. Эта волна законодательства охватывает критические области: от безопасности передовых моделей (frontier models) и катастрофических рисков до прозрачности чат-ботов и распространения интимных изображений без согласия. Для специалистов и предприятий в сфере ИИ понимание этой мозаики требований штатов и федерального правительства теперь является не вопросом планирования на будущее, а текущей юридической необходимостью.
В 2024 году законодательная тенденция была сильно ориентирована на всеобъемлющие законы о конфиденциальности потребительских данных с компонентами ИИ. Однако 2025 год ознаменовался отчетливым поворотом в сторону более узких мер, основанных на оценке рисков. Законодательные собрания штатов, особенно в Калифорнии и Нью-Йорке, взяли на себя инициативу по заполнению федерального регуляторного вакуума, нацелившись на конкретные технологии и сценарии использования.
Законодательная сессия 2025 года определялась акцентом на «передовые модели» (frontier models) — высокопроизводительные системы ИИ, обученные на огромных вычислительных мощностях, — и специфические риски, связанные с генеративным ИИ, такие как дипфейки (deepfakes) и эмоциональное манипулирование со стороны чат-ботов. Этот целевой подход отражает растущий консенсус среди законодателей относительно того, что различные модальности ИИ требуют отдельных регуляторных барьеров.
Двумя наиболее значимыми законодательными достижениями 2025 года стали законопроект Сената Калифорнии 53 (SB 53) и принятый в Нью-Йорке RAISE Act. Оба закона устанавливают первые существенные режимы соблюдения требований для разработчиков самых передовых систем ИИ, устанавливая фактический национальный стандарт управления передовыми моделями.
Подписанный в сентябре 2025 года, калифорнийский SB 53 является первым статутом США, специально разработанным для устранения «катастрофического риска» со стороны ИИ. Закон распространяется на «разработчиков передовых моделей», создающих модели, обученные с использованием более чем 10^26 операций с плавающей запятой (FLOPs) — порог, которому в настоящее время соответствуют только самые продвинутые базовые модели.
Ключевые положения включают:
Вслед за этим в декабре 2025 года штат Нью-Йорк принял Закон об ответственной безопасности и образовании в области ИИ (Responsible AI Safety and Education Act, RAISE Act). Вступая в силу с 1 января 2027 года, RAISE Act повторяет калифорнийские пороги вычислений (>10^26 FLOPs), но вводит специальное управление по надзору в рамках Департамента финансовых услуг (Department of Financial Services).
Закон RAISE требует:
Помимо базовых моделей, в 2025 году наблюдался всплеск законов, регулирующих взаимодействие пользователей с ИИ, особенно в отношении чат-ботов и синтетического контента.
Прозрачность чат-ботов
Пять штатов — Калифорния, Мэн, Нью-Гэмпшир, Нью-Йорк и Юта — приняли законы, специально регулирующие использование ИИ чат-ботов. Эти правила предписывают четкое раскрытие информации, когда пользователь взаимодействует с системой ИИ. «Закон о моделях-компаньонах ИИ» Нью-Йорка и калифорнийский SB 243 идут дальше, фокусируясь на защите психического здоровья. Они требуют от операторов чат-ботов-«компаньонов» внедрения протоколов безопасности для обнаружения и смягчения дистресса пользователя или суицидальных мыслей, отражая обеспокоенность эмоциональным воздействием антропоморфного ИИ.
Закон TAKE IT DOWN Act
На федеральном уровне закон «TAKE IT DOWN Act», подписанный в мае 2025 года, представляет собой редкую двухпартийную победу в области регулирования ИИ. Этот закон криминализирует создание и распространение интимных изображений без согласия (NCII), включая дипфейки, созданные ИИ. Он налагает на платформы строгие обязательства по принципу «уведомление и удаление», требуя удаления нарушающего правила контента в течение 48 часов после получения обоснованного запроса, что подкрепляется правоприменительными полномочиями Федеральной торговой комиссии (FTC).
Хотя многие законы уже вступили в силу, некоторые критически важные нормативные акты имеют поэтапные даты внедрения, которые предприятия должны отслеживать.
Даты вступления в силу ключевых законов об ИИ
| Закон | Юрисдикция | Дата вступления в силу |
|---|---|---|
| Закон TAKE IT DOWN (Удаление дипфейков) | Федеральный уровень | 19 мая 2026 г. |
| SB 205 (Закон штата Колорадо об ИИ) | Колорадо | 30 июня 2026 г. |
| SB 1295 (Автоматизированное принятие решений) | Коннектикут | 1 июля 2026 г. |
| AB 853 (Поправки к Закону о прозрачности ИИ) | Калифорния | 2 августа 2026 г. |
| Закон RAISE (Безопасность передовых моделей) | Нью-Йорк | 1 января 2027 г. |
| AB 853 (Требования к обнаружению происхождения контента) | Калифорния | 1 января 2027 г. |
Принятие этих 27 законов создает сложную среду соблюдения требований для аудитории разработчиков и бизнес-лидеров Creati.ai. Эра добровольного саморегулирования фактически закончилась для систем ИИ высокого риска и передовых моделей.
1. Проверка происхождения обязательна
С вступлением в полную силу поправок к калифорнийскому Закону о прозрачности ИИ (AB 853) в 2026 и 2027 годах, разработчики инструментов генеративного ИИ должны интегрировать стандарты водяных знаков и обнаружения происхождения (такие как C2PA) в свои системы. Платформы, размещающие контент ИИ, по закону будут обязаны маркировать его, что потребует надежного управления метаданными.
2. «Брюссельский эффект» в США
Подобно тому, как Общий регламент по защите данных (GDPR) установил глобальный стандарт конфиденциальности, согласованность между Калифорнией и Нью-Йорком по порогу 10^26 FLOPs для передовых моделей предполагает формирование единого внутреннего стандарта. Даже компании, не базирующиеся в этих штатах, скорее всего, примут эти основы безопасности для обеспечения доступа к рынку, что фактически национализирует эти требования на уровне штатов.
3. Ответственность за последующее использование
Закон TAKE IT DOWN Act и законы штатов о чат-ботах вводят значительную ответственность для платформ, размещающих пользовательский контент. Компании должны модернизировать свою инфраструктуру модерации контента, чтобы обрабатывать быстрые запросы на удаление и обнаруживать синтетические медиа, иначе им грозит федеральная уголовная ответственность и существенные гражданские штрафы.
По мере продвижения 2026 года мы ожидаем дальнейшей законодательной активности, направленной на отраслевые приложения в здравоохранении и сфере занятости. На данный момент приоритетом для организаций в сфере ИИ является аудит их текущих моделей на соответствие этим новым законодательным определениям «передовых» систем и систем «высокого риска», чтобы не быть застигнутыми врасплох датами вступления законов в силу, наступающими во второй половине года.