
18 марта 2026 года сенатор США Марша Блэкберн (Marsha Blackburn, республиканец от штата Теннесси) представила комплексный законопроект «Закона Трампа об ИИ в Америке» (Trump America AI Act). Эта законодательная инициатива представляет собой одну из самых значимых попыток Конгресса установить единую федеральную структуру для искусственного интеллекта (Artificial Intelligence, AI), стремясь заменить разрозненную «мозаику» нормативных актов на уровне штатов, возникшую за последние два года. Законопроект объемом почти 300 страниц направлен на кодификацию принципов, изложенных в более ранних указах президента Трампа, создавая национальный стандарт, который ставит во главу угла защиту прав потребителей, модерацию контента и конкурентное доминирование в глобальной гонке ИИ (AI).
Законопроект, официально озаглавленный как «Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act», является не просто техническим обновлением; это фундаментальный сдвиг в подходе Соединенных Штатов к цифровому управлению. Нацеливаясь на пересечение разработки ИИ, интеллектуальной собственности и онлайн-ответственности, предложение сенатора Блэкберн рассматривает давние претензии консерваторов, устанавливая при этом новые, потенциально обременительные обязательства для технологических компаний.
Центральный брендинг Trump America AI Act сосредоточен на том, что сенатор Блэкберн описывает как «4 Cs» — мандат на защиту детей (Children), создателей (Creators), консерваторов (Conservatives) и сообществ (Communities). Эта структура предназначена для устранения конкретного предполагаемого вреда, связанного с крупномасштабными моделями искусственного интеллекта и платформами, которые их развертывают.
Основным компонентом законодательства является введение строгой «обязанности по соблюдению осторожности» (duty of care) для разработчиков ИИ. Это положение предписывает компаниям проявлять разумную осторожность при проектировании, разработке и эксплуатации платформ ИИ для предотвращения и смягчения «предвидимого вреда» пользователям. Эта формулировка особенно направлена на защиту несовершеннолетних. Законопроект ограничит возможности платформ проводить исследования рынка или продуктов в отношении детей младше 13 лет и потребует согласия родителей на исследования с участием несовершеннолетних до 17 лет. Заставляя разработчиков внедрять надежные гарантии против психических расстройств и преследований, связанных с онлайн-активностью, законодательство стремится переложить ответственность за безопасность с пользователя на разработчика.
Для «создателей» (Creators) Закон включает важные положения об авторском праве. В нем утверждается, что несанкционированное использование защищенных авторским правом произведений для обучения, тонкой настройки или разработки моделей ИИ не квалифицируется как добросовестное использование (fair use) в соответствии с Законом об авторском праве. Кроме того, контент, созданный системами ИИ без разрешения, признается не имеющим права на защиту авторским правом. Это представляет собой жесткую позицию против нынешней зависимости индустрии от огромных, некурируемых наборов данных, что потенциально вынуждает лаборатории ИИ переходить на лицензированные или синтетические модели данных.
Пожалуй, самым спорным аспектом «Закона Трампа об ИИ в Америке» является его прямой вызов разделу 230 (Section 230) Закона о коммуникациях. Долгое время считавшийся основополагающим уставом современного интернета, раздел 230 обеспечивает юридический иммунитет онлайн-платформам за контент, размещенный третьими лицами. Законопроект сенатора Блэкберн предлагает прекратить действие этих защит, утверждая, что нынешний щит ответственности позволяет платформам избегать подотчетности за алгоритмические решения, которые могут нанести вред пользователям или нарушить их права.
Следующая таблица суммирует предлагаемые изменения в регуляторной среде, представленные в этом законодательном проекте:
| Характеристика | Текущий статус | Предлагаемое изменение в рамках Trump America AI Act |
|---|---|---|
| Ответственность ИИ | Ограниченная/переменная | Законодательная «обязанность по соблюдению осторожности», обеспечиваемая FTC |
| Раздел 230 | Широкий иммунитет платформы | Полная отмена защит |
| Данные для обучения | Преобладает защита добросовестного использования | Несанкционированное обучение считается нарушением |
| Политическая предвзятость | Саморегулируемая | Обязательные аудиты на политическую нейтральность |
Внесение этого законопроекта сигнализирует о потенциальном завершении эры «мягкого» регулирования, за которую выступали многие в технологическом секторе. Для специалистов по комплаенсу и юридических отделов проект вводит сложный набор требований, выходящих за рамки стандартного управления рисками.
Законопроект предписывает проведение сторонних аудитов для предотвращения дискриминации на основе политической принадлежности. Это требование, нацеленное на компонент «консерваторов» (Conservatives) в структуре «4 Cs», направлено на устранение опасений по поводу того, что системы ИИ настраиваются с идеологическими предубеждениями в пользу определенных культурных или политических взглядов. В то время как сторонники утверждают, что это обеспечивает нейтральность, критики в технологической отрасли предупреждают, что это может привести к поддерживаемому правительством давлению на разработчиков с целью манипулирования результатами работы моделей для приведения их в соответствие с текущими политическими приоритетами, фактически создавая «аудиторско-промышленный комплекс ИИ», который может замедлить инновации и значительно увеличить затраты на разработку.
Расширяя юридические возможности, доступные генеральному прокурору США, генеральным прокурорам штатов и частным гражданам, Закон резко увеличивает риск судебных разбирательств для разработчиков ИИ. Компании могут столкнуться с параллельными правоприменительными исками за «дефектный дизайн», «неспособность предупредить» или «необоснованно опасные» системы ИИ. Для небольших стартапов и участников open-source проектов стоимость защиты от таких претензий — часто включающая сложные процессы раскрытия информации о запатентованном алгоритмическом принятии решений — может оказаться непреодолимой, что потенциально приведет к консолидации рынка, где только крупнейшие и наиболее обеспеченные фирмы смогут позволить себе работать.
Хотя «Закона Трампа об ИИ в Америке» в настоящее время находится на стадии обсуждения проекта, его существование служит маркером будущего федеральной политики в области ИИ. Законопроект включает несколько двухпартийных элементов, таких как Закон о безопасности детей в интернете (Kids Online Safety Act) и Закон NO FAKES, которые получили различную степень поддержки с обеих сторон. Однако включение более агрессивных положений, таких как полная отмена раздела 230 и специфическая позиция в отношении добросовестного использования авторских прав, гарантирует, что законодательные дебаты будут острыми.
Отраслевые аналитики внимательно следят за тем, как Белый дом отреагирует на эту структуру. Учитывая явный брендинг законопроекта и его соответствие указу об ИИ от декабря 2025 года, он явно предназначен для использования в качестве законодательного «свода правил». Тем не менее, как показывают реакции таких организаций, как Институт Катона (Cato Institute) и других политических групп, существует значительное противодействие идее о том, что жесткое государственное вмешательство является решением рисков, связанных с ИИ. Напряженность между стремлением к федеральному единообразию и страхом подавления технологической конкурентоспособности, вероятно, будет доминировать в дискуссиях в ближайшие месяцы.
«Закон Трампа об ИИ в Америке» — это смелая, хотя и поляризующая попытка переписать правила цифровой эпохи. Кодифицируя «обязанность по соблюдению осторожности» и бросая вызов защите иммунитета, которая определяла интернет на протяжении десятилетий, сенатор Блэкберн заставила индустрию ИИ столкнуться с новой реальностью: эра бесконтрольных экспериментов, вероятно, подходит к концу. Пока Конгресс переходит к оценке этого проекта, разработчики, инвесторы и политики должны подготовиться к будущему, в котором комплаенс, прозрачность и подотчетность являются не просто лучшими практиками, а законодательными требованиями. Результат принятия этого закона создаст прецедент для американского лидерства в области ИИ — и для глобального стандарта технологического управления — на долгие годы вперед.