
В ходе шага, который сигнализирует о потенциальном поворотном моменте для глобального регулирования искусственного интеллекта (Artificial Intelligence, AI), министр по делам искусственного интеллекта и цифровых инноваций (Minister of Artificial Intelligence and Digital Innovation) Канады, Evan Solomon, вызвал высшее руководство OpenAI по вопросам безопасности в Оттаву. Срочная встреча, запланированная на вторник, последовала за разоблачением того, что технологический гигант пометил аккаунт ChatGPT стрелка из школы Тамблер-Ридж из-за контента с насилием за восемь месяцев до нападения, но не сообщил о пользователе в правоохранительные органы.
Вызов произошел на фоне волны национального горя и гнева после того, как 18-летняя Jesse Van Rootselaar убила восемь человек в Тамблер-Ридж, Британская Колумбия. В число жертв вошли её мать и сводный брат, а также помощник учителя и пятеро учеников местной школы. Инцидент вновь разжег дебаты об ответственности технологических компаний за мониторинг и сообщение о потенциальных угрозах, обнаруженных их системами.
В центре разногласий находится внутренняя обработка OpenAI активности аккаунта Jesse Van Rootselaar в июне 2025 года. Согласно заявлениям компании, взаимодействия пользователя с ChatGPT были помечены системами обнаружения злоупотреблений за «содействие насильственной деятельности». Хотя OpenAI предприняла шаг по блокировке аккаунта за нарушение политики использования, она не передала дело в Royal Canadian Mounted Police (RCMP).
OpenAI заявила, что её внутренняя проверка на тот момент пришла к выводу, что активность аккаунта не соответствовала порогу для передачи в правоохранительные органы. Политика компании предписывает уведомлять власти только в случае возникновения «реального и неизбежного риска» серьезного физического вреда. Только после резни 10 февраля 2026 года сотрудники OpenAI, осознав связь, связались с RCMP и предоставили информацию о цифровой истории стрелка.
Премьер-министр Британской Колумбии David Eby выразил глубокое разочарование процессом принятия решений в компании. «Со стороны это выглядит так, будто у OpenAI была возможность предотвратить эту трагедию, предотвратить эту ужасную гибель людей», — сказал David Eby журналистам. «Я в ярости из-за этого».
Evan Solomon ясно дал понять, что текущее положение дел в отношении саморегулирования ИИ находится под пристальным вниманием. Ожидается, что встреча в Оттаве будет в значительной степени сосредоточена на конкретных критериях, которые OpenAI использует для определения того, представляет ли пользователь физическую угрозу.
«Канадцы ожидают, прежде всего, что их дети будут в безопасности, и что эти организации действуют ответственно», — заявил Evan Solomon в понедельник. Он указал, что, хотя он не будет заранее брать на себя обязательства по конкретному законодательству, «все варианты рассматриваются», включая более строгие нормативные рамки для чат-ботов с ИИ и генеративных моделей (Generative AI).
Ядром обсуждения, вероятно, станет стандарт «неизбежного риска». Критики утверждают, что этот порог слишком высок для систем ИИ, которые могут обнаруживать ранние признаки радикализации или насильственных идей задолго до того, как конкретный план будет приведен в действие.
Эксперты в области права и этики указывают на этот инцидент как на доказательство того, что к компаниям, занимающимся ИИ, должны применяться стандарты, аналогичные стандартам медицинских работников и педагогов. Alan Mackworth, почетный профессор Университета Британской Колумбии, специализирующийся на безопасности ИИ, предположил, что юридическая «обязанность сообщать (duty to report)» должна быть распространена на поставщиков технологий.
В настоящее время такие специалисты, как врачи и учителя, по закону обязаны сообщать о подозрении на причинение вреда несовершеннолетним или о неизбежном насилии. Пробел в законодательстве в отношении платформ ИИ позволяет компаниям отдавать приоритет конфиденциальности пользователей или внутренней политике перед общественной безопасностью — пробел, который канадское правительство, похоже, теперь намерено закрыть.
В таблице ниже показано несоответствие между текущей отраслевой практикой и регуляторными ожиданиями, которые сейчас озвучивают канадские официальные лица.
| Характеристика | Текущая отраслевая практика (саморегулирование) | Предлагаемые регуляторные ожидания (Канада) |
|---|---|---|
| Порог риска | Для сообщения требуется «неизбежный и реальный риск» причинения физического вреда. | «Обоснованное подозрение» в потенциальном насилии или вреде. |
| Механизм сообщения | Добровольная передача в правоохранительные органы на основе внутреннего анализа. | Обязательная отчетность (Обязанность сообщать) для определенных категорий угроз. |
| Действия с аккаунтом | Бан или приостановка обслуживания; данные пользователя часто сохраняются внутри компании. | Немедленная приостановка, сопровождаемая автоматическим уведомлением властей. |
| Ответственность | Ограниченная ответственность в соответствии с действующим законодательством о платформах. | Потенциальная юридическая ответственность за несообщение о предотвратимых преступлениях. |
Для более широкого сектора ИИ инцидент в Тамблер-Ридж представляет собой критический пример ограничений алгоритмов обнаружения злоупотреблений и человеческой модерации. Хотя системы OpenAI успешно выявили нарушение политики, сбой произошел при переходе от модерации контента к реальному вмешательству.
Этот разрыв подчеркивает серьезную проблему для Creati.ai и других заинтересованных сторон в этой области: как сбалансировать конфиденциальность пользователей и свободу выражения мнений с необходимостью предотвращения вреда. Если Канада введет «обязанность сообщать» для компаний ИИ, это может создать прецедент, которому могут последовать другие страны, включая Великобританию и членов Европейского Союза.
Результат встречи во вторник между Evan Solomon и командой по безопасности OpenAI, вероятно, определит траекторию будущего законодательства Канады в области ИИ. Несомненно то, что эпоха чисто добровольного соблюдения требований безопасности для поставщиков базовых моделей подходит к концу. По мере того как технология становится все более интегрированной в повседневную жизнь, спрос на подотчетность, когда эти системы обнаруживают опасность, но не реагируют на неё, будет только усиливаться.