
В откровении, которое вновь разожгло глобальные дебаты о безопасности искусственного интеллекта (AI Safety) и корпоративной ответственности, новые отчеты расследований подтверждают, что системы доверия и безопасности OpenAI успешно пометили аккаунт стрелка из школы Тамблер-Ридж (Tumbler Ridge) за несколько месяцев до того, как произошла трагедия. Однако критический пробел в протоколе означал, что, хотя аккаунт был заблокирован, о неизбежной угрозе так и не было сообщено в правоохранительные органы.
Согласно документам, опубликованным в ходе расследования в отношении Джесси Ван Роотселаара (Jesse Van Rootselaar), виновника массового убийства в Тамблер-Ридж, Британская Колумбия, автоматизированные системы OpenAI обнаружили серьезные нарушения политики использования в июне 2025 года. Подозреваемый, по сообщениям, использовал ChatGPT для симуляции тактических сценариев и составления манифестов с призывами к насилию. Хотя ИИ-гигант предпринял немедленные действия по прекращению доступа пользователя к своей платформе, неспособность передать эти тревожные сигналы в Королевскую канадскую конную полицию (RCMP) теперь является предметом тщательного изучения.
Для индустрии ИИ этот инцидент служит мрачным примером ограничений нынешних систем модерации контента. Он подчеркивает опасный эффект «изоляции», когда цифровые платформы могут идентифицировать опасность с высокой точностью, но не имеют юридических обязательств или процедурных рабочих процессов, чтобы преодолеть разрыв между цифровой блокировкой и вмешательством в реальном мире.
Расследование раскрывает леденящую душу хронологию, которая подчеркивает упущенные возможности для предотвращения. Данные указывают на то, что большие языковые модели (Large Language Models, LLM) становятся все более способными распознавать «намерение причинить вред», однако человеческие системы вокруг них остаются реактивными, а не проактивными.
В июне 2025 года аккаунт Ван Роотселаара вызвал несколько флажков «уровня серьезности альфа» во внутренней системе мониторинга OpenAI. Эти флажки зарезервированы для контента, изображающего сексуальное насилие, разжигание ненависти или явные угрозы жизни. Подсказки, введенные Ван Роотселааром, по сообщениям, включали подробные запросы относительно планировки школ, времени реагирования чрезвычайных служб и модификации оружия.
Автоматический ответ последовал незамедлительно. В течение 24 часов после зафиксированных взаимодействий аккаунт был заблокирован. Однако внутренняя проверка классифицировала инцидент как нарушение условий обслуживания (Terms of Service, ToS), а не как непосредственную угрозу общественной безопасности, требующую внешней отчетности. В результате Ван Роотселаар был лишен доступа к инструменту ИИ, но остался на свободе, продолжая планирование в офлайне, о чем не знали ни RCMP, ни местные власти.
В центре этого спора находится правовая и этическая концепция «обязанности предупреждать» (Duty to Warn). В сфере психотерапии специалисты по закону обязаны нарушить конфиденциальность, если пациент представляет немедленную угрозу для себя или окружающих. В настоящее время не существует подобного универсального стандарта для поставщиков услуг ИИ, особенно за пределами государственных границ.
OpenAI, как и многие другие технологические гиганты из США, работает в условиях сложной сети законов о конфиденциальности. Хотя они сотрудничают с правоохранительными органами в ответ на повестки в суд, проактивной отчетности часто мешают огромные объемы данных и страх ложных срабатываний.
Таблица 1: Разрыв между модерацией ИИ и правоохранительными органами
| Компонент | Внутренние действия OpenAI | Связь с правоохранительными органами |
|---|---|---|
| Обнаружение | Алгоритмы выявили «высокорисковые» запросы, связанные с насилием. | Отсутствует. Данные остались изолированными на серверах компании. |
| Реакция | Автоматическое закрытие аккаунта и бан по IP. | Отсутствует. Автоматическое оповещение в RCMP или местную полицию не отправлялось. |
| Юридический статус | Нарушение «Политики использования» (договорное). | Потенциальный сговор или планирование угрозы (уголовное). |
| Результат | Пользователь потерял доступ к инструменту. | Подозреваемый оставался вне поля зрения следствия до самого события. |
С технической точки зрения инцидент демонстрирует, что фильтры безопасности, встроенные в такие модели, как GPT-4 и их преемники, функционируют должным образом. ИИ отказался генерировать определенные вредоносные результаты и правильно пометил пользователя для проверки. Это значительная победа технической стороны согласования ИИ (AI Alignment) — модель распознала злой умысел.
Однако операционная сторона дала сбой. Огромный объем помеченного контента представляет собой серьезную логистическую проблему. Технологические компании ежедневно сталкиваются с миллионами нарушений ToS, варьирующихся от словесных оскорблений до вполне реальных угроз. Отличить геймера в ролевой игре или сценариста от настоящего школьного стрелка остается сложным препятствием.
Защитники конфиденциальности также предостерегают против создания государства тотальной слежки, в котором ИИ-компании автоматически пересылают запросы пользователей в полицию. «Если мы обяжем ИИ-компании сообщать о каждом случае написания текстов о насилии властям, мы рискуем наводнить правоохранительные органы ложными тревогами и одновременно подорвать конфиденциальность пользователей», — отмечает доктор Елена Ростова (Dr. Elena Rostova), старший аналитик по этике ИИ. «Однако случай в Тамблер-Ридж доказывает, что когда сигналы настолько специфичны и настойчивы, текущий порог для отчетности слишком высок».
Усугубляет проблему трансграничный характер инцидента. OpenAI — это организация, базирующаяся в США, в то время как преступление произошло в Канаде. Определение того, какое правоохранительное ведомство следует уведомить — и соблюдение правил конфиденциальности страны проживания пользователя — добавляет уровни бюрократических трений.
Правительство Канады выразило возмущение по поводу этой оплошности. Сообщается, что правительственные чиновники готовят новое законодательство, которое обяжет цифровые платформы, работающие в Канаде, сообщать о «достоверных угрозах массового насилия» в RCMP в течение 24 часов после обнаружения, независимо от местонахождения штаб-квартиры компании.
Для читателей Creati.ai и профессионалов отрасли этот инцидент сигнализирует о вероятном сдвиге в стандартах соответствия. Мы ожидаем, что эра внедрения ИИ по принципу «двигайся быстро и ломай стереотипы» окончательно завершилась в отношении протоколов безопасности.
Мы, вероятно, увидим внедрение «законов о красных флажках» (Red Flag Laws), специально разработанных для генеративного ИИ (Generative AI). Эти правила заставят компании поддерживать прямую линию связи с властями для определенных категорий помеченного контента. Это переносит ответственность с «модерации» (поддержание чистоты платформы) на «общественную безопасность» (обеспечение безопасности мира).
Более того, это может ускорить разработку федеративных систем безопасности (Federated Safety Systems). Вместо того чтобы каждая компания хранила свои данные об угрозах, общеотраслевая база данных «акторов высокого риска» могла бы предотвратить простую миграцию пользователя, заблокированного на одной платформе, на другую для продолжения подготовки.
Хотя ИИ обнаружил контент, решение не сообщать о нем, вероятно, было системным сбоем политики проверки человеком или автоматизированного рабочего процесса, в котором отсутствовал механизм вывода для отчетности. Компаниям придется вкладывать значительные средства не только в улучшение обнаружения с помощью ИИ, но и в специализированные группы безопасности из людей, способных оценивать контекст и ориентироваться в международных требованиях к отчетности.
Ключевые задачи для разработчиков ИИ:
Трагедия в Тамблер-Ридж не была провалом искусственного интеллекта в понимании контента, который он обрабатывал; это был провал протоколов, управляющих этим интеллектом. Системы OpenAI сработали — они нашли иголку в стоге сена. Но без механизма передачи этой иголки тем, кто мог бы остановить укол, обнаружение оказалось тщетным.
По мере того как индустрия размышляет о роли цифрового следа Джесси Ван Роотселаара в этой катастрофе, становится ясно: модерация контента больше не может существовать в вакууме. Чтобы ИИ был по-настоящему безопасным, он должен быть интегрирован в более широкую структуру общественной безопасности, преодолевая разрыв между цифровыми флажками и вмешательством в реальном мире.