
ブリティッシュコロンビア州タンブラー・リッジで発生した凄惨な銃乱射事件の捜査において、不穏な新事実が浮上した。今週確認された情報によると、犯人のジェシー・ファン・ルートセラール(Jesse Van Rootselaar、18歳)は、OpenAIの安全インフラに全く検知されることなく、2つ目のChatGPTアカウントの維持に成功していた。この発見は、AIの安全性プロトコルの有効性に関する激しい批判を巻き起こし、カナダ政府当局者からの即時の立法措置の要求を促している。
OpenAI による、銃撃犯の2つ目のアカウント(暴力的なコンテンツを生成したためにメインアカウントが禁止された後に作成されたもの)のフラグ立てにシステムが失敗したという認める発言は、AIガバナンスを巡る議論を根本から変えた。これは、主要なAI研究所が自らの利用許諾ポリシーを執行し、悪意のある行為者が禁止を回避して強力な生成モデル(Generative AI)を利用し続けるのを防ぐ能力について、緊急の疑問を投げかけている。
論争の核心は、OpenAIのユーザー管理および安全性執行システムにおける重大な過失にある。内部調査から明らかになった詳細およびその後のカナダ政府当局とのやり取りによると、銃撃犯は2025年6月に科された禁止措置を回避することができた。
最初の禁止は、ファン・ルートセラールの最初のアカウントが「暴力行為の助長」に関するOpenAIのポリシーに違反するコンテンツを生成した後に発動された。報告によると、これらのやり取りには銃器による暴力を含む詳細なシナリオが含まれていた。しかし当時、OpenAIの信頼と安全(Trust and Safety)チームは、その内容が現実世界における暴力の「信憑性のある、または差し迫った計画」の閾値に達していないと判断したため、王立カナダ騎馬警察(RCMP)への通報は行われなかった。
重大な失敗はこの禁止措置の後に起こった。主要な資格情報の停止にもかかわらず、銃撃犯は2つ目のアクティブなアカウントを開設した。禁止されたユーザーがプラットフォームに戻るのを防ぐために特別に設計されたOpenAIの「repeat violator detectionシステム」は、この新しいアカウントを禁止されたユーザーと結びつけることができなかった。
OpenAIのグローバルポリシー担当副社長であるアン・オリアリー(Ann O’Leary)は、当局への書簡の中で、2月10日の悲劇の後に法執行機関によって銃撃犯の身元が公表されて初めて、同社がこの2つ目のアカウントの存在に気づいたことを認めた。新しいアカウントを禁止された身元と照合できなかったことは、現代のサイバーセキュリティにおいて標準的であるデジタル指紋(digital fingerprinting)、IPトラッキング、または行動分析プロトコルのギャップを示唆している。
サイバーセキュリティおよびAI safetyの専門家にとって、タンブラー・リッジの事件は、広く利用可能なAIツールへのアクセスを監視することの極めて大きな課題を浮き彫りにしている。OpenAIは検知を回避するために使用された具体的な技術的ベクトルを明らかにしていないが、この事件はAIプラットフォームが本人確認を管理する方法の限界を指摘している。
この失敗は、検知メカニズムがデバイスのテレメトリや行動バイオメトリクスのようなより堅牢で動的な信号ではなく、メールアドレスや電話番号といった静的な識別子に大きく依存していたことを示唆している。ユーザーが単に資格情報を切り替え、別のネットワークやデバイスからプラットフォームにアクセスした場合、標準的な禁止措置は容易に回避される可能性がある。
AIプラットフォームにおける「安全性のギャップ」:
政治的な波紋は迅速かつ深刻であった。カナダのAI・デジタルイノベーション担当大臣であるEvan Solomonは、OpenAIの状況への対応に対して深い失望を公に表明した。オタワでのOpenAI幹部との緊迫した会談の後、ソロモン大臣は同社の初期の対応を不十分であり、システム変更のための「具体的な提案」に欠けていると評した。
ソロモン大臣は、AI企業が法執行機関とどのように関わるかというパラダイムシフトの必要性を声高に主張してきた。政府は現在、ユーザーが公共の安全にリスクをもたらすコンテンツを生成した場合、以前のOpenAIの判断基準であった「差し迫った脅威」の閾値に達していなくても報告を義務付ける、より厳格な規制を推進している。
「カナダ人は、人間によるレビューの決定がどのようになされるかについて、より大きな明確さを得る権利がある」とソロモンは述べ、現在の自主規制アプローチが国民の保護に失敗していることを強調した。大臣は、AI企業に生成されたコンテンツやプラットフォーム上でホストされるユーザーに対してより大きな責任を負わせるため、Bill C-27などの枠組みへの修正を加速させる可能性のある新しい法律を明示的に示唆した。
政府の要求には以下が含まれる:
高まる圧力に応え、OpenAIは調査によって特定されたギャップを一連の「即時の措置」で是正することを約束した。アン・オリアリーはソロモン大臣への返信の中で、危険なユーザーに関する情報のループを閉じることを意図した新しいプロトコルの概要を説明した。
同社は、悲劇を受けて策定された新しい法執行機関への通報プロトコルの下では、銃撃犯の2025年6月の活動はRCMPに報告されていただろうと述べている。この認める発言は、進展を示す意図があるものの、遺族や当局者からは、より厳格なポリシーが早期に実施されていれば悲劇は防げたかもしれないことを裏付ける悲劇的な「冷たい慰め」として受け止められている。
OpenAIはまた、戻ってきた違反者をより良く特定するために技術システムを強化することを誓っている。これには「最高リスクの違反者の特定を優先すること」や、ポリシー違反をスキャンする自動システムの改良が含まれる。同社は、カナダの文脈には特別な注意が必要であることを認め、自動システムで使用される「閾値を定期的に評価」するためにカナダ当局と緊密に協力することを約束した。
以下の表は、銃撃犯の活動中に実施されていたプロトコルと、提案された強化策との間の重大な違いをまとめたものである。
次の表は、銃撃犯のアカウントの取り扱いと、OpenAIによる新たなコミットメントを対比させたものである。
| プロトコルの側面 | 銃撃犯の取り扱い(2025年-2026年) | 新しいプロトコルのコミットメント(事件後) |
|---|---|---|
| 暴力的なコンテンツのトリガー | 内部でフラグが立てられたが、禁止されたものの「差し迫っていない」と見なされた。 | 閾値を引き下げ。「重大な危害のリスク」がレビューを誘発するようになった。 |
| 法執行機関への通報 | 銃器による暴力のシナリオがあったにもかかわらず、RCMPへの通報は行われなかった。 | 同様のコンテンツに対して法執行機関への通報を義務化。 |
| 禁止回避の検知 | 禁止されたユーザーによって作成された2つ目のアカウントの検知に失敗した。 | 本人確認の照合を改善した強化版「リピート違反者」システム。 |
| 警察との協力 | アドホック;標準的な法的要請チャネルに依存していた。 | カナダ警察向けの専用の24時間年中無休の直接連絡窓口。 |
| 内部の可視性 | サイロ化;2つ目のアカウントは新規のクリーンなユーザーとして扱われた。 | 履歴の統合;以前の禁止措置が新しいアカウントのリスク評価に反映される。 |
Tumbler Ridgeのケースは、初期のソーシャルメディアの悲劇がコンテンツモデレーション法を形作ったのと同様に、AIの安全性における重大な転換点となる可能性が高い。これは、「信頼と安全(trust and safety)」は単なるカスタマーサービス機能ではなく、公共の安全に関わる責務であるという業界全体の前提に異を唱えるものである。
Creati.aiおよび広範なAIコミュニティにとって、これはこれらのテクノロジーの「デュアルユース(dual-use)」という性質を思い知らされる出来事である。モデルがより高性能になるにつれ、その悪用を制御するためのメカニズムも並行して進化しなければならない。特定のキーワードを探す自動フィルターへの依存は明らかに不十分であり、安全性にはユーザーの行動に関する全体的な視点と堅牢な本人確認管理が必要である。
さらに、この事件はAI開発者が直面する法的責任のリスクを浮き彫りにしている。もしプラットフォームが(禁止措置を通じて)ユーザーの暴力的な傾向を認識していながら、そのサービスへの再アクセスを防げなかった場合、過失の主張はより強固なものとなる。これは訴訟の波を呼び起こし、カナダおよび世界中で活動するすべてのAI企業の運営環境を根本的に変える厳格なコンプライアンス要件につながる可能性がある。
RCMPが捜査を続け、犠牲者の遺族が悲しみに暮れる中、ジェシー・ファン・ルートセラールが潜り抜けることを許したデジタルの抜け穴を恒久的に塞ぐことに焦点が当てられ続けている。AI開発における「素早く行動し破壊せよ(move fast and break things)」の時代は決定的に終わり、責任、透明性、そして厳格な安全性執行という新しい使命に取って代わられたようである。