
世界的なAI規制の潜在的な転換点となる動きとして、カナダの人工知能・デジタルイノベーション担当大臣(Minister of Artificial Intelligence and Digital Innovation)であるエヴァン・ソロモン(Evan Solomon)氏は、OpenAIの安全部門のシニアリーダーシップをオタワに召喚しました。火曜日に予定されているこの緊急会合は、テクノロジー大手がタンブラー・リッジの学校銃撃犯のChatGPTアカウントを、事件の8か月前に暴力的なコンテンツとしてフラグを立てていたにもかかわらず、そのユーザーを法執行機関に報告していなかったという事実が明らかになったことを受けてのものです。
この召喚は、ブリティッシュコロンビア州タンブラー・リッジで18歳のジェシー・ヴァン・ルーツェラー(Jesse Van Rootselaar)が8人を殺害した事件を受け、国民的な悲しみと怒りが広がる中で行われました。犠牲者には彼女の母親と義理の兄弟、そして地元の学校の教育助手と5人の生徒が含まれていました。この事件は、自社のシステムが検知した潜在的な脅威を監視し報告するという、テック企業の責任を巡る議論を再燃させました。
今回の論争の中心は、2025年6月におけるヴァン・ルーツェラーのアカウント活動に対するOpenAIの内部対応にあります。同社の声明によると、このユーザーのChatGPTとのやり取りは、不正利用検知システムによって「暴力活動の助長(furtherance of violent activities)」としてフラグが立てられていました。OpenAIは利用規約違反としてアカウントを凍結する措置を講じましたが、王立カナダ騎馬警察(RCMP:Royal Canadian Mounted Police)への事態の報告は行いませんでした。
OpenAIは、当時の内部審査では、アカウントの活動が法執行機関への照会基準を満たしていないと判断したと述べています。同社のポリシーでは、深刻な身体的危害の「確実かつ差し迫ったリスク」がある場合にのみ当局に通知することになっています。OpenAIの従業員が関連性に気づき、銃撃犯のデジタル履歴に関する情報をRCMPに提供したのは、2026年2月10日の惨劇が起きた後のことでした。
ブリティッシュコロンビア州のデイヴィッド・イービー(David Eby)首相は、同社の意思決定プロセスに対して深い不満を表明しました。「外部から見れば、OpenAIにはこの悲劇を防ぎ、この恐ろしい命の喪失を防ぐ機会があったように見えます」とイービー氏は記者団に語りました。「私はそのことに憤りを感じています。」
ソロモン大臣は、AIの自主規制(AI self-regulation)に関する現状が厳しい精査にさらされていることを明確にしました。オタワでの会合は、ユーザーが身体的な脅威をもたらすと判断するためにOpenAIが使用している具体的な基準に重点が置かれる見通しです。
「カナダ国民は、何よりもまず、特に子供たちの安全が守られること、そしてこれらの組織が責任ある態度で行動することを期待しています」とソロモン氏は月曜日に述べました。同氏は、特定の立法をあらかじめ約束することはないとしつつも、AIチャットボットや生成モデル(Generative models)に対するより厳格な規制枠組みを含め、「すべての選択肢が検討対象である」と示唆しました。
議論の核心は、おそらく「差し迫ったリスク」という基準を巡るものになるとみられます。批判的な人々は、具体的な計画が実行されるずっと前に、過激化や暴力的な思考の初期の兆候を検知する可能性のあるAIシステムにとって、この閾値は高すぎると主張しています。
法的および倫理的な専門家は、この事件を、AI企業が医療専門家や教育者と同様の基準に従うべきであるという証拠として指摘しています。AIの安全性を専門とするブリティッシュコロンビア大学の名誉教授アラン・マックワース(Alan Mackworth)氏は、法的な「報告義務(duty to report)」をテクノロジープロバイダーにも拡大すべきだと提案しました。
現在、医師や教師などの専門家は、未成年者への危害の疑いや差し迫った暴力を報告することが法律で義務付けられています。AIプラットフォームに関する法整備の不備により、企業が公共の安全よりもユーザーのプライバシーや内部ポリシーを優先することが許容されており、カナダ政府は現在、その溝を埋める構えを見せています。
以下の表は、現在の業界慣行と、現在カナダ当局によって表明されている規制上の期待との格差を示しています。
| 特徴 | 現在の業界慣行(自主規制) | 提案されている規制上の期待(カナダ) |
|---|---|---|
| リスクの閾値 | 報告には身体的危害の「差し迫った確実なリスク」が必要。 | 潜在的な暴力や危害に関する「合理的な疑い」。 |
| 報告メカニズム | 内部審査に基づく法執行機関への任意照会。 | 特定の脅威カテゴリに対する義務的報告(報告義務)。 |
| アカウントへの対応 | サービスの利用停止または凍結。ユーザーデータは内部で保持されることが多い。 | 即時停止とともに、当局への自動的なフラグ通知。 |
| 法的責任 | 現在のプラットフォーム法の下では限定的な責任。 | 防げたはずの犯罪を報告しなかったことに対する潜在的な法的責任。 |
広範なAIセクターにとって、タンブラー・リッジの事件は、不正利用検知アルゴリズム(Abuse detection algorithms)と人間によるモデレーションの限界を示す重要なケーススタディとなります。OpenAIのシステムはポリシー違反の特定には成功しましたが、失敗はコンテンツモデレーションから現実世界での介入への移行段階にありました。
この断絶は、Creati.aiやこの分野の他のステークホルダーにとっての大きな課題を浮き彫りにしています。それは、ユーザーのプライバシーや表現の自由と、危害を防止するという責務をいかにバランスさせるかという点です。もしカナダがAI企業に対して「報告義務」を課す方向に動けば、英国や欧州連合の加盟国を含む他の国々が従う前例となる可能性があります。
ソロモン大臣とOpenAIの安全チームとの火曜日の会合の結果は、カナダの次期AI立法の方向性を決定づけることになるでしょう。確かなのは、基盤モデルプロバイダーによる純粋に自発的な安全性遵守の時代が終焉を迎えつつあるということです。テクノロジーが日常生活にさらに統合されるにつれ、システムが危険を検知しながらも行動を怠った際の責任を問う声は、今後さらに強まっていくでしょう。