
在不列顛哥倫比亞省(British Columbia)Tumbler Ridge 發生的毀滅性大規模槍擊事件調查中,出現了一個令人不安的新維度。本週確認的披露資訊顯示,18 歲的犯罪者 Jesse Van Rootselaar 成功維持了第二個 ChatGPT 帳戶,且完全未被 OpenAI 的安全基礎設施偵測到。這一發現引發了各界對人工智慧安全(AI safety)協議有效性的強烈批評,並促使加拿大官員立即要求採取立法行動。
來自 OpenAI 的承認——即其系統未能標記槍手的第二個帳戶(該帳戶是在其主帳戶因生成暴力內容而被封禁後創建的)——從根本上改變了圍繞 AI 治理(AI governance)的論述。這引發了關於領先 AI 實驗室是否有能力執行其自身的使用守則(acceptable use policies),並防止不良行為者逃避封禁以繼續利用強大的生成式模型(generative models)的緊迫問題。
爭議的核心在於 OpenAI 使用者管理與安全執行系統中的重大失誤。根據內部調查公佈的細節以及隨後與加拿大政府官員的溝通,槍手能夠規避 2025 年 6 月實施的封禁。
最初的封禁是由於 Van Rootselaar 的第一個帳戶生成了違反 OpenAI 關於「促進暴力活動」政策的內容而觸發的。報告指出,這些互動包括涉及槍支暴力的詳細情節。然而,當時 OpenAI 的信任與安全團隊認定該內容未達到現實世界暴力「可信或迫在眉睫的規劃」門檻,因此未向加拿大皇家騎警(RCMP)通報。
關鍵的失敗發生在這次封禁之後。儘管其主要憑據已被暫停,槍手仍建立了第二個活躍帳戶。OpenAI 的「重複違規偵測系統」——專門旨在防止被封禁使用者重返平台——未能將此新帳戶與受禁使用者聯繫起來。
OpenAI 全球政策副總裁 Ann O’Leary 在給官員的一封信中承認,該公司直到 2 月 10 日悲劇發生後、執法部門公開槍手身份後,才發現這第二個帳戶的存在。系統無法將新帳戶與被封禁身份進行交叉比對,顯示出在數位指紋(digital fingerprinting)、IP 追蹤或行為分析協議方面存在漏洞,而這些是現代網路安全(cybersecurity)的標準配置。
對於網路安全和 人工智慧安全(AI safety)專家而言,Tumbler Ridge 事件突顯了監管廣泛可用 AI 工具訪問權限的巨大挑戰。雖然 OpenAI 尚未披露用於規避偵測的具體技術途徑,但該事件指向了 AI 平台管理身份驗證方式的局限性。
這次失敗顯示偵測機制過度依賴靜態識別碼——例如電子郵件地址或電話號碼——而非更強大、動態的信號,如設備遙測(device telemetry)或行為生物識別。如果使用者只需更換憑據並從不同的網路或設備訪問平台,標準封禁很容易被規避。
AI 平台中的「安全缺口」:
政治連鎖反應迅速且嚴重。加拿大人工智慧與數位創新部長 Evan Solomon 已公開對 OpenAI 處理此情況的方式表示深感失望。在與 OpenAI 高層於渥太華(Ottawa)進行緊張會晤後,Solomon 部長形容該公司的初步回應不足,缺乏系統性變革的「具體方案」。
Solomon 部長一直直言不諱地表示,AI 公司與執法部門的互動方式需要範式轉移。政府目前正推動更嚴格的法規,強制要求在使用者生成對公共安全構成風險的內容時進行通報,即使該內容尚未達到先前指導 OpenAI 決策的「迫在眉睫的威脅」門檻。
「加拿大人理應更清楚地瞭解人工審查決策是如何做出的,」Solomon 表示,並強調目前的自我監管方式未能保護大眾。部長已明確威脅將制定新立法,可能加速對 C-27 法案(Bill C-27)等框架的修訂,以強制 AI 公司對其平台上生成的內容和託管的使用者承擔更大的責任。
政府的要求包括:
面對日益增加的壓力,OpenAI 承諾採取一系列「立即步驟」來彌補調查發現的漏洞。在給 Solomon 部長的信函中,Ann O’Leary 概述了旨在防範危險使用者的全新協議。
該公司表示,根據其在悲劇發生後制定的新執法轉介協議,槍手 2025 年 6 月的活動本應向 RCMP 通報。這份承認雖然意在展示進步,但被受害者家屬和官員視為悲劇性的「遲來的安慰」,證實了如果早先實施更嚴格的政策,這場悲劇本可以避免。
OpenAI 還承諾增強其技術系統,以更好地識別回流的違規者。這包括「優先識別最高風險的違規者」,並完善掃描政策違規的自動化系統。該公司承諾與加拿大當局密切合作,「定期評估自動化系統使用的門檻」,並承認加拿大的情況需要特別關注。
下表概述了槍手活動期間實施的協議與擬議增強措施之間的關鍵差異。
下表對比了對槍手帳戶的處理方式與 OpenAI 做出之新承諾。
| 協議方面 | 槍手處理情況 (2025-2026) | 新協議承諾 (事故後) |
|---|---|---|
| 暴力內容觸發 | 內部標記;封禁但被視為「非迫在眉睫」。 | 門檻降低;「嚴重傷害風險」現在會觸發審查。 |
| 執法部門轉介 | 儘管涉及槍支暴力場景,但未向 RCMP 轉介。 | 對於類似內容強制轉介至執法部門。 |
| 封禁規避偵測 | 未能偵測到被封禁使用者創建的第二個帳戶。 | 增強「重複違規者」系統,具備更好的身份匹配功能。 |
| 警方協作 | 臨時性質;依賴標準法律請求渠道。 | 為加拿大警方提供專屬 24/7 直接聯絡點。 |
| 內部可視性 | 孤立處理;第二個帳戶被視為全新、乾淨的使用者。 | 整合歷史紀錄;先前的封禁將作為新帳戶風險評估的參考。 |
Tumbler Ridge 案例注定將成為 AI 安全的一個分水嶺時刻,類似於早期社交媒體悲劇如何塑造內容審查法律。它挑戰了整個行業的假設,即「信任與安全」僅僅是一項客戶服務功能,而非公共安全的職責。
對於 Creati.ai 和更廣泛的 AI 社群來說,這是一個警鐘,提醒人們這些技術的「雙重用途」性質。隨著模型變得更加強大,控制其濫用的機制必須同步發展。僅僅依賴尋找特定關鍵字的自動化過濾器顯然是不夠的;安全需要對使用者行為的全方位視角和強大的身份管理。
此外,這一事件突顯了 AI 開發者面臨的責任風險。如果平台察覺到使用者的暴力傾向(透過封禁),但未能阻止其再次使用服務,過失責任的論點將變得更加有力。這可能導致一波訴訟浪潮和嚴格的合規要求,這將從根本上改變所有在加拿大及全球營運之 AI 公司的營運格局。
隨著 RCMP 繼續調查,受害者家屬依然深陷悲痛,焦點仍集中在確保讓 Jesse Van Rootselaar 有機可乘的數位漏洞被永久修補。AI 開發領域「快速行動、打破常規」(move fast and break things)的時代顯然已經結束,取而代之的是對問責制、透明度和嚴格安全執行的全新要求。