
在一項重新引發全球對人工智慧安全與企業責任辯論的披露中,新的調查報告證實,OpenAI 的信任與安全系統在悲劇發生前幾個月,就已成功標記了塔姆勒嶺(Tumbler Ridge)學校槍擊案嫌犯的帳號。然而,協議中的關鍵漏洞意味著,雖然該帳號被封禁,但迫在眉睫的威脅卻從未通報給執法部門。
根據有關卑詩省塔姆勒嶺(Tumbler Ridge)屠殺案兇手 Jesse Van Rootselaar 調查所公佈的文件,OpenAI 的自動化系統在 2025 年 6 月偵測到其嚴重違反使用政策的行為。據報導,嫌疑人曾使用 ChatGPT 模擬戰術情境並起草暴力宣言。雖然這家 AI 巨頭立即採取行動終止了該用戶訪問其平台的權限,但未能將這些危險信號上報給皇家加拿大騎警(RCMP),目前正受到嚴厲審查。
對於 AI 行業而言,這起事件是當前內容審核框架局限性的嚴酷案例研究。它凸顯了一種危險的孤島效應:數位平台雖然能高度準確地識別危險,但缺乏法律義務或程序工作流來彌補數位封禁與現實世界干預之間的差距。
調查揭露了一個令人不寒而慄的時間線,強調了錯失預防良機的過程。數據顯示,大型語言模型(Large Language Models,LLMs)識別「傷害意圖」的能力日益增強,但其周圍的人為系統仍處於被動反應而非主動預防。
在 2025 年 6 月,Van Rootselaar 的帳號在 OpenAI 的內部監控系統中觸發了多個「alpha 嚴重等級」標記。這些標記專門用於描繪性暴力、仇恨言論或對生命構成明確威脅的內容。據報導,Van Rootselaar 輸入的提示詞(Prompts)包括關於學校佈局、緊急應變時間和武器改裝的詳細查詢。
自動化回應非常迅速。在觸發標記互動後的 24 小時內,該帳號被停權。然而,內部審查將此事件歸類為違反服務條款(ToS),而非需要外部報告的緊迫公共安全威脅。因此,Van Rootselaar 被切斷了與 AI 工具的聯繫,但他在皇家加拿大騎警或地方當局不知情的情況下,仍能自由地在線下繼續其計劃。
這場爭議的核心在於「警告義務(duty to warn)」這一法律與倫理概念。在心理治療領域,如果患者對自己或他人構成迫在眉睫的威脅,專業人員依法必須打破保密協議。目前 AI 服務提供商尚無此類普遍標準,尤其是在跨越國界的情況下。
與許多總部位於美國的科技巨頭一樣,OpenAI 在複雜的隱私法律網下運作。雖然他們會配合執法部門回應傳票,但主動報告往往受限於龐大的數據量以及對誤報的擔憂。
表 1:AI 審核與執法部門之間的差距
| 組件 | OpenAI 內部行動 | 與執法部門的聯繫 |
|---|---|---|
| 偵測 | 演算法識別出與暴力相關的「高風險」提示。 | 無。數據保留在公司伺服器的孤島中。 |
| 回應 | 自動帳號終止和 IP 封鎖。 | 無。未向皇家加拿大騎警(RCMP)或當地警方發送自動警報。 |
| 法律狀態 | 違反「使用政策」(契約性質)。 | 潛在的共謀或威脅策劃(刑事性質)。 |
| 結果 | 用戶失去工具使用權限。 | 嫌疑人在事件發生前一直未受到調查。 |
從技術角度來看,該事件證明了內建於 GPT-4 及其後續模型中的安全過濾器正按設計運作。AI 拒絕生成某些有害輸出,並正確標記該用戶以供審查。這是 AI 對齊(AI alignment)技術方面的一大勝利——模型理解了惡意企圖。
然而,運作端失敗了。龐大的標記內容處理呈現出巨大的物流挑戰。科技公司每天要處理數百萬起違反服務條款的行為,從言語辱罵到合法威脅不等。將角色扮演遊戲玩家或編劇與真正的校園槍擊犯區分開來,仍然是一個複雜的障礙。
隱私倡導者也警告不要建立監控國家,讓 AI 公司自動將用戶提示轉發給警方。「如果我們強制要求 AI 公司向當局報告每一例暴力寫作,我們就有可能讓執法部門充斥著假警報,同時侵蝕用戶隱私,」AI 倫理資深分析師 Elena Rostova 博士指出。「然而,塔姆勒嶺案例證明,當信號如此具體且持續時,目前的報告門檻顯然太高了。」
使問題更加複雜的是事件的跨國性質。OpenAI 是一家總部位於美國的實體,而犯罪發生在加拿大。確定通知哪個執法機構——並遵守用戶母國的隱私法規——增加了層層官僚阻力。
加拿大政府對此疏忽表示憤慨。據報導,政府官員正在起草新法規,要求在加拿大營運的數位平台在偵測到「可靠的大規模暴力威脅」後 24 小時內,無論公司總部位於何處,都必須向皇家加拿大騎警(RCMP)報告。
對於 Creati.ai 的讀者和業界專業人士來說,此事件預示著合規標準可能會發生轉變。我們預計,在安全協議方面,AI 部署那種「快速行動,打破陳規」的時代已正式結束。
我們很可能會看到專門為生成式 AI(Generative AI)設計的「紅旗法」(Red Flag Laws)的實施。這些法規將迫使公司針對特定類別的標記內容與當局保持直接聯繫。這將責任從「審核」(保持平台清潔)轉向了「公共安全」(保持世界安全)。
此外,這可能會加速**聯邦化安全系統(Federated Safety Systems)**的發展。與其讓每家公司囤積自己的威脅數據,不如建立一個行業範圍內的「高風險行為者」資料庫,以防止在一個平台被封禁的用戶簡單地遷移到另一個平台繼續其準備工作。
雖然 AI 偵測到了內容,但「不」報告的決定很可能是人類審查政策的系統性失敗,或是缺乏報告出口的自動化工作流。公司不僅需要投入巨資開發更好的 AI 偵測,還需要建立專門的人類安全團隊,有能力評估語境並應對國際報告要求。
AI 開發者面臨的主要挑戰:
塔姆勒嶺的悲劇並非人工智慧無法理解其處理內容的失敗;而是管理該智慧之協議的失敗。OpenAI 的系統起作用了——它們在草堆中找到了針。但由於缺乏將那根針交給能阻止刺傷發生的人員的機制,偵測本身是徒勞的。
當業界反思 Jesse Van Rootselaar 的數位足跡在此次災難中的角色時,訊息很明確:內容審核不能再孤立存在。為了讓 AI 真正安全,它必須整合到更廣泛的社會安全框架中,彌補數位標記與現實世界干預之間的鸿溝。