
在一個標誌著全球人工智能監管潛在轉折點的舉動中,加拿大人工智能與數位創新部長(Minister of Artificial Intelligence and Digital Innovation)Evan Solomon 已傳喚 OpenAI 的高級安全負責人前往渥太華(Ottawa)。此次緊急會議定於週二舉行,此前有消息透露,這家技術巨頭早在襲擊發生前八個月就已標記 Tumbler Ridge 校園槍擊案兇手的 ChatGPT 帳號涉及暴力內容,但未向執法部門舉報該用戶。
此次傳喚發生在全國陷入哀悼與憤怒之際,此前 18 歲的 Jesse Van Rootselaar 在卑詩省(British Columbia)的 Tumbler Ridge 殺害了八人。受害者包括她的母親和繼兄,以及當地學校的一名助教和五名學生。該事件再次引發了關於科技公司是否有責任監控並舉報其系統偵測到的潛在威脅的辯論。
爭議的核心在於 OpenAI 在 2025 年 6 月對 Van Rootselaar 帳號活動的內部處理方式。根據公司的聲明,該用戶與 ChatGPT 的互動因「促進暴力活動」而被濫用檢測系統標記。雖然 OpenAI 採取了因違反使用政策而封鎖帳號的措施,但並未將此事上報給加拿大皇家騎警(RCMP)。
OpenAI 表示,當時的內部審查結論是,該帳號活動未達到向執法部門移交的門檻。該公司的政策規定,只有在存在嚴重身體傷害的「可信且迫在眉睫的風險」(credible and imminent risk)時,才會通知當局。直到 2026 年 2 月 10 日的屠殺發生後,OpenAI 的員工才意識到其中的聯繫,並聯繫加拿大皇家騎警提供了有關槍手數位歷史的信息。
卑詩省省長(British Columbia Premier)David Eby 對該公司的決策過程表達了深切的挫折感。「從外部看,OpenAI 本有機會阻止這場悲劇,阻止這場可怕的生命損失,」Eby 告訴記者。「我對此感到非常憤怒。」
部長 Solomon 已明確表示,人工智能自我監管(Self-regulation)的現狀正受到嚴厲審查。預計渥太華的會議將重點關注 OpenAI 用於判定用戶何時構成人身威脅的具體標準。
「加拿大人首先期望他們的孩子,特別是孩子們能得到安全保護,且這些機構能以負責任的方式行事,」Solomon 在週一表示。他指出,雖然他不會預先承諾特定的立法,但「所有選項都在討論範圍內」,包括對人工智能聊天機器人和生成式模型(Generative models)實施更嚴格的監管框架。
討論的核心可能會圍繞「迫在眉睫的風險」標準展開。批評者認為,對於可能在特定計劃實施前很久就能偵測到激進化(Radicalization)或暴力念頭早期跡象的人工智能系統來說,這個門檻太高了。
法律和倫理專家指出,這一事件證明人工智能公司應承擔與醫療保健專業人員和教育工作者類似的標準。卑詩大學(University of British Columbia)專攻人工智能安全(AI safety)的名譽教授 Alan Mackworth 建議,應將法律上的「通報義務」(Duty to report)擴展至技術提供商。
目前,醫生和教師等專業人員被法律授權必須舉報涉嫌對未成年人的傷害或迫在眉睫的暴力。關於人工智能平台的立法空白使得公司可以優先考慮用戶隱私或內部政策而非公共安全,加拿大政府現在似乎準備填補這一空白。
下表概述了當前行業實踐與加拿大官員目前提出的監管預期之間的差距。
| 特徵 | 當前行業做法(自我監管) | 提議的監管預期(加拿大) |
|---|---|---|
| 風險門檻 | 通報需具備人身傷害的「迫在眉睫且可信的風險」。 | 對潛在暴力或傷害的「合理懷疑」。 |
| 通報機制 | 基於內部審查自願移交執法部門。 | 針對特定威脅類別的強制性通報(通報義務)。 |
| 帳號處置 | 服務停用或暫停;用戶數據通常保留在內部。 | 立即暫停並自動向當局發出標記。 |
| 責任歸屬 | 在現行平台法下承擔有限責任。 | 對未能通報可預防犯罪的潛在法律責任。 |
對於更廣泛的人工智能領域而言,Tumbler Ridge 事件代表了一個關於濫用檢測算法和人工審核局限性的關鍵案例研究。雖然 OpenAI 的系統成功識別了違反政策的行為,但失敗之處在於從內容審核到現實世界干預的銜接。
這種脫節凸顯了 Creati.ai 及該領域其他利益相關者面臨的重大挑戰:如何在用戶隱私、言論自由與預防傷害的必要性之間取得平衡。如果加拿大採取行動強制人工智能公司履行「通報義務」,這可能會開創一個先例,其他國家(包括英國和歐盟成員國)可能會效仿。
部長 Solomon 與 OpenAI 安全團隊之間週二會議的結果,可能會決定加拿大即將出台的人工智能立法的走向。可以肯定的是,基礎模型(Foundational model)提供商純粹自願的安全合規時代正在走向終結。隨著技術越來越融入日常生活,當這些系統偵測到危險卻未能採取行動時,對其追究責任的要求只會日益強烈。