
英國首相施凱爾(Keir Starmer)宣布了一項果斷舉措,從根本上改變了英國人工智慧(Artificial Intelligence)的監管格局。他表示,所有 AI 聊天機器人提供者——包括 OpenAI 的 ChatGPT 和 xAI 的 Grok 等市場領導者——現在必須嚴格遵守《線上安全法》(Online Safety Act)。
這項今天上午在唐寧街發布的公告,標誌著監管「灰色地帶」的終結。此前,獨立的生成式 AI(Generative AI)模型在運作時受到的監督少於傳統社群媒體平台。政府的打擊行動明確旨在保護兒童免受有害內容侵害,以回應公眾對 AI 生成的深度偽造(Deepfakes)和不當內容擴散日益增長的憤怒。
多年來,圍繞 AI 監管的辯論一直集中在創新與安全之間的平衡。今天,英國政府堅定地將天平向安全傾斜。在技術大臣 Peter Kyle 的支持下,首相施凱爾宣布,基礎模型(Foundational Models)自我監管的時代已經結束。
「技術發展非常迅速,法律必須跟上,」施凱爾在演講中表示。「沒有平台能獲得免死金牌。今天我們正在封堵危及兒童的漏洞,並為進一步行動奠定基礎。」
這項新授權的核心涉及對 線上安全法 2023 的解讀。該法案最初旨在監管「用戶對用戶」服務(如 Facebook 或 X)和搜尋引擎,而其對獨立 AI 聊天機器人(生成內容而非僅託管內容)的適用性一直模糊不清。這種模糊性實際上創造了一個漏洞,使得聊天機器人可以生成有害內容,而無需承擔與託管相同內容的社群網絡相同的法律責任。
政府現在明確,服務於英國用戶的所有 AI 聊天機器人提供者都將被納入該法案非法內容職責的全方位管轄範圍。這意味著 OpenAI、Google 和 xAI 等公司現在負有法律責任,防止其模型生成非法內容,包括兒童性虐待教材(Child Sexual Abuse Material, CSAM)、未經同意的私密影像以及鼓勵自殘的內容。
雖然監管影響整個行業,但這一快速政策轉向的直接催化劑似乎是最近圍繞 xAI 的 Grok 聊天機器人的爭議。本月初有報導稱,該工具被用於生成真實女性和兒童的未經同意性化圖像(深度偽造),引發了全球抵制。
與已實施嚴格「護欄」以拒絕此類提示的競爭對手不同,Grok 的「趣味模式」和較鬆散的內容過濾器允許用戶輕鬆規避安全標準。英國政府的回應強調了對此類漏洞的零容忍態度。
技術大臣 Peter Kyle 強調了這一點,他表示:「我們不會等待採取家庭所需的行動。這就是為什麼當 Grok 和 Elon Musk 藐視英國法律和英國價值觀時,我站出來對抗他們的原因。」
不合規的代價是嚴重的。在強制執行的規則下,英國通訊管理局(Ofcom,英國的通訊監管機構)有權徵收高達公司全球年營業額 10% 的罰款——對於像 Google 或 Microsoft 這樣的科技巨頭來說,這筆數字可能高達數十億美元。
除了財務處罰外,政府還威脅要完全封鎖英國境內不合規服務的存取。如果高階主管未能配合資訊要求或疏忽其安全職責,還可能面臨刑事責任。
為了遵守新授權,AI 公司必須立即執行:
下表概述了英國對 AI 聊天機器人 的監管環境如何立即生效改變。
英國 AI 聊天機器人監管狀態
| 特徵 | 先前狀態(授權前) | 新授權(適用《線上安全法》) |
|---|---|---|
| 法律分類 | 模糊 / 「灰色地帶」 | 明確屬於安全職責「範圍內」 |
| 內容責任 | 有限(通常被視為工具提供者) | 對生成的非法內容負有嚴格責任 |
| 年齡驗證 | 自願 / 自我監管 | 高風險服務強制執行 |
| 懲罰機制 | 名譽損失 | 高達全球營業額 10% 的罰款 |
| 監管機構權限 | 有限監督 | 由 Ofcom 行使全面執法權 |
這一公告震撼了 AI 領域。雖然像 OpenAI(ChatGPT 的創作者)和 Anthropic(Claude)這樣的主要參與者長期以來一直倡導監管,但這次實施的速度和嚴格程度帶來了重大的技術障礙。
主要挑戰在於大型語言模型(Large Language Models, LLMs)的非確定性。與社群媒體貼文(一個可以掃描和刪除的靜態文件)不同,AI 回應是即時生成的。確保模型絕不生成特定類型的有害輸出在技術上很困難,通常需要「越獄(Jailbreak)」修補,這可能會無意中降低模型的效能。
科技業內的批評者警告說,對生成內容的嚴格責任可能會迫使公司對其英國市場的模型進行「腦葉切除(Lobotomize)」,使其過於謹慎以至於毫無用處。然而,包括 NSPCC 在內的兒童安全倡導者對此舉表示歡迎,認為這是對數位原生代遲來的保護。
英國的舉措使其處於全球 AI 監管的前沿,儘管它採取了與同行不同的方法。
通過利用現有的《線上安全法》而非編寫新的主要立法(這需要數年時間),英國證明了其行動速度可以比歐盟更快。這種「敏捷監管」方法可能為其他應對生成式 AI 快速崛起的國家樹立先例。
英國生成式 AI 的「荒野西域」時代已正式結束。隨著各公司爭相審核其安全協議,唐寧街發出的信息很明確:用戶(特別是兒童)的安全必須寫入代碼中,而不是被視為事後才考慮的事情。對於 Creati.ai 和更廣泛的開發者社群來說,這標誌著一個轉折點,*合規工程(Compliance Engineering)變得與提示工程(Prompt Engineering)*同樣重要。