
美國人工智能的監管格局在 2023 年至 2025 年間發生了劇變。根據未來隱私論壇(Future of Privacy Forum,FPF)的數據,14 個州的立法者已頒布了 27 項不同的 AI 相關立法,標誌著監管方向已從廣泛的理論框架轉向有針對性且具高影響力的規管。
截至 2026 年初,這些法律中的大多數已經生效,為開發者、部署者和平台帶來了即時的合規義務。這波立法浪潮涵蓋了從前沿模型安全(Frontier model safety)與災難性風險,到聊天機器人透明度以及非自願散布親密圖像等關鍵領域。對於 AI 專業人士和企業而言,了解這些由州與聯邦要求交織而成的規範不再是未來的規劃,而是當下的法律必要性。
在 2024 年,立法趨勢嚴重傾向於包含 AI 組件的全方位消費者數據隱私法。然而,2025 年標誌著一個明顯的轉向,開始採納更窄、基於風險的措施。各州議會,特別是加利福尼亞州和紐約州,已率先針對特定技術和使用場景進行立法,填補了聯邦監管的真空。
2025 年立法會議的核心是「前沿模型」(Frontier models)——即使用大量計算能力訓練的高能力 AI 系統——以及與生成式 AI(Generative AI)相關的特定風險,如深度偽造(Deepfakes)和聊天機器人的情感操控。這種有針對性的方法反映了立法者之間日益增長的共識,即不同的 AI 形式需要不同的監管護欄。
2025 年最重要的兩項立法成就是加州的參議院第 53 號法案(SB 53)和紐約州的 RAISE 法案。這兩項法律都為最先進 AI 系統的開發者建立了首個實質性的合規制度,為前沿模型治理設定了事實上的國家標準。
於 2025 年 9 月簽署成為法律的加州 SB 53 是美國首部專門為應對 AI 「災難性風險」而設計的法規。該法律適用於創建訓練運算量超過 10^26 次浮點運算(Floating-point operations,FLOPs)模型的「前沿開發者」——這一門檻目前僅有最先進的基礎模型能夠達到。
關鍵條款包括:
隨後,紐約州於 2025 年 12 月頒布了《負責任 AI 安全與教育法案》(Responsible AI Safety and Education Act,簡稱 RAISE Act)。該法案於 2027 年 1 月 1 日生效,其計算門檻(>10^26 FLOPs)與加州一致,但在金融服務部內設立了一個專門的監督辦公室。
RAISE 法案要求:
除了基礎模型,2025 年監管用戶與 AI 互動(特別是針對聊天機器人和合成內容)的法律激增。
聊天機器人透明度
五個州——加利福尼亞州、緬因州、新罕布夏州、紐約州和猶他州——已經頒布了專門針對 AI 聊天機器人的法律。這些法規要求在用戶與 AI 系統進行交互時必須進行明確披露。紐約州的「AI 陪伴模型法」和加州的 SB 243 走得更遠,重點關注心理健康保護。它們要求「陪伴型」聊天機器人的營運商實施安全協議,以檢測和減輕用戶的痛苦或自殺念頭,反映了對擬人化 AI 情感影響的擔憂。
TAKE IT DOWN 法案
在聯邦層面,於 2025 年 5 月簽署的《TAKE IT DOWN 法案》代表了 AI 監管領域罕見的兩黨共同勝利。該法將製作和散布非自願親密圖像(Nonconsensual intimate imagery,NCII)定為刑事犯罪,包括 AI 生成的深度偽造。它對平台施加了嚴格的「通知與下架」義務,要求平台在收到有效請求後 48 小時內刪除侵權內容,並由聯邦貿易委員會(FTC)行使執法權。
雖然許多法律已經生效,但一些關鍵法規設有分階段實施日期,企業必須予以追蹤。
關鍵 AI 立法的生效日期
| 法律 | 管轄區 | 生效日期 |
|---|---|---|
| TAKE IT DOWN 法案(深度偽造刪除) | 聯邦 | 2026 年 5 月 19 日 |
| SB 205(科羅拉多州 AI 法案) | 科羅拉多州 | 2026 年 6 月 30 日 |
| SB 1295(自動化決策) | 康乃狄克州 | 2026 年 7 月 1 日 |
| AB 853 (AI 透明度法案 修正案) | 加利福尼亞州 | 2026 年 8 月 2 日 |
| RAISE 法案(前沿模型安全) | 紐約州 | 2027 年 1 月 1 日 |
| AB 853(來源檢測要求) | 加利福尼亞州 | 2027 年 1 月 1 日 |
這 27 項法律的頒布為 Creati.ai 的開發者和商業領袖受眾創造了一個複雜的合規環境。對於高風險和前沿 AI 系統而言,自願性自我監管的時代已正式結束。
1. 來源證明是強制性的
隨著加州修訂後的《AI 透明度法案》(AB 853)於 2026 年和 2027 年全面生效,生成式 AI 工具的開發者必須將浮水印和來源檢測標準(如 C2PA)整合到其系統中。託管 AI 內容的平台將依法被要求對其進行標記,這需要強大的元數據管理。
2. 美國的「布魯塞爾效應」
正如 GDPR 設定了全球隱私標準一樣,加利福尼亞州和紐約州在針對前沿模型的 10^26 FLOPs 門檻上達成一致,表明一個統一的國內標準正在形成。即使總部不設在這些州的公司,也可能會採用這些安全框架以確保市場准入,從而實際上將這些州級要求全國化。
3. 下游使用的責任
《TAKE IT DOWN 法案》和州級聊天機器人法律為託管用戶生成內容的平台引入了重大責任。公司必須升級其內容審核基礎設施,以處理快速下架請求並檢測合成媒體,否則將面臨聯邦刑事責任和巨額民事罰款。
隨著 2026 年的進展,我們預計將有更多針對醫療保健和就業領域特定應用的立法活動。目前,AI 組織的首要任務是根據這些新的「前沿」和「高風險」系統法定定義對其現有模型進行審核,以確保不會被下半年即將到來的生效日期措手不及。