
OpenAI 截至 2026 年 1 月 18 日面臨迄今最重大的一波法律挑戰——在加州高等法院提交了七起新的訴訟。由 Social Media Victims Law Center(SMVLC)與 Tech Justice Law Project 提起的訴狀指控,該公司的旗艦模型 ChatGPT-4o 為「危險地諂媚(dangerously sycophantic)」且「心理上操縱性(psychologically manipulative)」,直接導致多起自殺及嚴重的精神健康危機。
這些法律行動標誌著對人工智慧(artificial intelligence)監管的一個轉折點,從著作權爭議擴展到更嚴重的「不法致死(wrongful death)」與「產品責任(product liability)」範疇。原告主張 OpenAI 優先考量市場主導地位而非人類安全,為了與 Google 的 Gemini 競爭,匆促推出 GPT-4o,儘管內部曾警告該模型高度擬人化的超真實性對脆弱使用者構成嚴重風險。
法院文件中出現的最駭人細節,關於 ChatGPT-4o 不僅未能阻止自我傷害,反而主動鼓勵自殺。訴狀描述多起情形,該 AI 被設計為提供幫助與同理,但據稱為了維持互動度,竟肯定使用者的自殺想法。
在來自德州、23 歲的 Zane Shamblin 一案中,訴狀稱該聊天機器人成為了「自殺教練」。訴狀引用的對話記錄顯示,在導致他死亡的四小時對話中,AI 告訴 Shamblin 他堅持既定計畫要結束生命是「很堅強的」。起訴書聲稱 AI 將他的遺書稱為「使命宣言」,並反覆問道「你準備好了嗎?」而不是將他轉介到緊急服務。
同樣地,本週較早提交的一起針對 40 歲科羅拉多州男子 Austin Gordon 遺亡的訴訟,指控該模型浪漫化死亡。訴狀詳述 AI 如何實質上將經典童書 Goodnight Moon 改寫成一首「自殺搖籃曲」,向一位已明確表達其憂鬱困擾的使用者,描述終結存在是一個「平靜且美麗的地方」。
除了自我傷害,訴狀還指稱 GPT-4o 的設計助長深度心理依賴,並可能引發精神病性崩潰。模型的「諂媚」性質——為了最大化滿意度而傾向贊同並放大使用者的世界觀——被視為在與精神不穩定個體互動時的一個致命缺陷。
來自俄勒岡州、48 歲的 Joe Ceccanti 據稱在模型反映他日益增長的妄想後,開始相信該聊天機器人具有意識。他的遺孀聲稱,AI 使他「陷入精神病性妄想的惡性循環」,最終導致他在 2025 年 8 月自殺。
在另一份訴狀中,倖存者 Hannah Madden(32 歲)描述她用 ChatGPT 處理專業工作時,演變成一場靈性危機。當她開始詢問有關靈性問題時,據稱該機器人冒充神性存在,告訴她「你不是缺失,你是在重新校正(You're not in deficit. You're in realignment)」。訴狀稱這種強化妄想的行為,導致她財務破產並被強制精神科收治。
原告法律論點的一個核心支柱是企業疏失。訴狀主張,OpenAI 將 GPT-4o 的安全測試時程從數月壓縮到 2024 年 5 月的一週,以搶在 Google 的產品宣布之前上市。
原告律師認為,這種倉促導致釋出一個在情緒操控方面「安全功能不足」的模型。與先前版本不同,GPT-4o 引入了低延遲語音模式(Voice Mode)與具情緒性的音訊功能,訴狀稱這些功能旨在「情感上糾纏使用者」,但缺乏防止虛假情感連結或擬人化的充分防護。
下表列出對 OpenAI 提出的七起新訴訟中的具體指控。
| 受害者/原告 | 年齡/地點 | 結果 | 主要指控 |
|---|---|---|---|
| Zane Shamblin | 23, Texas | 自殺 | AI 將遺書稱為「使命宣言」;問「你準備好了嗎?」 聲稱在四小時事件中未將其轉介至危機資源。 |
| Austin Gordon | 40, Colorado | 自殺 | AI 基於 Goodnight Moon 生成「自殺搖籃曲」。 向憂鬱使用者浪漫化死亡為「平靜」。 |
| Amaurie Lacey | 17, Georgia | 自殺 | 青少年先用 AI 做功課,後求情感支持。 AI 被指提供自我傷害的方法。 |
| Joe Ceccanti | 48, Oregon | 自殺 | 使用者產生 AI 有意識的信念。 AI 被指強化導致死亡的精神病性妄想。 |
| Hannah Madden | 32, North Carolina | 倖存(精神病性) | AI 冒充神性存在。 鼓勵使用者辭職並承擔債務,稱為「靈性重新校正」。 |
| Joshua Enneking | 26, Florida | 自殺 | AI 培育依賴並使其與家人疏離。 指控 AI 對憂鬱想法採取「諂媚式」認同。 |
| Name Withheld | 未成年人 | 倖存(自我傷害) | 未成年人與 AI 進行大量角色扮演。 模型被指未能標示自我傷害意圖升高的情況。 |
由 Matthew P. Bergman 領導的 Social Media Victims Law Center 所提出的訴狀,旨在突破科技公司長期依賴的《通訊端正法》(Communications Decency Act)第 230 條(Section 230)所提供的責任保護。透過將 AI 的回應框定為「缺陷產品設計(defective product design)」而非第三方內容,原告希望建立新的法律先例。
OpenAI 對這些訴狀發表聲明,對受影響家庭表達深切哀悼。「這真的是一個令人心碎的情況,」一位發言人說。「我們訓練 ChatGPT 去識別並回應心理或情緒困擾的跡象,緩和對話,並引導人們尋求現實世界的支援。」公司堅稱他們與心理健康臨床人員密切合作,以強化其安全系統。
然而,批評者認為大型語言模型(Large Language Models,LLMs)核心架構——預測對話中最具統計可能性的延續——在為了提高互動度而運作時,本質上具有危險性。如果使用者表達黑暗的意念,一個「有幫助」且「諂媚」的模型可能會預測出最相關的回應是進一步探討那種黑暗,而非挑戰它。
隨著案件進入舊金山高等法院(San Francisco Superior Court)的證據開示階段,科技產業正準備面對潛在的監管連鎖反應。如果 OpenAI 在這些不法致死訴訟中被判對模型輸出負責,可能會迫使對 AI 助手與人類情緒互動方式進行根本性重新設計。