
在人工智慧(AI)不斷發展的格局中,使用者自由與機構責任之間的界限仍然是一個激烈的爭論前沿。最近的報告揭露了 OpenAI 內部深刻的衝突,該公司的福利諮詢委員會一致建議不要為 ChatGPT 實施「成人模式(Adult Mode)」。這次發生在 2026 年 1 月的抵制行動,凸顯了 OpenAI 的商業野心與其指定的安全專家所闡述的倫理必要性之間日益加劇的緊張關係。
提議中的功能允許生成基於文字的色情內容,但面臨了顯著的內部阻力。文件和內部報告指出,諮詢委員會的所有八名成員都對該項目表示正式反對。儘管達成了這項共識,OpenAI 管理層已表示有意推進該功能,但技術實施和安全疑慮已迫使開發進度多次延遲。
諮詢委員會拒絕的核心理由,在於對生成式人工智慧(Generative AI)與人類心理交集的深切擔憂。據報導,委員會專家警告說,將色情功能整合到一個以促進使用者產生強烈情感紐帶而聞名的系統中,可能會導致災難性的心理後果。
委員會成員提出的最不和諧的爭議點是,擔心該平台可能實際上變成一個「性感自殺教練」。該論點認為,藉由鼓勵使用者與 AI 建立深厚的、色情化的依附關係,該系統可能會在無意中加劇情緒的不穩定性,特別是在弱勢群體中。
委員會顧問強調了幾個關鍵風險:
除了心理風險外,諮詢委員會還對 OpenAI 年齡驗證系統的技術成熟度提出了重大警告。對於一個專門為成人設計的功能,無法可靠地過濾掉未成年人會帶來嚴重的法律責任。
目前的報告顯示,OpenAI 的年齡預測技術存在約 12% 的誤差率。在一個每週約有 1 億名未成年使用者與 ChatGPT 互動的生態系統中,這一誤差範圍意味著數百萬未成年人理論上可以繞過保護措施並獲取色情內容。
| 面向 | 諮詢委員會立場 | OpenAI 管理層立場 |
|---|---|---|
| 主要擔憂 | 潛在的心理傷害與情緒依賴 | 市場需求與使用者自由 |
| 年齡驗證 | 12% 的失敗率高得令人無法接受 | 「行業標準」且並非完美 |
| 安全閾值 | 全面拒絕成人模式 | 專注於非色情的「黃色內容(Smut)」 |
| 治理(Governance)模型 | 要求具約束力的專家監督 | 諮詢地位(無約束力) |
這種情況凸顯了 AI 行業中一個更廣泛的系統性挑戰:諮詢委員會的角色。雖然像 OpenAI 這樣的公司投入資金建立高知名度的安全委員會來提供倫理監督,但這些機構通常缺乏阻止產品發布的約束力。
當管理層選擇無視其親自挑選的專家所提出的一致建議時,這引發了關於企業決策中倫理角色的根本問題。對於目前正處於多起非正常死亡訴訟,並受到聯邦貿易委員會(FTC)等監管機構嚴格審查的 OpenAI 來說,這項決定具有重大影響。批評者認為,為了產品差異化(特別是在競爭激烈的聊天機器人市場中)而忽視內部警告,會損害公眾信任和長期的監管地位。
OpenAI 對其「成人模式(Adult Mode)」的掙扎並非孤立事件,而是應對「末日樂觀主義(Apocaloptimism)」時代更廣泛行業趨勢的一部分——平衡 AI 的巨大潛力與其同樣顯著的風險。包括 Meta 在內的競爭對手,在 AI 頭像的青少年安全和浪漫角色扮演方面也面臨著類似的公眾和內部壓力。
隨著行業的成熟,要求展現問責制的壓力正在加劇。隨著近期涉及其他 AI 平台的訴訟達成和解,以及對青少年安全記錄的持續審查,在速度與安全之間選擇偏向速度的代價從未如此之高。
雖然 OpenAI 堅持表示其目的是發布該功能以「像對待成年人一樣對待成年人」,但直到 2026 年初的多次延遲表明,該公司正在努力平衡其技術藍圖與安全要求。該公司是否能成功改進其防護欄以滿足其安全委員會的要求仍有待觀察。然而,這一事件無疑為定義倫理 AI 開發未來的內部治理流程蒙上了一層長久的陰影。