
2026 年 2 月 23 日 – 在對其公司文件的細微但具有地震般重大影響的更新中,OpenAI 已將「安全地(safely)」一詞從其主要使命宣言中移除。這一在週一凌晨觀察到的語言表達轉變,正值這家人工智慧(Artificial Intelligence)巨頭加速轉型為營利性公益公司(Public Benefit Corporation,簡稱 PBC)之際,標誌著其果斷背離了最初作為專注於安全的非營利研究實驗室的創立初衷。
這一變化雖然僅涉及一個單詞,卻在人工智慧行業引起了強烈反響,證實了長期以來的猜疑:該公司正將部署速度和商業可行性置於曾定義其品牌的預防原則之上。隨著 Sam Altman 領導組織進行迄今為止最具爭議的重組,移除「安全地」與其說是為了簡潔而進行的編輯,不如說是為了使法律義務與新的、激進的運營現實保持一致。
多年來,OpenAI 的使命由雙重承諾組成:確保通用人工智慧(Artificial General Intelligence,簡稱 AGI)造福全人類,並確保其開發過程是安全的。現在該公司「章程(Charter)」和「關於(About)」頁面上線的更新文本中,保留了對造福全人類 AGI 的承諾,但顯眼地刪除了限定開發過程的副詞。
這種修改不僅僅是表面上的。在公司法的博弈世界中——特別是對於 Public Benefit Corporation 而言——使命宣言是董事會職責的「北極星」。通過從頂層使命中移除「安全地」這一明確限制,OpenAI 可能在法律上減輕了自身的負擔,使其免於執行可能減緩產品發布或阻礙商業合作的安全流程。
Creati.ai 的分析師對存檔的使命宣言與今天發布的版本進行了逐項對比。其中的差異突顯了向無限制發展的明確轉向。
表 1:OpenAI Mission Statement 變更的對比分析
| 原使命文本 | 更新後的使命文本 | 戰略影響 |
|---|---|---|
| 確保開發出的通用人工智慧(AGI)是安全的,並造福全人類。 | 確保通用人工智慧(AGI)造福全人類。 | 移除了將安全作為開發前提條件的明確指令,優先考慮「造福」的結果。 |
| 我們將嘗試直接構建安全且有益的 AGI。 | 我們將嘗試直接構建有益的 AGI。 | 將「造福」的概念與「安全」脫鉤,暗示效用和經濟價值現在可能取代風險緩解。 |
| 如果一個價值觀一致、具有安全意識的項目在我們之前接近構建 AGI,我們承諾停止競爭。 | 如果一個價值觀一致的項目在我們之前接近構建 AGI,我們承諾停止競爭。 | 降低了構成「價值觀一致」競爭對手的門檻,可能不再將安全協議作為合作的標準。 |
這次編輯的時間點與 OpenAI 完成其向營利性公益公司重組的進程有著千絲萬縷的聯繫。自 2025 年底以來,該公司一直在處理其原始非營利管理董事會複雜的法律解散事宜,該結構最初設計的目的是在「安全 AGI」使命受到威脅時解僱執行長(CEO)。
隨著非營利董事會現在實際上已被邊緣化,新的 PBC 結構允許 OpenAI 在法律上追求股東回報,前提是他們將這些利潤與「公眾利益」相平衡。從使命宣言中移除「安全地」簡化了這種平衡行為。如果「安全」仍然是一個主要的、平等的使命支柱,董事會成員理論上可以因為公司發布了一個帶有非零風險的模型而起訴公司。通過刪除這個詞,「公眾利益」的定義變得更具延展性——更可能被解釋為「經濟增長」或「技術獲取」,而非「風險規避」。
法律專家認為這是一種防禦性舉措。「在 PBC 中,使命即法律,」專門從事科技領域公司治理的律師 Sarah Jenkins 解釋道。「如果你的使命要求你行動『安全』,那麼每次模型出現幻覺或被濫用時,你都很容易受到股東訴訟。通過刪除這個詞,OpenAI 正在降低其責任屏障,為快速商業化掃清障礙。」
此舉引發了來自 AI safety 社群和 OpenAI 前員工的立即反對。在過去兩年中逐漸被公司清洗的「安全派」派系認為,這是對該組織原始承諾的徹底終結。
批評者認為,如果沒有明確的安全授權,OpenAI 的運作實際上與任何其他大型科技(Big Tech)公司無異,儘管它擁有的技術具有潛在的生存威脅。一位要求匿名的前超級對齊(Superalignment)團隊負責人指出:「這是一個意圖聲明。他們在告訴世界,如果在下週發布模型與再測試六個月之間需要權衡,他們會選擇發布。安全護欄現在是可選功能,而不是基礎限制。」
相反,這一變化的支持者——包括許多加速主義(Effective Accelerationism,簡稱 e/acc)陣營的人士——認為「安全地」一詞已成為被武器化的術語,用於阻礙進步。他們主張,人類面臨的最大風險不是失控的人工智慧,而是未能部署人工智慧解決方案來治癒疾病和解決氣候變遷。從這個觀點來看,使命更新是釋放技術全部潛力的必要修正。
OpenAI 的轉變與其主要競爭對手採用的策略形成了鮮明對比。在 OpenAI 淡化語言表達的同時,據報導 Anthropic 正在加倍強調安全性,將其作為獲取政府合同的獨特銷售主張。
根據《紐約時報(The New York Times)》的報導,五角大廈目前正在評估其聯合指揮系統的主要人工智慧合作夥伴。Anthropic 將其「憲法人工智慧(Constitutional AI)」框架——該框架將安全規則直接嵌入模型程式碼中——定位為國防應用的可靠選擇。通過保持嚴格的安全第一品牌形象,Anthropic 正在開闢一個利基市場,作為 OpenAI「快速行動」主導地位的「負責任」替代方案。
然而,OpenAI 的使命變更實際上可能以另一種方式促進與美國政府更緊密的聯繫。通過移除可能排除武器系統或進攻性網路能力開發的限制性安全語言,OpenAI 正在清除此前阻止與國防部(Department of Defense)深入合作的道德障礙。一個純粹專注於「利益」的使命足夠廣泛,可以涵蓋國家安全利益,而嚴格的「安全」指令可能被解釋為禁止涉及對敵方造成傷害的軍事應用。
最終,從使命宣言中移除「安全地」標誌著 AGI 的時間線正在縮短。OpenAI 不再處於理論研究階段,而是處於部署階段。該公司預計其在 2026 年和 2027 年發布的系統將強大到足以重塑全球經濟,並且正在調整其治理結構,以在該劇變帶來的法律和金融衝擊波中生存下來。
對於更廣泛的生態系統來說,這創造了一個危險的先例。如果行業領導者不再將「安全」視為其使命的核心支柱,其他實驗室偷工減料的壓力就會增加。安全倡導者所擔心的「向下競爭(race to the bottom)」似乎正在加速,公司治理文件正被重寫以適應這場競賽的速度。
隨著 OpenAI 完成向營利實體的蛻變,世界必須面對一個新的現實:正在構建歷史上最強大智慧的組織,剛剛刪除了旨在保護我們免受其傷害的單詞。