
在矽谷頂尖人工智慧(Artificial Intelligence,簡稱 AI)實驗室之間日益升溫的思想戰爭中,Anthropic 執行長 Dario Amodei 指責競爭對手 OpenAI 在與美國國防部(U.S. Department of Defense)最近的合作中,大搞「安全演戲(safety theater)」並散佈「徹頭徹尾的謊言(straight up lies)」。這些指控揭露於《The Information》報導的一份內部備忘錄中,標誌著該行業在 AI 安全聯合陣線上的徹底破裂,粉碎了長期以來維持這兩家巨頭關係的禮貌表象。
這份於本週傳達給 Anthropic 員工的備忘錄,發布在 OpenAI 宣佈一項備受爭議的協議幾天後。該協議允許在五角大廈(Pentagon)的機密網路中部署其模型——據報導,這筆交易是在 Anthropic 因倫理「紅線(red lines)」而退出類似談判僅幾小時後達成的。
Dario Amodei 的內部溝通拋棄了企業的外交客套。根據報導,他特別針對 OpenAI 執行長 Sam Altman 對五角大廈協議的公開定調。Sam Altman 將該協議描述為負責任 AI 部署的勝利,聲稱 OpenAI 已成功談判出針對自主武器(autonomous weapons)和國內監控的嚴格保護措施——據稱 Anthropic 未能爭取到這些條款。
「我們實際上是正直地守住了我們的紅線,而不是與他們串通,為了員工的利益而製作『安全演戲(safety theater)』,」據報導 Dario Amodei 如此寫道。他更進一步將 Sam Altman 的敘述描述為「徹頭徹尾的謊言」,以及在混亂的監管環境中「試圖將自己塑造為和平締造者的虛假嘗試」。
Dario Amodei 怨恨的核心似乎在於 OpenAI 聲稱已實施的「保護措施」實質內容。雖然 Anthropic 拒絕了五角大廈的條款,因為其未能在合約中禁止將 AI 用於大規模國內監控或全自動致命目標定位,但批評者認為,OpenAI 的交易僅要求遵守「現行法律」——隱私倡導者警告說,這一標準比合約禁令要鬆散得多。
這些事件的時間點加劇了衝突的激烈程度。2026 年 2 月下旬,Anthropic 與戰爭部(Department of War,前身為國防部)之間的談判破裂。Anthropic 堅守兩項不可逾越的條件:
五角大廈拒絕了這些條款。在一項嚴厲的報復行動中,該機構將 Anthropic 標記為「供應鏈風險(supply-chain risk)」,實際上禁止了其技術在聯邦政府的使用。
不到 24 小時後的一個週五晚上,Sam Altman 宣佈了 OpenAI 與同一機構的合作夥伴關係。Sam Altman 在隨後的一篇貼文中承認這筆交易「倉促」且「草率」,但堅持認為 OpenAI 已獲得必要的倫理護欄。Dario Amodei 的備忘錄暗示,OpenAI 只是為了奪取利潤豐厚的合約而向政府需求妥協,並將這種投降重新包裝成「戰略妥協」。
下表概述了截至 2026 年 3 月,兩家公司在對待軍事協作方式上的關鍵分歧。
| 軍事協作立場 | Anthropic | OpenAI |
|---|---|---|
| 主要倫理「紅線」 | 合約禁止大規模監控和自主武器目標定位。 | 依賴「現行法律」和「人類責任」政策。 |
| 五角大廈談判結果 | 拒絕交易;被國防部標記為「供應鏈風險」。 | 簽署協議,在機密網路部署。 |
| 執行長的公開定調 | 警告「不受限制的政府權力」並拒絕「違背良心服從」。 | 聲稱談判保護措施成功;隨後承認過程「草率」。 |
| 員工反應 | 內部團結;發布公開信支持執行長的拒絕行為。 | 顯著動盪;頂尖研究人員以「信任」問題為由流失。 |
| 在政府網路中的狀態 | 被禁止/受限。 | 獲准用於機密部署。 |
雪上加霜的是,意識形態的分歧正開始體現在人才流失上。在對 OpenAI 研究領導層的一次沉重打擊中,研究副總裁 Max Schwarzer 已辭職加入 Anthropic。Max Schwarzer 是 OpenAI 訓練後(post-training)與推理團隊的關鍵人物,他在 X(前身為 Twitter)上宣佈離職,表示「在過去幾年裡,許多我最信任和尊重的人都加入了 Anthropic」。
Max Schwarzer 的退出並非孤立事件,而是日益增長的模式的一部分,即具有安全意識的研究人員正向 Anthropic 遷移,將其視為原則性 AI 開發的最後堡壘。這種「人才流失(brain drain)」強化了 Dario Amodei 的內部敘事,即 OpenAI 在追求商業和政府主導地位的過程中正在失去道德指南針。
Dario Amodei 與 Sam Altman 之間的爭端不僅僅是個人恩怨;它代表了 AI 治理哲學上的分裂。OpenAI 的「務實」做法認為,與軍方的接觸是不可避免的,美國公司最好從內部引導部署。Anthropic 的「原則性」立場則主張,科技公司必須作為對國家權力的制衡,即使以失去鉅額政府合約為代價。
透過指責 OpenAI 撒謊,Dario Amodei 正在發出信號:合作性「競合」的時代已經結束。隨著五角大廈將生成式 AI(Generative AI)整合到其殺傷鏈和監控機制中,該行業正迫使其最聰明的人才做出選擇:是務實的合作者,還是堅定的良知反對者。目前,戰爭部選擇了 OpenAI,但構建未來的研究人員似乎正在用腳投票。