
OpenAI 的技術領導層發生了重大變動,研究副總裁(VP of Research)兼後訓練負責人(Head of Post-Training)Max Schwarzer 已辭職並加入競爭對手實驗室 Anthropic。這項消息於 2026 年 3 月 3 日透過 X(原 Twitter)發布,就在 OpenAI 正式與美國戰爭部(Department of War,原國防部)建立具爭議性的合作夥伴關係後僅僅數小時,該協議引發了關於人工智慧軍事化的激烈爭論。
Schwarzer 的離職標誌著業內分析師所謂從 OpenAI 向 Anthropic 「價值驅動遷移」的最新一起高層變動。雖然 Schwarzer 公開表示渴望回歸強化學習(Reinforcement Learning)領域擔任個人貢獻者(IC)研究,但其辭職時間點恰逢公眾對 OpenAI 新軍事結盟的反彈,引起了 AI 社群的高度關注。
Max Schwarzer 在 OpenAI 留下了巨大的遺產。身為後訓練負責人,他直接負責公司最先進模型的優化與安全對齊(Safety Alignment)。他在任職期間監督了整個 GPT-5 系列(包括 GPT-5.1、5.2 以及針對程式碼優化的 5.3-Codex)和專注於推理的 o 系列(o1 與 o3)的交付。
「我為我在這裡參與的所有工作感到無比自豪,」Schwarzer 在辭別聲明中寫道。他強調了他在與同事共同創立推理範式以及擴展測試時運算(Test-time Compute)方面的貢獻。然而,他的聲明特別強調了 Anthropic 文化的吸引力:「在過去幾年裡,許多我最信任和尊敬的人都加入了 Anthropic。」
Schwarzer 的舉動不僅僅是行政變動;它代表了關鍵機構知識的轉移。後訓練(Post-training)是磨練原始 AI 模型行為、安全性和實用性的階段——實際上是賦予模型「個性」和倫理約束。透過轉投 Anthropic,Schwarzer 帶去了用於對齊 GPT-5 和 o3 的專有方法方面的深厚專業知識,加強了 Anthropic 本已強大的研究團隊。
Schwarzer 辭職的背景無法與目前籠罩矽谷的地緣政治風暴脫鉤。本週早些時候,五角大廈——在最近的官方文件更新中被稱為 戰爭部(Department of War)——宣布其 AI 採購策略發生決定性轉變。
根據川普(Trump)政府的指令,聯邦機構被命令終止與 Anthropic 的合約,因為該公司拒絕放棄其在隱私監控和自主武器方面的「紅線」。Anthropic 拒絕修改其服務條款以適應國防部廣泛的訪問需求,導致其服務被迅速「拋棄」。
相反地,OpenAI 填補了這一空白。執行長 Sam Altman 確認了一項新協議,允許在機密網路上部署 OpenAI 的模型。雖然 Altman 後來承認最初處理公告的方式是「投機且草率的」,並澄清該交易包括防止國內監視的護欄,但外界的觀感已受到損害。
以下表格概述了兩大 AI 巨頭在軍事合作方面採取的不同路徑,這種分歧似乎正在驅動人才的決策。
表格:OpenAI 與 Anthropic 的軍事對峙(2026 年 3 月)
| 特徵 | OpenAI 的立場 | Anthropic 的立場 |
|---|---|---|
| 合約狀態 | 簽署了機密部署協議(2026 年 3 月) | 合約談判破裂/已終止 |
| 主要反對意見 | 無;遵守「合法用途」條款 | 拒絕放棄監控方面的「紅線」 |
| 監控政策 | 聲稱存在防止國內間諜活動的護欄 | 服務條款中嚴格禁止 |
| 部署環境 | 允許在五角大廈機密網路部署 | 拒絕在未經審計的情況下進行機密部署 |
| 政府關係 | 川普指令下的優先合作夥伴 | 被指定為「供應鏈風險」 |
| 執行長聲明 | 「我們需要與政府合作。」(Altman) | 「我們不會在安全標準上妥協。」(Amodei) |
Schwarzer 並非特例;他是日益增長的趨勢的一部分。在過去的 18 個月裡,Anthropic 已成為那些優先考慮 AI 安全和倫理剛性,而非快速商業化或政府結盟的研究人員的避風港。
Schwarzer 在辭職信中提到的「信任」很可能暗示了已經跳槽的前 OpenAI 重量級人物,如 Jan Leike 和 Ilya Sutskever(透過他自己的公司,但在意識形態上與安全第一陣營一致)。由前 OpenAI 副總裁 Dario Amodei 領導的 Anthropic 已成功將自己定位為行業的「良知」。
這種遷移對 OpenAI 構成了戰略風險。雖然該公司保持著巨大的商業領先地位和政府支持,但核心技術領導層的流失——特別是那些了解 強化學習(Reinforcement Learning) 來自人類回饋(Human Feedback, RLHF)和後訓練細節的人才——可能會減緩 GPT-6 等未來模型的迭代週期。
OpenAI 和 Anthropic 之間的二元對立現在比以往任何時候都更加鮮明。
對於 Max Schwarzer 來說,加入 Anthropic 是回歸初心。他表示希望「重新深入研究」強化學習(RL)領域。在 Anthropic,他可能會專注於下一代憲制 AI(Constitutional AI),幫助構建不僅強大而且嚴格可控的系統——與向戰爭部部署 GPT-5 相比,這一使命似乎更能引起他的共鳴。
隨著這個混亂的一週塵埃落定,業界正注視著人工智慧的兩個截然不同的未來:一個擁抱國家權力,另一個則試圖約束它。像 Schwarzer 這樣頂尖人才的流動表明,對於構建這些心智的研究人員來說,選擇正變得越來越清晰。