
商業人工智慧(Artificial Intelligence, AI)進步與倫理治理之間的微妙平衡在本週末遭受了劇烈衝擊,OpenAI 機器人與消費者硬體負責人 Caitlin Kalinowski 宣布辭職。她的離職明確指出是為了回應 OpenAI 與美國國防部(Department of Defense, DoD)日益加深的聯繫,這突顯了 AI 社群內部對於前沿模型軍事化問題日益增長的裂痕。
Kalinowski 是一位硬體資深專家,她在領導 Meta 的擴增實境(Augmented Reality, AR)眼鏡部門後於 2024 年底加入 OpenAI。她將公司最近與五角大廈達成的協議定性為「治理失敗」。就在她辭職的前幾天,有報導稱 OpenAI 獲得了一份機密合約,很大程度上是因為競爭對手公司 Anthropic 拒絕在自主武器(autonomous weapons)和國內監視的安全性紅線上妥協。
在一份隨後於社交媒體和產業論壇上廣泛流傳的聲明中,Kalinowski 言辭犀利。她認為 OpenAI 新國防協議中建立的護欄(guardrails)過於「倉促」,且缺乏防止濫用所需的法律約束力。
「我們相信與五角大廈的協議創造了一條可行的道路……但如果護欄的定義方式無法抵禦政治風向的轉變,這就是治理失敗,」Kalinowski 指出。她主要的擔憂似乎集中在合約政策——可由領導層修改或豁免——與硬性的技術/法律禁令之間的區別。
這次離職對 OpenAI 的機器人雄心來說是一個重大打擊。Kalinowski 被聘請來領導公司重返實體 AI 領域,負責將多模態模型(multimodal models)整合到硬體設備中。儘管她的任期很短,但被視為 OpenAI 軟體優勢與實體世界之間的重要橋樑。她的離職釋放出一個訊號:對於許多頂尖工程師而言,其工作的倫理影響仍然是不可協商的首要任務。
這次辭職的背景與涉及國防部的更廣泛地緣政治博弈密不可分。2026 年 2 月底,五角大廈與 Anthropic——由前 OpenAI 高層創立的 AI 安全新創公司——之間的談判破裂。
據報導,Anthropic 拒絕授權將其「Claude」模型用於致命的 自主武器(autonomous weapons) 系統或大規模監視,並要求在任何政府合約中加入嚴格且不可更改的條款。隨後,國防部採取了令業界震驚的舉動,將 Anthropic 標記為「供應鏈風險」,實際上將其排除在某些國防合約之外。
OpenAI 迅速行動以填補空缺。執行長 Sam Altman 宣布達成協議,將在國防部的機密網絡中部署 OpenAI 模型。雖然 Altman 強調該協議符合 OpenAI 的使命——引用了對「自主武器獨立指令」的禁令——但像 Kalinowski 這樣的批評者認為,這些措辭留下了太大的模糊空間,特別是關於「人在迴路(human in the loop)」的定義,這在軍事背景下歷史上一直被過度延伸。
兩家領先 AI 實驗室在策略上的分歧從未如此鮮明。下表概述了導致國防部從 Anthropic 轉向 OpenAI 的關鍵差異。
表 1:Anthropic 與 OpenAI 國防合約立場對比
| 特性 | Anthropic 的立場 | OpenAI 的協議 |
|---|---|---|
| 自主武器 | 對所有致命應用實施嚴格、不可協商的禁令 | 在「人類責任」和政策保障下允許使用 |
| 監視 | 拒絕啟用大規模 國內監視(domestic surveillance) 工具 | 受「現行法律」限制(隨立法變更而定) |
| 合約性質 | 要求具約束力的技術限制 | 依賴「分層」政策和軟性治理 |
| 國防部後果 | 被標記為「供應鏈風險」/ 合約取消 | 獲得機密部署 / 「戰略合作夥伴」地位 |
Kalinowski 並非孤軍奮戰。她的辭職激發了一部分 OpenAI 員工和更廣泛使用者群體的情緒,觸發了 「QuitGPT」 運動的復甦。
據報導,OpenAI 的內部頻道充斥著對公司過於偏離其非營利初衷的擔憂。當 OpenAI 在 2024 年 1 月從其使用政策中移除對「軍事和戰爭」的明確禁令時,領導層將其描述為為了允許像網路安全(cybersecurity)等「國家安全」應用而進行的必要更新。然而,目前的這份交易涉及機密行動並取代了專注於安全的競爭對手,被員工視為對公司原始章程的根本背叛。
特別是對於機器人團隊來說,這其中的影響非常深遠。機器人是 AI 施加物理力量的界面。工程師們擔心,根據這份新協議,那些被訓練來幫助家用機器人摺疊衣服的模型,可能會被重新調整用途,用於引導自主無人機或雙足哨兵,只要人類操作員在名義上對最終行動「負責」即可。
本週發生的事件標誌著 AI 產業的一個轉折點。我們正見證著「軍事工業 AI 複合體」的鞏固,獲取最強大的前沿模型已成為國家安全問題,凌駕於商業或倫理的疑慮之上。
Caitlin Kalinowski 的辭職不僅僅是人事變動;它是一場針對戰爭中 AI 常態化的抗議。隨著 OpenAI 更深入地整合到五角大廈的基礎設施中,她所指出的「治理失敗」可能會繼續成為爭論的焦點。產業界現在必須應對一個令人不安的現實:在實現通用人工智慧(Artificial General Intelligence, AGI)的競賽中,有益工具與戰爭武器之間的界限正變得越來越模糊。