
在一次超越企業競爭關係、罕見的跨產業團結行動中,來自 Google 與 OpenAI 的員工聯手支持 Anthropic 與美國國防部(U.S. Department of Defense)的高風險對峙。2026 年 2 月 27 日(週五),超過 300 名 Google DeepMind 員工與 60 多名 OpenAI 員工共同簽署了一封名為「我們不會被分裂(We Will Not Be Divided)」的公開信,敦促各自的領導層堅定立場,反抗五角大廈要求不受限存取先進人工智慧(AI)模型的請求。
這次集體行動標誌著關於人工智慧軍事化持續爭論中的關鍵時刻。它凸顯了尋求維持倫理護欄的前沿人工智慧(Frontier AI)模型開發者,與將這些技術視為「戰時軍備競賽」中關鍵資產的國防官員之間日益增長的裂痕。隨著 五角大廈 威脅要援引《國防生產法》(Defense Production Act)以強制服從,科技業勞動力正釋放訊號,表明關於自主武器與國內監控的倫理「紅線」是不可談判的。
這場爭議的核心在於 Anthropic 拒絕修改其服務條款,以配合五角大廈對其 Claude 模型「不受限使用」的要求。Anthropic 在執行長 Dario Amodei 的帶領下,始終在其政府合約中堅持兩項特定禁令:
據報導,由國防部長 Pete Hegseth 代表的國防部要求 Anthropic 放棄這些特定限制,並允許「所有合法用途」。雖然五角大廈斷言其無意進行非法監控,但其辯稱限制「合法」使用的合約條款會產生操作漏洞,並為供應商控制軍事能力樹立危險先例。
來自 Google 與 OpenAI 員工的 公開信 明確支持 Anthropic 的立場。信中指出:「我們希望我們的領導人能拋開分歧,團結一致,繼續拒絕戰爭部目前的要求。」簽署者認為,政府的施壓行動旨在透過讓公司互相競爭,來瓦解產業的倫理共識。
這場對峙在 2026 年 2 月下旬顯著升級,當時據傳五角大廈向 Anthropic 發出了最後通牒。若未能在週五截止日期前服從,可能會導致援引 國防生產法(Defense Production Act,DPA)——這是一部冷戰時期的法律,允許總統強制私營公司優先執行國防合約。
此外,國防部官員威脅說,如果 Anthropic 不答應要求,將把其標記為「供應鏈風險(supply chain risk)」。這一稱號通常保留給被視為對美國利益懷有敵意的外國實體(如某些中國電信公司),這將有效地將 Anthropic 列入聯邦採購黑名單,並可能損害其商業聲譽。
公開信譴責這些手段為報復行為。文中寫道:「戰爭部威脅要援引《國防生產法》……這全都是為了報復 Anthropic 堅持其紅線。」員工們警告,如果五角大廈成功脅迫 Anthropic,接下來將注意力轉向 Google 與 OpenAI,要求在標準化的掩護下移除其剩餘的保護措施。
員工信函的一個關鍵主題是控訴五角大廈正在利用「分而治之」策略。透過分別與 Google、OpenAI 及 Anthropic 談判,國防部製造了一個囚徒困境:每家公司都擔心,如果他們堅持倫理標準,競爭對手就會妥協並獲得豐厚的政府合約。
信中解釋道:「他們試圖用另一方會屈服的恐懼來分裂每家公司。只有當我們都不知道對方的立場時,這種策略才奏效。」
這種恐懼並非空穴來風。報告指出,OpenAI 與 Google 先前在「非機密」軍事用途的談判中表現出更大的靈活性。在 2024 年初,OpenAI 悄悄從其使用政策中移除了對「軍事與戰爭」的明確禁令,取而代之的是更通用的「傷害」禁令,表面上是為了允許與軍方在網路安全和災難救援方面進行合作。然而,當前對「不受限」致命自主權與監控能力的要求,對於即便是在這些政策較寬鬆公司的員工來說,似乎也已跨越了底線。
為了了解這場衝突的背景,有必要比較各大 AI 實驗室目前在軍事整合方面的公開立場。
表格:主要 AI 實驗室與軍事政策立場
| 公司 | 軍事用途核心立場 | 特定「紅線」 | 五角大廈關係狀態 |
|---|---|---|---|
| Anthropic | 嚴格的有條件合作 | 不可談判: 無國內監控。 不可談判: 無自主致命武器。 |
敵對: 面臨援引 DPA 與標記為「供應鏈風險」的威脅。 |
| OpenAI | 協作中 / 持續演變 | 通常反對自主武器。 政策於 2024 年轉向允許「國家安全」用途。 |
積極談判中: 據報導執行長 Sam Altman 正在尋求與 Anthropic 類似的保護措施。 |
| 謹慎 / 內部緊張 | AI 原則 (2018): 無武器或違反人權的監控。 禁止主要用途為造成傷害的技術。 |
關係緊張: 員工向領導層(Jeff Dean)施壓,要求恪守 2018 年的承諾。 | |
| Microsoft | 策略合作夥伴 | 與客戶(國防部)的合法性保持一致。 為機密模型提供基礎設施。 |
整合: 透過 Azure/OpenAI 合作夥伴關係深度嵌入國防基礎設施。 |
當前的行動浪潮與 Google 在 2018 年的 「Project Maven」 爭議有著直接的相似之處。在那個時期,數千名 Google 員工簽署請願書,抗議一項使用 AI 分析無人機影像的五角大廈合約,最終迫使公司讓該合約到期,並發布了一套禁止將 Google AI 用於武器開發的「AI 原則」。
然而,2026 年的地緣政治氣候已明顯不同。隨著全球 AI 競爭的加劇以及來自對手國家的感知威脅,部署「主權 AI(Sovereign AI)」能力的壓力也隨之增加。「我們不會被分裂」公開信表明,科技工作者敏銳地意識到 2018 年的倫理勝利正在被侵蝕。
員工們寫道:「這封信旨在面對壓力時,建立共同的理解與團結。」該聯盟包括工程師、研究人員和政策人員,他們認為在戰爭中部署 AI 需要嚴格的人類問責制——這是全自主系統天生缺乏的特性。
企業領導層的反應各異,但跡象顯示施壓正在產生效果。公開信發布後,有報導稱 OpenAI 執行長 Sam Altman 向員工發表講話,表示他也正在尋求與五角大廈達成一項包含類似 Anthropic 紅線的協議。這表明員工要求的「統一戰線」可能也在執行長層級形成。
在 Google,內部壓力直接指向 Google DeepMind 的首席科學家 Jeff Dean。另一封由 100 多名 Google 員工簽署的內部信件特別敦促他確保 Google 不會破壞 Anthropic 的立場。
Anthropic 與五角大廈之間的對抗,在 Google 與 OpenAI 員工的支持下被放大,代表了技術治理史上的關鍵時刻。它提出了一個根本性問題:究竟誰能最終決定強大 AI 的用途——是資助它的政府,還是理解其風險的創造者?
如果五角大廈成功使用《國防生產法》迫使 Anthropic 就範,可能會建立一個先例,即國家安全利益優於私營部門的倫理承諾。反之,如果科技工作者的「統一戰線」能堅持下去,則可能迫使軍方接受,即使是在戰爭中,人工智慧的部署也必須有界限。
隨著週五截止日期的過去,產業界正等待五角大廈的下一步行動,這 360 多名員工所展現的團結,提醒著人們 AI 開發中的人為因素依然是一股強大的政治力量。
本報告基於截至 2026 年 3 月 1 日發生的事件。