
華盛頓特區 — 矽谷的倫理 AI 運動與美國軍方體系之間的緊張關係已達到臨界點。Anthropic 執行長 Dario Amodei 已被傳喚至五角大廈,預計於本週晚些時候與國防部長 Pete Hegseth 進行一場高風險會談。此次峰會召開之際,有報告指出國防部(Department of Defense,DoD)——最近根據行政命令更名為「戰爭部」(Department of War)——正威脅要將 Anthropic 定義為「供應鏈風險(supply chain risk)」。這一標籤將有效把該公司列入聯邦合同黑名單,並迫使國防主要承包商與 Claude 的開發者斷絕關係。
衝突的中心在於 Anthropic 拒絕為軍事應用放寬其「憲法 AI」(Constitutional AI)護欄。雖然五角大廈尋求「不受限制」地使用生成式 AI(Generative AI)以用於其認為的「合法目的」,但據報導,Anthropic 已攔截了與自動武器目標定位和國內監視能力相關的特定請求。
將 Anthropic 標記為「供應鏈風險」的威脅,代表了政府與私營 AI 領域關係的前所未有的升級。此類定義歷來僅保留給外國對手或受損供應商(如 Kaspersky Lab 或 Huawei),對 Anthropic 而言,這將產生災難性的商業後果。
接近談判的人士指出,國防部長 Pete Hegseth 對其所認知的「企業過度干預」感到沮喪。五角大廈的立場是,一旦採購了某項技術,其「合法用途」應由三軍統帥和國會決定,而非由私營公司的服務條款決定。
如果該定義獲得通過,將引發立即的脫鉤:
這次對抗的催化劑似乎是 2026 年 1 月進行的一項機密行動。《華爾街日報(The Wall Street Journal)》和 Axios 的報導披露,美國特種作戰部隊利用了 Claude 的自定義版本——透過 Palantir 的 AIP 存取——在導致前委內瑞拉總統 Nicolás Maduro 被捕的任務期間分析即時情報。
雖然該行動被認為是成功的,但據報導,Anthropic 高層對其模型的具體應用感到措手不及,他們認為這違反了關於「動能軍事行動」和「政治干預」的通用使用標準。當 Anthropic 工程師試圖修補模型以防止未來發生類似用途時,五角大廈官員將此舉視為對國家安全行動的干預。
國防部負責研究與工程的次長 Emil Michael 本週早些時候公開批評了該公司的立場。「國會起草法案,總統簽署,各機構執行,」Emil Michael 表示。「由一家私營軟體供應商來決定美國軍方的交戰規則是不民主的。我們確實需要護欄,但它們必須是為戰爭而調整,而不是為了企業公關。」
與 Anthropic 的裂痕,與五角大廈與其他 AI 巨頭日益升溫的關係形成了鮮明對比。在新的「AI 加速戰略」下,戰爭部 已轉向整合那些在致命自主權和監視方面提供較少摩擦點的模型。
表 1:主要 AI 供應商的軍事整合與政策立場
| 公司 | 旗艦模型 | 軍事整合狀態 | 關鍵政策區別 |
|---|---|---|---|
| Anthropic | Claude 3.5 Opus | 面臨風險(審查中) | 嚴格的「憲法 AI」禁止自動武器與國內監視。 拒絕為致命錯誤免責。 |
| xAI | Grok 3 | 活躍(GenAI.mil 合作夥伴) | 「美國優先」政策對齊。 推動在國家安全利益下的無限制使用。 |
| OpenAI | GPT-5 | 活躍(試點階段) | 修改使用政策以允許「國家安全」應用。 保留對武器開發的禁令,但允許行動分析。 |
| Gemini Ultra | 活躍(Project Maven) | 深度整合於物流與網絡防禦。 專注於「人機協同」系統以緩解倫理疑慮。 |
這場對峙的核心是根本性的哲學分歧。Anthropic 的成立前提是 AI 安全,利用「憲法」來訓練模型使其具備助益性、無害性且誠實。Dario Amodei 經常警告非對齊 AI 帶來的「災難性風險」,特別提到了 AI 降低生物武器或網絡攻擊門檻的可能性。
然而,戰爭部辯稱,在「冷戰 2.0」時代,自我施加的倫理障礙等同於單方面解除武裝。隨著中國等對手積極將 AI 整合到其殺傷鏈中,Pete Hegseth 部長的教條強調速度與殺傷力。五角大廈的「AI 優先戰力」倡議要求模型能夠處理無人機饋送數據、生成目標方案並執行網絡進攻,且不受「意識形態限制」。
Dario Amodei 與 Pete Hegseth 即將舉行的會面預計將充滿爭議。分析師預測了三種可能的結果:
對於更廣泛的 AI 行業而言,這次會議的結果將樹立一個明確的先例。它將決定「AI 安全」是否仍將是該技術部署的主導原則,還是國家防禦的必要性最終將凌駕於矽谷的倫理憲法之上。