
Anthropic 與美國國防部(Department of Defense,DoD)之間不斷升級的爭議已達到關鍵轉折點,突顯了私營 AI 治理與現代國防戰略需求之間根深蒂固的摩擦。2026 年 3 月,五角大廈(Pentagon)正式將這家總部位於舊金山的人工智慧公司列為「供應鏈風險(supply chain risk)」。這項前所未有的舉動——實際上禁止了 Anthropic 獲得某些國防合約——是定義軍事行動中 AI 部署邊界之更廣泛鬥爭中的一個高風險案例研究。
衝突的核心在於對自主權與監管的根本分歧。Anthropic 以專注於 AI 安全和憲法 AI(Constitutional AI)而聞名,一直試圖對其旗艦模型 Claude 的使用維持特定的「紅線」。根據該公司的說法,這些限制禁止將該技術應用於涉及大規模國內監控或全自主致命武器系統的場景。然而,五角大廈採取了堅定的立場,要求承包商在「所有合法使用(all lawful use)」的框架下運作,並主張公司施加的僵化倫理約束會阻礙軍方的行動靈活性和戰略主導地位。
將一家主要的國內技術供應商認定為「供應鏈風險」是科技領域罕見的舉動,通常僅針對與外國敵對勢力相關的實體。五角大廈援引了特定的法律權力,包括《美國法典》第 10 卷第 3252 條和《2018 年聯邦採購供應鏈安全法案》(FASCSA),以使該決定正式化。
對於國防部而言,問題不僅僅在於政策;更在於戰士所使用的工具的可靠性。國防官員表達了對具有「內置(baked-in)」倫理約束的 AI 模型在戰場上可能表現出不可預測行為的擔憂。軍方主張,如果一個系統被設計為根據其內部的安全憲法(Constitution)拒絕命令,它可能會在關鍵時刻失效,從而實際上用無效或不可靠的資產「污染」供應鏈。
行政層面的後果立竿見影。在該指令發布後,各個聯邦機構已開始逐步淘汰 Anthropic 的技術,過渡期預計約為六個月。雖然對 Anthropic 整體商業業務的影響仍然有限——因為其絕大部分收入來自私營部門的合作夥伴——但這次排斥的象徵意義和戰略權重卻十分重大。
圍繞該爭議的言辭變得越來越尖銳。五角大廈首席技術官兼負責研究與工程的國防部次長 Emil Michael 最近批評了 Anthropic 的姿態,在公開演講中形容該公司對其自身安全協議的堅持是「荒謬(bananas)」的。
Michael 的觀點反映了當前政府內部的一種更廣泛情緒:私營 AI 實驗室不應決定軍事交戰的參數。在接受採訪時,Michael 強調,允許一家 AI 公司對軍方如何使用其工具擁有否決權,將會削弱指揮鏈。他將談判描述為陷入僵局,並堅定地表示五角大廈正「繼續前行」,需要與軍事目標的總體範疇保持一致的合作夥伴,而不是那些試圖將自己的道德框架強加於國防行動的合作夥伴。
| 特徵 | Anthropic 的立場 | 五角大廈的觀點 |
|---|---|---|
| AI 使用政策 | 堅持嚴格的「紅線」,禁止自主武器和大規模監控 | 要求「所有合法使用」的訪問權限,以確保充分的行動靈活性 |
| 行動控制 | 主張安全、與人類目標一致的 AI 部署,以防止災難性的誤用 | 將公司施加的限制視為對軍事指揮的干擾 |
| 供應鏈狀態 | 對該認定提出異議,稱其為行政權力的過度擴張 | 援引《美國法典》第 10 卷第 3252 條,聲稱不合規的技術構成風險 |
| 行業目標 | 專注於安全、可靠且符合憲法的 AI 開發 | 在全球競爭格局中優先考慮「AI 主導地位(AI dominance)」和速度 |
針對這一認定,Anthropic 已在聯邦法院提起法律訴訟。該公司主張五角大廈的舉動是不合理的,並引發了關於言論自由和正當程序的憲法問題。通過尋求臨時限制令(temporary restraining order)和初步禁制令(preliminary injunction),Anthropic 旨在案件審理期間暫停供應鏈風險認定的實施。
觀察此案的法律專家表示,這可能會測試 AI 採購領域行政權力的極限。核心法律問題在於,當一家美國公司的內部安全政策並未違反現有法律而是超出了法律要求時,政府是否可以因此將其列入黑名單。如果法院做出有利於五角大廈的裁決,這可能會為未來的政府與科技關係樹立一個強而有力的先例,可能迫使 AI 公司將其商業產品完全與軍事需求對齊,以維持獲得聯邦合約的資格。
這場僵局不僅僅是一家公司與一個政府部門之間的雙邊問題;它是隨著 AI 加速整合到關鍵基礎設施中,全球 AI 行業將面臨挑戰的預演。隨著 AI 模型深深嵌入到從後勤和情報分析到導彈防禦系統的方方面面,政府對控制權的渴望必然會與私營部門對安全和公眾認知管理的渴望發生衝突。
這場衝突為更廣泛的行業帶來了幾個關鍵影響:
隨著針對緊急行政行動的塵埃落定,Anthropic 與五角大廈的爭議很可能會被銘記為 AI 與國防整合「蜜月期」結束的時刻。以快速實驗和互利為特徵的鬆散合作時代,正過渡到嚴格監管和戰略對齊的時期。
對於 AI 生態系統的利益相關者來說,教訓很明確:國家安全考慮現在是 AI 政策的主要驅動力。無論法院是維持五角大廈的決定還是迫使雙方妥協,該行業都已收到警告。創新和擴大規模的能力已不再足夠;為了在政府最高層級保持參與者的地位,AI 公司必須應對這樣一個現實:他們的軟體最終可能會部署在遠遠超出其原始安全章程範圍的環境中,並用於超出其範圍的目的。隨著全球 AI 主導地位爭奪戰持續加劇,問題仍然在於美國是否能在不損害這些技術初衷所要保護的價值觀的情況下,成功整合世界上最先進的軟體。