
在矽谷與華盛頓之間緊張局勢歷史性升級之際,人工智慧(AI)巨頭 Anthropic 已正式對美國政府提起訴訟。此次法律行動發生在五角大廈(現任政府稱為戰爭部,Department of War)正式將這家總部位於舊金山的公司列為「供應鏈風險(supply chain risk)」的幾天後。這種標籤在歷史上通常保留給與敵對國家有關的外國實體,這是美國科技公司首次被列入此類分類,為一場關於人工智慧在 國家安全 中未來的決定性法律戰拉開了序幕。
這項由 Anthropic 執行長達里奧·阿莫代(Dario Amodei)宣布的訴訟,尋求立即發布禁制令以撤銷該認定。Amodei 將政府的舉動描述為「法律上站不住腳」,且是一種旨在強迫公司放棄其倫理安全護欄的懲罰性措施。衝突的核心在於對 AI 軍事應用的根本分歧:雖然 五角大廈(Pentagon) 要求「所有合法用途」的技術,但 Anthropic 堅決拒絕允許其 Claude 模型被部署用於大規模國內監視或全自動致命武器系統。
「供應鏈風險(supply chain risk)」標記的概念最初是為了保護美國基礎設施免受外國間諜活動和破壞而設立的。之前的目標包括華為(Huawei)和中興通訊(ZTE)等中國電信巨頭,以及俄羅斯網路安全公司卡巴斯基實驗室(Kaspersky Lab)。將此標籤應用於 Anthropic——一家由前 OpenAI 高管創立、以 AI 安全為使命的公司——代表了美國國防政策的激進轉變。
根據 2026 年 3 月 4 日發布的認定條款,國防部(Department of Defense) 實際上正禁止其承包商和合作夥伴將 Anthropic 的技術用於軍事相關工作。國防部長皮特·海格塞斯(Pete Hegseth)將此決定描述為確保美國軍方不會受限於私營企業「有缺陷的利他主義(defective altruism)」的必要步驟。
在訴狀中,Amodei 主張政府未能證明 Anthropic 的系統存在任何實際的安全漏洞。相反,該公司認為五角大廈引用的「風險」是意識形態而非技術性的——即拒絕屈服於要求將人類監督從致命決策鏈中移除的要求。
該認定的關鍵影響:
Anthropic 與五角大廈之間的決裂並非一夕之間發生。這是關於國防合約續約和擴展的數月談判失敗後的結果。磨擦點是具體且具有意識形態色彩的。Anthropic 已在其模型中整合了「憲法 AI(Constitutional AI)」原則,這些原則對涉及侵犯人權、酷刑或未經人類授權的致命武力自動化請求進行硬編碼拒絕。
五角大廈在追求「AI 霸權(AI Dominance)」戰略時辯稱,這些硬編碼的拒絕構成了行動風險。在高度利害相關的戰鬥模擬或快速情報分析中,國防部認為,基於企業倫理而對指令產生質疑的 AI 是一種負擔。
下表概述了導致此僵局的不同立場:
立場對照:Anthropic vs. 五角大廈
---|---|----
核心哲學|生成式 AI 安全(AI Safety) 與「憲法 AI」約束|不受限的「所有合法用途」以維持霸權
紅線|禁止大規模監視;禁止自主武器|不允許企業對軍事應用設定限制
安全觀點|安全特性可防止誤用和意外|拒絕機制會產生行動負擔
合約狀態|拒絕在沒有倫理豁免的情況下簽署|將供應商列為「供應鏈風險」
結果|提起 訴訟,指控行政權力過度擴張|採取行動以競爭對手取代供應商
這項認定對美國科技業產生了巨大的衝擊。法律專家和行業分析師警告,利用供應鏈權威來懲罰國內政策分歧可能會破壞美國政府與私營科技部門之間穩固的夥伴關係——這種夥伴關係數十年來一直是美國創新的引擎。
「這是採購法的武器化,」戰略與國際研究中心(CSIS)的一位高級政策分析師表示。「如果政府僅僅因為一家美國公司不願意建造特定類型的武器,就將其標記為國家安全風險,那麼美國的每一家雙用途技術公司現在都收到了警告。」
然而,Anthropic 留下的真空已經開始被填補。在 Anthropic 與五角大廈關係破裂的同時,競爭對手 OpenAI 宣布與國防部建立廣泛的新合作夥伴關係。OpenAI 已同意據稱允許其模型進行更廣泛軍事應用的條款,儘管該公司堅持保留防止誤用的護欄。這種分歧在矽谷造成了分裂的景象:一派願意完全配合國防優先事項以獲取巨額政府合約,而另一派(由 Anthropic 領導)則試圖維持倫理獨立,即使代價是被聯邦政府列入黑名單。
Anthropic 的法律訴狀依據《行政程序法》(APA)及有關供應鏈安全的具體條款。該公司的律師主張,法規要求政府必須使用緩解風險所需的「限制最小的手段(least restrictive means)」。政府直接跳到「供應鏈風險」認定——這是採購法規中的「核選項」——繞過了較輕的補救措施,例如單純不續簽特定合約。
此外,Amodei 已公開表示,Anthropic 的絕大多數客戶仍不受影響。「這顯然僅適用於客戶將 Claude 作為與戰爭部直接合約的一部分來使用,而非所有擁有此類合約的客戶對 Claude 的所有使用,」Amodei 在給商業客戶的一封安撫信中寫道。儘管如此,與外國對手被歸為一類所造成的名譽損害是嚴重的。
訴訟還指控該認定具有報復性。訴狀中引用的內部備忘錄顯示,政府官員對 Anthropic 缺乏政治支持及其對政府激進的 AI 放鬆監管政策的公開批評感到不滿。
隨著案件提交聯邦法院,此案的影響遠超 Anthropic 的政府收入。裁決可能會定義美國政府強迫私營公司協助軍事行動的權力邊界。
如果法院支持五角大廈的認定,這將確認一種國家安全利益高於公司治理和倫理章程的學說。如果 Anthropic 獲勝,它可能會為科技公司建立一道法律盾牌,允許它們在參與政府市場的同時維持自己的道德指南針。
目前,整個行業都在屏息以待。結果將決定「AI 安全」是否仍是國防相關公司可行的商業模式,或者與國家軍事目標保持一致是否會成為不可談判的入場代價。
導致訴訟的事件時間表:
這場衝突代表了 AI 產業的成熟。先進 AI 不再僅僅是科學上的好奇心或生產力工具,現在被視為關鍵的國家資產——甚至是武器。Anthropic 的抵抗標誌著此類技術的創造者首次重大嘗試,在違背國家意志的情況下主張對其最終命運的控制權。