
在國家防禦領域人工智慧(Artificial Intelligence, AI)未來的關鍵時刻,美國國防部(Department of Defense)已向 AI 安全新創公司 Anthropic 發出了嚴厲的最後通牒。國防部長 Pete Hegseth 已要求該公司在 2026 年 2 月 27 日週五之前,授予美國軍方對其旗艦 Claude AI 模型的無限制訪問權,否則將面臨嚴厲的聯邦干預。
這場對峙在週二國防部長 Hegseth 與 Anthropic 執行長 Dario Amodei 進行緊張的閉門會議後升級,核心在於對 AI 系統中嵌入的倫理「護欄」(guardrails)存在根本分歧。五角大廈(Pentagon)威脅要援引《國防生產法》(Defense Production Act, DPA)或將 Anthropic 標記為「供應鏈風險(supply chain risk)」——這一標籤可能實際上將該公司列入聯邦市場黑名單——除非其移除防止軟體用於自動武器和國內監視的限制。
在 Creati.ai,我們正密切關注這次僵局,因為這代表了矽谷專注於安全的 AI 實驗室與美國國家安全機構的行動需求之間,迄今為止最重大的衝突。
衝突的核心在於 Anthropic 拒絕為軍事應用修改其服務條款。雖然 Anthropic 已與國防部簽署了一份價值 2 億美元的合約,且其 Claude 模型是目前唯一獲准在機密 五角大廈(Pentagon)網路內部使用的大型語言模型(Large Language Model, LLM),但該公司對其技術的部署方式劃定了明確的「紅線」。
具體而言,Anthropic 限制將 Claude 用於:
部長 Hegseth 和五角大廈官員認為,這些私營企業的限制是國家安全中不必要的障礙。國防部的立場是,其行動已受美國憲法和聯邦法律管轄,這使得 Anthropic 額外的倫理層級變得多餘且具有阻撓性質。
根據熟悉週二會議的消息人士透露,Hegseth 明確告訴 Amodei,軍方需要為了「所有合法用途」訪問 Claude,且不得有「意識形態限制」。這符合 Hegseth 確保軍事 AI 系統具有殺傷力且不受阻礙的更廣泛計畫,他今年早些時候以五角大廈的「AI 不會覺醒(woke)」這一聲明總結了這一立場。
向 Anthropic 發出的威脅在商業 AI 領域是前所未有的。如果週五截止日期過後仍未做出讓步,五角大廈已概述了兩條潛在的行動路線,這兩條路線都將對 Anthropic 的商業模式產生毀滅性後果。
1950 年的《國防生產法》(Defense Production Act)授予總統廣泛的權力,強迫國內產業優先考慮政府合約並為國防分配資源。歷史上曾在戰爭時期或 COVID-19 大流行等緊急情況下使用,援引 DPA 強迫一家軟體公司「更改」其產品的安全代碼將是一個全新的法律應用。從本質上講,政府可以依法強制 Anthropic 提供未經審查版本的 Claude,推翻公司的安全憲法。
也許更具破壞性的是將 Anthropic 標記為「供應鏈風險」的威脅。此名稱通常保留給外國對手或受損實體(類似於針對華為或卡巴斯基採取的行動)。
如果應用於 Anthropic,此標籤將:
五角大廈要求的緊迫性似乎與最近的行動摩擦有關。報告指出,美國軍方在 2026 年 1 月的一次特種作戰突襲中使用了 Claude,該行動導致委內瑞拉總統馬杜洛(Nicolás Maduro)被捕。雖然行動成功,但隨後關於使用 AI 是否違反 Anthropic 使用政策的爭議也隨之而來,導致官員所描述的「信任赤字」。
此外,軍事 AI 的格局正在迅速變化。在 Anthropic 猶豫不決之際,其競爭對手正設法填補空白。據報導,馬斯克的 xAI 已同意五角大廈「任何合法使用」的條款,其模型最近已獲准用於機密工作。同樣地,OpenAI 和 Google 也在積極爭取更大份額的國防預算。
對於 Anthropic 而言,這是一個生存困境。執行長 Dario Amodei 將公司的聲譽建立在「安全優先」的開發之上。屈服於自動武器化的需求將疏遠其核心研究團隊,並與其創立使命相違背。然而,失去美國政府這個客戶——並面臨 DPA——可能會重創其財務地位和市場准入。
為了釐清本週五截止日期的風險,我們在下方列出了對立的立場。
表格:五角大廈需求 vs. Anthropic 政策
---|---|----
核心需求|五角大廈立場|Anthropic 立場
使用限制|要求「所有合法使用案例」,包括戰鬥應用。|禁止自動定位和大規模監視。
監管|依賴美國法律、憲法和指揮系統。|依賴內部的「憲法 AI(Constitutional AI)」安全協議。
人力控制|如果法律核准,對自動化系統持開放態度。|所有致命決定都需要「人力介入(human-in-the-loop)」。
失敗後果|援引《國防生產法》;供應鏈黑名單。|可能失去 2 億美元合約;聲譽受損。
現狀|在沒有供應商限制的情況下尋求「行動優勢」。|捍衛「負責任的擴展」和倫理界限。
這場對峙的結果將為美國政府與私營 AI 領域之間的關係設定永久的先例。如果五角大廈成功使用 DPA 剝離安全護欄,這實際上將國防用 AI 模型的倫理標準收歸國有。私營公司將不再保留基於道德反對而拒絕為特定軍事應用提供服務的權利。
相反地,如果 Anthropic 堅持立場並在後果中倖存,這將證明頂尖的 AI 能力仍是賣方市場,供應商可以決定參與條款。
週五的截止日期是一個關鍵時刻。科技產業正拭目以待,觀察拜登與川普過渡時期的動態——即國家安全強勢凌駕於公司政策之上——是否會迫使矽谷最具理想主義色彩的參與者屈服。就目前情況而言,Anthropic 是唯一一家抵制將其智慧完全整合到戰爭機器中的主要實驗室。到週末,這種區別可能將不復存在。
Creati.ai 將隨著截止日期的臨近持續更新此報導。