
華盛頓特區 — 在矽谷 AI 實驗室與聯邦政府之間歷史性且前所未有的衝突升級中,戰爭部(Department of War,前身為國防部)已終止與 Anthropic 簽署的 2 億美元合約。此舉是在這家人工智慧安全(AI Safety)公司拒絕解除對其模型用於自主武器和大規模監控的操作限制後做出的。
在昨天深夜發布的一項指令中,戰爭部長 Pete Hegseth 正式將 Anthropic 列為「國家安全供應鏈風險(Supply-Chain Risk to National Security)」,這一標籤在歷史上僅保留給被認為對美國利益具有敵意的外國對手和電信供應商。該認定觸發了立即禁令,禁止美國軍方廣大的承包商網路與這家總部位於舊金山的 AI 公司進行所有商業往來。
這次終止標誌著關於 Anthropic 旗艦模型 Claude 中嵌入的倫理「紅線」長達數月爭議的巔峰。雖然五角大廈一直尋求「無限制」存取前沿 AI(Frontier AI)模型以維持戰略優勢,但 Anthropic 始終拒絕修改其可接受使用政策(Acceptable Use Policy, AUP)以適應特定的致命性與監控應用。
據接近談判的消息人士透露,戰爭部要求移除防止 Claude 被用於駕駛全自主無人機或大規模分析國內通訊數據的防護措施。Anthropic 執行長 Dario Amodei 據報拒絕了這些條款,表示公司無法「憑良心」允許其技術被部署在可能破壞民主價值或缺乏有效人類監督的用途上。
「這不是能力的失敗,而是原則的衝突,」Creati.ai 的資深分析師表示。「Anthropic 實際上正將其業務押在 AI 安全是不容談判的這一想法上,即使客戶是地球上最強大的軍隊。」
最重大的進展不在於合約本身的損失,而是在於對一家美國本土公司援引了「供應鏈風險」權限。Hegseth 部長的命令遠遠超出了單純的服務取消。
該認定的關鍵影響:
法律學者已經對使用供應鏈權限(旨在防止外國間諜活動和破壞)來懲罰因倫理指南而起的國內合約糾紛的合法性提出了質疑。Anthropic 已誓言在聯邦法院挑戰這一認定,將其描述為「意識形態報復」而非真正的安全評估。
隨著 Anthropic 退出五角大廈的供應組合,競爭對手 OpenAI 實驗室已迅速採取行動,鞏固其作為軍方主要 AI 合作夥伴的地位。報告指出,OpenAI 已同意 Anthropic 所拒絕的條款,並達成了一項利潤豐厚的新協議,在機密網路中部署基於 GPT-4 的系統。
這一過渡引發了兩大 AI 巨頭之間激烈的公開不和。在有關 OpenAI 新交易的報導發布後,Dario Amodei 發布了一份言辭犀利的內部備忘錄,部分內容被洩露給了科技媒體。Amodei 指責 OpenAI 正在進行「安全演戲(Safety Theater)」,並將他們關於軍事防護措施的公開訊息描述為「徹頭徹尾的謊言」。
「OpenAI 將自己塑造成和平締造者,同時簽署了侵蝕他們聲稱要維護的安全標準的協議,」Amodei 寫道。他指稱 OpenAI 的協議可能包含「漏洞」,有效廢除了對自主致命性的限制,OpenAI 對此予以強烈否認,聲稱其合作夥伴關係僅專注於「合法的防禦應用」。
將 Anthropic 列入黑名單向更廣泛的 AI 生態系統發出了令人膽戰心驚的信號。這表明美國政府不再願意容忍來自其技術供應商的「倫理摩擦」。對於風險投資支持的 AI 新創公司來說,訊息很明確:與戰爭部目標保持一致現在已成為在公共部門生存的前提。
下表概述了截至 2026 年 3 月各大 AI 實驗室在軍事合作方面的分歧路徑:
各大 AI 實驗室與戰爭部之狀態
| 實驗室名稱 | 合約狀態 | 對致命自主性的立場 |
|---|---|---|
| Anthropic | 已終止 / 列入黑名單 | 透過憲法 AI(Constitutional AI)嚴格禁止 |
| OpenAI | 活躍 / 已擴展 | 允許「合法防禦性」使用 |
| Google DeepMind | 審查中 | 受限,僅限人類參與(Human-in-the-loop) |
| xAI | 活躍 / 機密 | 遵循不受限制的「合法使用」 |
未來幾週對 Anthropic 來說至關重要。如果「供應鏈風險」認定在法律審查中倖存下來,該公司將面臨其企業業務的生存威脅。同時服務於國防部門的企業客戶可能被迫遷移到替代模型,以避免監管交火。
同時,戰爭部已發出信號,表示其對「覺醒 AI(Woke AI)」(Hegseth 部長用來描述具有重度安全過濾模型的術語)的耐心已經耗盡。隨著美國競相將生成式 AI(Generative AI)整合到其指揮與控制基礎設施中,「愛國」AI 開發者與「安全優先」實驗室之間的分歧將成為該行業的決定性分界線。