
倫理人工智慧發展與國家安全必要性之間的脆弱平衡已達到臨界點。總部位於舊金山、以「憲制 AI(Constitutional AI)」和安全優先理念聞名的 AI 實驗室 Anthropic,正正面臨來自其最強大潛在客戶——美國國防部(DoD)的生存威脅。報告證實,在針對 Claude 模型用於現役軍事行動的激烈爭議後,五角大廈正積極考慮將 Anthropic 列為「供應鏈風險(supply chain risk)」,這一嚴厲標籤通常僅保留給外國對手。
這場風暴的核心是一份價值 2 億美元的國防合約,以及對自主代理(Autonomous Agents)在戰爭中角色的根本分歧。雖然 OpenAI 和 xAI 等競爭對手已轉向滿足軍方對於「所有合法用途」的需求,Anthropic 仍堅持其紅線——特別是針對大規模監控和全自主致命武器。這場衝突已從董事會談判升級為潛在的全行業黑名單,標誌著前沿 AI(Frontier AI)整合進國防工業基礎的一個分水嶺時刻。
據報導,Anthropic 與國防官員之間的摩擦在 2026 年 1 月的一場機密行動後爆發,該行動涉及企圖逮捕委內瑞拉前總統尼古拉斯·馬杜洛(Nicolás Maduro)。根據知情人士透露,Pentagon 透過與數據分析夥伴 Palantir 的整合,在任務期間利用 Claude 處理即時情報。
雖然該行動按軍事標準被視為戰術上的成功,但其後果卻引發了這家科技公司與美國國防部之間嚴重的外交裂痕。在一次例行的行動後審查中,Anthropic 工程師據稱質疑了其模型在突襲中的具體應用,擔心該部署過於接近致命決策鏈。五角大廈領導層並未將此詢問視為負責任的監督,而是認為這是一家私人供應商對主權軍事行為不可接受的侵入。
國防部長彼得·海格塞斯(Pete Hegseth)隨後採取了強硬立場,據報導他表示國防部「不會雇用那些不允許你打仗的模型」。這種情緒反映了五角大廈內部日益增長的挫折感,即 Anthropic 的意識形態護欄與現代衝突所需的反應速度和殺傷力不相容。國防部辯稱,如果某個使用案例在國際法和美國法律下是合法的,他們的技術供應商就不應根據私人企業道德擁有否決權。
爭議的核心在於對「安全」的不同定義。對 Anthropic 而言,安全被編碼在 Claude 的核心架構中,旨在拒絕違反其憲制的請求——包括協助侵犯人權或作為全自主武器運行。對五角大廈而言,安全意味著確保工具在指揮官發布合法命令時,能夠可靠且不受限制地運作。
Anthropic 明確拒絕跨越兩個特定門檻:
雖然這些限制符合 AI 研究社群中許多人的價值觀,但被國防規劃者視為不利因素。五角大廈的反駁論點是,「所有合法用途」涵蓋了國防所需的廣泛致命與監控活動。Anthropic 拒絕為這些類別提供一攬子豁免,被視為製造了可靠性缺口,可能危及前線人員。
下表列出了主要 AI 實驗室在軍事整合方面的現狀:
主要 AI 實驗室對國防合約立場的比較
---|---|----
AI 實驗室|軍事姿態|關鍵衝突/現狀
Anthropic|限制性 / 倫理護欄|因拒絕致命自主性而面臨「Supply Chain Risk」指定的風險。
OpenAI|靈活 / 協作|移除了「軍事與戰爭」禁令;正針對「合法」用途洽談更緊密的聯繫。
xAI|不受限 / 鷹派|積極爭取國防合約;與「美國優先」國防倡議保持一致。
Google (DeepMind)|溫和 / 項目導向|歷史上曾有內部抵制(Maven 項目),但正尋求 JADC2 合約。
這個發展中的故事中最令人震驚的方面,是五角大廈威脅要將 Anthropic 貼上「供應鏈風險」的標籤。這個名稱的破壞力遠大於僅僅失去一份 2 億美元的合約。在聯邦合約生態系統中,供應鏈風險標籤具有傳染性。
一旦實施,這將在法律上迫使主要承包商——如洛克希德·馬丁(Lockheed Martin)、諾斯洛普·格魯曼(Northrop Grumman)和 Palantir——從其系統中移除 Anthropic 的代碼,以維持其自身承接政府工作的資格。這可能實際上將 Claude 驅逐出整個聯邦市場,包括遵循國防部安全標準的非軍事機構。
行業分析師警告,此舉旨在殺雞儆猴。法律戰研究所(Lawfare Institute)的一位國防政策專家指出:「五角大廈正在向矽谷發出明確訊號:你可以擁有你的倫理聲明,或者你可以擁有政府合約,但你不能向美國軍隊口授交戰規則。」
這次衝突的時機並非巧合。它正值 Anthropic 發布其最新一代「自主代理」——即能夠在極少人工干預下執行複雜、多步驟任務的 AI 系統。隨著這些代理從聊天機器人轉變為能夠編寫代碼、控制網路系統和分析地理空間數據的現役操作員,對其控制權的爭奪呈指數級增長。
五角大廈認為,這些自主代理對於與中國等近乎同等的競爭對手保持均勢至關重要,後者正迅速將 AI 整合進其殺傷鏈中。國防部內部的擔憂是,依賴一個在關鍵網絡攻勢或無人機群協調期間可能「拒絕」命令的模型,是一種他們無法承受的戰略弱點。
在 Anthropic 堅持立場的同時,其競爭對手正利用這一裂痕獲利。報告指出,xAI 和 OpenAI 已加快了他們的審核流程,為機密環境提供「未過濾」或「具備任務能力」的模型版本。這些替代方案向五角大廈承諾了它所要求的一切:強大的情報能力,而沒有道德仲裁帶來的摩擦。
對於 Creati.ai 的讀者和更廣泛的科技產業而言,這場對峙代表了一個關鍵的分歧。如果 Anthropic 受到懲罰,可能會冷卻整個產業的「安全優先」倡議,激勵實驗室將合規性置於良知之上。相反,如果 Anthropic 站穩腳跟,它可能會建立一個新先例,即私營部門的倫理成功遏制了戰爭中不受限制的自動化。
隨著合約續約截止日期的臨近,業界正屏息以待。結果將不僅決定這筆 2 億美元交易的命運,還將決定軍事 AI 的未來是由五角大廈的需求塑造,還是由其創造者的倫理紅線所定義。