
在人工智慧(Artificial Intelligence, AI)產業的一個分水嶺時刻,Anthropic 公開且明確地拒絕了美國國防部(U.S. Department of Defense)的「最終」合約提案。這份由執行長 Dario Amodei 於 2026 年 2 月 26 日遞交的拒絕聲明,標誌著自 AI 熱潮開始以來,矽谷與華盛頓之間最重大的衝突之一。衝突的核心在於,雙方對於在致命自主武器系統(Lethal Autonomous Weapons Systems)和大規模國內監視網中部署 Anthropic 的旗艦模型 Claude 存在根本性的分歧。
據報導,這些閉門談判已持續數月,直到 Amodei 發表聲明稱:「我們無法本著良知同意他們的要求」,這場爭端才進入公眾視野。此舉使 Anthropic 成為頂級 AI 實驗室中唯一的長期反對者,在政局緊張局勢加劇的時代,引發了關於 AI 對齊(AI Alignment)、政府過度擴權以及私營科技公司獨立性的關鍵問題。
據接近談判的消息人士透露,五角大廈(Pentagon)最終確定的提案不僅僅是一份標準的採購合約,而是一個全面的整合框架。國防部(DoD)尋求不受限制地訪問 Claude 的原始碼和權重,以驅動下一代作戰系統。
爭議的癥結集中在兩個違反 Anthropic「憲法 AI」(Constitutional AI)原則的具體用例上:
Amodei 的拒絕是斷然的。在發給 Anthropic 員工並隨後分享給媒體的一份備忘錄中,他強調,允許將 Claude 用於這些目的將「不可逆轉地破壞我們花費多年建立的安全護欄」。
這場僵局中最令人擔憂的方面或許是政府的反應。在遭到拒絕後,據報導五角大廈官員威脅要援引 1950 年的 《國防生產法》 (Defense Production Act, DPA)。該法最初旨在確保韓戰期間工業材料的供應,賦予總統廣泛的權力,強制公司優先處理被認為對國防必要的政府合約。
執行 DPA 的潛在影響:
法律專家警告說,針對此類軟體和知識產權援引 DPA 將引發一場前所未有的憲法法律戰,考驗政府對私營創新權力的極限。
Anthropic 的拒絕突顯了 AI 產業內日益增長的裂痕。在 Anthropic 加倍奉行其安全第一的理念時,競爭對手則採取了不同的道路,理由是面對地緣政治對手時,美國技術優勢具有必要性。
下表比較了主要 AI 實驗室目前在軍事整合方面的立場:
主要 AI 實驗室軍事立場比較(2026 年 2 月)
| 組織 | 軍事合約核心立場 | 關鍵限制 |
|---|---|---|
| Anthropic | 完全拒絕致命/監視用途 | 禁止自主武器與大規模監視整合 |
| OpenAI | 有條件合作 | 允許「國家安全」用途;在致命自主性上含糊其辭 |
| Google DeepMind | 受限夥伴關係 | 適用 Project Maven 限制;專注於物流/網路防禦 |
| Palantir | 全面整合 | 積極構建致命目標鎖定與監視平台 |
| Microsoft | 戰略聯盟 | 為國防部提供基礎設施/大型語言模型(LLMs);非致命指令常被豁免 |
這種分歧使 Anthropic 處於不穩定的財務狀況,但也強化了其在具安全意識的企業客戶和倫理投資者中的品牌形象。
Dario Amodei 所說的「我們無法本著良知同意」這句話,呼應了 2018 年 Google 內部反對 Project Maven 時使用的語言,但 2026 年的賭注明顯更高。目前像 Claude 5 這樣的前沿模型的能力遠遠超過了十年前的電腦視覺(Computer Vision)工具。
倫理框架 vs. 國家必要性
五角大廈辯稱,如果無法獲得美國最好的 AI,美國就有可能落後於那些不受此類倫理約束的對手。國防官員將 Anthropic 的拒絕定性為對國家利益的「天真」且「潛在危險」。
然而,Creati.ai 的分析師認為 Anthropic 正在進行一場長遠的博弈。透過嚴格遵守其章程,公司維護了其對齊研究的完整性。如果 Claude 被重新訓練以用於殺傷力,那麼使該模型在商業用途中可靠的「有用、誠實且無害」(Helpful, Honest, and Harmless)約束可能會從根本上被動搖,導致非軍事應用中出現不可預測的行為。
來自 Anthropic 舊金山總部的報告顯示,在做出決定後,員工士氣高昂,儘管對 DPA 威脅的焦慮仍然很高。「我們開發這個系統不是為了傷害人類,」一位資深研究員在要求匿名的情況下告訴 Creati.ai。「如果我們跨越了那條線,我們就變成了另一家國防承包商。」
隨著局勢的發展,科技界正密切關注拜登-賀錦麗(Biden-Harris)政府是否會履行強制執行《國防生產法》的威脅。此舉將使開源(Open-source)社群感到膽寒,並可能將 AI 開發推向地下或海外。
目前,Anthropic 仍然保持蔑視態度。拒絕五角大廈的最終提案不僅僅是一場契約糾紛;它是對超智慧系統(Superintelligent Systems)可治理性的一次試金石。如果一家私營公司能基於倫理理由成功拒絕世界上最強大的軍隊,這就確立了一個先例,即安全和道德仍然可以決定技術進步的軌跡。
接下來的幾週將至關重要。五角大廈是會轉向 Palantir 或 OpenAI 等競爭對手來填補空白,還是會透過法律強制手段逼迫 Anthropic 就範?對於 Creati.ai 的團隊來說,我們將繼續關注這個不斷發展的故事,因為其結果將定義未來幾十年 AI 與國家之間的關係。