
在美國人工智慧政策未來的決定性時刻,唐納·川普(Donald Trump)總統發布了一項全面的行政命令,指示所有聯邦機構立即切斷與 Anthropic 的聯繫。這項於週五晚間簽署的指令,明確將這家總部位於舊金山的 AI 研究實驗室標記為「國家安全風險」。此舉實際上禁止了在整個聯邦政府中使用 Anthropic 的旗艦模型 Claude,範圍涵蓋從能源部到國防部。
命令發布後的白宮新聞簡報會將此決定描述為確保美國軍事和戰略優勢的必要步驟。政府官員引用了 Anthropic 的「僵化拒絕」將其技術與國防優先事項保持一致,作為禁令的主要導火索。這一進展標誌著行政部門迄今為止對商業 AI 領域最重大的干預,預示著從協作監管轉向嚴格執法,要求企業效忠聯邦指令。
對於 Creati.ai 的讀者來說,這一事件凸顯了 AI 生態系統日益加深的斷裂:安全第一的實驗室與國家規定的能力要求之間不斷擴大的差距。隨著聯邦合同被撤銷,業界正準備迎接權力的重新洗牌,競爭對手可能會爭先恐後地填補市場領先的大型語言模型(LLM)供應商之一留下的空白。
川普政府與 Anthropic 之間的衝突似乎源於有關五角大廈對於生成式 AI(Generative AI)特定用途談判的破裂。知情人士透露,由部長彼得·海格塞斯(Pete Hegseth)領導的國防部(DoD)曾要求提供一個修改了安全協議的特定版本 Claude。
據報導,五角大廈尋求刪除特定的「拒絕護欄」——即嵌入模型中防止其協助動能作戰、網絡攻擊策略和生物武器模擬的倫理約束。這些約束是 Anthropic「憲法級 AI(Constitutional AI)」框架的核心,該框架在高風險情境中將益處、誠實和無害性置於能力之上。
根據報告,Anthropic 執行長達里奧·阿莫代(Dario Amodei)拒絕了這一請求,堅持認為削弱這些安全措施將違反公司的核心使命,並可能釋放不可控的風險。白宮對此拒絕的解讀不僅僅是企業政策分歧,而是不遵守國家安全利益的行為。
川普政府認為,在跨國地緣政治競爭加劇的時代,特別是與中國的競爭中,美國政府不能依賴會對軍事指揮官進行「二次猜疑」的軟體。白宮推動的說法是,「覺醒 AI」或過度受限的模型會損害美國的戰略優勢。通過將 Anthropic 標記為國家安全威脅,政府實際上認為以軟體形式呈現的 AI 和平主義是一種負擔。
為了理解這一轉變的規模,有必要將 Anthropic 遵守的標準與五角大廈提出的新要求進行比較。下表概述了導致行政命令的分歧。
| 特性 | Anthropic 的「憲法級 AI」標準 | 五角大廈的「國防就緒」要求 |
|---|---|---|
| 倫理覆蓋 | 模型拒絕違反安全憲法的命令 | 指揮權高於模型倫理 |
| 動能作戰 | 嚴格禁止(對致命援助零容忍) | 戰術分析所需的能力 |
| 數據主權 | 專注於減少用戶傷害的嚴格隱私 | 政府審計的完全透明度 |
| 護欄可修改性 | 由開發者(Anthropic)固定 | 可由終端用戶(國防部/聯邦機構)修改 |
| 部署範圍 | 通用型,受安全限制 | 特定任務,無限制邊界 |
該命令的直接後果是動盪的。Anthropic 此前一直在獲得越來越多用於數據分析和行政自動化的政府合同,現在面臨公共部門市場的完全封鎖。雖然該公司的收入主要由企業和消費者部門驅動,但被冠以「國家安全風險」的名聲可能會嚇跑依賴政府支持的財富 500 強客戶。
相反,這為競爭對手創造了巨大的機會。技術分析師建議,願意提供「無束縛」或「主權」模型(即允許客戶完全控制安全參數的 AI 系統)的公司有望獲得數十億美元重新定向的聯邦資金。這符合政府更廣泛的「美國優先 AI」倡議,該倡議將原始能力和國家忠誠置於抽象的安全哲學之上。
我們可能會看到整個行業的品牌重塑。AI 公司可能會開始行銷明確設計為遵守指揮鏈而非通用倫理準則的「愛國 AI」解決方案。市場的這種分叉可能導致兩類截然不同的 AI:
在行政命令發布後不久的一份聲明中,Anthropic 重申了其對安全的承諾。「我們打造 Claude 是為了提供幫助且無害,」聲明中寫道。「我們相信,無論用戶是誰,移除強大 AI 系統的安全護欄都會對人類構成不可接受的風險。我們不會在系統安全性上妥協。」
這一原則性立場劃定了一條清晰的底線。通過選擇失去聯邦合同而不是妥協其安全架構,Anthropic 正在敵對的監管環境中測試倫理 AI 的經濟可行性。它挑戰了科技公司總是會為了獲得豐厚的國防資金而屈服於國家意志的假設。
然而,「國家安全風險」的標籤除了失去合同外,還具有法律分量。理論上它可能導致對投資的限制、對其技術的出口管制,甚至是對其員工的審查。關於軟體公司是否可以被強制為軍方修改其產品的法律鬥爭很可能會在聯邦法院終結。
這項行政命令創下了一個將在矽谷引起迴響的先例。它發出了一個訊息:聯邦贊助是以完全符合政府目標為條件的,即使這些目標與公司的安全研究相衝突。
對於 AI 研究人員和開發人員來說,寒蟬效應是真實存在的。現在的問題不再僅僅是「我們能製造它嗎?」,而是「如果我們安全地製造它,我們會被列入黑名單嗎?」。隨著川普政府推動激進地加速 AI 能力以對抗全球對手,留給細微差別和「拒絕機制」的空間正在迅速縮小。
Creati.ai 將繼續關注這一事態發展,特別是 OpenAI 和 Google 等其他主要參與者如何回應來自五角大廈的類似壓力。「中立」技術供應商的時代可能即將結束。