
全球人工智慧(Artificial Intelligence,簡稱 AI)開發的格局正經歷一場重大的重新調整,美國國防部與 AI 巨頭 Anthropic 之間一場高風險的對峙凸顯了這一點。隨著美國政府向科技公司施加越來越大的壓力,要求將其專有的大型語言模型(LLMs)整合到軍事和監控基礎設施中,英國已成為一個戰略性的替代選擇,積極拉攏這家總部位於舊金山的公司,以擴大其在英國的足跡。
這種轉向不僅僅是企業搬遷策略;它象徵著美國「安全優先」方法與英國「創新友善」監管野心之間日益加深的磨擦。對於廣泛採用的 AI 模型 Claude 的製造商 Anthropic 而言,這種磨擦已從董事會談判升級為聯邦訴訟,使該公司成為關於私人 AI 實驗室在國家安全中的角色以及倫理護欄界限之廣泛辯論的焦點。
目前的僵局源於 2026 年春季,當時美國國防部(DoD)試圖透過採購渠道,強制將 Claude 整合到機密系統中,用於自主監控和致命目標識別的潛在用途。據報導,始終堅持其內部「負責任縮放政策(Responsible Scaling Policy)」的 Anthropic 拒絕了這些要求。該公司領導層主張,其模型並非為致命決策或大規模國內監控而設計,且在倫理上也不符。
作為回應,美國政府將 Anthropic 指定為「國家安全供應鏈風險」,這一舉動實際上禁止了國防承包商使用該公司的服務。這一指定觸發了快速且法律上複雜的連鎖反應。Anthropic 提起訴訟,對黑名單提出挑戰,辯稱政府正在將採購政策武器化,以懲罰一家維持其倫理標準的私人實體。雖然聯邦法官已准許該公司暫時緩解,但潛在的緊張局勢仍未解決,為 Anthropic 未來與美國國防合約的關係蒙上了陰影。
在華盛頓權衡對其 AI 基礎設施進行全面控制的必要性時,倫敦正採取截然不同的策略。由科學、創新及技術部(DSIT)領導的英國政府已開始起草一份全面的激勵方案,旨在吸引 Anthropic 的業務跨越大西洋。
這項提議已深度整合到英國更廣泛的「AI 機遇行動計畫」中,該計畫旨在透過提供比更僵化的《歐盟 AI 法案》或目前動盪的美國格局更穩定、對稱且親創新的監管環境,將英國推向全球 AI 經濟的前沿。
在首相施凱爾(Keir Starmer)辦公室的支持下,政府官員已概述了幾項關鍵提案,將在 Anthropic 執行長 Dario Amodei 於 5 月下旬訪問期間向其展示。這些激勵措施包括:
美國和英國方法之間的分歧為 AI 實驗室創造了不同的環境,如下表所示。
| 戰略因素 | 美國環境 | 英國環境 |
|---|---|---|
| 監管重心 | 側重於嚴格的合規性和以國防為中心的安全限制。 | 優先考慮倫理 AI 和特定行業增長的平衡方法。 |
| 政府立場 | 直接施壓要求將 AI 整合到軍事和監控工作流程中。 | 積極招攬,提供簡化簽證和基礎設施支持。 |
| 市場進入 | 可獲得龐大的國防合約,但伴隨著顯著的營運限制。 | 進入一個不斷增長、對創新友好的市場,且遺留的採購磨擦較少。 |
| 長期願景 | 將 AI 視為國家安全和地緣政治霸權的工具。 | 旨在建立一個負責任、具有商業可行性的 AI 開發全球樞紐。 |
英國積極招攬 Anthropic 是主權國家看待 AI 方式發生更大轉變的徵兆。對於英國而言,吸引 Anthropic 這種水準的公司是其建立國內 AI 主權、減少對單一且政治動盪的技術力量來源依賴的戰略關鍵組成部分。透過將倫敦定位為優先考慮尖端性能和倫理治理的公司的避風港,英國希望在全球 AI 競賽中建立「第三條道路」——避開某些美國人士青睞的極端監控密集型應用,以及歐盟目前青睞的高壓監管。
然而,未來的道路並非沒有風險。對於 Anthropic 來說,進入一個擁有獨特監管和文化期望的司法管轄區會帶來其自身的挑戰。此外,該公司必須在持續履行對 AI 監管 與安全的承諾,以及與 OpenAI、Google 和 Meta 等資金雄厚的競爭對手競爭的必要性之間保持平衡,這些對手都在爭奪企業 AI 領域的霸權。
隨著執行長 Dario Amodei 準備他的倫敦之旅,全球科技產業將密切關注。這次會議可能成為一個關鍵時刻,預示著世界上最先進的 AI 公司是否能成功實現業務多元化,以逃脫單一國家安全授權的束縛,或者「國家安全」的地緣政治引力對於即使是最具獨立思想的實驗室來說也太強大了,無法逃避。
最終,這場傳奇故事凸顯了 Claude 和其他先進的大型語言模型已不再僅僅是軟體產品;它們已成為 21 世紀地緣政治競爭中的關鍵資產。Anthropic 與國防部對峙的結果——以及英國招攬努力的成敗——可能會為未來十年的 AI 開發如何治理和部署樹立先例。