
在 Creati.ai,我們的使命是為快速發展的人工智慧(Artificial Intelligence)領域提供無與倫比的洞察。今天,我們正見證人工智慧治理、企業倫理與國家安全交匯的轉捩點。在一項極其罕見且影響深遠的法律行動中,科技巨頭微軟(Microsoft)已正式向聯邦法院提交法庭之友摘要(amicus brief),將其巨大的企業影響力傾注於競爭對手 Anthropic 身上。微軟敦促聯邦法官對美國 國防部(Department of Defense,DOD)發出暫時禁止令(Temporary Restraining Order,TRO),以停止一項震驚矽谷的爭議性政策。
這場法律對抗的核心在於五角大廈前所未有的決定,將 Anthropic 定義為「供應鏈風險(supply chain risk)」。這項激進的行政行動有效地將這家總部位於舊金山的 AI 初創公司列入所有聯邦國防合約的黑名單,並迫使任何政府供應商切斷與該公司的商業聯繫。透過支持 Anthropic,微軟不僅是在捍衛競爭對手,更是在挑戰聯邦政府規定人工智慧部署倫理邊界的權限。
要充分理解這場訴訟的嚴重性,我們必須回顧 2026 年 2 月底的事件。白宮與由部長 Pete Hegseth 領導的國防部共同發布了一項廣泛的指令,要求聯邦機構停止使用 Anthropic 的旗艦生成式 AI(Generative AI)模型 Claude。這份最後通牒非常直接:Anthropic 必須承認其模型可用於軍方的「所有合法用途」。
然而,Anthropic 拒絕屈服。該公司成立於嚴格的 AI 安全原則之上,並執行合約「紅線」,嚴格禁止將其技術用於大規模國內監視,以及開發或部署全自動致命武器(fully autonomous lethal weapons)——即能夠在未經人類授權的情況下獨立瞄準並向人類開火的系統。
五角大廈認為這種拒絕是對軍事行動控制權不可接受的侵犯,辯稱私人承包商不能透過選擇性地限制雙用途技術的功能來介入指揮鏈。因此,政府援引了「供應鏈風險」的定義。從歷史上看,這項特定的行政工具一直保留給涉嫌從事間諜活動的外國對手和國家資助實體。針對國內領先的技術先驅,因 AI 安全政策分歧而部署該工具,代表了事態的重大升級。
3 月 10 日,微軟 提交了一份擬議的法庭之友摘要,支持 Anthropic 爭取暫時禁止令。微軟的介入具有舉足輕重的地位。作為全球最大的雲端基礎設施提供商之一,且本身也是龐大的聯邦承包商,微軟對局勢的評估具有重大影響力。
微軟的文件詳盡說明了法院為何必須暫時阻止五角大廈的禁令。核心論點集中在黑名單將對已建立的國防供應鏈造成的即時、毀滅性破壞。微軟警告聯邦法官,執行該禁令將要求供應商快速且昂貴地重建目前依賴 Anthropic 應用程式介面(API)的複雜軟體生態系統。
更關鍵的是,微軟警告說,突然的限制將「阻礙美國戰士(warfighters)」。生成式 AI 工具(包括 Anthropic 的 Claude)已經深度嵌入軍方主動用於物流、情報分析和行動規劃的系統中。這些能力的突然棄用會帶來即時的戰術風險。Anthropic 在其文件中甚至指出了一個明顯的矛盾:據報導其模型在活躍的戰鬥行動中被使用過,這凸顯了政府試圖禁止的系統之重要性。
為了澄清這場歷史性訴訟中複雜的論點網,Creati.ai 彙整了主要參與者的主要立場:
| 利益相關者 | 核心立場 | 直接影響 |
|---|---|---|
| 微軟 | 主張五角大廈突然的黑名單嚴重擾亂了既有的供應鏈,並主動損害了美國戰士。 | 提交法律動議,尋求 暫時禁止令(TRO)以暫停國防部禁令並保護企業運作。 |
| Anthropic | 捍衛其嚴格的 AI 安全「紅線」,明確禁止其模型為自動致命武器和大規模監視提供動力。 | 起訴聯邦政府以撤銷該指令,如果禁令維持,將面臨高達 50 億美元的潛在收入損失。 |
| 國防部 | 要求前沿 AI 模型在軍事指揮下完全無限制地用於「所有合法用途」。 | 發布了嚴厲的「供應鏈風險」定義,引發了聯邦和商業對 Anthropic 技術的廣泛封殺。 |
| 產業研究人員 | 認為國防部懲罰性且武斷的行動冷卻了專業的 AI 安全辯論,並扼殺了國內創新。 | 由 37 名來自 Google DeepMind 和 OpenAI 的傑出研究人員組成的聯盟提交了法庭之友摘要,支持 Anthropic。 |
在 Creati.ai,我們經常報導定義生成式 AI 領域的激烈競爭。看到競爭對手在公開法庭上互相辯護是極其罕見的。然而,政府監管過度帶來的生存威脅已經團結了 人工智慧 社群。
與微軟的企業文件同時,一個由來自 Google DeepMind 和 OpenAI 的 37 名頂尖研究人員、工程師和科學家組成的強大聯盟(由 Google 首席科學家 Jeff Dean 帶頭)提交了一份單獨的法庭之友摘要,支持 Anthropic 的訴求。簽署人以個人身分行事,將五角大廈的黑名單描述為「不當且武斷」的權力濫用。他們強有力地辯稱,透過封殺一個維持倫理護欄的實驗室,政府本質上降低了整個產業開發安全、可靠 AI 解決方案的潛力。
這份摘要中包含 OpenAI 的人員,突顯了產業內部深刻的自我矛盾。就在國防部將 Anthropic 定義為供應鏈風險後不久,五角大廈與 OpenAI 簽署了一份利潤豐厚的新合約。雖然 OpenAI 領導層聲稱該交易維持了必要的安全邊界,但這一時機引起了尖銳的批評。OpenAI 自己的研究人員感到被迫向聯邦法院正式請願以捍衛 Anthropic 在自動武器問題上的立場,這一事實說明了分裂 AI 版圖的深刻哲學分歧。
與這場訴訟掛鉤的財務利害關係令人震驚。Anthropic 在其法律訴狀中透露,供應鏈風險標籤可能導致企業在未來幾年損失高達 50 億美元的收入。但損害遠不止於 Anthropic 的資產負債表。更廣泛的技術生態系統正在努力應對即時的影響。
這項前所未有的禁令所產生的漣漪效應包括:
隨著法律程序向在舊金山舉行的備受期待的初步聽證會推進,此案的影響遠遠超出了標準的政府採購爭議。這場訴訟代表了民主國家將如何監管、採購和控制先進雙用途人工智慧技術的第一個重大基礎法律測試。
如果聯邦法院支持五角大廈因 AI 安全政策分歧而將國內科技公司列入黑名單的權限,前沿 AI 實驗室可能會被迫面臨一個不可能的最後通牒:放棄其基礎倫理框架,或是放棄進入巨大且利潤豐厚的聯邦市場。相反,如果 Anthropic 在微軟和產業研究人員的支持下成功獲得暫時禁止令,這將驗證私人企業治理的可執行性,並迫使政府回到談判桌。
在 Creati.ai,我們明白這場戰鬥的結果將決定性地重塑華盛頓與矽谷在未來幾十年如何協商人工智慧的極限。維持絕對國家安全需求與確保人工智慧的負責任、倫理部署之間的微妙平衡,正處於岌岌可危的狀態。我們將繼續監測聯邦案件檔案,並在微軟、Anthropic 和國防部準備向司法機構陳述其論點時提供深入分析。