
美國司法部(U.S. Department of Justice,DOJ)已正式提交上訴通知,針對近期一項暫時阻止川普政府將 Anthropic PBC 列入黑名單的重大聯邦法院裁決進行上訴。這項法律行動標誌著聯邦政府與 AI 行業之間,針對政府監督邊界、國家安全以及技術供應商自主權的高風險對峙進一步升級。
底層衝突集中在政府要求與 Anthropic 斷絕關係的命令上,這是一家以「安全第一」方針著稱的 AI 公司。政府,特別是 戰爭部(Department of War),已採取行動將 Anthropic 標記為「供應鏈風險」,實際上禁止聯邦機構和承包商使用其 Claude AI 模型。在加利福尼亞北區聯邦地區法院主持審理的聯邦法官 Rita F. Lin,上個月發出了初步禁令以暫停這項禁令,並形容政府的理由在法律上存疑,且似乎帶有報復性質。
隨著司法部決定尋求上訴審查,聯邦 AI 生態系統中最著名的合作夥伴之一其命運仍處於法律不明狀態,這開創了一個可能重新定義未來美國政府如何管理 AI 採購的先例。
聯邦政府與 Anthropic 之間的摩擦,源於對人工智慧(Artificial Intelligence,AI)在敏感環境中部署的分歧觀點。隨著聯邦機構越來越多地將 AI 模型整合到其運作流程中——從行政支援到更複雜的分析任務——對穩健、安全且合規之 AI 的需求激增。
Anthropic 一向主張對 AI 開發實施嚴格的護欄,據報導,該公司推動對其技術的使用方式設定明確限制。具體而言,該公司尋求保證其模型不會被部署於國內監視計劃,或用於控制全自動武器系統。
然而,戰爭部辯稱,此類限制阻礙了其有效運作並履行安全使命的能力。政府主張,其需要不受限制地獲取 AI 能力,以確保國家的準備狀態和敏捷性。這種分歧最終導致 Anthropic 被指定為「供應鏈風險」,該公司將此舉描述為因政策分歧而懲罰它的前所未有嘗試。
這場法律戰反映了行政權力與私營實體契約權利之間複雜的相互作用。下表總結了雙方在初始法院程序中提出的核心論點:
| 利害關係人 | 主要論點 | 目前狀態 |
|---|---|---|
| 美國戰爭部 | 國家安全(National security) 考量使得移除不可靠供應商成為必要;聲稱該公司的限制造成了「運作漏洞」。 | 正就地區法院的禁令向上訴法院提起上訴。 |
| Anthropic | 「供應鏈風險」標籤具有報復性;主張政府的行為侵犯了權利並危及其業務運作。 | 目前受到聯邦法院臨時禁令的保護。 |
| 司法機構 | Rita F. Lin 法官質疑禁令的合理性;指出其似乎是「旨在懲罰」而非應對合法的安全威脅。 | 裁決面臨挑戰;先前已准許禁令以維持現狀。 |
司法部的上訴對更廣泛的 AI 領域具有深遠影響。如果上訴法院推翻 Lin 法官的禁令,這將信號著行政部門透過採購槓桿來支配 AI 服務提供商條款的權力顯著擴大。對於技術產業而言,這創造了一種明顯的不確定性。
產業專家觀察到,此案是「AI 治理(AI Governance)」的一次試金石。如果科技公司因堅持自己的倫理標準或安全政策(當這些政策與政府指令衝突時)而被列入黑名單,這可能會迫使 AI 公司改變與公共部門接洽的方式。一些分析師認為,這會產生寒蟬效應,公司可能會選擇完全放棄聯邦承包,以避免突然受到政治因素排擠的風險。
相反地,政府的立場凸顯了試圖維持技術優勢的緊張局勢。戰爭部一直主張,在國防關係中,信任與透明度至高無上,允許供應商對政府工具設置限制,可能會使關鍵國防系統在面對全球競爭對手時處於劣勢。
隨著案件移交至上訴層級,法律程序可能會集中在:政府的「供應鏈風險」指定究竟是行使合法的國家安全權力,還是濫用行政權力來脅迫技術提供商。
目前,聯邦機構在初始禁令的保護下,繼續保有對 Anthropic 系統的使用權。然而,上訴的陰影確保了技術創新、倫理 AI 開發與聯邦監督之間的緊張關係,將繼續處於國家論述的前沿。
科技界和政策制定者都將密切關注,上訴法院是否會認為政府可以強制 AI 提供商與所有聯邦使用要求保持一致,或至少屈從於這些要求,以此作為參與政府市場的條件。預計這項裁決將對 美國政府(US government) 在未來十年如何引導採用強大的雙用途人工智慧技術產生長遠影響。