
這一舉措可能會重塑美國國防機構與私營人工智慧(Artificial Intelligence,AI)領域之間的關係,參議員 Elissa Slotkin(密西根州民主黨籍)提出了一項具有里程碑意義的立法提案,旨在對五角大廈(Pentagon)使用人工智慧施加嚴格且不可談判的法律限制。此倡議緊隨美國國防部(Department of Defense,DoD)與 AI 開發商 Anthropic 之間一場備受矚目的對峙而來,揭示了關於如何在軍事和情報行動中部署強大的生成式 AI(Generative AI)模型方面日益加深的衝突。
Slotkin 參議員的提案目前正定位於可能整合到即將出台的 《國防授權法》(National Defense Authorization Act,NDAA)中,旨在將有關 AI 能力和部署的特定「紅線」載入聯邦法律。隨著美國軍隊加速採用新興技術,缺乏明確的立法邊界引發了立法者、隱私倡導者和行業領袖之間的激烈辯論。
該立法的核心是三項截然不同的基本禁令。通過將這些限制編纂成典,Slotkin 參議員旨在防止國防部以可能對民主規範和全球穩定構成重大倫理、法律或生存風險的方式利用先進 AI。
擬議的「紅線」如下:
Slotkin 參議員法案背後的緊迫性與近期涉及國防部與美國領先 AI 開發商之一 Anthropic 的緊張關係直接相關。有報告指出,在部長 Pete Hegseth 的領導下,五角大廈尋求向 Anthropic 採購 AI 能力。然而,據報導該公司拒絕提供對其模型的無限制訪問,特別反對允許軍方將該技術用於自主致命打擊或國內監視的要求。
這一摩擦點凸顯了一個關鍵的脫節:國防部將 AI 視為戰略必然,通常追求最大的行動靈活性,而許多頂尖 AI 公司則越來越致力於「憲法 AI」(Constitutional AI)和安全第一的開發理念。這場對峙表明,如果沒有立法的明確性,美國政府將面臨與其所依賴的私營部門合作夥伴發生戰略疏遠的風險,而這些夥伴是維持技術優勢的關鍵。
Slotkin 參議員的立法旨在通過為所有承包商設定標準的參與規則來解決這一不確定性。通過編纂這些限制,政府將有效地為科技公司創造一個「安全港」,使它們能夠支持國防目標,而不必擔心其模型會被操縱而違反其在系統中建立的倫理約束。
為了理解該法案的影響,將限制措施與其背後的原由進行分類是有幫助的。下表提供了對擬議立法護欄的分析:
| 限制 | 主要原由 | 潛在影響 |
|---|---|---|
| 致命性自主權 | 防止未經命令的生命損失 | 致命武力強制要求「人類參與」 |
| 大規模監視 | 保護公民自由 | 限制國內數據使用/目標定位 |
| 核武器指揮 | 防止災難性系統風險 | 明確禁止 AI 進入大規模殺傷性武器決策鏈 |
儘管該提案已成為參議院軍事委員會(Senate Armed Services Committee)討論的一個熱點,但通往立法的道路仍然充滿了政治障礙。國防機構(包括目前的國防部領導層)歷來對「一刀切」的限制持謹慎態度,通常辯稱這類限制可能會將競爭優勢讓給中國(China)等同樣在軍事 AI 領域投入巨資的對手。
Slotkin 參議員主張將這些條款納入《國防授權法》(NDAA),這是資助美國軍隊的年度「必須通過」法案。支持者認為,通過將 AI 安全保障與 NDAA 掛鉤,他們可以迫使該問題進入主流國防政策辯論,使行政部門難以迴避這一對話。
然而,反對聲音依然顯著。安全機構內部的批評者認為,技術應受行政政策而非僵化的法規管轄,因為後者可能難以跟上 AI 的快速演進。相反,公民社會團體和一些溫和派立法者認為,僅靠政策是不夠的,並指出行政命令可以被後續政府推翻,而聯邦法律則為問責制提供了持久的框架。
由 Slotkin 法案引發的辯論超越了 五角大廈 與 Anthropic 的眼前關切。它觸及了 21 世紀的基本張力:快速技術採用與維護民主護欄之間的平衡。
對於 Creati.ai 的觀察者來說,這一發展是行業的一塊試金石。它標誌著科技開發正從「快速行動,打破陳規」的時代轉向一個更成熟的階段,在這個階段,倫理工程是與政府合作的前提。如果獲得通過,該立法可能會樹立全球先例,影響其他國家如何處理軍事背景下的 AI 監管。
歸根結底,Slotkin 參議員對立法的推動代表了一種認知,即 AI 不僅僅是一個工具,而是一種變革性力量。通過現在建立邊界,美國有機會在「負責任」的 AI 發展方面保持領先,確保下一代國防技術始終是人類意圖的僕人,而不是地緣政治波動的自主驅動者。該法案是否能獲得必要的兩黨支持以在立法過程中倖存下來還有待觀察,但它引發的對話無疑是至關重要的。