
OpenAI 已正式修改其與美國國防部(Department of Defense, DoD)的合約協議,引入了明確的禁令,禁止將其人工智能模型(AI models)用於大規模國內監視(mass domestic surveillance)以及開發全自動致命武器(lethal weaponry)。此舉由執行長 Sam Altman 於週二確認,背景是公眾對於生成式 AI(Generative AI)在國家安全領域中倫理部署的審查與內部辯論日益激烈。
這一戰略轉向標誌著這家總部位於舊金山的 AI 領導者的重要時刻,該公司一直在支持民主防禦倡議與遵守其創立時的「安全第一」原則之間尋求微妙的平衡。透過將這些限制直接編入五角大廈(Pentagon)的合約中,OpenAI 旨在平息來自隱私倡導者、公民自由團體及其自身員工的反對,同時保持與美國政府的合作關係。
合約的修訂發生在矽谷科技公司與政府實體之間緊張關係加劇的時期。當今年早些時候傳出 OpenAI 與五角大廈深化合作的消息時,引發了外界擔憂,擔心該公司強大的大型語言模型(Large Language Models, LLMs)和推理引擎可能會被重新用於對美國公民進行侵入性監控,或在戰爭中實現殺傷鏈的自動化。
批評者指出潛在的「任務蔓延(mission creep)」風險,即為物流、代碼生成或數據綜合而設計的工具,可能會在無意中為監控裝置提供動力,使其能夠在未經授權或缺乏監督的情況下處理海量的個人數據。為了回應這些擔憂,修訂後的協議現在包含了具有約束力的條款,專門排除這些高風險應用。
Sam Altman 在華盛頓特區的一個科技政策論壇上發表講話時強調,這些修訂是預防性措施。「我們相信美國在 AI 領域(包括國防領域)保持領導地位的必要性,」Altman 表示,「然而,這種領導地位必須建立在道德基礎上。我們正在修訂協議,以確保我們的工具是賦予人類決策者權力,而不是在關鍵的生死場景中取代他們,或侵犯公民的隱私權。」
協議的變更不僅僅是文字上的;它們引入了操作上的護欄,限制了 OpenAI 的 API 和企業解決方案在國防部基礎設施中的部署方式。修訂內容集中在兩個主要支柱:保護國內隱私和禁止自主致命行動。
下表詳細說明了合約語言和操作範圍的具體轉變:
Table: OpenAI-Pentagon Contract Amendment Overview
| 類別 | 原有合約範圍 | 新增明確限制 |
|---|---|---|
| 國內監視 | 允許一般的數據分析與綜合 | 嚴格禁止為了監視目的而分析大規模國內數據集 |
| 致命自主權 | 關於「軍事與戰爭」用途含糊不清 | 禁止用於控制全自動致命武器系統 |
| 人類監督 | 暗示關鍵任務需有人類參與(human-in-the-loop) | 所有動能決策或高風險決策必須經過強制性的人類授權 |
| 數據保留 | 標準企業保留政策 | 針對敏感平民數據增強了數據清除協議 |
| 第三方訪問 | 向獲批准的國防承包商開放 | 限制訪問以防止分包商繞過倫理準則 |
透過劃定這些邊界,OpenAI 試圖為國防合約訂立新的行業標準,暗示 AI 公司可以在不成為不受約束的國家權力管道的情況下,支持國家利益。
該修訂案解決了 AI 倫理領域最具爭議的問題之一:致命自主武器系統(Lethal Autonomous Weapons Systems, LAWS)的開發。雖然美國軍方一直維持著在使用武力時需要人類判斷的政策,但先進 AI 規劃和推理能力的整合引發了人們的恐懼,即軟體最終可能會超越人類的監督。
OpenAI 決定明確禁止將其技術用於自主武器,這符合「人機協同(human-in-the-loop)」原則。該原則主張,人類必須始終對部署致命武力負責。透過在合約中強制執行這一點,OpenAI 確保其模型(例如最新版本的 GPT-5 或其推理後續產品)僅嚴格用於輔助功能。這些功能包括物流規劃、網絡安全防禦、代碼分析和綜合情報報告,而非直接參與戰鬥。
這種區分對於 Creati.ai 的讀者來說至關重要。生成式 AI 在防禦方面的效用非常廣泛,遠遠超出了武器範疇。五角大廈利用這些工具來現代化遺留軟體系統、簡化官僚流程並分析開源情報。OpenAI 的修訂案保留了這些高價值、非致命的用例,同時隔離了引發公眾恐懼的「紅線」應用。
OpenAI 的舉動可能會對其他主要的國防承包商和 AI 供應商施加壓力,促使他們採取類似的透明度措施。競爭對手如 Palantir、Google DeepMind 以及新興的國防科技新創公司,在軍事參與的方法上各不相同。
多年來,Google 一直在應對內部員工的抗議,最著名的是在「Project Maven」爭議期間,這導致該公司退出了一某些無人機影片分析合約。相比之下,Palantir 則毫不避諱地接受其作為西方防禦合作夥伴的角色。OpenAI 正在嘗試開闢一條「中間道路」——既支持美國國防部,又保留獨特的倫理主權。
行業分析師認為,這一修訂實際上可能會加強 OpenAI 的長期地位。透過正面解決大規模監視問題,該公司降低了監管風險,並與更廣泛的公眾建立了信任。隨著公司繼續推出滲透到經濟各個領域的、能力日益增強的模型,這種「信任資本」至關重要。
這些新合約條款的成功實施在很大程度上取決於驗證與監督。關於 OpenAI 將如何審計五角大廈對其模型的使用,問題仍然存在。與典型的企業客戶不同,國防部在高度機密的情況下運作,這使得外部審計變得困難。
Sam Altman 指出,將成立一個聯合監督委員會,由來自 OpenAI 的獲授權技術專家和來自國防部的倫理官員組成,負責審查使用日誌並確保遵守新的禁令。這一機制旨在防止「黑盒」問題,即 AI 模型的具體應用被安全許可層級所遮蔽。
此外,這一發展突顯了私營科技公司在塑造地緣政治規範中不斷演變的角色。在缺乏規範戰爭中 AI 的全面國際條約的情況下,服務條款和商業合約正成為監管軍事 AI 擴散的法律事實(de facto laws)。
OpenAI 修訂其五角大廈合約的決定代表了 AI 行業的成熟。它承認人工智能的雙重用途性質(既能帶來巨大的利益,也能造成深遠的傷害)需要的不僅僅是模糊的倫理指南,還需要具備約束力的法律文本。
對於 AI 社群來說,這是一個關於如何應對技術與國家權力必然交集的案例研究。透過畫出反對大規模監視和自主殺戮的硬紅線,OpenAI 正試圖證明,與國防部門的合作並不必然意味著放棄公民自由原則。隨著技術的持續加速,這些「紙上護欄」的耐用性將受到考驗,但就目前而言,它們代表了對負責任創新的重大承諾。