
在人工智慧(Artificial Intelligence,簡稱 AI)與國家安全交織且快速演變的局勢下,OpenAI 正式披露了其與國防部(Department of Defense,簡稱 DoD)具爭議性新合作夥伴關係的參數。此項披露是在一個動盪的週末之後發布的,當時競爭對手 Anthropic 被聯邦當局標記為「供應鏈風險」,進而促使其 Claude 聊天機器人躍升至 App Store 榜首。
針對這一騷動,OpenAI 執行長(CEO)Sam Altman 承認協議的執行「絕對是倉促的」,這一坦誠的表態凸顯了推動當前 AI 軍備競賽的巨大壓力。雖然該協議確保了 OpenAI 在美國國防基礎設施中的關鍵地位,但它也引發了用戶情緒的重大調整,對武器化 AI 的倫理界限提出了關鍵質疑。
在週日晚間發布的一篇部落格文章中,OpenAI 概述了其機密部署協議的具體條款。該公司強調,雖然正在加深與五角大廈(Pentagon)的聯繫,但已成功談判出旨在防止反烏托邦後果的「不可逾越」護欄。
根據披露內容,該協議執行了國防部在契約上同意尊重的三大主要「紅線」:
「DoD 同意這些原則,並在法律和政策中反映了這些原則,我們也將其寫入了我們的協議中,」Altman 表示,試圖安撫持懷疑態度的公眾。這筆價值據報為 2 億美元的交易,重點在於機密雲端環境內的物流、網路安全(Cybersecurity)和數據分析,而非直接戰鬥應用。
這項公告發布的時機與其內容一樣受到了密切關注。Sam Altman 承認該協議「絕對是倉促的」,這表明 OpenAI 迅速行動是為了填補 Anthropic 拒絕接受五角大廈條款後留下的真空。
產業分析師認為,OpenAI 的速度是一項戰略舉措,旨在其他競爭對手介入之前鞏固其作為主要政府合作夥伴的地位。然而,這種匆忙在公共關係方面似乎適得其反。缺乏先發制人的溝通策略導致「武器化 GPT」的謠言在未經查證的情況下流傳,助長了 OpenAI 為了國防合約而放棄其安全第一初衷的說法。
在 OpenAI 應對負面影響的同時,競爭對手 Anthropic 已成為公眾輿論中意想不到的獲勝者。衝突始於 Anthropic 拒絕授予五角大廈對其「Opus 4.6」模型的無限制訪問權,理由是「基於良知」無法允許移除有關自主武器的安全檢查。
川普(Trump)政府隨後將 Anthropic 指定為「供應鏈風險」並禁止聯邦系統使用其軟體的舉動,本意是為了懲罰該公司。相反地,這卻激發了消費市場。用戶將 Anthropic 的立場視為對人類安全的原則性捍衛,紛紛湧向該平台。
截至週一早上,Anthropic 的 Claude 已超越 ChatGPT 成為 Apple App Store 排名第一的免費應用程式——這對該競爭平台來說是史無前例的第一次。這波熱潮更因一封由 Google 和 OpenAI 員工共同簽署的公開信而進一步升溫,信中表達了對 Anthropic 優先考慮倫理紅線而非政府合約之決定的支持。
OpenAI 和 Anthropic 截然不同的路徑說明了 AI 公司在參與國防領域時面臨的複雜權衡。下表概述了兩者目前在國防部立場上的主要差異。
表:OpenAI 與 Anthropic 國防立場比較
| 特性 | OpenAI | Anthropic |
|---|---|---|
| 合約狀態 | 現有機密協議(2 億美元) | 談判失敗 / 聯邦禁令 |
| 主要「紅線」 | 契約禁止自主武器與監控 | 拒絕移除安全覆蓋機制 |
| 政府指定 | 信任合作夥伴 | 供應鏈風險 |
| 市場反應 | 公眾抵制;「DeleteChatGPT」趨勢 | 躍升至 App Store 第一名 |
| 部署範圍 | 僅限雲端;物流與網路防禦 | 無(僅限商業用途) |
過去一週的事件標誌著通用人工智慧(Artificial General Intelligence,簡稱 AGI)級別系統商業化的轉折點。OpenAI 的策略建立在這樣一個信念之上:透過將其安全原則嵌入具有約束力的合約中,它可以從「內部」最好地影響軍事 AI 政策。Altman 主張,透過與國防部合作,OpenAI 可以確保最強大的模型被負責任地使用。
相反地,Anthropic 將其未來押在「某些界限不應被逾越」的想法上,即使是以損失豐厚的政府收入為代價。市場對 Claude 的熱烈反應表明,很大一部分用戶群體重視這種倫理絕對主義。
隨著局勢塵埃落定,該產業留下了兩種截然不同的 AI 治理模式:帶有妥協的參與,或是原則性的孤立。隨著 OpenAI 現已深度嵌入五角大廈的基礎設施,其「紅線」的有效性將受到即時測試。與此同時,Anthropic 新獲得的市場主導地位證明,在 AI 時代,倫理確實可以成為強大的產品差異化因素。