
美國國防部(Department of Defense,簡稱 DoD)已啟動一項明確計劃,預計在六個月內完成從 Anthropic 的 Claude AI 模型過渡至其他平台的程序。在此策略性轉向之前,五角大廈正式將 Anthropic 指定為「安全風險」,此舉在國防與科技領域引發了連鎖反應。隨著軍方機構將操作可靠性與任務保證列為首要任務,政府正加速部署替代的大型語言模型(Large Language Models),其中最受矚目是以 OpenAI 以及 Google 的 Gemini 所提供的模型。
儘管五角大廈的首席技術官對此過渡方案的可行性保持信心,但該指令在內部遭到了顯著阻力。習慣於 Claude 直觀介面的軍事人員發出警示,擔心在風險高且時間敏感的環境中,導入新平台可能會帶來整合挑戰、工作流程中斷以及陡峭的學習曲線。
國防部與 Anthropic 之間衝突的核心在於這家 AI 公司嚴格的倫理護欄。五角大廈的法律與技術團隊主張,這些 Anthropic 稱為「紅線(red lines)」的內部限制,對 國家安全(national security) 構成了不可接受的風險。具體而言,國防部擔心在戰鬥情境下,如果 Anthropic 的程式檢測到軍事行動超出了其關於監視或致命目標打擊的倫理界限,可能會觸發「自毀開關(kill switch)」或預先更改 AI 的行為。
政府堅持認為,不能允許私人企業在執行軍事行動期間擁有覆蓋或更改軟體行為的能力。國防部官員表示,這種「雙重控制」動態與國防所需的絕對可靠性不相容,導致該公司被視為安全隱患而非策略合作夥伴。
| 功能領域 | Anthropic 的「紅線」方法 | 五角大廈(Pentagon)/國防部策略需求 |
|---|---|---|
| 操作自主權 | 透過硬編碼限制,防止 AI 被用於大規模監視或致命武器目標定位。 | 要求完全的控制權與可靠性;禁止在戰地出現「自毀開關」或未經授權的模型變更。 |
| 模型行為 | 優先考慮倫理一致性與安全性,限制違反內部道德框架的使用案例。 | 優先考慮任務保證以及一致、可預測的性能,不受外部企業干預。 |
| 契約預期 | 主張若違反倫理門檻,企業責任高於軍事契約。 | 將限制政策視為策略隱患及對操作協議不可接受的違約。 |
| 系統可靠性 | 使用護欄來降低誤用風險,但國防部將其視為潛在脆弱性。 | 將這些護欄視為可能危及實際作戰行動的「預先更改」風險。 |
為了填補即將逐步淘汰 Claude 所留下的空白,國防部已加速與其他主要 AI 開發商簽署合約。OpenAI 與 Google 均已採取行動,使其產品符合五角大廈的要求。特別是 Google,一直在強化與國防部的關係,其高層強調 AI 在軍事背景下的潛在益處遠大於風險。
Google 的做法是將其 AI 代理與戰鬥導向的工具區分開來。Google DeepMind 的領導層澄清,他們目前的部署主要集中在行政、情報和分析支援,而非直接參與動能軍事行動(kinetic military operations)或目標獲取。這種定位使該公司既能滿足五角大廈對強大且可靠 AI 的需求,又試圖與國防技術中更具爭議性的部分保持距離。
然而,產業專家對於這次轉型是否能無縫銜接持有分歧意見。遷移到新的模型架構不僅僅是軟體更新;它涉及遷移複雜的數據集、重新培訓員工,並確保安全協議得到重新驗證。
五角大廈設定的六個月期限被許多人認為極具野心。軍事使用者特別擔心在遷移過程中可能會出現數據完整性受損和生產力下降的問題。
分析師指出關鍵挑戰包括:
Anthropic 對國防部提起的訴訟仍然是一個重大障礙。雖然政府駁回了關於憲法越權和侵犯言論自由的指控,但此案很可能為 AI 公司如何與國家互動建立長期先例。如果五角大廈勝訴,將確立一項原則:進入政府合約的 AI 供應商必須準備好放棄對其模型倫理參數的控制,以服從國家安全要務。
相反地,如果 Anthropic 的法律挑戰獲得支持,它可能會保護科技公司在執行高價值政府合約時維持道德底線的能力。就目前情況而言,五角大廈的舉動清楚地提醒人們,AI 開發的開放、全球性質與國防領域封閉、安全的運作需求之間,緊張關係正日益加劇。
隨著六個月的期限進入倒數,國防部正押注於依賴更「一致」的合作夥伴將能產生更穩定且有效的 AI 生態系統。這場賭局是否會成功,抑或是會引入新的、不可預見的脆弱性,仍是人工智慧時代美國國防態勢未來的關鍵問題。