
這是一次決定性的轉變,標誌著矽谷最具影響力的 AI 實驗室之一開啟了新篇章。Google DeepMind 已發出明確信號,告別以往不願參與國防相關計畫的態度。在最近的一次內部全體員工大會(town hall meeting)上,領導層證實該組織正積極「進一步傾向」與美國國防部(Department of Defense)的合作,並將此協作定性為全球穩定的戰略必要條件。
此舉代表了公司姿態的重大演變。在「Maven 計畫」(Project Maven)引發內部動盪的數年後——那是 2018 年的一項合約,引發了廣泛的員工抗議,並導致公司暫時退出軍用級 AI 專案——Google 正發出信號,表示不再認為國防合作與其倫理框架有本質上的衝突。
這項政策更新的核心是由 Google DeepMind 高層提供的關鍵洞察。在大會期間,全球事務副總裁 Tom Lue 和執行長德米斯·哈薩比斯(Demis Hassabis)回應了員工的疑慮,強調公司目前與五角大廈(Pentagon)的接觸既是慎重的也是必要的。
德米斯·哈薩比斯 (Demis Hassabis) 闡述了一個清晰的願景,表示他對 Google 目前取得的平衡感到「非常自在」。他辯稱,作為世界級的技術領導者,我們「有責任與民主選舉產生的政府合作」,將獨特的 AI 能力應用於能為全球安全做出貢獻的地方。
Tom Lue 藉由澄清公司的監督性質來強化這一訊息。他指出,Google 已建立一套「穩健的流程」來評估使用案例,確保所有軍事相關工作均符合更新後的 AI 原則——這些政策在 2025 年進行了修訂,刪除了先前關於武器相關 AI 開發更具限制性的承諾。根據 Lue 的說法,這些新參與項目的指導原則是成本效益分析,其中技術的正面影響必須「實質上超過風險」。
科技產業與戰爭及國家安全的關係正在經歷快速的重新調整。隨著地緣政治緊張局勢升溫,「科技維護和平」與「科技用於國防」之間的二分法正變得日益模糊。先前試圖與軍事合約(military contracts)保持距離的公司,正發現國家安全的重要性已變得至關重要,無法忽視。
以下表格總結了目前在主要 AI 產業參與者中觀察到的不同做法:
| 公司 | 對國防合約的立場 | 目前重點領域 |
|---|---|---|
| 積極擴張 | 非機密網路優化 文書任務自動化 戰略國家安全支援 |
|
| Anthropic | 歷來謹慎 | 強調嚴格的「紅線」 專注於安全協定 應對監管黑名單風險 |
| Amazon/Oracle | 積極追求 | 雲端基礎設施整合 大規模數據管理 國防部的營運物流 |
這種轉變使 Google 與 Amazon 和 Oracle 等雲端供應商展開直接競爭,這些供應商一直以來都在提供支援美國國防運作的數位基礎設施。藉由重新與五角大廈接觸, Google 不僅確保了業務,還將其生成式 AI(Generative AI)模型定位為國家安全行動中不可或缺的工具。
Lue 和 Hassabis 引導的討論中,一個反覆出現的主題是防禦性基礎設施與進攻性武器之間的區別。Google 目前的合約範圍專注於非致命、行政和組織支援。
具體而言,目前的專案涉及在國防部的非機密網路中部署 AI 代理(AI agents)。這些代理負責處理大量、低風險的行政工作流,例如:
透過劃定一條堅定的底線——強調這些工具不適用於目標識別或動力打擊能力——Google 旨在安撫內部工程師和研究人員的擔憂,他們擔心自己的工作會對自主戰爭做出貢獻。
對 Google 以及更廣泛的 AI 產業而言,挑戰在於隨著國防 AI 需求的擴大規模,如何維持這套倫理監督的「穩健流程」。全球安全環境瞬息萬變,大型科技公司支持國家安全利益的壓力不太可能消退。
隨著公司向前邁進,首要重點將是透明度。藉由將其參與定位於致力於幫助政府解決複雜問題——而非參與直接的戰爭機制——Google 正試圖在倫理責任與地緣政治義務之間的細微界線中尋求平衡。
這種「進一步傾向」的做法是否能獲得長期的內部共識仍有待觀察。然而,高層傳遞的訊息很明確:矽谷在國家安全領域袖手旁觀的時代已經有效結束。Google DeepMind 已設定好航向,將其作為民主機構戰略合作夥伴的角色放在首位,同時試圖維持定義其品牌的安全標準。