
私營技術創新與國防之間的交集再次達到沸點。近期報告顯示,Google 已獲得一份與五角大廈簽訂的機密合約,允許國防部(DoD)利用該公司的先進人工智能(AI)模型進行高級別作戰。這一進展是在經歷了多年對軍事參與的立場搖擺後發生的,引發了這家總部位於山景城的科技巨頭內部的激烈辯論,呼應了過去定義該公司與國防項目之間動盪歷史的緊張局勢。
在 Creati.ai,我們一直密切追蹤大型語言模型(Large Language Models)和機器學習系統在公共部門框架中的快速整合。雖然國防安全在提升效率方面具有巨大潛力,但在機密軍事環境中部署專有情報模型所帶來的倫理影響,對於行業專家和廣大員工而言,仍然是一個關鍵的爭議點。
要理解當前這筆交易的份量,必須回顧 Google 參與國防領域的歷史背景。該時間軸上最顯著的里程碑是 2018 年的「Maven 項目」(Project Maven),這是一項涉及利用 AI 分析無人機影像的倡議。當時的反彈聲浪巨大,數千名員工簽署請願書並辭職抗議,最終促使 Google 發布了一套「AI 原則」,聲明不將其技術用於違反國際準則的武器和監控。
然而,生成式 AI(Generative AI)的快速發展已經改變了目標。當前的機密合作夥伴關係標誌著 Google 在面對激烈的全球競爭時,重新調整了其「不作惡」(Do No Evil)的準則,特別是在美國尋求在不斷發展的數位格局中保持技術優勢的情況下。
最新報告顯示,超過 600 名 Google 員工已正式表達了對該合約的異議。他們的擔憂集中在缺乏透明度、模型使用方式可能出現「任務蔓延」(mission creep),以及讓他們的勞動成果即使間接助長防禦或攻擊性軍事結果所帶來的道德風險。
為了直觀展現組織衝突的規模,我們總結了科技生態系統中圍繞這一合作關係的主要觀點:
| 利益相關者視角 | 關鍵擔憂 | 戰略理由 |
|---|---|---|
| Google 管理層 | 保持技術領先地位 | 在全局國防範式中保持相關性 |
| 內部員工 | 倫理透明度與問責制 | 拒絕將 AI 應用於戰爭行為 |
| 五角大廈 | 運營效率與數據處理 | 利用頂級大型語言模型進行國家安全情報工作 |
| 全球 AI 社群 | AI 治理標準化 | 避免非受監管的軍事 AI快速擴散 |
向五角大廈提供對其尖端 AI 模型的機密訪問權,引發了關於 AI 治理(AI Governance)的深刻問題。當企業掌握著世界上最強大算法的鑰匙時,私營研究與國家資助部署之間的界限變得越來越模糊。
這種情況突顯了現代科技政策中一個反覆出現的主題:當算法離開研究實驗室後,誰擁有最終的控制權?如果 Google 的模型被用於五角大廈以機密性為由掩蓋的場景中,那麼作為負責任 AI 開發基石的獨立審計實際上將變得不可能。這種監管的缺失,對於倡導安全、倫理且透明開展人工智能開發的組織來說,是一個重大的障礙。
所涉及的技術能力代表了遠超簡單圖像識別的巨大飛躍。現代 AI 模型現在具備了綜合、預測建模和快速推理的能力。當這些能力交到軍事規劃者手中時,它們提供了前所未有的決策速度。
然而,風險同樣巨大:
隨著局勢的發展,Google 發現自己正走在一條危險的邊緣。公司必須在追求高價值的政府級合約與重視社會責任的員工文化期望之間取得平衡。對於更廣泛的行業而言,這份合約是 AI 不可避免走向成熟的一個案例研究,其中「開放」研究的日子正日益被國防的功利需求所掩蓋。
展望未來,我們預計將看到:
與五角大廈的交易不僅僅是一筆商業交易;它是一個訊號,標誌著私營部門 AI 中立時代的實際終結。在 Creati.ai,我們將繼續密切審視這些合作關係的發展,以及行業是否能建立一個既尊重國家主權,又堅守保證公共利益創新之倫理邊界的框架。