
OpenAI 宣布撥款 750 萬美元(約 560 萬英鎊)給對齊專案(The Alignment Project),此舉是加強人工智慧開發安全護欄的重大行動。此項由英國 AI 安全局(AI Security Institute, UK AISI)領頭的倡議,代表了推進獨立 AI 對齊(AI alignment)研究的一項重大協作努力——這是一門確保日益強大的 AI 系統保持可控並符合人類意圖的關鍵科學。
該項於 2026 年 2 月 19 日確認的資助承諾,是 對齊專案 更廣泛擴張計劃的一部分,該專案目前的總資金池已超過 2,700 萬英鎊。此次擴張得到了包括 Microsoft 在內的其他行業巨頭的支持,並被定位為英國領先全球 AI 安全 治理戰略的基石。此公告發布之際,正值印度 AI 影響力峰會(AI Impact Summit)圓滿結束,凸顯了國際社會對安全研究緊急性的共識。
透過將資金導向獨立研究人員而非內部企業實驗室,OpenAI 承認了行業安全方法的一個關鍵轉變:即通用人工智慧(Artificial General Intelligence, AGI)對齊的挑戰過於複雜且後果重大,無法由孤立運作的科技公司獨自解決。
對齊專案旨在成為全球安全創新的引擎。與專注於特定產品路線圖的內部企業研究部門不同,此倡議針對的是如何使先進認知系統與人類價值觀保持一致的更廣泛、更根本的問題。該專案由隸屬於科學、創新及技術部(Department for Science, Innovation and Technology, DSIT)的英國 AI 安全局管理。
該專案的核心使命是資助和支持「藍天」思維("blue-sky" thinking)以及嚴謹的技術研究,這些研究在商業壓力下可能會被忽視。隨著 AI 模型能力的規模化,誤差空間正在縮小。對齊專案尋求開發強大的方法論來預測、控制和引導這些系統,確保它們即使在特定領域超越人類水平的表現時,依然對人類有益。
這筆資金將支持多個學科領域,反映出對齊問題的多面性。研究範圍不限於電腦科學,還擴展到:
這種跨學科的方法確保了安全解決方案不僅在技術上強大,而且在社會和經濟上也具備穩健性。第一輪資助已授予 8 個國家的 60 個項目,第二輪資助計劃於 2026 年夏季開放。個人資助金額從 5 萬英鎊到 100 萬英鎊不等,為學術團隊和非營利研究人員提供了大量資源。
對齊專案的資本化證明了公共部門、私營行業和慈善組織之間日益增長的合作。雖然英國政府奠定了基礎,但來自 OpenAI 和 Microsoft 的私營資本湧入顯著擴大了該專案的影響力。
下表詳細列出了支持此倡議的關鍵利益相關者和聯盟結構:
聯盟夥伴與貢獻
---|---|----
實體|角色/貢獻|類型
OpenAI|承諾 750 萬美元(5.6 億英鎊)|私營企業
Microsoft|未披露的資金支持與算力資源|私營企業
英國政府 (DSIT)|創始夥伴與行政監督|公共部門
Schmidt Sciences|慈善支持|非營利組織
Amazon Web Services (AWS)|算力基礎設施支持|私營企業
Anthropic|戰略合作夥伴關係與資源支持|私營企業
CIFAR|研究協作(加拿大)|研究機構
澳洲政府|政策與研究對齊|公共部門
直接競爭對手(如 OpenAI、Anthropic 和透過研究人員代表參加顧問委員會的 Google DeepMind)的參與,表明 AI 安全越來越被視為一個競爭前的領域,合作對於集體生存和進步至關重要。
這份公告中最引人注目的方面之一是對「獨立」研究的強調。像 OpenAI 和 Google DeepMind 這樣的前沿實驗室(Frontier labs)擁有世界上最強大的超級電腦和專有模型。然而,它們也面臨著與其特定架構選擇相關的內在利益衝突和「群體思維」(groupthink)風險。
OpenAI 研究副總裁 Mia Glaese 清晰地闡述了這一必要性。她指出,雖然前沿實驗室具備進行需要大量算力和接觸最尖端模型的研究的獨特優勢,但對齊領域最困難的問題無法由任何單一組織解決。
「我們需要獨立團隊來測試不同的假設和方法,」Glaese 表示。「我們對 英國 AI 安全局 對齊專案的支持補充了我們內部的對齊工作,並有助於加強一個更廣泛的研究生態系統,致力於在先進系統部署於更開放的環境時,保持其可靠性和可控性。」
這種去中心化安全研究的策略具備幾個關鍵功能:
選擇英國 AI 安全局作為該基金的管理機構,鞏固了英國作為全球 AI 治理樞紐的地位。自從在布萊切利公園(Bletchley Park)舉辦首屆 AI 安全峰會以來,英國一直積極定位自己為國際 AI 安全標準的仲介者。
英國副首相大衛·拉米(David Lammy)強調,雖然 AI 提供了巨大的經濟機遇,但只有從一開始就將安全「內建」(baked in)其中,這些利益才能實現。「我們已經建立了強大的安全基礎,這使我們能夠開始實現這項技術的益處,」拉米說。「OpenAI 和 Microsoft 的支持對於繼續推進這項努力將是無價的。」
英國 AI 部長卡尼什卡·納拉揚(Kanishka Narayan)也表達了同樣的觀點,認為信任是廣泛採用 AI 的主要障礙。透過將資源投入對齊研究,政府旨在創建一個認證和安全驗證生態系統,使公共部門能夠充滿信心地部署 AI。
英國的獨特地位因其學術密度而進一步加強。作為世界前十名大學中四所的所在地,英國為對齊研究所需的深入理論工作提供了肥沃的土壤。對齊專案擁有的世界級專家顧問委員會(包括 Yoshua Bengio 和 Zico Kolter 等知名人士)確保了資金被導向最具前景和科學嚴謹性的提案。
OpenAI 投入 750 萬美元不僅僅是一次慈善義舉;這是對 AI 生態系統穩定性的戰略投資。隨著模型從文本生成轉向代理行為(代表用戶在現實世界中行動),對齊錯誤的代價將呈指數級增長。
OpenAI 主張「迭代部署」(iterative deployment),這是一種逐漸發布功能的理念,以便對安全措施進行現實世界的測試。然而,這種方法高度依賴於一個反饋迴圈,安全研究人員可以從中快速識別並修補漏洞。對齊專案擴大了監視這些系統的人員數量。
如果由該專案資助的獨立生態系統取得成功,我們可能會看到類似於航空或製藥行業的「安全制衡」機制。配備了透過這些資助開發的方法論的第三方審計機構,最終可能在模型向公眾發布之前對其進行認證。
資助範圍中包含經濟理論和社會科學,表明對 AI 風險的理解正在趨於成熟。這不再僅僅是防止系統「崩潰」或輸出有毒文本;而是防止市場或民主進程發生系統性的不穩定。
隨著第二輪資助於今年夏天開放,業界將密切關注哪些具體項目會獲得青睞。對齊專案的成功可能成為未來國際合作的藍圖,潛在引領建立一個「AI 安全界的歐洲核子研究組織」(CERN for AI Safety),匯集資源解決超級智慧帶來的生存挑戰。
目前,OpenAI 和 Microsoft 的承諾發出了一個信號,即科技行業接受了一個基本事實:在建構 AGI 的競賽中,安全是每個人都必須共同跨越終點線的唯一賽道。