
全球人工智慧(Artificial Intelligence,AI)發展的版圖隨著人工智慧安全與情報中心(Center for AI Safety and Intelligence,CAISI)最新評估報告的發佈,到達了一個新的轉折點。隨著產業轉向嚴格且標準化的測試,中國領先模型在這些高審查基準下的表現,為我們提供了一個深入觀察全球 AI 軍備競賽現狀的迷人視角。對於關注大型語言模型(Large Language Models,LLMs)發展軌跡的從業者和研究人員而言,近期對 DeepSeek V4 Pro 的測試,為當前中國頂尖模型與美國既有巨頭之間的實力差距,提供了一個明確的基準線。
在 Creati.ai,我們認為了解這些基準對於任何追蹤前沿 AI 模型發展的人來說都至關重要。透過擺脫主觀的炒作,轉向以政府背景為後盾的量化評估,產業可以更好地預測創新速度,以及跨區域技術融合或分歧的潛在領域。
CAISI 評估框架旨在超越傳統的學術基準(如 MMLU 或 GSM8K),因為這些基準已日益容易受到數據污染和過度優化的影響。相反地,CAISI 的方法強調整體的解決問題能力、安全協議,以及在壓力下的複雜推理能力。
CAISI 評估的關鍵支柱包括:
透過讓 DeepSeek V4 Pro 接受這些嚴格標準的檢驗,研究人員製作出了迄今為止最客觀的比較報告。雖然 DeepSeek V4 Pro 目前被公認為中國研究實驗室推出的最強模型,但結果顯示,與美國目前的產業領導者相比,仍然存在顯著的「能力差距」。
近期評估的數據揭示了當前西方前沿模型與其國際同類產品之間的明顯區別。為了將這些發現進行背景化分析,我們繪製了研究中觀察到的效能等級。
| 模型類別 | 代表性模型 | 效能等級 | 主要優勢 |
|---|---|---|---|
| 美國前沿領導者 | GPT-4o, Claude 3.5 Sonnet | 第一級 | 出色的推理與安全對齊能力 |
| 近前沿(中國) | DeepSeek V4 Pro | 第二級 | 高效能與架構優化 |
| 開放權重挑戰者 | Llama 3.1 405B | 第一點五級 | 具備模組化靈活性的穩健效能 |
正如我們在效能總結中所強調的,儘管 DeepSeek V4 Pro 在特定技術基準測試中表現出頂尖水準,但在通用推理和複雜人類意圖整合方面,它仍落後於美國的巨頭模型。
DeepSeek V4 Pro 在 CAISI 基準測試中落後於美國競爭對手,這並非對中國 AI 生態系統的否定,而是反映了美國科技巨頭在其前沿系統上投入了巨大的算力和數據資本。對中國而言,追求 AI 的自主性仍然是一項迫切任務,而 DeepSeek V4 Pro 代表了國內發展的里程碑式進步,有效地縮短了架構效率上的距離。
然而,近期評分的分歧為 AI 開發者社群帶來了幾個問題:
展望未來,基準測試的表現顯然將在國際 AI 政策中發揮至關重要的作用。隨著各國政府繼續採用 CAISI 框架(或類似標準)來決定技術出口管制和算力存取,在這些基準測試中保持競爭地位將變得與底層代碼本身同樣重要。
在 Creati.ai,我們正密切關注像 DeepSeek V4 Pro 這類模型的快速迭代週期。值得注意的是,該模型的架構創新——特別是在降低推論成本和提高參數效率方面——往往領先於美國的競爭對手。如果目標從「極致推理能力」轉向「可部署、具成本效益的 AI」,那麼競爭動態在不久的將來可能會發生顯著變化。
持續進行的基準測試傳奇證實,儘管美國在前沿 AI 領域的領先地位在這些指標下目前尚無爭議,但這種優勢正在被精簡、高效的創新團隊所縮小。全球 AI 競賽正從狂暴、無序的成長期轉向標準化效能工程的理性時代。對於利益相關者而言,密切關注這些政府基準測試,將成為過濾炒作與發現真正技術進步的主要手段。
欲了解國際 AI 實驗室對這些基準測試反應的後續發展,請持續關注 Creati.ai,我們將繼續致力於彌合複雜模型架構與現實世界應用之間的鴻溝。