
由 Creati.ai 編輯團隊撰寫
2026年3月2日
在全球人工智慧供應鏈裂痕加深的訊號中,中國 AI 實驗室 DeepSeek 正準備發佈其第四代旗艦模型 DeepSeek V4。報告指出,該模型將於 3 月初推出,恰逢中國年度「兩會」(Two Sessions)政協與人大會議。與其前代產品不同,V4 是一個原生多模態(Native Multimodal)系統,能夠生成文本、圖像和視頻,將其定位為 Google Gemini 3.0 和 OpenAI 最新產品的直接競爭對手。
然而,這項技術飛躍正被一個重大的戰略轉向所掩蓋:據報導,DeepSeek 已拒絕向美國半導體巨頭 Nvidia 和 AMD 提供發佈前的優化訪問權。相反,該實驗室已授予國內中國晶片製造商(特別是華為和 寒武紀(Cambricon))獨家早期訪問權,以針對其硬件優化模型。這一決定打破了長期以來的行業慣例,即主要模型開發商會與 Nvidia 合作以確保首發性能,這標誌著向「主權 AI(sovereign AI)」生態系統的明顯轉變。
多年來,頂級 AI 實驗室(包括 OpenAI、Anthropic 以及之前的 DeepSeek)的標準操作程序是在公開發佈前幾週,向 Nvidia 和 AMD 提供模型權重和架構細節。這個「優化窗口」允許晶片製造商更新其軟體棧(如 CUDA 和 ROCm),以確保新模型在發佈後能立即在其 GPU 上高效運行。
通過拒絕向美國公司提供此類訪問權,DeepSeek 實際上迫使在發佈時使用 Nvidia 硬件運行 V4 的用戶面臨性能滯後,同時確保模型在華為的昇騰(Ascend)910C 和寒武紀的 MLU 系列晶片上無縫運行。
排除策略的影響:
| 戰略目標 | 對國內市場的影響 | 對全球市場的影響 |
|---|---|---|
| 硬件主權 | 證明頂級 AI 模型可以在非西方矽片(如 華為昇騰(Huawei Ascend))上高效訓練和運行。 | 挑戰了 Nvidia 硬件是尖端 AI 推論先決條件的說法。 |
| 生態系統耦合 | 迫使中國企業開發者採用國產硬件,以獲得 V4 的最佳性能。 | 創造了一個「分叉」的軟體生態系統,優化不再具有普遍的可遷移性。 |
| 地緣政治信號 | 在「兩會」政治會議前夕,符合北京的「自給自足」指令。 | 向美國監管機構發出信號,表明出口管制可能會加速而非阻止中國內部的技術發展。 |
| 市場保護 | 在與 H100/H200 的基準測試和營銷中,給予華為和寒武紀「先發制人」的優勢。 | 可能會暫時降低 Nvidia GPU 在 DeepSeek V4 上的基準測試分數,影響買家情緒。 |
除了地緣政治博弈外,DeepSeek V4 還引入了實質性的架構創新,旨在維持該實驗室在極高成本效益方面的聲譽。該模型建立在龐大的 混合專家模型(Mixture-of-Experts, MoE) 架構之上,估計總參數達 1 萬億,但每個 Token 僅激活約 320 億參數。這種稀疏性使其能夠提供與 GPT-5 級別等稠密模型相媲美的性能,同時在推論時僅需一小部分計算能力。
V4 的一個關鍵區別在於引入了 「Engram」條件記憶架構。這種新穎的機制將靜態知識檢索與動態推理分離,允許模型訪問超過 100 萬個 Token 的上下文窗口,而不會產生與傳統 Transformer 注意力機制相關的二次方計算懲罰。
DeepSeek V4 的主要技術規格:
DeepSeek V4 代表了該實驗室首次涉足真正的「全能」(Omni)模型結構。之前的迭代(如 Janus 系列)將視覺理解與文本生成分離。V4 統一了這些模態,允許執行交織文本、代碼和視覺輸入的複雜推理任務。
例如,據報導該模型可以處理 視頻轉代碼生成 (video-to-code generation),用戶可以上傳 UI 交互的屏幕錄像,模型隨即生成相應的前端代碼。同樣,其視頻生成能力預計將與專門模型競爭,利用龐大的上下文窗口來維持長片段中的時間連貫性。
這種能力使 DeepSeek V4 與 Google 的 Gemini 1.5 Pro 和 Gemini 3.0 展開直接競爭,後者定義了目前長上下文多模態推理的標準。然而,DeepSeek 的開源權重方法(預計將遵循 V3 的授權模式)可能會通過將這些能力免費交到開發者手中,從而顛覆市場,削弱西方競爭對手基於 API 的商業模式。
V4 的發佈正值對 DeepSeek 訓練基礎設施的審查加劇之際。路透社和《金融時報》最近的報導引用匿名美國官員的話稱,DeepSeek 可能在受限的 Nvidia Blackwell 晶片上訓練了其模型,這些晶片可能是通過違反美國出口管制的灰色市場渠道獲得的。
在這種背景下,DeepSeek 在 V4 發佈中轉向華為具有雙重目的:
DeepSeek V4 的發佈對當前的 AI 經濟模式(通常被稱為「資本支出泡沫」(Capex Bubble))構成了微妙但危險的威脅。西方科技巨頭目前在 AI 基礎設施上投入數千億美元,其前提是相信規模定律(Scaling laws)需要計算能力和能源的指數級增長。
DeepSeek 憑藉其 V3 和 R1 模型挑戰了這一假設,這些模型的訓練成本不足 600 萬美元——僅為 OpenAI GPT-4 成本的一小部分。如果 V4 能以同樣微薄的預算交付「尖端」多模態性能,這將進一步驗證一個論點:算法效率(通過 MoE 和 Engram 架構)比蠻力計算更重要。
潛在的市場波動:
DeepSeek V4 即將發佈不僅僅是一次產品發佈;它是一個地緣政治聲明。通過將其優化路線圖與 Nvidia 和 AMD 脫鉤,DeepSeek 實際上在矽片領域劃定了一條界線。資訊很明確:中國打算構建一個自給自足的 AI 棧,從晶片層到應用層。
對於全球 AI 社群來說,V4 的發佈呈現出一個兩難境地。該模型可能的開源可用性和高性能使其對研究人員和開發者具有不可抗拒的吸引力。然而,它對非西方硬件的優化偏向可能會使社群產生分歧,創造出優化的「圍牆花園」,模型在其起源的地緣政治陣營的硬件上表現最佳。
隨著「兩會」下週在北京召開,世界關注的不僅是政治演說,還有這個承諾以有限計算和主權矽片重新定義可能性的模型的基準測試。