
在一個由生成式 AI(Generative AI)持續擴張所定義的時代,科技巨頭面臨的瓶頸不再僅僅是軟體實力,而是硬體的原始物理能力。近期有報導指出,Google 正與 Marvell Technology 進行深入洽談,計畫共同開發客製化 AI 晶片。此舉標誌著 Google 在優化數據中心基礎設施方面的內部努力顯著升級,特別是針對大型語言模型(LLM)推理所需的高能耗需求。
對於關注晶片戰爭的人士來說,像 Google(已經擁有目前公認最成熟的 AI 晶片生態系統,即 Tensor Processing Unit,簡稱 TPU)這樣的超大規模雲端運算商,與像 Marvell 這樣的晶片設計專家之間的合作意義重大。透過與 Marvell 合作,Google 希望加速開發次世代硬體,以管理日益複雜的 AI 任務,同時降低總體擁有成本。
此合作的核心在於兩項截然不同但互補的晶片計畫。首先是開發專為現代 AI 工作負載嚴苛需求量身打造的次世代 TPU;其次是創建一種專門的記憶體處理單元(Memory Processing Unit, MPU)。
對「推理」的關注至關重要。雖然訓練 AI 模型需要龐大的平行處理能力,但推理——即模型為用戶提供回應的過程——才是決定 AI 服務日常營運成本的關鍵。隨著數十億次的查詢湧入 Google 搜尋和其他平台,在推理上花費的每一微秒效率,都會成為巨大的財務槓桿。
| 計畫類型 | 主要關注領域 | 預期影響 |
|---|---|---|
| 次世代 TPU | 核心運算 | 提升模型執行時每瓦的 FLOPS |
| 記憶體處理單元 | 數據吞吐量 | 降低高頻寬任務的延遲 |
| 優化策略 | 軟硬體整合 | 降低大規模運行的營運支出 |
Marvell 已在客製化矽晶片設計領域確立了產業領導地位,特別是在以基礎設施為重點的應用方面。透過專注於高速連接和儲存控制器晶片,Marvell 提供了能與 Google 內部 TPU 團隊互補的架構專業知識。
Google 的策略似乎是雙管齊下:利用內部的 TPU 處理核心重任,同時將特定組件外包給 Marvell,以受益於其專業的 IP 庫和經過驗證的設計效率。這種「混合」模式使 Google 既能保持其專有架構帶來的競爭優勢,又能比單打獨鬥更快地進行硬體迭代。
正如我們在 Creati.ai 所觀察到的,產業正在擺脫通用 GPU 範式,轉向高度專業化、針對特定領域的矽晶片。這種轉變由三個主要因素驅動:
潛在的 Google 與 Marvell 合作所產生的漣漪效應,將在整個半導體產業中感受到。目前主導企業級 AI 晶片市場的 NVIDIA 等公司,隨著超大規模雲端運算商在設計自家晶片方面變得更加熟練,可能會面臨持續的壓力。
對於更廣泛的 AI 生態系統而言,這意味著能以更便宜、更快速且更有效率的方式存取推理能力。如果這些新晶片的開發成功,將使 Google 能夠將更複雜的 AI 整合到其從搜尋到 Workspace 的各類產品中,而無需承擔目前阻礙企業級 AI 部署的高額電力成本。
隨著 Google 繼續完善其發展路線圖,Marvell 的專業技術整合將是我們持續密切關注的發展動向。掌握 AI 推理硬體的競賽,本質上就是掌握未來網際網路經濟的競賽,而這項談判顯示 Google 無意讓出任何領地。