
隨著人工智慧軍備競賽的加速,全球運算基礎設施(Compute infrastructure)的需求已達到前所未有的水準。為了掌握其硬體命運,Meta 正式宣佈大規模擴張其自研晶片(Custom Silicon)計畫。該科技巨頭將重點放在其專有的 Meta 訓練與推論加速器(Meta Training and Inference Accelerator,簡稱 MTIA)系列,正在為超大規模業者(Hyperscalers)如何管理其資料中心工作負載樹立新基準。在 Creati.ai,我們將這一轉變視為 AI 基礎設施演進的關鍵時刻,標誌著整個產業正從完全依賴第三方供應商,轉向高度優化、垂直整合的硬體生態系統。
Meta 擴張晶片策略背後的核心目標有二:大幅降低與每日數十億次 AI 互動相關的營運成本,並使公司免受半導體市場持續供應鏈瓶頸的影響。雖然商業圖形處理器(GPUs)對於訓練大型基礎模型至關重要,但 Meta 內部開發的 AI 晶片是為了處理特定的高流量推論(Inference)任務而量身打造的,這些任務支援其推薦引擎以及快速擴張的 生成式 AI(Generative AI)應用。
Meta 的公告概述了一個極具野心的產品路線圖,計劃在縮短至 24 個月的窗口內推出四代不同的 MTIA 晶片。這種多層次的推出旨在系統性地升級 Meta 龐大資料中心網絡的運算能力,確保公司的硬體能力能隨著其軟體模型的複雜性完美擴展。
該策略高度依賴投資組合方法。透過維持一系列專業晶片,Meta 確保不同的處理需求——從輕量級內容排序演算法到計算密集型影片生成——都能得到現有最有效率的硬體支援。
| 世代 | 狀態 | 核心重點 | 部署時間線 |
|---|---|---|---|
| MTIA 300 | 生產中 | 排序與推薦 高流量原生內容 |
目前已部署 |
| MTIA 400 | 測試完成 | 密集型伺服器配置 性能等同於商業晶片 |
2026 年底 |
| MTIA 450 | 開發中 | 生成式 AI 推論 翻倍的高頻寬記憶體(HBM) |
2027 年初 |
| MTIA 500 | 開發中 | 進階生成式 AI 工作負載 最大運算輸出 |
2027 年底 |
從歷史上看,半導體產業從設計定案到大規模生產一直遵循嚴格的 12 到 24 個月的開發週期。Meta 則完全打破了這一慣例,目標是為其新 AI 晶片設定驚人的六個月發佈節奏。根據 Meta 工程領導層的說法,這種快速迭代是透過高度模組化、可重複使用的架構設計實現的。
透過標準化 MTIA 處理器的外型規格與介面,Meta 可以直接將新一代的 自研晶片 投入現有的資料中心機架系統。這種隨插即用的模組化特性消除了每次部署新晶片時進行大規模基礎設施翻修的需求,顯著降低了停機時間和資本支出。對於一個在多個地區建設吉瓦(Gigawatt)級規模資料中心的組織來說,這種營運敏捷性是一項關鍵的競爭優勢。
MTIA 計畫的擴張不僅是一項工程成就;它代表了 AI 基礎設施經濟學的根本重繪。隨著大型語言模型變得越來越複雜,運行它們的成本(即推論階段)威脅到可能超過它們產生的收入。
大多數商業 AI 加速器的設計重點都放在預訓練大型模型。雖然原始運算能力對於模型創建是必要的,但對於推論任務(如生成文本回應、渲染合成圖像或向數十億用戶提供個性化廣告推薦)來說,通常效率極低且成本高昂。Meta 採取了相反的方法,專門針對生成式 AI 推論優先優化 MTIA 450 和 MTIA 500。
透過利用其專有模型固有的特定稀疏性和矩陣運算,Meta 實現了顯著更高的每瓦效能比(Performance-per-watt)。這種客製化的全棧解決方案與開源 PyTorch 軟體框架緊密整合,使得 Meta 與重新利用的訓練晶片相比,能壓榨出領先業界的成本效率。
儘管進行了如此龐大的內部投資,Meta 並未與傳統半導體巨頭斷絕關係。該公司眼下的資料中心擴張目前需要巨大的運算能力,這促使近期與 Nvidia 和 Advanced Micro Devices (AMD) 達成了數十億美元的採購協議。
Meta 的長期策略依賴於共生的硬體生態系統。頂級商業 GPU 將繼續處理訓練 Llama 4 等下一代模型所需的強大計算任務。同時,MTIA 晶片將吸收可預測的高流量推論工作負載,這些負載隨著 Facebook、Instagram 和 WhatsApp 的用戶活動直接擴展。如果自研硬體在未來幾年能成功分擔甚至 30% 的日常推論工作負載,這將代表數十億美元的優化營運支出。這種雙軌並行的方法確保了 Meta 在避免供應商鎖定的同時,保持靈活性以利用最適合特定任務的硬體。
從 Meta 早期自研晶片實驗到目前的 MTIA 路線圖,技術上的跨越是巨大的。該公司與台積電(TSMC)緊密合作進行製造,目前部署的 MTIA 300 採用了先進的 5 奈米製程。這一代晶片具有 8x8 的處理單元網格和極高效率的 90 瓦功耗,專為現代伺服器機架的密集電力限制而設計。
隨著硬體部署向 2027 年推進,性能指標將積極擴展以滿足現代神經網絡的沈重需求。Meta 設計了顯著的世代躍進,以確保其資料中心不會面臨運算瓶頸:
由於記憶體頻寬通常是大型語言模型推論的主要瓶頸,這些硬體增強將直接轉化為更快的 Token 生成速度和更低的終端用戶延遲。此外,與標準開放運算計畫(OCP)架構的整合確保了 Meta 可以將多達 72 個加速器密集包裝到單個伺服器機架中,優化其不斷擴張的資料中心足跡內的物理空間與散熱管理。
從 Creati.ai 的觀點來看,Meta 對 MTIA 系列的積極部署是整個人工智慧產業的一個重要風向標。對於全球最大的科技集團而言,將 AI 基礎設施視為簡單的、開箱即用的 GPU 採購時代正迅速結束。透過將晶片設計直接納入內部,超大規模業者正在掌握其技術能力和財務命運的最終控制權。
如果 Meta 成功執行這項艱鉅的六個月晶片發佈節奏,並驗證其推論優先策略的經濟性,我們預計整個行業將產生巨大的連鎖反應。MTIA 計畫的成功證明,在足夠的規模和投資支持下,深度整合的特殊應用積體電路(ASICs)可以趕上甚至超過傳統半導體供應商的創新步伐。
隨著生成式 AI 繼續從實驗性研究階段過度到無處不在的日常消費應用,真正的產業戰場將是推論效率。憑藉其高度擴張的自研晶片路線圖和對資料中心優化的不懈追求,Meta 已穩牢地將自己定位在該戰場的最前沿,並在此過程中改寫了 AI 硬體開發的規則。