
在一項凸顯人工智慧(Artificial Intelligence)基礎設施快速變化格局的里程碑式舉措中,Meta 與 Amazon 達成了一項重大合作,以確保能獲取數百萬顆後者專有的 AI CPU。這項交易標誌著業界從幾乎完全依賴高階 GPU(特別是 Nvidia 設計的那些)轉向的一個關鍵分水嶺,並顯示出為特定 AI 任務實現計算資源多元化的強烈承諾。
多年來,開發最強大大型語言模型(Large Language Models,簡稱 LLMs)的競賽,一直是追求 H100 和 Blackwell GPU 的代名詞。然而,隨著 AI 開發邁向「代理式 AI(Agentic AI)」——即具備獨立推理、多步驟問題解決和自主執行能力的系統——其計算需求正變得更加細膩。Meta 決定利用 Amazon 自研晶片的做法顯示,AI 基礎設施的未來不會是「一體適用」的。
推動這項協議的主要動力,在於 CPU 在處理特定「代理工作負載」時所具備的獨特效率。雖然 GPU 是用於大規模平行處理任務(例如初始模型訓練)的推手,但代理工作流程通常需要高頻率、複雜的決策以及在記憶體與邏輯閘之間頻繁切換。
透過整合 Amazon 的專業 CPU,Meta 旨在優化其 AI 代理的運營成本與延遲。下表突顯了與標準 GPU 策略相比,計算角色在策略上的差異。
| 計算類型 | 主要優勢 | 目標 AI 應用 | 策略優勢 |
|---|---|---|---|
| GPU 叢集 | 平行矩陣運算 | 基礎模型預訓練 | 原始計算吞吐量 |
| Amazon AI CPU | 任務編排 | 代理工作流程 | 能源效率與低延遲 |
| 混合系統 | 混合精度邏輯 | 應用推理 | 優化單位推理成本 |
除了原始效能外,此舉顯然是為了供應鏈韌性所做的佈局。隨著對 AI 計算的需求持續超過生產能力,像 Meta 這樣的公司正透過多元化其晶片組合,以減少對單一硬體生態系統的依賴。
在 Creati.ai,我們觀察到 AI 產業的焦點已從單純的文本生成,轉向自主行動代理的開發。與靜態模型不同,代理式 AI 必須與內部和外部 API 互動、解析即時數據,並在長期運行的會話中管理狀態。
這種轉變帶來了一個特定的瓶頸:I/O 密集型操作(I/O bound operations)。傳統 GPU 架構在這些場景中往往會受限,因為其架構是針對連續張量運算而優化,而非代理所需的間歇性分支邏輯。Amazon 自研的 AI 晶片提供了更平衡的架構來填補這些差距,使 Meta 能夠擴展其代理部署,而無需面臨僅在高效能 GPU 上運行這些任務時所見的成本擴展問題。
此合作夥伴關係有力地驗證了 Amazon 在自研晶片設計上的長期投資。透過鎖定數百萬顆此類晶片,Meta 實際上將 Amazon 的基礎設施定位為全球 AI 體系中的一等公民。這項交易帶來了幾個關鍵啟示:
展望今年剩餘時間,「僅限 GPU」的敘事可能會持續消退。我們預計將會出現一波類似的公告,科技巨頭們會將專業加速器與客製化 CPU 架構配對,以構建複雜的多模態系統。
對於 Meta 而言,這代表著對其代理式 AI 路線圖的一次審慎博弈。透過鎖定這部分供應,該公司不僅保障了其即時的計算需求,還為大型語言模型如何大規模部署設定了新的基準。高效運行代理的能力不再僅是一項功能,它是構建下一代 AI 服務的核心基礎。
作為這一快速發展領域的利害關係人,我們 Creati.ai 將持續監控這些由 Amazon 驅動的代理部署的效能指標。從這次合作中收集的數據,將提供關鍵見解,說明專業 CPU 是否真的能在企業 AI 領域中取代更廣泛的 GPU 主導地位。就目前而言,市場情緒對這種多元化策略仍持樂觀態度,並視其為在追求更自主與智慧化機器過程中,一個務實且必要的演進。