
在一項凸顯人工智慧(Artificial Intelligence,AI)基礎設施市場主導權爭奪戰日益激烈的重大發展中,亞馬遜(Amazon)執行長安迪·賈西(Andy Jassy)近期證實,兩家業界最著名的模型建構商 OpenAI 和 Anthropic,已簽署多年期、多吉瓦(multigigawatt)容量的承諾,將使用亞馬遜專有的 Trainium AI 晶片。此項發展對亞馬遜雲端運算服務(AWS)而言是一個關鍵時刻,因為它正試圖為 NVIDIA 主導的矽晶片市場提供一種可行的、高效能的替代方案。
在討論亞馬遜長期基礎設施策略時,賈西強調,該公司對客製化矽晶片的投資不僅是為了因應供應鏈波動的避險措施,更是他們為企業和前沿 AI 開發者提供價值主張的核心組成部分。透過將先進硬體整合至其雲端生態系統中,亞馬遜正將自身定位為一個垂直整合的強大中心,有能力支援現代大型語言模型(Large Language Models,LLMs)巨大的運算需求。
多年來,AI 硬體領域一直與 NVIDIA 的 GPU 劃上等號。然而,隨著訓練和部署基礎模型所需的能源與成本不斷飆升,大型雲端服務供應商已愈來愈轉向內部開發的專用積體電路(ASIC)。亞馬遜的 Trainium 專為深度學習訓練而設計,為需要持續性、大規模運算叢集的模型開發者提供了顯著的性價比優勢。
OpenAI 與 Anthropic 的這項舉措——這兩家公司過去皆高度依賴 NVIDIA 硬體——標誌著 AI 基礎設施市場的成熟度正在演進。企業目前正尋求多源供應策略,以降低對單一硬體的依賴並優化其營運預算。
向專有硬體的轉型涉及的不僅僅是原始處理能力。亞馬遜極為專注於軟體堆疊——特別是 Trainium 與 AWS Neuron SDK 的整合——以確保開發者能以最小的摩擦力將模型從現有環境遷移過來。
| 優勢類別 | 戰略影響 | 競爭優勢 |
|---|---|---|
| 性價比 | 降低大規模訓練任務的營運支出 | 與通用 GPU 相比具有更高的投資報酬率(ROI) |
| 供應鏈韌性 | 減少對有限第三方庫存的依賴 | 為超大規模運算提供可預測的擴展性 |
| 生態系統整合 | 與 AWS SageMaker/Bedrock 無縫相容 | 減少模型團隊的工程負擔 |
來自 OpenAI 與 Anthropic 的承諾不僅是一次戰術採購,更是一種長期的戰略結盟。透過確保「多吉瓦」容量的承諾,亞馬遜實際上將其未來的資料中心產能與全球最先進 AI 模型的特定需求掛鉤。這使亞馬遜能夠更確定地規劃其基礎設施佔地,而模型建構商則獲得了大規模確定性容量的使用權。
對於長期與 AWS 維持密切關係的 Anthropic 而言,這代表了他們技術協同效應的深化。對 OpenAI 而言,此轉變表明他們正朝向分散運算資源的方向邁進,這是必要的演進,因為他們如 GPT-5 等旗艦模型在邁入訓練階段時,需要極大規模(exascale)的運算能力。
當我們展望 AI 推廣的下一階段時,來自 安迪·賈西(Andy Jassy) 的訊息很明確:AWS 意圖成為承載最重要 AI 工作負載的首選目的地。提供端到端堆疊的能力——從底層的 Trainium 矽晶片到透過 Bedrock 提供的上層服務——建立了一個「封閉的花園」,在一個本質上波動不定的市場中提供穩定性與速度。
市場分析師認為,此轉變將迫使其他雲端供應商加速其內部的矽晶片研發。微軟(Microsoft)與 Google 已經分別透過 Maia 和 TPU 採取類似的垂直整合策略。然而,亞馬遜成功獲得外部市場領導者的承諾——而不僅僅是來自內部團隊——證明了其硬體藍圖的競爭可行性。
亞馬遜、OpenAI 與 Anthropic 之間的合作清楚標示出 AI 基礎設施 這座「黑盒子」正在被打開並重新設計。隨著這些合作夥伴關係的成熟,我們可能會看到從通用運算轉向高度專業化的硬體環境,以迎合前沿模型研究人員的特定架構需求。
對於 Creati.ai 的讀者來說,其意義深遠:AI 的「通用運算」時代正在讓位於一個更複雜、更多元化且具備硬體感知能力的生態系統。亞馬遜對 Trainium 的戰略豪賭已不再是周邊性的努力,它已成為全球 AI 供應鏈的核心支柱。隨著模型建構商要求以更低的成本獲得更強大的效能,那些在硬體與軟體協同設計中最成功的雲端供應商,將定義未來十年的 AI 發展。