
在每一毫秒都關係到客戶滿意度和運營利潤的行業中,Uber 宣佈大幅擴展其與 Amazon Web Services(AWS)的合作夥伴關係。此舉標誌著 Uber 告別了對通用硬體的傳統依賴,這家共乘巨頭正在將 Amazon 的客製化晶片 —— 特別是 Graviton CPU 和 Trainium AI 加速器 —— 整合到其核心基礎設施中。
對於 Uber 而言,這一決定不僅僅是供應商的選擇,更是一次經過深思熟慮的架構演進。隨著共乘(Ride-sharing)和外送業務規模的增長,即時派單、動態定價和路徑優化的計算需求激增。透過利用專門化的硬體,Uber 旨在優化其「行程服務區(Trip Serving Zones)」—— 即驅動其全球運營的即時引擎 —— 同時加速其先進機器學習(Machine Learning)模型的訓練週期。
長期以來,依賴標準 GPU 一直是 AI 驅動型科技公司的預設選擇。然而,與這些通用晶片相關的能耗和成本擴展挑戰,促使像 Uber 這樣的公司尋求替代方案。Amazon 在 Graviton 和 Trainium 上的策略創造了「垂直堆疊(Vertical stack)」優勢,雲端供應商藉此控制硬體架構,使其與特定的軟體需求完美契合。
Uber 的部署分為兩個不同的路徑:
這一轉變突顯了企業放棄雲端基礎設施「一體適用(One-size-fits-all)」方法的日益增長趨勢。下表說明了 Uber 預期在傳統 GPU 環境與新採用的 AWS 客製化晶片方案之間的運營差異。
| 部署面向 | 傳統 GPU 方案 | AWS 客製化晶片 (Trainium/Graviton) |
|---|---|---|
| 基礎設施目標 | 高吞吐量並行處理 | 優化的性價比 |
| 能源效率 | 通常每單位功耗較高 | 針對雲端工作負載顯著優化 |
| 訓練迭代 | 因硬體瓶頸較慢 | 透過專用晶片加速 |
| 戰略契合度 | 通用靈活性 | 為特定 AI 任務高度量身定制 |
雖然後端基礎設施的轉變對終端用戶來說是不可見的,但預計結果將直接體現在應用程式體驗中。Uber 工程團隊強調,在管理全球共乘和外送物流的複雜性時,「毫秒必爭」。
Trainium 晶片的整合專門針對增強驅動以下功能的模型:
透過降低模型訓練(Model training)的成本,Uber 有效地降低了實驗門檻。該公司的數據科學家現在可以運行以前因成本過高而無法實現的更複雜模擬和訓練循環,從而在預測分析領域培養出一種快速創新的文化。
Uber 與 AWS 的深度整合是廣泛雲端運算(Cloud computing)格局的風向標。此舉標誌著對 Amazon 在專有晶片領域數十億美元投資的認可。隨著 Amazon、Google 和 Microsoft 等超大規模業者在企業 AI 主導地位的競爭日益激烈,提供「全棧(Full-stack)」解決方案 —— 軟體、雲端服務和客製化硬體 —— 已成為最終的競爭差異化因素。
對於 Oracle 和 Google 等競爭對手而言,Uber 的決定凸顯了大型企業對多雲策略看法的轉變。雖然企業過去一直維持多樣化的多雲配置以防止供應商鎖定(Vendor lock-in),但專用晶片卓越的經濟效益和效能可能會使天平重新向整合傾斜。如果 AWS 能夠繼續為 Uber 的大規模、高吞吐量應用程式提供這些效能提升,其他全球科技公司可能會感到必須效仿,這在未來幾年可能會重塑雲端服務供應商的市場份額。
Uber 向 Amazon AI 生態系統的擴張清楚地預示了企業技術的未來。隨著 AI 成為大型公司運營基石的一部分,軟體策略與硬體策略之間的界限將繼續模糊。透過押注於 Trainium 和 Graviton,Uber 不僅是在為今天的行程進行優化,還是在為 AI 驅動決策成為主要增長引擎的時代準備其基礎設施。隨著公司繼續精進其機器學習能力,這種與 AWS 的戰略結盟可能會成為現代大規模企業在 AI 時代應對成本、效能和創新挑戰的標竿。