
根據 Bloomberg 的 Mark Gurman 發布的新報告,Apple 準備在即將舉行的 2026 年全球開發者大會(WWDC)上,執行十年來最重大的軟體轉型之一。據報導,這家科技巨頭正準備棄用其長期存在的 Core ML 框架,轉而採用名為「Core AI」的現代化繼任架構。這項針對 iOS 27、iPadOS 27 和 macOS 27 的轉變,代表了 Apple 裝置處理機器學習(Machine Learning)和人工智慧(Artificial Intelligence,AI)任務方式的根本性重新設計。
近十年來,Core ML 一直是 Apple 裝置端智慧的基石,驅動著從 Face ID 到照片分析的各種功能。然而,隨著業界湧向大型語言模型(Large Language Models,LLMs)和複雜的生成式 AI(Generative AI)代理,據報導 Core ML 的舊有基礎架構已難以跟上現代模型的計算需求。Gurman 的報告指出,Core AI 不僅僅是品牌重塑,而是一個「從底層重寫」的設計,旨在讓整合最先進的生成式模型就像導入 UI 函式庫一樣簡單。
此舉標誌著 Apple 積極奪回 AI 領域領導地位的意圖,從過去的預測能力邁向生成式、情境感知的裝置端智慧新時代。
Core ML 於 2017 年推出,是為不同時代的 機器學習(machine learning)而建構的。其主要重點在於分類、回歸和影像識別——這些定義了 2010 年代末期的「智慧」功能。雖然 Apple 每年都會更新該框架,增加對新層和量化方法的支援,但底層架構仍然根植於傳統的神經網路處理。
生成式 AI 的爆發式增長暴露了這個老化框架的局限性。開發者(Developers)長期以來一直抱怨將 PyTorch 或 TensorFlow 模型轉換為專有的 .mlmodel 格式時涉及的摩擦,這一過程通常會導致性能下降或不支援的算子。
向 Core AI 的轉型解決了目前生態系統中固有的幾個關鍵瓶頸:
Core AI 預計將引入對常見業界標準的原生支援,可能允許開發者運行更接近其原生格式的模型,而無需 Core ML 時代那種繁瑣的翻譯層。
雖然具體的技術文件尚待 WWDC 主題演講公佈,但洩露的消息指出 Core AI 專注於三大支柱:模組化、原生生成能力以及統一記憶體架構(Unified Memory Architecture,UMA)優化。
與其前身不同,Core AI 將 Transformers 和擴散模型(Diffusion models)視為一等公民。據報導,該框架包含預先優化的「基礎區塊(Foundation Blocks)」——這些構建塊允許開發者組裝 AI 管線(例如 RAG,或檢索增強生成(Retrieval-Augmented Generation)),而無需編寫底層矩陣乘法代碼。這可能會使本地 AI 開發民主化,讓獨立開發者能夠實現以前需要機器學習工程師團隊才能完成的功能。
傳聞新框架將解鎖對 Apple 神經引擎(ANE)的「直接路徑」存取。此前,作業系統為了節省電池壽命,對 ANE 的分配管理較為保守。Core AI 據稱引入了「爆發模式(Burst Mode)」推論,允許應用程式在短時間內要求峰值 NPU 性能——非常適合在 iOS 27 中即時生成影像或總結長文件。
對於 Apple 開發者社群來說,Core AI 的到來標誌著一個分水嶺時刻。添加 AI 功能的複雜性門檻預計將顯著降低。
Apple 對 Core AI 的目標是讓 import CoreAI 像 import SwiftUI 一樣成為標準。該框架預計將抽象化權杖化(Tokenization)、採樣器和情境視窗管理的複雜性。開發者可能不再需要編寫數百行代碼來管理 LLM 的狀態,而是可以通過類似 SwiftUI 處理視圖的聲明式 API 來完成相同的任務。
為了理解這次轉變的幅度,我們可以看看即將退役和即將到來的框架之功能對比:
表格:Core ML 與 Core AI 功能對比
| 功能 | Core ML (舊有) | Core AI (新框架) |
|---|---|---|
| 主要時代 | 2017–2025 (預測式 AI) | 2026+ (生成式 AI) |
| 模型格式 | 專有 .mlmodel (需要轉換) |
原生 / 開放標準相容 |
| 硬體重點 | CPU/GPU/ANE 均衡分配 | 神經引擎優先 (張量優化) |
| 生成式 AI 支援 | 透過外部函式庫受限支援 | 原生 LLM 與擴散算子 |
| 記憶體處理 | 靜態載入 | 動態分頁與置換 (Swap) 優化 |
| 開發者 API | 命令式、低階配置 | 聲明式、基於意圖的 API |
註:上表反映了基於目前洩漏資訊的報告功能,正式發布時可能會有所變動。
Core AI 的推出不只是一次技術更新;這是一項戰略舉措,旨在通過以隱私為中心、在裝置端處理來區分 Apple 的生態系統。Google 和 Microsoft 等競爭對手嚴重依賴雲端 AI 處理。通過為 iOS 27 提供能夠在本地運行強大模型的框架,Apple 加倍強化了其隱私敘事。
藉由 Core AI,Apple 旨在嚴格地在裝置上處理絕大部分個人情境——電子郵件、訊息、健康數據。據報導,該框架包含一個「守門員(Gatekeeper)」API,可智慧地決定請求是否可以由神經引擎在本地處理,或者是否需要 Apple 的私有雲端計算(Private Cloud Compute)。這確保了敏感的使用者數據除非絕對必要,否則絕不會離開裝置,即使離開,也會在嚴格的匿名化協議下進行。
這一軟體進步與傳聞中的硬體飛躍相吻合。預計出現在 iPhone 18 系列中的 A20 晶片傳聞將配備專為 Core AI 指令調優的神經引擎,對性能產生乘數效應。然而,Apple 以其向後相容性而聞名,Core AI 預計甚至會為運行 iOS 27 的舊裝置帶來性能提升,可能從 iPhone 15 Pro 系列開始。
隨著 6 月臨近,科技界將密切關注主題演講。如果 Mark Gurman 的報導屬實,Core AI 的發表很可能成為活動的核心,甚至蓋過新硬體的發布。
開發者應為過渡期做好準備。Apple 通常會提供 1-2 年的棄用窗口。雖然 Core ML 可能在 iOS 27 中繼續可用以確保現有應用程式不會損壞,但新功能和優化將是 Core AI 獨有的。
值得關注的關鍵里程碑:
向 Core AI 的轉型代表了 Apple 晶片投資的成熟。在打造了多年最快的行動晶片後,Apple 終於發布了在生成式 AI 時代釋放其全部潛力所需的軟體架構。對於 Creati.ai 的讀者來說,這強調了保持適應能力至關重要——用於構建智慧應用程式的工具,其演進速度與 AI 模型本身一樣快。