
Bloombergのマーク・ガーマン(Mark Gurman)氏による新しいレポートによると、Appleは、来たる世界開発者会議(WWDC)2026において、ここ10年で最も重要なソフトウェア移行の一つを実行する構えです。このテック巨人は、長年提供してきたCore MLフレームワークを廃止し、「Core AI」と呼ばれる現代的な後継アーキテクチャを採用する準備を進めていると報じられています。iOS 27、iPadOS 27、およびmacOS 27をターゲットとしたこの移行は、Apple製デバイスが機械学習(Machine Learning)や人工知能(AI)タスクを処理する方法の根本的な再設計を象徴しています。
10年近くもの間、Core MLはAppleのデバイス上インテリジェンスの基盤であり、Face IDから写真解析に至るまでの機能を支えてきました。しかし、業界が大規模言語モデル(LLM:Large Language Models)や複雑な生成AI(Generative AI)エージェントへと急進する中で、Core MLのレガシーなインフラストラクチャは、最新モデルの計算需要に追いつくのに苦労していると報じられています。ガーマン氏のレポートは、Core AIが単なるリブランディングではなく、最新の生成モデルの統合をUIライブラリのインポートと同じくらいシンプルにするために設計された「ゼロからの書き直し」であることを示唆しています。
この動きは、過去の予測機能を超え、コンテキストを認識する生成的なデバイス上インテリジェンスの新時代へと突き進むことで、AI分野におけるリーダーシップを積極的に奪還しようとするAppleの意図を示しています。
2017年に発表されたCore MLは、異なる時代の機械学習向けに構築されました。その主な焦点は、分類、回帰、画像認識といった、2010年代後半の「スマート」な機能を定義づけたタスクにありました。Appleは毎年フレームワークを更新し、新しいレイヤーや量子化手法のサポートを追加してきましたが、基盤となるアーキテクチャは従来のニューラルネットワーク処理に根ざしたままでした。
生成AIの爆発的な成長により、この老朽化したフレームワークの限界が露呈しました。開発者は、PyTorchやTensorFlowのモデルを独自の .mlmodel 形式に変換する際の摩擦について長年不満を抱いてきました。このプロセスでは、パフォーマンスの低下やサポートされていないオペレーターが発生することが頻繁にありました。
Core AIへの移行は、現在のエコシステムに内在するいくつかの重大なボトルネックに対処します:
Core AIは、一般的な業界標準へのネイティブサポートを導入すると予想されており、開発者はCore ML時代を象徴していた煩雑な変換レイヤーを通すことなく、モデルをネイティブ形式に近い状態で実行できるようになる可能性があります。
具体的な技術ドキュメントはWWDCの基調講演を待つ必要がありますが、リーク情報によると、Core AIは「モジュール性」、「ジェネレーティブ・ネイティブ(Generative Native)機能」、そして「ユニファイドメモリ・アーキテクチャ(UMA:Unified Memory Architecture)の最適化」という3つの柱に焦点を当てているとのことです。
前身とは異なり、Core AIはトランスフォーマーや拡散モデル(Diffusion models)を第一級市民として構築されています。このフレームワークには、事前に最適化された「ファンデーション・ブロック(Foundation Blocks)」が含まれていると報じられています。これは、開発者が低レベルの行列計算コードを書くことなく、AIパイプライン(RAG:検索拡張生成など)を組み立てることを可能にする構成要素です。これにより、ローカルAI開発が民主化され、以前は機械学習エンジニアのチームを必要とした機能を、個人の開発者が実装できるようになる可能性があります。
新しいフレームワークは、Apple Neural Engine(ANE)への「ダイレクトパス」アクセスを解放すると噂されています。従来、OSはバッテリー寿命を維持するためにANEの割り当てを保守的に管理していました。Core AIは「バーストモード」推論を導入するとされており、アプリが短時間、NPUのピークパフォーマンスを要求できるようになります。これは、iOS 27において、画像の生成や長いドキュメントの要約をオンザフライで行うのに最適です。
Appleの開発者コミュニティにとって、Core AIの登場は画期的な瞬間となります。AI機能を追加するための複雑さの壁が大幅に下がることが期待されています。
AppleのCore AIにおける目標は、import CoreAI を import SwiftUI と同じくらい標準的なものにすることです。このフレームワークは、トークン化、サンプラー、コンテキストウィンドウ管理の複雑さを抽象化することが期待されています。LLMの状態を管理するために何百行ものコードを書く代わりに、開発者はSwiftUIがビューを処理する方法に似た宣言型APIを使用して、同じタスクを達成できるかもしれません。
この移行の規模を理解するために、旧フレームワークと新フレームワークの機能を比較してみましょう:
表:Core MLとCore AIの機能比較
| 機能 | Core ML(レガシー) | Core AI(新フレームワーク) |
|---|---|---|
| 主な時代 | 2017年–2025年(予測型AI) | 2026年以降(生成AI) |
| モデル形式 | 独自の .mlmodel(変換が必要) |
ネイティブ / オープン標準互換 |
| ハードウェアの焦点 | CPU/GPU/ANEのバランス配分 | Neural Engine優先(テンソル最適化) |
| 生成AIサポート | 外部ライブラリ経由で限定的 | ネイティブLLMおよび拡散プリミティブ |
| メモリ処理 | 静的ロード | 動的ページングおよびスワップ最適化 |
| 開発者API | 命令型、低レベル設定 | 宣言型、インテントベースAPI |
注:上記の表は現在のリークに基づく報告された機能を反映したものであり、公式リリース時に変更される可能性があります。
Core AIの導入は単なる技術的なアップデートではありません。プライバシー重視のデバイス上処理を通じて、Appleのエコシステムを差別化するための戦略的な策です。GoogleやMicrosoftといった競合他社は、クラウドベースのAI処理に大きく依存してきました。パワフルなモデルをローカルで実行できるフレームワークをiOS 27に提供することで、Appleはプライバシーに関する自社の主張をさらに強めます。
Core AIにより、Appleはメール、メッセージ、ヘルスケアデータといった膨大な個人的コンテキストの大部分を、厳格にデバイス上で処理することを目指しています。このフレームワークには、リクエストをNeural Engineによってローカルで処理できるか、あるいはAppleのPrivate Cloud Computeが必要かをインテリジェントに判断する「ゲートキーパー(Gatekeeper)」APIが含まれていると報じられています。これにより、機密性の高いユーザーデータは、絶対に必要な場合を除いてデバイスから離れることはなく、その場合でも厳格な匿名化プロトコルの下で処理されます。
このソフトウェアの進歩は、噂されているハードウェアの飛躍と時期を同じくしています。iPhone 18ラインナップに搭載されると予想されるA20チップは、Core AIの命令セットに特化して調整されたNeural Engineを搭載し、パフォーマンスに相乗効果をもたらすと噂されています。しかし、Appleは後方互換性に定評があり、Core AIはiOS 27を実行する古いデバイス(おそらくiPhone 15 Proシリーズ以降)にもパフォーマンスの向上をもたらすと期待されています。
6月が近づくにつれ、テック界は基調講演を注視することになるでしょう。もしマーク・ガーマン(Mark Gurman)氏のレポートが正しければ、Core AIの発表はイベントの目玉となり、新しいハードウェアの発表さえも影を薄くする可能性があります。
開発者は移行期間に備えるべきです。Appleは通常、1〜2年の廃止猶予期間を設けます。既存のアプリが動作しなくなるのを防ぐために、iOS 27でもCore MLは引き続き利用可能であると思われますが、新機能や最適化はCore AI専用となるでしょう。
注目すべき主要なマイルストーン:
Core AIへの移行は、Appleのシリコン投資の成熟を象徴しています。長年にわたり最速のモバイルチップを開発してきたAppleは、生成AIの時代において、それらの潜在能力を完全に引き出すために必要なソフトウェアアーキテクチャをついにリリースしようとしています。Creati.aiの読者にとって、これは適応し続けることの重要性を強調しています。インテリジェントなアプリを構築するために使用されるツールは、AIモデルそのものと同じ速さで進化しているのです。