
Selon un nouveau rapport de Mark Gurman de Bloomberg, Apple est sur le point d'exécuter l'une de ses transitions logicielles les plus significatives en une décennie lors de la prochaine Worldwide Developers Conference (WWDC) 2026. Le géant de la technologie se préparerait à abandonner son framework Core ML de longue date au profit d'une architecture successeur modernisée baptisée « Core AI ». Ce changement, prévu pour iOS 27, iPadOS 27 et macOS 27, représente une réingénierie fondamentale de la manière dont les appareils Apple gèrent les tâches d'apprentissage automatique (Machine Learning) et d'intelligence artificielle (IA).
Pendant près de dix ans, Core ML a été le socle de l'intelligence sur l'appareil d'Apple, alimentant des fonctionnalités allant de Face ID à l'analyse de photos. Cependant, alors que l'industrie a bondi vers les grands modèles de langage (Large Language Models, LLMs) et les agents d'intelligence artificielle générative (Generative AI) complexes, l'infrastructure héritée de Core ML aurait du mal à suivre les exigences de calcul des modèles modernes. Le rapport de Gurman suggère que Core AI n'est pas seulement un changement de nom, mais une « réécriture complète » conçue pour rendre l'intégration de modèles génératifs de pointe aussi simple que l'importation d'une bibliothèque d'interface utilisateur (UI).
Cette initiative signale l'intention d' Apple de reconquérir agressivement le leadership dans le secteur de l'IA, allant au-delà des capacités prédictives du passé vers une nouvelle ère d'intelligence générative et contextuelle sur l'appareil.
Lancé en 2017, Core ML a été conçu pour une époque différente de l' apprentissage automatique (Machine Learning). Son objectif principal était la classification, la régression et la reconnaissance d'images — des tâches qui définissaient les fonctionnalités « intelligentes » de la fin des années 2010. Bien qu'Apple ait mis à jour le framework annuellement, ajoutant la prise en charge de nouvelles couches et méthodes de quantification, l'architecture sous-jacente est restée ancrée dans le traitement traditionnel des réseaux neuronaux.
La croissance explosive de l'IA générative (Generative AI) a exposé les limites de ce framework vieillissant. Les développeurs se plaignent depuis longtemps des frictions liées à la conversion des modèles PyTorch ou TensorFlow vers le format propriétaire .mlmodel, un processus qui entraînait souvent une dégradation des performances ou des opérateurs non pris en charge.
La transition vers Core AI répond à plusieurs goulots d'étranglement critiques inhérents à l'écosystème actuel :
Core AI devrait introduire une prise en charge native des standards communs de l'industrie, permettant potentiellement aux développeurs d'exécuter des modèles plus proches de leurs formats natifs sans la couche de traduction fastidieuse qui a défini l'ère Core ML.
Bien que la documentation technique spécifique attende le discours d'ouverture de la WWDC, des fuites indiquent que Core AI se concentre sur trois piliers : la modularité, les capacités natives génératives et l'optimisation de l'architecture de mémoire unifiée (Unified Memory Architecture, UMA).
Contrairement à son prédécesseur, Core AI est construit avec les Transformers et les modèles de diffusion comme citoyens de première classe. Le framework comprendrait des « Foundation Blocks » pré-optimisés — des blocs de construction qui permettent aux développeurs d'assembler des pipelines d'IA (tels que le RAG, ou génération augmentée par récupération) sans écrire de code de multiplication de matrice de bas niveau. Cela pourrait démocratiser le développement d'IA locale, permettant à un développeur solo d'implémenter des fonctionnalités qui nécessitaient auparavant une équipe d'ingénieurs en ML.
Le nouveau framework permettrait de débloquer l'accès « Direct Path » à l'Apple Neural Engine (ANE). Auparavant, le système d'exploitation gérait l'allocation de l'ANE de manière conservatrice pour préserver l'autonomie de la batterie. Core AI introduirait un « Burst Mode » pour l'inférence, permettant aux applications de commander des performances maximales du NPU pendant de courtes durées — idéal pour générer des images ou résumer de longs documents à la volée dans iOS 27.
Pour la communauté des développeurs Apple, l'arrivée de Core AI marque un tournant décisif. La barrière de complexité pour ajouter des fonctionnalités d'IA devrait baisser considérablement.
L'objectif d'Apple avec Core AI est de rendre import CoreAI aussi standard que import SwiftUI. Le framework devrait faire abstraction des complexités de la tokenisation, des échantillonneurs et de la gestion de la fenêtre de contexte. Au lieu d'écrire des centaines de lignes de code pour gérer l'état d'un LLM, les développeurs pourraient accomplir la même tâche avec des API déclaratives similaires à la manière dont SwiftUI gère les vues.
Pour comprendre l'ampleur de ce changement, nous pouvons examiner les capacités comparatives des frameworks sortant et entrant :
Tableau : Comparaison des fonctionnalités entre Core ML et Core AI
| Fonctionnalité | Core ML (Héritage) | Core AI (Nouveau framework) |
|---|---|---|
| Ère principale | 2017–2025 (IA prédictive) | 2026+ (IA générative) |
| Format de modèle | Propriétaire .mlmodel (Conversion requise) |
Compatibilité native / standard ouvert |
| Focus matériel | Distribution équilibrée CPU/GPU/ANE | Neural Engine d'abord (Optimisation des tenseurs) |
| Support GenAI | Limité via des bibliothèques externes | Primitives natives LLM & Diffusion |
| Gestion mémoire | Chargement statique | Pagination dynamique & Optimisation du swap |
| API développeur | Impérative, configuration de bas niveau | Déclarative, API basées sur l'intention |
Note : Le tableau ci-dessus reflète les fonctionnalités rapportées sur la base des fuites actuelles et peut faire l'objet de modifications lors de la sortie officielle.
L'introduction de Core AI n'est pas seulement une mise à jour technique ; c'est une manœuvre stratégique pour différencier l'écosystème d'Apple par un traitement sur l'appareil centré sur la confidentialité. Des concurrents comme Google et Microsoft se sont fortement appuyés sur le traitement de l'IA basé sur le cloud. En dotant iOS 27 d'un framework capable d'exécuter localement des modèles puissants, Apple renforce son discours sur la vie privée.
Avec Core AI, Apple vise à traiter la vaste majorité du contexte personnel — e-mails, messages, données de santé — strictement sur l'appareil. Le framework inclurait une API « Gatekeeper » qui décide intelligemment si une requête peut être traitée localement par le Neural Engine ou si elle nécessite le Private Cloud Compute d'Apple. Cela garantit que les données utilisateur sensibles ne quittent jamais l'appareil sauf si cela est absolument nécessaire, et même dans ce cas, elles le font sous des protocoles d'anonymisation stricts.
Cette avancée logicielle coïncide avec des sauts matériels rumeurs. La puce A20 attendue dans la gamme iPhone 18 disposerait d'un Neural Engine spécifiquement réglé pour les instructions Core AI, offrant un effet multiplicateur sur les performances. Cependant, Apple est connu pour sa rétrocompatibilité, et Core AI devrait apporter des améliorations de performances même aux appareils plus anciens fonctionnant sous iOS 27, probablement à partir de la série iPhone 15 Pro.
À l'approche du mois de juin, le monde de la technologie suivra de près le discours d'ouverture. Si les rapports de Mark Gurman se confirment, l'annonce de Core AI sera probablement la pièce maîtresse de l'événement, éclipsant même les révélations de nouveaux matériels.
Les développeurs doivent se préparer à une période de transition. Apple autorise généralement une fenêtre d'obsolescence de 1 à 2 ans. Bien que Core ML restera probablement disponible dans iOS 27 pour garantir que les applications existantes ne cessent de fonctionner, les nouvelles fonctionnalités et optimisations seront exclusives à Core AI.
Principales étapes à surveiller :
Le passage à Core AI représente la maturation de l'investissement d'Apple dans son silicium. Après des années à concevoir les puces mobiles les plus rapides, Apple lance enfin l'architecture logicielle nécessaire pour libérer leur plein potentiel à l'ère de l'IA générative (Generative AI). Pour les lecteurs de Creati.ai, cela souligne l'importance vitale de rester adaptable — les outils utilisés pour créer des applications intelligentes évoluent tout aussi vite que les modèles d'IA eux-mêmes.