
Au cours des deux dernières années, le récit mondial des semi-conducteurs a été dominé par un seul acronyme : GPU. Alors que l'essor de l'IA générative (Generative AI) s'emballait, les fournisseurs de cloud hyperscale et les entreprises se sont empressés de sécuriser le matériel NVIDIA, positionnant les unités de traitement graphique (GPU) comme le moteur incontesté de la révolution de l'IA. Cependant, un nouveau rapport de Morgan Stanley suggère que l'industrie est à l'aube d'un changement architectural majeur. À mesure que l'IA agentique (Agentic AI) arrive à maturité — passant de simples interfaces de chatbot à des systèmes autonomes d'exécution de tâches — la demande en puissance de calcul est sur le point de s'étendre à un écosystème matériel plus large, revitalisant spécifiquement le marché des CPU (unités centrales de traitement).
Selon les analystes de Morgan Stanley, cette transition représente bien plus qu'un changement marginal dans les approvisionnements ; il s'agit d'une reconfiguration fondamentale des centres de données. Alors que les GPU restent vitaux pour le traitement massivement parallèle requis pour entraîner les grands modèles de langage (LLM), le déploiement d'« agents » autonomes nécessite un profil computationnel différent — reposant fortement sur les capacités polyvalentes et sensibles à la latence des processeurs traditionnels.
La transition de l'IA « générative » vers l'IA « agentique » est un basculement vers des systèmes capables de planifier, d'exécuter et d'itérer sur des flux de travail complexes avec un minimum de supervision humaine. Ces agents nécessitent une prise de décision constante et rapide ainsi qu'une interaction avec des bases de données disparates, des API et des données environnementales en temps réel.
Morgan Stanley prévoit que ce changement de paradigme pourrait ajouter jusqu'à 60 milliards de dollars de revenus supplémentaires au marché des CPU d'ici 2030. Cette croissance est portée par plusieurs facteurs clés :
Pour visualiser comment le paysage matériel se diversifie, nous avons souligné les différences fondamentales dans l'affinité des charges de travail entre les catégories évolutives de déploiement de l'IA.
| Type de matériel | Fonction IA principale | Responsabilité dans le flux de travail agentique | Accent mis sur le matériel |
|---|---|---|---|
| GPU | Entraînement de modèles et inférence massive | Traitement parallèle de calculs complexes sur nœuds neuronaux | Mémoire HBM à haut débit et cœurs Tensor |
| CPU | Orchestration des tâches et prétraitement des données | Gestion de la logique agentique, routage de données et appels API | Vitesse d'horloge élevée et bande passante d'E/S à faible latence |
| ASIC/NPU | Accélération spécifique à un domaine | Inférence économe en énergie à la périphérie (edge) | Haute efficacité performance par watt |
L'injection de 60 milliards de dollars dans le secteur des CPU signifie que le « centre de données IA » de 2030 sera fondamentalement différent des clusters centrés sur les GPU de 2024. Les architectes de l'industrie repensent actuellement les baies de serveurs pour équilibrer la dissipation thermique massive des GPU haute puissance avec la connectivité à large bande passante et l'agilité de traitement des CPU sophistiqués.
Cette évolution est un signal positif pour le secteur des semi-conducteurs dans son ensemble. En diluant la concentration excessive des dépenses sur une seule catégorie de matériel, le marché atteint une trajectoire de croissance plus durable. Comme l'ont souligné les analystes de Morgan Stanley, cette diversification réduit le profil de risque de la chaîne d'approvisionnement technologique globale, garantissant que les ressources de calcul correspondent aux caractéristiques spécifiques des logiciels qui les utilisent.
Pour les observateurs de Creati.ai, les implications de la recherche de Morgan Stanley sont claires : le boom de l'IA entre dans sa « phase de mise en œuvre ». Si la « phase d'entraînement » a été une ère définie par la pénurie de GPU et une hyper-croissance des dépenses en capital, la « phase agentique » sera définie par l'intégration, l'optimisation et le calcul hétérogène matériel équilibré.
Les entreprises qui ont été historiquement mises à l'écart par l'attention intense portée aux acteurs du matériel exclusivement GPU se retrouvent désormais sous les projecteurs. Les principaux fabricants de CPU et les fournisseurs de calcul spécialisé devraient jouer un rôle tout aussi critique dans l'avenir de la chaîne de valeur de l'AGI (IA générale) que les leaders traditionnels du matériel GPU.
Alors que nous nous tournons vers 2030, les 60 milliards de dollars de croissance projetée pour les CPU ne sont pas qu'une simple prévision statistique ; c'est une feuille de route montrant comment l'industrie anticipe l'avenir de la productivité. Les agents autonomes de demain reposeront sur une architecture holistique, prouvant que dans la course à la construction de l'intelligence du futur, le CPU polyvalent reste une pièce indispensable du puzzle de l'infrastructure.