
Dans une révélation franche qui a provoqué des ondes de choc dans le secteur technologique, le PDG de Google DeepMind, Demis Hassabis, a identifié la pénurie mondiale de puces mémoire comme le « point d'étranglement » (choke point) le plus critique inhibant actuellement l'avancement de l'intelligence artificielle. S'adressant à CNBC au début de cette semaine, Hassabis a souligné que si la puissance de calcul a historiquement été la contrainte principale, l'attention de l'industrie doit maintenant se porter de toute urgence sur les limitations sévères de la chaîne d'approvisionnement de la mémoire à haute bande passante (High-Bandwidth Memory - HBM).
Cet avertissement survient à un moment charnière en février 2026, alors que la course vers l'Intelligence Artificielle Générale (Artificial General Intelligence - AGI) s'intensifie. Alors que les modèles d'IA générative (Generative AI) ont démontré des capacités sans précédent — comme le propre Gemini 2.0 Flash de Google — l'infrastructure physique requise pour déployer ces modèles à grande échelle se heurte à un plafond infranchissable. Hassabis a noté que même Google, malgré sa position avantageuse avec son infrastructure propriétaire de Tensor Processing Unit (TPU), n'est pas à l'abri de ces frictions de la chaîne d'approvisionnement mondiale.
La crise, familièrement surnommée « RAMmageddon » par les initiés de l'industrie, provient d'un changement structurel dans la fabrication des semi-conducteurs. Les accélérateurs d'IA nécessitent de la HBM, un type spécialisé de mémoire qui empile verticalement des puces de mémoire vive dynamique (DRAM) pour atteindre les vitesses de transfert de données ultra-rapides nécessaires à l'entraînement de réseaux de neurones massifs.
Cependant, la production de HBM est gourmande en ressources. Les données de l'industrie révèlent que la fabrication d'un seul gigaoctet de HBM nécessite environ trois fois la capacité de galettes (wafer) de la mémoire DDR5 standard utilisée dans l'électronique grand public. Alors que les fonderies comme TSMC, Samsung et SK Hynix réallouent agressivement leurs lignes de production pour répondre à la demande insatiable des hyperscalers, le volume global de mémoire disponible s'est contracté.
Hassabis a expliqué à CNBC que ce jeu à somme nulle crée une barrière à l'entrée redoutable pour les petits laboratoires de recherche en IA et les startups. « Nous assistons à une bifurcation du marché », a déclaré Hassabis. « La capacité d'innover devient strictement corrélée à la capacité de garantir des contrats d'approvisionnement en mémoire à long terme. Il ne s'agit plus seulement d'avoir les meilleurs algorithmes ; il s'agit d'avoir le silicium pour les faire fonctionner. »
La pénurie a forcé les acteurs majeurs à repenser leurs stratégies matérielles. Alors que Nvidia continue de dominer le marché des GPU, la rareté des puces HBM qui accompagnent ces processeurs a entraîné des délais de livraison prolongés. Pour Google, la situation valide son investissement de dix ans dans le silicium personnalisé. En concevant ses propres TPU et en orchestrant l'ensemble de sa pile — du « matériel nu » (bare metal) au centre de données — Google s'est isolé de certaines volatilités affectant les concurrents qui dépendent uniquement de fournisseurs tiers.
Néanmoins, Hassabis a admis que la « pression commerciale » demeure. Le déploiement de modèles lourds en inférence, qui nécessitent d'énormes quantités de mémoire pour stocker les fenêtres de contexte et les paramètres actifs, entre en concurrence directe avec les ressources mémoire nécessaires à l'entraînement de la prochaine génération de modèles frontières (frontier models).
Tableau : Impact de la pénurie de mémoire à travers les secteurs
| Secteur | Défi principal | Réponse stratégique |
|---|---|---|
| Hyperscalers (Google, Microsoft) | Mise à l'échelle de l'inférence pour les apps à un milliard d'utilisateurs | Intégration verticale ; développement de « puces légères » (light chips) pour l'efficacité |
| Startups d'IA | Coût prohibitif des instances HBM | Réorientation vers les petits modèles de langage (SLM) et la distillation |
| Électronique grand public | Déplacement de l'offre par la demande en IA | Hausse des prix de la RAM pour PC/Smartphone ; cycles de produits retardés |
| Fonderies de semi-conducteurs | Conflits d'allocation de capacité | Conversion des lignes DDR en HBM ; taux d'utilisation de 100 % |
Au-delà de la logistique de la chaîne d'approvisionnement, Hassabis a abordé les implications théoriques de ces contraintes matérielles. Il a décrit les systèmes d'IA actuels comme possédant une « intelligence dentelée » (jagged intelligence) — capables de gagner des médailles aux Olympiades internationales de mathématiques, mais échouant à des puzzles logiques élémentaires selon la formulation de l'invite (prompt).
Résoudre cette « dentelure » nécessite non seulement une meilleure architecture, mais aussi beaucoup plus de calcul et de mémoire pour faciliter des techniques telles que le raisonnement par chaîne de pensée (chain-of-thought reasoning) et la planification à long terme. « Pour passer d'un chatbot qui prédit le mot suivant à un agent qui planifie sur des semaines ou des mois, vous avez besoin de mémoire », a soutenu Hassabis. « Vous avez besoin que le système maintienne un modèle du monde cohérent dans son état actif. Si nous sommes physiquement limités par la bande passante mémoire, nous plafonnons de fait la profondeur cognitive de ces modèles. »
Ce goulot d'étranglement matériel pourrait potentiellement retarder le calendrier de l'AGI. Alors que les prévisions en 2024 et 2025 étaient optimistes quant à l'atteinte d'une capacité de niveau humain d'ici 2027, la réalité physique de la fabrication des puces pourrait étendre cet horizon. Le consensus parmi les experts est qu'à moins d'une nouvelle percée en lithographie ou d'une amélioration radicale de l'efficacité de la mémoire (via des techniques comme les LLM 1 bit), l'industrie fait face à une phase de « labeur » où les progrès sont linéaires plutôt qu'exponentiels.
En réponse à ces contraintes, Google DeepMind double la mise sur l'efficacité algorithmique. Hassabis a souligné le développement de « puces légères » (light chips) — des processeurs spécialisés conçus spécifiquement pour la phase d'inférence des modèles d'IA. Contrairement aux puces d'entraînement, qui nécessitent un débit massif pour la rétropropagation, les puces d'inférence peuvent être optimisées pour une précision moindre et une bande passante mémoire plus faible, étirant ainsi davantage l'offre disponible de HBM.
De plus, DeepMind donne la priorité à la « distillation », un processus par lequel un modèle frontière massif enseigne à un modèle plus petit et plus efficace. Cela permet à Google de déployer des services d'IA performants auprès de milliards d'utilisateurs sans consommer le premier niveau de réserves matérielles, qui sont conservées pour la recherche et l'entraînement de la prochaine itération de Gemini.
Les ondes de choc de cette pénurie de mémoire se font sentir bien au-delà de la Silicon Valley. Des rapports indiquent que les prix de la mémoire grand public ont bondi de plus de 170 % au cours de l'année écoulée, car les fabricants quittent le marché grand public à faible marge pour poursuivre les contrats d'IA à forte marge. La décision des principaux fournisseurs de mémoire d'abandonner potentiellement les marques axées sur le consommateur sert d'indicateur frappant de ce changement.
Pour l'industrie de l'IA, ce « point d'étranglement » sert de rappel à la réalité. L'ère des lois de mise à l'échelle (scaling laws) illimitées, où l'ajout de plus de calcul donnait automatiquement de meilleurs résultats, se heurte aux limites de la physique et de la logistique de la chaîne d'approvisionnement. Comme l'a averti Hassabis, la prochaine phase de la révolution de l'IA sera définie non seulement par celui qui possède les chercheurs les plus brillants, mais par celui qui peut sécuriser la mémoire pour se souvenir de ce qu'ils apprennent.
Dans cet environnement contraint, la stratégie d'intégration verticale de Google semble de plus en plus prévoyante. En possédant la pile, ils contrôlent leur propre destin, alors même que le reste de l'industrie se bouscule pour obtenir des allocations dans un marché affamé de mémoire. À mesure que 2026 progresse, la capacité à naviguer dans cette « RAMpocalypse » déterminera probablement les gagnants et les perdants de l'ère de l'IA générative.