
Lors d'une apparition provocatrice et détaillée à l'événement « Express Adda » de l' Indian Express à New Delhi cette semaine, le PDG d'OpenAI, Sam Altman, a lancé une défense vigoureuse de la consommation de ressources de l'industrie de l'intelligence artificielle (IA). Face à un barrage de questions concernant l'empreinte environnementale des grands modèles de langage (Large Language Models - LLM), Altman a cherché à recadrer le récit, affirmant que les coûts énergétiques de l'entraînement de l'IA sont fréquemment mal compris et sans doute plus efficaces que l'énergie biologique requise pour produire l'intelligence humaine.
L'événement, qui fait partie de l'India AI Impact Summit 2026, a vu Altman s'adresser aux décideurs politiques, aux leaders technologiques et aux journalistes. Ses commentaires interviennent à un moment critique pour le secteur de l'IA, qui est confronté à une surveillance croissante concernant l'empreinte carbone des centres de données (data centers) et l'utilisation de l'eau associée au refroidissement des clusters informatiques de haute performance. Plutôt que de céder aux critiques, Altman est passé à l'offensive, démythifiant des statistiques virales et rejetant les propositions d'infrastructures alternatives — spécifiquement celles de son rival Elon Musk — les qualifiant de « ridicules ».
Le cœur de l'argumentation d'Altman à New Delhi s'est concentré sur ce qu'il a décrit comme une comparaison « injuste » souvent faite par les critiques. Il a noté que les détracteurs comparent généralement l'énergie massive et concentrée requise pour entraîner un modèle de pointe comme GPT-5 à l'énergie minimale qu'un cerveau humain utilise pour effectuer une seule tâche d'inférence.
« Les gens parlent de la quantité d'énergie nécessaire pour entraîner un modèle d'IA », a déclaré Altman à l'auditoire. « Mais il faut aussi beaucoup d'énergie pour former un humain. Il faut environ 20 ans de vie et toute la nourriture que vous consommez pendant cette période avant de devenir intelligent. »
Altman a étendu ce « socle biologique » pour inclure le coût énergétique cumulé de l'évolution humaine, suggérant que l'intelligence humaine est le produit de milliards d'années d'essais et d'erreurs biologiques, qui ont tous consommé de vastes ressources. Selon cette mesure, a-t-il argumenté, un modèle qui nécessite des gigawattheures d'électricité pour être entraîné mais qui peut ensuite servir instantanément des millions d'utilisateurs pourrait en fait avoir « rattrapé son retard sur le plan de l'efficacité énergétique ».
Cette comparaison tente de déplacer la fenêtre du discours de l'impact immédiat sur le réseau vers un calcul d'utilité à long terme. Cependant, elle a également suscité un débat immédiat parmi les participants et les commentateurs en ligne, certains, comme le cofondateur de Zoho, Sridhar Vembu, s'opposant à l'idée d'assimiler l'utilité technologique à l'existence biologique humaine.
Au-delà de l'électricité, Altman a ciblé les statistiques circulant largement concernant la consommation d'eau de l'IA. Des rapports viraux récents ont affirmé qu'une seule requête à un chatbot pourrait consommer jusqu'à 17 gallons d'eau ou l'équivalent énergétique de la charge complète d'un smartphone à plusieurs reprises.
Altman a catégoriquement rejeté ces chiffres. « C'est complètement faux, totalement insensé, sans aucun lien avec la réalité », a-t-il déclaré, visiblement frustré par la persistance de ces affirmations.
Il a précisé que si les anciens centres de données dépendaient fortement du refroidissement par évaporation — un processus qui consomme effectivement beaucoup d'eau — l'industrie s'est largement tournée vers le refroidissement liquide en circuit fermé et d'autres systèmes de gestion thermique avancés qui minimisent la perte d'eau. « Nous avions l'habitude de faire du refroidissement par évaporation dans les centres de données, mais maintenant nous ne le faisons plus », a expliqué Altman. Il a insisté sur le fait que l'efficacité des infrastructures modernes signifie que le coût en ressources par requête est négligeable par rapport aux chiffres sensationnalistes souvent cités dans les rapports environnementaux.
La conversation à New Delhi a également mis en lumière le fossé idéologique et stratégique qui se creuse entre Altman et le PDG de SpaceX, Elon Musk. La terre et l'énergie devenant des ressources rares sur Terre, Musk a publiquement préconisé, et commencé à investir dans, des centres de données orbitaux — plaçant des fermes de serveurs dans l'espace pour exploiter l'énergie solaire continue et le refroidissement par le vide naturel.
Interrogé sur ce concept, Altman a été direct. « Installer des centres de données dans l'espace avec le paysage actuel est ridicule », a-t-il déclaré.
Altman a décomposé les aspects économiques pour justifier son scepticisme, citant un « calcul approximatif » des coûts de lancement par rapport à la production d'énergie terrestre. Il a noté que même avec la réduction des coûts de lancement réalisée par le Starship, le prix par kilogramme en orbite rend les clusters de GPU lourds économiquement non viables. De plus, il a souligné le cauchemar logistique de la maintenance.
« À quel point est-il difficile de réparer un GPU cassé dans l'espace ? » a demandé Altman de manière rhétorique. « Ils cassent encore beaucoup, malheureusement. Nous n'en sommes pas encore là. » Il a prédit que les centres de données orbitaux n'auraient aucune importance à grande échelle avant au moins une autre décennie, renforçant l'engagement d' OpenAI envers l'infrastructure terrestre malgré les défis du réseau électrique.
Pour comprendre la divergence entre l'approche terrestre pragmatique d'Altman et les propositions orbitales futuristes, nous pouvons examiner les contraintes comparatives des deux modèles.
Tableau : Faisabilité des infrastructures d'IA terrestres vs orbitales
| Métrique | Centres de données terrestres (Stratégie OpenAI) | Centres de données orbitaux (Concept Musk/SpaceX) |
|---|---|---|
| Source d'énergie primaire | Nucléaire, éolien, réseau solaire | Rayonnement solaire direct |
| Mécanisme de refroidissement | Refroidissement liquide / Échange d'air | Refroidissement radiatif (Vide) |
| Accès à la maintenance | Immédiat / Techniciens sur place | À distance / Réparation robotisée à haut risque |
| Latence | Faible (Fibre optique) | Variable (Dépend de la distance) |
| Dépenses d'investissement (CAPEX) | Élevées (Construction & raccordement au réseau) | Extrêmes (Lancement & durcissement aux radiations) |
| Calendrier d'évolutivité | Immédiat (Décennie actuelle) | À long terme (2035+) |
Si l'espace n'est pas la réponse, Altman a clairement indiqué que la solution réside dans une refonte massive du réseau énergétique terrestre. Il a reconnu que la consommation d'énergie globale totale de l'IA est une préoccupation légitime, distincte de l'efficacité par requête. Pour répondre à la demande de projets tels que la rumeur du supercalculateur « Stargate » — une collaboration de 100 milliards de dollars avec Microsoft — Altman a préconisé une accélération rapide de l'adoption de l'énergie nucléaire.
« Nous devons passer très rapidement au nucléaire ou à l'éolien et au solaire », a-t-il exhorté. Cet alignement avec l'énergie nucléaire est cohérent avec les investissements personnels d'Altman ; il a notoirement soutenu Oklo, une startup de fission nucléaire, et Helion Energy, une entreprise de fusion.
La vision du PDG d'OpenAI pour l'avenir implique une relation symbiotique où la demande en IA stimule l'investissement en capital nécessaire pour moderniser le réseau énergétique, conduisant finalement à une énergie propre moins chère et plus abondante pour tous les secteurs. Il a rejeté l'idée de freiner les progrès de l'IA pour économiser l'énergie, présentant la technologie comme l'outil même dont l'humanité a besoin pour résoudre la crise climatique.
Tout au long de sa visite, Altman a fait l'éloge de l'écosystème technologique indien, décrivant « l'énergie de bâtisseur » du pays comme sans équivalent. Sa présence au sommet, aux côtés du Premier ministre Narendra Modi, souligne l'importance stratégique de l'Inde, non seulement en tant que marché, mais aussi en tant que pôle de talents et terrain d'essai potentiel pour des solutions d'IA évolutives.
Altman a noté que l'adoption rapide par l'Inde d'infrastructures numériques la place dans une position unique pour dépasser les systèmes existants, en intégrant potentiellement l'IA dans les services publics plus rapidement que de nombreuses nations occidentales. Cependant, il a averti que cette croissance dépend de la disponibilité de la puissance de calcul (compute) — une ressource qu'il a décrite comme la « monnaie du futur ».
La défense de Sam Altman à New Delhi met en lumière un paradoxe critique de la révolution de l'IA. Alors que l'efficacité individuelle des modèles s'améliore — et peut même se comparer favorablement à l'intelligence biologique lorsqu'elle est vue sous un angle évolutif spécifique — la demande globale monte en flèche.
En rejetant les solutions basées sur l'espace comme prématurées et en démythifiant les mythes sur l'usage de l'eau, Altman oriente l'industrie vers un avenir très spécifique : un avenir ancré à la Terre, alimenté par la fission nucléaire, et justifié par l'immense utilité à long terme de l'intelligence artificielle générale (Artificial General Intelligence - AGI). Alors que la course à la puissance de calcul s'intensifie, la capacité de l'industrie à tenir ses promesses d'énergie verte déterminera probablement si le sentiment public reste permissif ou devient hostile.
Pour l'instant, le message d'Altman au monde est clair : le coût de l'intelligence est élevé, mais le coût de la stagnation est plus élevé encore.