
In einem kämpferischen und detaillierten Auftritt bei der "Express Adda"-Veranstaltung des Indian Express in Neu-Delhi in dieser Woche startete OpenAI-CEO Sam Altman eine energische Verteidigung des Ressourcenverbrauchs der Branche der künstlichen Intelligenz (Generative AI). Angesichts einer Flut von Fragen zum ökologischen Fußabdruck von großen Sprachmodellen (Large Language Models, LLMs) versuchte Altman, das Narrativ neu zu definieren. Er argumentierte, dass die Energiekosten für das Training von KI häufig missverstanden werden und wohl effizienter sind als die biologische Energie, die zur Erzeugung menschlicher Intelligenz erforderlich ist.
Die Veranstaltung, Teil des breiteren India AI Impact Summit 2026, bot Altman die Plattform, um vor politischen Entscheidungsträgern, Tech-Führern und Journalisten zu sprechen. Seine Kommentare fallen in eine kritische Phase für den KI-Sektor, der mit wachsender Kritik am CO2-Fußabdruck von Rechenzentren und dem Wasserverbrauch im Zusammenhang mit der Kühlung von Hochleistungsrechner-Clustern konfrontiert ist. Anstatt der Kritik nachzugeben, ging Altman in die Offensive, entlarvte virale Statistiken und wies alternative Infrastrukturvorschläge – insbesondere jene des Rivalen Elon Musk – als „lächerlich“ zurück.
Der Kern von Altmans Argumentation in Neu-Delhi konzentrierte sich auf das, was er als „unfairen“ Vergleich bezeichnete, der oft von Kritikern herangezogen wird. Er merkte an, dass Gegner typischerweise die massive, konzentrierte Energie, die zum Trainieren eines Pionier-Modells wie GPT-5 erforderlich ist, mit der minimalen Energie vergleichen, die ein menschliches Gehirn für eine einzelne Inferenzaufgabe verbraucht.
„Die Leute reden darüber, wie viel Energie es kostet, ein KI-Modell zu trainieren“, sagte Altman dem Publikum. „Aber es kostet auch viel Energie, einen Menschen auszubilden. Es braucht etwa 20 Lebensjahre und all die Nahrung, die man in dieser Zeit isst, bevor man klug wird.“
Altman weitete diesen „biologischen Maßstab“ auf die kumulativen Energiekosten der menschlichen Evolution aus und suggerierte, dass die menschliche Intelligenz das Produkt von Milliarden von Jahren biologischen Ausprobierens ist, was allesamt enorme Ressourcen verbrauchte. Nach diesem Maßstab, so argumentierte er, könnte ein Modell, das Gigawattstunden Strom zum Trainieren benötigt, dann aber Millionen von Nutzern sofort dienen kann, auf einer Energieeffizienzbasis tatsächlich „aufgeholt“ haben.
Dieser Vergleich versucht, den Diskurs von den unmittelbaren Auswirkungen auf das Stromnetz hin zu einer langfristigen Nutzenkalkulation zu verschieben. Er löste jedoch auch sofortige Debatten unter den Teilnehmern und Online-Kommentatoren aus, wobei einige, wie der Zoho-Mitbegründer Sridhar Vembu, sich dagegen wehrten, technologischen Nutzen mit der menschlichen biologischen Existenz gleichzusetzen.
Über den Strom hinaus nahm Altman weit verbreitete Statistiken zum Wasserverbrauch von KI ins Visier. Jüngste virale Berichte behaupteten, dass eine einzige Anfrage an einen Chatbot bis zu 17 Gallonen Wasser oder das Energieäquivalent einer mehrfachen vollständigen Aufladung eines Smartphones verbrauchen könnte.
Altman wies diese Zahlen kategorisch zurück. „Das ist völlig unwahr, totaler Wahnsinn, ohne Verbindung zur Realität“, erklärte er, sichtlich frustriert über die Hartnäckigkeit dieser Behauptungen.
Er stellte klar, dass ältere Rechenzentren zwar stark auf Verdunstungskühlung angewiesen waren – ein Prozess, der tatsächlich erheblich Wasser verbraucht –, die Branche jedoch weitgehend auf geschlossene Flüssigkeitskühlung und andere fortschrittliche Wärmemanagementsysteme umgestellt hat, die den Wasserverlust minimieren. „Früher haben wir in Rechenzentren Verdunstungskühlung eingesetzt, aber heute machen wir das nicht mehr“, erklärte Altman. Er bestand darauf, dass die Effizienz moderner Infrastruktur bedeutet, dass die Ressourcenkosten pro Anfrage im Vergleich zu den sensationalistischen Zahlen, die oft in Umweltberichten zitiert werden, vernachlässigbar sind.
Das Gespräch in Neu-Delhi verdeutlichte auch die tiefer werdende ideologische und strategische Kluft zwischen Altman und SpaceX-CEO Elon Musk. Da Land und Strom auf der Erde zu knappen Ressourcen werden, hat Musk öffentlich für orbitale Rechenzentren plädiert und begonnen, in diese zu investieren – wobei Serverfarmen im Weltraum platziert werden, um kontinuierliche Solarenergie und natürliche Vakuumkühlung zu nutzen.
Auf dieses Konzept angesprochen, war Altman direkt. „Rechenzentren bei der derzeitigen Ausgangslage ins All zu verlegen, ist lächerlich“, sagte er.
Altman schlüsselte die Wirtschaftlichkeit auf, um seine Skepsis zu begründen, und zitierte die „grobe Mathematik“ der Startkosten im Verhältnis zur terrestrischen Stromerzeugung. Er merkte an, dass selbst mit den durch das Starship erreichten reduzierten Startkosten der Preis pro Kilogramm im Orbit schwere GPU-Cluster wirtschaftlich unrentabel macht. Darüber hinaus wies er auf den logistischen Albtraum der Wartung hin.
„Wie schwer ist es, eine defekte GPU im Weltraum zu reparieren?“, fragte Altman rhetorisch. „Sie gehen leider immer noch oft kaputt. So weit sind wir noch nicht.“ Er prognostizierte, dass orbitale Rechenzentren für mindestens ein weiteres Jahrzehnt keine Rolle in großem Maßstab spielen würden, was das Engagement von OpenAI für terrestrische Infrastruktur trotz der Herausforderungen für das Stromnetz bekräftigte.
Um die Abweichung zwischen Altmans pragmatischem terrestrischem Ansatz und den futuristischen orbitalen Vorschlägen zu verstehen, können wir uns die vergleichenden Einschränkungen beider Modelle ansehen.
Tabelle: Machbarkeit terrestrischer vs. orbitaler KI-Infrastruktur
| Metrik | Terrestrische Rechenzentren (OpenAI-Strategie) | Orbitale Rechenzentren (Musk/SpaceX-Konzept) |
|---|---|---|
| Primäre Energiequelle | Kernkraft, Wind-, Solarstromnetz | Direkte Sonnenstrahlung |
| Kühlmechanismus | Flüssigkeitskühlung / Luftaustausch | Strahlungskühlung (Vakuum) |
| Wartungszugang | Sofort / Techniker vor Ort | Remote / Hochriskante Robotik-Reparatur |
| Latenz | Niedrig (Glasfaser) | Variabel (Entfernungsabhängig) |
| Kapitalaufwand | Hoch (Bau & Netzanschluss) | Extrem (Start & Strahlungshärtung) |
| Skalierungszeitplan | Sofort (Aktuelles Jahrzehnt) | Langfristig (2035+) |
Wenn der Weltraum nicht die Antwort ist, machte Altman deutlich, dass die Lösung in einer massiven Überholung des Energienetzes der Erde liegt. Er räumte ein, dass der gesamte aggregierte Energieverbrauch von KI ein berechtigtes Anliegen ist, das sich von der Effizienz pro Anfrage unterscheidet. Um den Bedarf von Projekten wie dem gemunkelten „Stargate“-Supercomputer zu decken – eine 100-Milliarden-Dollar-Kooperation mit Microsoft –, plädierte Altman für eine rasche Beschleunigung der Einführung von Kernkraft.
„Wir müssen uns sehr schnell in Richtung Kernkraft oder Wind und Sonne bewegen“, drängte er. Diese Ausrichtung auf Kernenergie steht im Einklang mit Altmans persönlichen Investitionen; er unterstützte bekanntermaßen Oklo, ein Kernspaltungs-Startup, und Helion Energy, ein Fusionsunternehmen.
Die Vision des OpenAI-CEO für die Zukunft beinhaltet eine symbiotische Beziehung, in der die KI-Nachfrage die Kapitalinvestitionen antreibt, die zur Modernisierung des Energienetzes notwendig sind, was letztendlich zu billigerer und reichlich vorhandener sauberer Energie für alle Sektoren führt. Er lehnte die Idee ab, den KI-Fortschritt zu drosseln, um Energie zu sparen, und stellte die Technologie als genau das Werkzeug dar, das die Menschheit braucht, um die Klimakrise zu lösen.
Während seines Besuchs überhäufte Altman das indische Tech-Ökosystem mit Lob und bezeichnete die „Builder-Energie“ des Landes als beispiellos. Seine Anwesenheit auf dem Gipfel, an der Seite von Premierminister Narendra Modi, unterstreicht die strategische Bedeutung Indiens nicht nur als Markt, sondern als Talentzentrum und potenzielles Testfeld für skalierbare KI-Lösungen.
Altman merkte an, dass Indiens rasche Einführung digitaler Infrastruktur das Land in die einzigartige Lage versetzt, Altsysteme zu überspringen und KI potenziell schneller in öffentliche Dienste zu integrieren als viele westliche Nationen. Er warnte jedoch, dass dieses Wachstum von der Verfügbarkeit von Rechenleistung abhängt – einer Ressource, die er als die „Währung der Zukunft“ bezeichnete.
Die Verteidigung von Sam Altman in Neu-Delhi beleuchtet ein kritisches Paradoxon in der KI-Revolution. Während sich die Effizienz einzelner Modelle verbessern mag – und bei Betrachtung durch eine spezifische evolutionäre Linse sogar vorteilhaft im Vergleich zur biologischen Intelligenz abschneiden könnte –, schießt der Gesamtbedarf in die Höhe.
Indem er weltraumbasierte Lösungen als verfrüht abtut und Mythen über den Wasserverbrauch entlarvt, steuert Altman die Branche auf eine sehr spezifische Zukunft zu: eine, die an die Erde gebunden ist, durch Kernspaltung angetrieben wird und durch den immensen langfristigen Nutzen einer künstlichen allgemeinen Intelligenz (Artificial General Intelligence, AGI) gerechtfertigt ist. Während das Rennen um Rechenleistung an Intensität gewinnt, wird die Fähigkeit der Branche, diese Versprechen in Bezug auf grüne Energie einzulösen, wahrscheinlich darüber entscheiden, ob die öffentliche Meinung wohlwollend bleibt oder ins Feindselige umschlägt.
Vorerst ist Altmans Botschaft an die Welt klar: Die Kosten für Intelligenz sind hoch, aber die Kosten für Stillstand sind höher.