
En una comparecencia desafiante y detallada en el evento "Express Adda" de Indian Express en Nueva Delhi esta semana, el CEO de OpenAI, Sam Altman, lanzó una vigorosa defensa del consumo de recursos de la industria de la inteligencia artificial (IA, Artificial Intelligence). Enfrentándose a una andanada de preguntas sobre la huella de carbono de los modelos de lenguaje extensos (LLM, Large Language Models), Altman buscó reformular la narrativa, argumentando que los costos energéticos del entrenamiento de la IA a menudo se malinterpretan y son posiblemente más eficientes que la energía biológica requerida para producir inteligencia humana.
El evento, parte de la Cumbre de Impacto de la IA en la India 2026 (India AI Impact Summit 2026) más amplia, contó con la participación de Altman dirigiéndose a legisladores, líderes tecnológicos y periodistas. Sus comentarios llegan en un momento crítico para el sector de la IA, que está lidiando con un creciente escrutinio sobre la huella de carbono de los centros de datos y el uso de agua asociado con la refrigeración de clústeres de computación de alto rendimiento. En lugar de ceder ante las críticas, Altman pasó a la ofensiva, desmintiendo estadísticas virales y descartando propuestas de infraestructura alternativas —específicamente las del rival Elon Musk— como "ridículas".
El núcleo del argumento de Altman en Nueva Delhi se centró en lo que describió como una comparación "injusta" que suelen hacer los críticos. Señaló que los detractores suelen comparar la energía masiva y concentrada necesaria para entrenar un modelo de frontera como GPT-5 con la mínima energía que utiliza un cerebro humano para realizar una sola tarea de inferencia.
"La gente habla de cuánta energía se necesita para entrenar un modelo de IA", dijo Altman a la audiencia. "Pero también se necesita mucha energía para entrenar a un humano. Se necesitan unos 20 años de vida y toda la comida que consumes durante ese tiempo antes de volverte inteligente".
Altman amplió este "referente biológico" para incluir el costo energético acumulativo de la evolución humana, sugiriendo que la inteligencia humana es el producto de miles de millones de años de ensayo y error biológico, todo lo cual consumió vastos recursos. Según esta métrica, argumentó, un modelo que requiere gigavatios-hora de electricidad para entrenarse pero que luego puede servir a millones de usuarios instantáneamente podría haber "alcanzado la paridad en términos de eficiencia energética".
Esta comparación intenta desplazar el marco del discurso del impacto inmediato en la red eléctrica a un cálculo de utilidad a largo plazo. Sin embargo, también provocó un debate inmediato entre los asistentes y los comentaristas en línea, con algunos, como el cofundador de Zoho, Sridhar Vembu, rechazando la equiparación de la utilidad tecnológica con la existencia biológica humana.
Más allá de la electricidad, Altman apuntó a las estadísticas que circulan ampliamente sobre el consumo de agua de la IA. Informes virales recientes han afirmado que una sola consulta a un chatbot podría consumir hasta 17 galones de agua o el equivalente energético de cargar completamente un teléfono inteligente varias veces.
Altman rechazó categóricamente estas cifras. "Esto es completamente falso, totalmente de locos, sin conexión con la realidad", afirmó, visiblemente frustrado por la persistencia de estas afirmaciones.
He aclaró que, si bien los centros de datos más antiguos dependían en gran medida de la refrigeración por evaporación —un proceso que sí consume una cantidad significativa de agua—, la industria ha pivotado en gran medida hacia la refrigeración líquida de circuito cerrado y otros sistemas avanzados de gestión térmica que minimizan la pérdida de agua. "Solíamos usar refrigeración por evaporación en los centros de datos, pero ahora ya no hacemos eso", explicó Altman. Insistió en que la eficiencia de la infraestructura moderna significa que el costo de recursos por consulta es insignificante en comparación con las cifras sensacionalistas citadas a menudo en los informes medioambientales.
La conversación en Nueva Delhi también destacó la profunda brecha ideológica y estratégica entre Altman y el CEO de SpaceX, Elon Musk. Con la tierra y la energía convirtiéndose en recursos escasos en la Tierra, Musk ha abogado públicamente por —y ha comenzado a invertir en— centros de datos orbitales, colocando granjas de servidores en el espacio para aprovechar la energía solar continua y la refrigeración natural por vacío.
Cuando se le preguntó sobre este concepto, Altman fue tajante. "Poner centros de datos en el espacio con el panorama actual es ridículo", dijo.
Altman desglosó la economía para justificar su escepticismo, citando el "cálculo aproximado" de los costos de lanzamiento en relación con la generación de energía terrestre. Señaló que incluso con la reducción de los costos de lanzamiento lograda por el Starship, el precio por kilogramo en órbita hace que los clústeres pesados de GPU sean económicamente inviables. Además, señaló la pesadilla logística del mantenimiento.
"¿Qué tan difícil es arreglar una GPU rota en el espacio?", preguntó Altman retóricamente. "Desafortunadamente, todavía se rompen mucho. Aún no hemos llegado a ese punto". Predijo que los centros de datos orbitales no importarán a escala durante al menos otra década, reforzando el compromiso de OpenAI con la infraestructura terrestre a pesar de los desafíos de la red.
Para entender la divergencia entre el enfoque pragmático terrestre de Altman y las propuestas orbitales futuristas, podemos observar las limitaciones comparativas de ambos modelos.
Tabla: Viabilidad de la infraestructura de IA terrestre frente a la orbital
| Métrica | Centros de datos terrestres (Estrategia de OpenAI) | Centros de datos orbitales (Concepto Musk/SpaceX) |
|---|---|---|
| Fuente de energía primaria | Red de energía nuclear, eólica, solar | Radiación solar directa |
| Mecanismo de refrigeración | Refrigeración líquida / Intercambio de aire | Refrigeración radiativa (Vacío) |
| Acceso para mantenimiento | Inmediato / Técnicos in situ | Remoto / Reparación robótica de alto riesgo |
| Latencia | Baja (Fibra óptica) | Variable (Dependiente de la distancia) |
| Gasto de capital | Alto (Construcción y conexión a la red) | Extremo (Lanzamiento y endurecimiento por radiación) |
| Cronograma de escalabilidad | Inmediato (Década actual) | A largo plazo (2035+) |
Si el espacio no es la respuesta, Altman dejó claro que la solución reside en una revisión masiva de la red energética de la Tierra. Reconoció que el consumo total agregado de energía de la IA es una preocupación legítima, distinta de la eficiencia por consulta. Para satisfacer la demanda de proyectos como el rumoreado supercomputador "Stargate" —una colaboración de 100.000 millones de dólares con Microsoft—, Altman abogó por una aceleración rápida de la adopción de la energía nuclear.
"Necesitamos avanzar hacia la energía nuclear o la eólica y solar muy rápidamente", instó. Esta alineación con la energía nuclear es coherente con las inversiones personales de Altman; es conocido por haber respaldado a Oklo, una startup de fisión nuclear, y a Helion Energy, una empresa de fusión.
La visión del CEO de OpenAI para el futuro implica una relación simbiótica donde la demanda de IA impulse la inversión de capital necesaria para modernizar la red energética, lo que finalmente conducirá a una energía limpia más barata y abundante para todos los sectores. Rechazó la idea de frenar el progreso de la IA para ahorrar energía, enmarcando la tecnología como la herramienta misma que la humanidad necesita para resolver la crisis climática.
Durante su visita, Altman elogió profusamente el ecosistema tecnológico de la India, describiendo la "energía constructora" del país como inigualable. Su presencia en la cumbre, junto al Primer Ministro Narendra Modi, subraya la importancia estratégica de la India no solo como mercado, sino como centro de talento y campo de pruebas potencial para soluciones de IA escalables.
Altman señaló que la rápida adopción de la infraestructura digital en la India la coloca en una posición única para saltarse sistemas heredados, integrando potencialmente la IA en los servicios públicos más rápido que muchas naciones occidentales. Sin embargo, advirtió que este crecimiento depende de la disponibilidad de cómputo, un recurso que describió como la "moneda del futuro".
La defensa de Sam Altman en Nueva Delhi destaca una paradoja crítica en la revolución de la IA. Si bien la eficiencia de los modelos individuales puede estar mejorando —e incluso puede compararse favorablemente con la inteligencia biológica cuando se ve a través de una lente evolutiva específica—, la demanda agregada se está disparando.
Al descartar las soluciones espaciales como prematuras y desmentir los mitos sobre el uso del agua, Altman está dirigiendo la industria hacia un futuro muy específico: uno anclado a la Tierra, impulsado por la fisión nuclear y justificado por la inmensa utilidad a largo plazo de la inteligencia artificial general (AGI, Artificial General Intelligence). A medida que se intensifica la carrera por el cómputo, la capacidad de la industria para cumplir con estas promesas de energía verde probablemente determinará si el sentimiento público sigue siendo permisivo o se vuelve hostil.
Por ahora, el mensaje de Altman al mundo es claro: El costo de la inteligencia es alto, pero el costo del estancamiento es mayor.