
Em uma aparição desafiadora e detalhada no evento "Express Adda" do Indian Express em Nova Deli esta semana, Sam Altman, CEO da OpenAI, lançou uma defesa vigorosa do consumo de recursos da indústria de Inteligência Artificial (Artificial Intelligence - AI). Enfrentando uma enxurrada de perguntas sobre a pegada ambiental dos Grandes Modelos de Linguagem (Large Language Models - LLMs), Altman buscou reformular a narrativa, argumentando que os custos de energia para treinar a IA são frequentemente mal compreendidos e indiscutivelmente mais eficientes do que a energia biológica necessária para produzir a inteligência humana.
O evento, parte da Cúpula de Impacto de IA na Índia 2026 (India AI Impact Summit 2026) mais ampla, contou com Altman se dirigindo a formuladores de políticas, líderes de tecnologia e jornalistas. Seus comentários surgem em um momento crítico para o setor de IA, que lida com o crescente escrutínio sobre a pegada de carbono dos centros de dados e o uso de água associado ao resfriamento de clusters de computação de alto desempenho. Em vez de ceder às críticas, Altman partiu para a ofensiva, desmistificando estatísticas virais e descartando propostas alternativas de infraestrutura — especificamente as do rival Elon Musk — como "ridículas".
O cerne do argumento de Altman em Nova Deli centrou-se no que ele descreveu como uma comparação "injusta" frequentemente feita por críticos. Ele observou que os detratores normalmente comparam a energia massiva e concentrada necessária para treinar um modelo de fronteira como o GPT-5 contra a energia mínima que um cérebro humano usa para realizar uma única tarefa de inferência.
"As pessoas falam sobre quanta energia leva para treinar um modelo de IA", disse Altman ao público. "Mas também leva muita energia para treinar um ser humano. Leva cerca de 20 anos de vida e toda a comida que você come durante esse tempo antes de se tornar inteligente."
Altman expandiu este "benchmark biológico" para incluir o custo energético cumulativo da evolução humana, sugerindo que a inteligência humana é o produto de bilhões de anos de tentativa e erro biológico, todos os quais consumiram vastos recursos. Por essa métrica, ele argumentou, um modelo que requer gigawatts-hora de eletricidade para ser treinado, mas que pode então servir milhões de usuários instantaneamente, pode na verdade ter "alcançado a equivalência em uma base de eficiência energética".
Esta comparação tenta mudar a janela do discurso do impacto imediato na rede elétrica para um cálculo de utilidade a longo prazo. No entanto, também gerou debate imediato entre os participantes e comentaristas online, com alguns, como o cofundador da Zoho, Sridhar Vembu, rejeitando a equiparação da utilidade tecnológica com a existência biológica humana.
Além da eletricidade, Altman mirou em estatísticas amplamente circulantes sobre o consumo de água da IA. Relatórios virais recentes afirmaram que uma única consulta a um chatbot poderia consumir até 17 galões (cerca de 64 litros) de água ou o equivalente energético de carregar totalmente um smartphone várias vezes.
Altman rejeitou categoricamente esses números. "Isso é completamente falso, totalmente insano, sem conexão com a realidade", afirmou ele, visivelmente frustrado com a persistência dessas alegações.
Ele esclareceu que, embora os centros de dados mais antigos dependessem fortemente do resfriamento evaporativo — um processo que de fato consome água significativa — a indústria mudou amplamente para o resfriamento líquido de circuito fechado e outros sistemas avançados de gerenciamento térmico que minimizam a perda de água. "Costumávamos fazer resfriamento evaporativo em centros de dados, mas agora não fazemos mais isso", explicou Altman. Ele insistiu que a eficiência da infraestrutura moderna significa que o custo de recursos por consulta é insignificante em comparação com os números sensacionalistas frequentemente citados em relatórios ambientais.
A conversa em Nova Deli também destacou a crescente fenda ideológica e estratégica entre Altman e o CEO da SpaceX, Elon Musk. Com a terra e a energia tornando-se recursos escassos na Terra, Musk defendeu publicamente, e começou a investir em, centros de dados orbitais — colocando fazendas de servidores no espaço para aproveitar a energia solar contínua e o resfriamento natural do vácuo.
Quando questionado sobre este conceito, Altman foi direto. "Colocar centros de dados no espaço com o cenário atual é ridículo", disse ele.
Altman detalhou a economia para justificar seu ceticismo, citando as "contas aproximadas" dos custos de lançamento em relação à geração de energia terrestre. Ele observou que, mesmo com a redução dos custos de lançamento alcançada pelo Starship, o preço por quilograma para a órbita torna os clusters pesados de Unidades de Processamento Gráfico (Graphics Processing Units - GPUs) economicamente inviáveis. Além disso, ele apontou para o pesadelo logístico da manutenção.
"Quão difícil é consertar uma GPU quebrada no espaço?", perguntou Altman retoricamente. "Infelizmente, elas ainda quebram muito. Ainda não chegamos lá." Ele previu que os centros de dados orbitais não teriam relevância em escala por pelo menos mais uma década, reforçando o compromisso da OpenAI com a infraestrutura terrestre, apesar dos desafios da rede elétrica.
Para entender a divergência entre a abordagem terrestre pragmática de Altman e as propostas orbitais futuristas, podemos observar as restrições comparativas de ambos os modelos.
Tabela: Viabilidade da Infraestrutura de IA Terrestre vs. Orbital
| Métrica | Centros de Dados Terrestres (Estratégia OpenAI) | Centros de Dados Orbitais (Conceito Musk/SpaceX) |
|---|---|---|
| Principal Fonte de Energia | Nuclear, Eólica, Rede Solar | Radiação Solar Direta |
| Mecanismo de Resfriamento | Resfriamento Líquido / Troca de Ar | Resfriamento Radiativo (Vácuo) |
| Acesso para Manutenção | Imediato / Técnicos no Local | Remoto / Reparo Robótico de Alto Risco |
| Latência | Baixa (Fibra Óptica) | Variável (Dependente da Distância) |
| Despesas de Capital (CapEx) | Alta (Construção e Conexão à Rede) | Extrema (Lançamento e Proteção contra Radiação) |
| Cronograma de Escalabilidade | Imediato (Década Atual) | Longo Prazo (2035+) |
Se o espaço não é a resposta, Altman deixou claro que a solução reside em uma revisão massiva da rede de energia da Terra. Ele reconheceu que o consumo total agregado de energia da IA é uma preocupação legítima, distinta da eficiência por consulta. Para atender à demanda de projetos como o suposto supercomputador "Stargate" — uma colaboração de US$ 100 bilhões com a Microsoft — Altman defendeu uma aceleração rápida da adoção da energia nuclear.
"Precisamos avançar em direção ao nuclear ou eólico e solar muito rapidamente", instou ele. Esse alinhamento com a energia nuclear é consistente com os investimentos pessoais de Altman; ele é conhecido por apoiar a Oklo, uma startup de fissão nuclear, e a Helion Energy, uma empresa de fusão.
A visão do CEO da OpenAI para o futuro envolve uma relação simbiótica onde a demanda por IA impulsiona o investimento de capital necessário para modernizar a rede de energia, levando, em última análise, a uma energia limpa mais barata e abundante para todos os setores. Ele rejeitou a ideia de frear o progresso da IA para economizar energia, enquadrando a tecnologia como a própria ferramenta que a humanidade precisa para resolver a crise climática.
Durante sua visita, Altman teceu elogios ao ecossistema tecnológico da Índia, descrevendo a "energia construtora" do país como inigualável. Sua presença na cúpula, ao lado do Primeiro-Ministro Narendra Modi, ressalta a importância estratégica da Índia não apenas como mercado, mas como um centro de talentos e potencial campo de testes para soluções de IA escaláveis.
Altman observou que a rápida adoção da infraestrutura digital pela Índia a coloca em uma posição única para saltar sobre sistemas legados, integrando potencialmente a IA nos serviços públicos mais rapidamente do que muitas nações ocidentais. No entanto, ele alertou que esse crescimento depende da disponibilidade de computação — um recurso que ele descreveu como a "moeda do futuro".
A defesa de Sam Altman em Nova Deli destaca um paradoxo crítico na revolução da IA. Embora a eficiência individual dos modelos possa estar melhorando — e possa até se comparar favoravelmente à inteligência biológica quando vista através de uma lente evolutiva específica — a demanda agregada está disparando.
Ao descartar soluções baseadas no espaço como prematuras e desmistificar os mitos do uso de água, Altman está conduzindo a indústria em direção a um futuro muito específico: um ancorado na Terra, alimentado por fissão nuclear e justificado pela imensa utilidade a longo prazo da Inteligência Artificial Geral (Artificial General Intelligence - AGI). À medida que a corrida por computação se intensifica, a capacidade da indústria de cumprir essas promessas de energia verde provavelmente determinará se o sentimento público permanecerá permissivo ou se tornará hostil.
Por enquanto, a mensagem de Altman ao mundo é clara: o custo da inteligência é alto, mas o custo da estagnação é ainda maior.