
Em um desenvolvimento marcante para o setor de inteligência artificial, a Nvidia formalizou uma parceria estratégica plurianual com o Thinking Machines Lab, a ambiciosa startup de IA fundada pela ex-Diretora de Tecnologia da OpenAI, Mira Murati. Conforme rastreado e analisado pela Creati.ai, esta colaboração representa um dos compromissos de hardware mais substanciais na história da indústria. O cerne do acordo centra-se em um compromisso abrangente do Thinking Machines Lab para implantar pelo menos um gigawatt dos sistemas Vera Rubin de próxima geração da Nvidia a partir do início de 2027.
Além do massivo acordo de fornecimento de hardware, a Nvidia fez um "investimento significativo" na startup, infundindo capital não revelado para reforçar suas trajetórias de pesquisa e crescimento a longo prazo. Analistas do setor estimam que os componentes de fornecimento de chips deste acordo valem dezenas de bilhões de dólares, ressaltando a imensa escala financeira e computacional necessária para competir na moderna corrida armamentista da IA. Ao entrelaçar apoio financeiro com um pipeline de computação massivo, a Nvidia está impulsionando diretamente um desafiante em ascensão no espaço de modelos de fronteira (frontier models).
Para compreender totalmente a gravidade de um compromisso de data center de um gigawatt, deve-se examinar a escala física e econômica bruta envolvida. Um gigawatt de eletricidade é aproximadamente equivalente ao consumo de energia de uma cidade de médio porte. Dedicar este volume colossal de energia inteiramente ao treinamento e inferência de inteligência artificial destaca um salto monumental em relação aos mega-clusters atuais.
O CEO da Nvidia, Jensen Huang, estimou anteriormente que a construção de uma instalação de computação de IA de um gigawatt exige um gasto de capital (CapEx) em torno de US$ 50 bilhões. Ao garantir esta capacidade, o Thinking Machines Lab é instantaneamente catapultado para o escalão superior das entidades de pesquisa de IA, igualando ou até excedendo as capacidades de infraestrutura de gigantes da tecnologia legados.
A espinha dorsal desta implantação massiva serão os sistemas Vera Rubin, o sucessor altamente antecipado da arquitetura Blackwell da Nvidia.
Componentes Principais de Hardware do Acordo:
| Componente de Infraestrutura | Especificação Técnica | Propósito Estratégico |
|---|---|---|
| GPU Rubin | 336 bilhões de transistores por chip Otimizada para cargas de trabalho de inferência massivas |
Potencializa o aprendizado profundo (deep learning) e o treinamento de modelos de fronteira em escala extrema |
| CPU Vera | Arquitetura de 88 núcleos Utiliza conjunto de instruções Armv9.2 |
Garante processamento de dados de alto rendimento e gerenciamento de sistema contínuo |
| Capacidade da Instalação | Alocação de energia de 1 gigawatt Valor estimado em dezenas de bilhões |
Suporta a implantação ininterrupta de longo prazo de plataformas de IA personalizáveis |
Desde o seu início oficial no início de 2025, o Thinking Machines Lab tem se movido em um ritmo alucinante. Fundada por Mira Murati após sua saída de alto perfil da OpenAI no final de 2024, a empresa de benefício público (Public Benefit Corporation) posicionou-se como uma desafiante formidável e independente aos laboratórios de IA de ecossistema fechado.
A empresa garantiu anteriormente uma massiva rodada semente (seed round) de US$ 2 bilhões de um consórcio de investidores de peso — incluindo Advanced Micro Devices (AMD) e ServiceNow — o que catapultou sua avaliação para impressionantes US$ 12 bilhões apenas meses após o lançamento. Notavelmente, o compromisso inabalável de Murati com sua visão independente teria levado-a a rejeitar uma oferta de aquisição de Mark Zuckerberg, da Meta, no ano passado.
Apesar de enfrentar turbulências executivas precoces, incluindo reestruturação de liderança, o Thinking Machines Lab manteve um foco laser em sua filosofia tecnológica única: priorizar a colaboração humano-IA em vez de pura agência autônoma. Em vez de construir sistemas opacos de "caixa-preta", o laboratório visa criar uma IA multimodal altamente adaptável que os usuários possam moldar, compreender e integrar de forma abrangente em fluxos de trabalho especializados.
Um diferencial crítico para o Thinking Machines Lab é sua abordagem ao desenvolvimento de produtos empresariais. Enquanto os principais concorrentes frequentemente prendem os usuários em interfaces web de consumo proprietárias, a Thinking Machines está priorizando a acessibilidade do desenvolvedor, a transparência científica e o ajuste fino (fine-tuning) eficiente de modelos.
O principal serviço de nuvem da empresa, a Tinker API, exemplifica esta missão. O serviço capacita desenvolvedores, pesquisadores e clientes empresariais a criar versões altamente personalizadas de modelos de linguagem de grande escala (LLMs) de código aberto, preenchendo efetivamente a lacuna entre capacidades de fronteira e requisitos localizados e específicos de domínio.
As principais vantagens do ecossistema Tinker API incluem:
O influxo massivo de poder computacional da Nvidia apoiará diretamente a expansão global da Tinker API, permitindo que ela escale sem esforço e lide com solicitações de personalização multimodal cada vez mais complexas de clientes empresariais em todo o mundo.
A liderança de ambas as organizações enfatizou que esta transação não é meramente um acordo tradicional de compra de hardware, mas um alinhamento filosófico compartilhado sobre a trajetória futura da inteligência artificial.
"A IA é o instrumento de descoberta de conhecimento mais poderoso na história da humanidade", afirmou o fundador e CEO da Nvidia, Jensen Huang, abordando a escala histórica da parceria. "A Thinking Machines reuniu uma equipe de classe mundial para avançar a fronteira da IA. Estamos entusiasmados em fazer parceria com a Thinking Machines para realizar sua visão empolgante para o futuro da IA."
Para Mira Murati, a aliança garante a estabilidade de infraestrutura necessária para desafiar os monopólios tecnológicos estabelecidos e redefinir a interação homem-máquina. "A tecnologia da NVIDIA é a base sobre a qual todo o campo é construído", observou Murati no anúncio conjunto. "Esta parceria acelera nossa capacidade de construir uma IA que as pessoas possam moldar e tornar sua, enquanto ela molda o potencial humano por sua vez."
Sob a perspectiva analítica da Creati.ai, esta parceria estratégica sinaliza uma evolução crucial nos mercados mais amplos de hardware e software de IA. A Nvidia está cada vez mais aproveitando sua posição dominante no mercado para incubar ativamente e investir na próxima geração de líderes de software de IA. Ao fornecer um "investimento significativo" junto com seu hardware, a Nvidia garante que as plataformas de ponta sejam fundamentalmente otimizadas para suas arquiteturas proprietárias desde o primeiro dia, criando um ecossistema altamente integrado e alinhado verticalmente.
Esta estratégia coincide com o impulso mais amplo da Nvidia em direção ao software empresarial, destacado pelo lançamento antecipado de sua plataforma de IA empresarial de código aberto, NemoClaw, na próxima conferência GTC 2026. Juntos, esses movimentos ilustram a transição deliberada da Nvidia de uma pura fornecedora de semicondutores para uma potência holística de infraestrutura e software de IA.
À medida que a indústria olha para a implantação dos sistemas Vera Rubin no início de 2027, todos os olhos estarão voltados para o Thinking Machines Lab. Equipado com um gigawatt sem precedentes de poder de computação e apoiado pela empresa de tecnologia mais valiosa do mundo, o empreendimento de Mira Murati possui tanto o capital imenso quanto o silício de ponta necessários para redefinir como a experiência humana e a inteligência artificial colaboram nas décadas que virão.