
En un desarrollo trascendental para el sector de la inteligencia artificial (Artificial Intelligence, AI), Nvidia ha formalizado una asociación estratégica plurianual con Thinking Machines Lab, la ambiciosa startup de IA fundada por la ex Directora de Tecnología (Chief Technology Officer, CTO) de OpenAI, Mira Murati. Según el seguimiento y análisis de Creati.ai, esta colaboración representa uno de los compromisos de hardware más sustanciales en la historia de la industria. El núcleo del acuerdo se centra en un compromiso integral por parte de Thinking Machines Lab para desplegar al menos un gigavatio (gigawatt) de los sistemas Vera Rubin de próxima generación de Nvidia a partir de principios de 2027.
Más allá del masivo acuerdo de suministro de hardware, Nvidia ha realizado una "inversión significativa" en la startup, infundiendo capital no revelado para fortalecer sus trayectorias de investigación y crecimiento a largo plazo. Los analistas de la industria estiman que los componentes de suministro de chips de este acuerdo valen decenas de miles de millones de dólares, lo que subraya la inmensa escala financiera y computacional requerida para competir en la carrera armamentista moderna de la IA. Al entrelazar el respaldo financiero con una canalización masiva de computación, Nvidia está impulsando directamente a un competidor emergente en el espacio de los modelos de frontera (frontier models).
Para comprender plenamente la gravedad de un compromiso de centro de datos de un gigavatio, se debe examinar la escala física y económica bruta involucrada. Un gigavatio (gigawatt) de electricidad es aproximadamente equivalente al consumo de energía de una ciudad de tamaño medio. Dedicar este volumen puro de energía exclusivamente al entrenamiento (training) e inferencia (inference) de inteligencia artificial resalta un salto monumental desde los mega-clústeres actuales.
El CEO de Nvidia, Jensen Huang, estimó previamente que la construcción de una instalación de computación de IA de un gigavatio requiere un gasto de capital (capital expenditure) de alrededor de 50.000 millones de dólares. Al asegurar esta capacidad, Thinking Machines Lab se propulsa instantáneamente al escalafón superior de las entidades de investigación de IA, igualando o incluso superando las capacidades de infraestructura de los gigantes tecnológicos tradicionales.
El eje central de este despliegue masivo serán los sistemas Vera Rubin, el muy esperado sucesor de la arquitectura Blackwell de Nvidia.
Componentes principales de hardware del acuerdo:
| Componente de infraestructura | Especificación técnica | Propósito estratégico |
|---|---|---|
| Rubin GPU | 336.000 millones de transistores por chip Optimizado para cargas de trabajo de inferencia masivas |
Impulsa el aprendizaje profundo y el entrenamiento de modelos de frontera a una escala extrema |
| Vera CPU | Arquitectura de 88 núcleos Utiliza el conjunto de instrucciones Armv9.2 |
Garantiza el procesamiento de datos de alto rendimiento y una gestión del sistema fluida |
| Capacidad de la instalación | Asignación de energía de 1 gigavatio Valor estimado en decenas de miles de millones |
Admite el despliegue ininterrumpido a largo plazo de plataformas de IA personalizables |
Desde su creación oficial a principios de 2025, Thinking Machines Lab se ha movido a un ritmo vertiginoso. Fundada por Mira Murati tras su sonada salida de OpenAI a finales de 2024, la corporación de beneficio público se ha posicionado como un competidor formidable e independiente frente a los laboratorios de IA de ecosistema cerrado.
La empresa aseguró previamente una ronda semilla masiva de 2.000 millones de dólares de un consorcio de inversores de peso —incluyendo Advanced Micro Devices (AMD) y ServiceNow— lo que catapultó su valoración a la asombrosa cifra de 12.000 millones de dólares solo unos meses después del lanzamiento. Notablemente, el firme compromiso de Murati con su visión independiente la llevó, según se informa, a rechazar una oferta de adquisición de Mark Zuckerberg de Meta el año pasado.
A pesar de navegar por turbulencias ejecutivas tempranas, incluida la reestructuración del liderazgo, Thinking Machines Lab ha mantenido un enfoque láser en su filosofía tecnológica única: priorizar la colaboración humano-IA sobre la agencia autónoma pura. En lugar de construir sistemas de caja negra opacos, el laboratorio pretende crear una IA multimodal altamente adaptable que los usuarios puedan moldear, comprender e integrar de manera integral en flujos de trabajo especializados.
Un diferenciador crítico para Thinking Machines Lab es su enfoque hacia el desarrollo de productos empresariales. Mientras que los principales competidores a menudo encierran a los usuarios en interfaces web de consumo patentadas, Thinking Machines está priorizando la accesibilidad para desarrolladores, la transparencia científica y el ajuste fino (fine-tuning) eficiente de los modelos.
El servicio en la nube insignia de la empresa, la Tinker API, ejemplifica esta misión. El servicio permite a desarrolladores, investigadores y clientes empresariales crear versiones altamente personalizadas de modelos de lenguaje de gran tamaño (Large Language Models, LLM) de código abierto, cerrando eficazmente la brecha entre las capacidades de frontera y los requisitos localizados y específicos de cada dominio.
Las ventajas clave del ecosistema Tinker API incluyen:
La afluencia masiva de potencia de cálculo de Nvidia apoyará directamente la expansión global de la Tinker API, permitiéndole escalar sin esfuerzo y manejar solicitudes de personalización multimodal cada vez más complejas de clientes empresariales en todo el mundo.
El liderazgo de ambas organizaciones ha enfatizado que esta transacción no es simplemente un acuerdo tradicional de compra de hardware, sino una alineación filosófica compartida sobre la trayectoria futura de la inteligencia artificial.
"La IA es el instrumento de descubrimiento de conocimiento más poderoso en la historia de la humanidad", afirmó el fundador y CEO de Nvidia, Jensen Huang, al referirse a la escala histórica de la asociación. "Thinking Machines ha reunido a un equipo de clase mundial para avanzar en la frontera de la IA. Estamos encantados de asociarnos con Thinking Machines para hacer realidad su emocionante visión del futuro de la IA".
Para Mira Murati, la alianza garantiza la estabilidad de infraestructura necesaria para desafiar los monopolios tecnológicos establecidos y redefinir la interacción humano-máquina. "La tecnología de NVIDIA es la base sobre la que se construye todo el campo", señaló Murati en el anuncio conjunto. "Esta asociación acelera nuestra capacidad para construir una IA que las personas puedan moldear y hacer suya, al tiempo que esta moldea el potencial humano a su vez".
Desde la perspectiva analítica de Creati.ai, esta asociación estratégica señala una evolución crucial en los mercados más amplios de hardware y software de IA. Nvidia está aprovechando cada vez más su posición dominante en el mercado para incubar e invertir activamente en la próxima generación de líderes de software de IA. Al proporcionar una "inversión significativa" junto con su hardware, Nvidia garantiza que las plataformas de vanguardia estén fundamentalmente optimizadas para sus arquitecturas patentadas desde el primer día, creando un ecosistema altamente integrado y alineado verticalmente.
Esta estrategia coincide con el impulso más amplio de Nvidia hacia el software empresarial, destacado por el lanzamiento previsto de su plataforma de IA empresarial de código abierto, NemoClaw, en la próxima conferencia GTC 2026. Juntos, estos movimientos ilustran la transición deliberada de Nvidia de ser un puro proveedor de semiconductores a una potencia integral de infraestructura y software de IA.
Mientras la industria mira hacia el despliegue de los sistemas Vera Rubin a principios de 2027, todos los ojos estarán puestos en Thinking Machines Lab. Equipado con una potencia de cálculo sin precedentes de un gigavatio y respaldado por la empresa tecnológica más valiosa del mundo, el proyecto de Mira Murati posee tanto el capital inmenso como el silicio de vanguardia necesarios para redefinir cómo colaborarán la experiencia humana y la inteligencia artificial en las décadas venideras.