
In einer wegweisenden Entwicklung für den Sektor der künstlichen Intelligenz (Artificial Intelligence, AI) hat Nvidia eine mehrjährige strategische Partnerschaft mit Thinking Machines Lab formalisiert, dem ambitionierten KI-Startup, das von der ehemaligen Chief Technology Officer von OpenAI, Mira Murati, gegründet wurde. Wie von Creati.ai verfolgt und analysiert, stellt diese Zusammenarbeit eine der umfangreichsten Hardware-Zusagen in der Geschichte der Branche dar. Der Kern der Vereinbarung konzentriert sich auf eine umfassende Verpflichtung von Thinking Machines Lab, ab Anfang 2027 mindestens ein Gigawatt der nächsten Generation von Nvidias Vera Rubin systems einzusetzen.
Jenseits des massiven Hardware-Liefervertrags hat Nvidia eine „signifikante Investition“ in das Startup getätigt und nicht offengelegtes Kapital bereitgestellt, um dessen langfristige Forschungs- und Wachstumspläne zu stärken. Branchenanalysten schätzen die Chip-Lieferkomponenten dieses Deals auf einen Wert von Dutzenden Milliarden Dollar, was das immense finanzielle und rechentechnische Ausmaß unterstreicht, das erforderlich ist, um im modernen KI-Wettrüsten zu bestehen. Durch die Verknüpfung von finanzieller Unterstützung mit einer massiven Rechenpipeline befeuert Nvidia direkt einen aufstrebenden Herausforderer im Bereich der Frontier-Modelle (Frontier Models).
Um die Tragweite einer Zusage für ein Ein-Gigawatt-Rechenzentrum vollends zu erfassen, muss man das rohe physische und wirtschaftliche Ausmaß betrachten. Ein gigawatt an Elektrizität entspricht in etwa dem Stromverbrauch einer mittelgroßen Stadt. Diese enorme Menge an Energie ausschließlich dem Training und der Inferenz künstlicher Intelligenz zu widmen, markiert einen monumentalen Sprung gegenüber aktuellen Mega-Clustern.
Nvidia-CEO Jensen Huang schätzte zuvor, dass der Bau einer Ein-Gigawatt-KI-Rechenanlage Kapitalausgaben in der Größenordnung von 50 Milliarden Dollar erfordert. Durch die Sicherung dieser Kapazität wird Thinking Machines Lab sofort in die oberste Riege der KI-Forschungseinrichtungen katapultiert und erreicht oder übertrifft sogar die infrastrukturellen Fähigkeiten etablierter Technologiegiganten.
Das Rückgrat dieses massiven Einsatzes werden die Vera-Rubin-Systeme sein, Nvidias mit Spannung erwarteter Nachfolger der Blackwell-Architektur.
Kern-Hardwarekomponenten der Vereinbarung:
| Infrastrukturkomponente | Technische Spezifikation | Strategischer Zweck |
|---|---|---|
| Rubin-GPU | 336 Milliarden Transistoren pro Chip Optimiert für massive Inferenz-Workloads |
Treibt Deep Learning und das Training von Frontier-Modellen in extremem Maßstab an |
| Vera-CPU | 88-Kern-Architektur Nutzt Armv9.2-Befehlssatz |
Gewährleistet hohen Datendurchsatz und nahtlose Systemverwaltung |
| Anlagenkapazität | 1-Gigawatt-Leistungszuweisung Geschätzte Dutzende Milliarden an Wert |
Unterstützt die langfristige, ununterbrochene Bereitstellung anpassbarer KI-Plattformen |
Seit seiner offiziellen Gründung Anfang 2025 hat sich Thinking Machines Lab in rasantem Tempo bewegt. Gegründet von Mira Murati nach ihrem vielbeachteten Abschied von OpenAI Ende 2024, hat sich das gemeinnützige Unternehmen (Public Benefit Corporation) als ernstzunehmender, unabhängiger Herausforderer für KI-Labore mit geschlossenen Ökosystemen positioniert.
Das Unternehmen sicherte sich zuvor eine massive 2-Milliarden-Dollar-Seed-Runde von einem Konsortium schwergewichtiger Investoren – darunter Advanced Micro Devices (AMD) und ServiceNow –, was seine Bewertung nur wenige Monate nach dem Start auf erstaunliche 12 Milliarden Dollar katapultierte. Bemerkenswerterweise führte Muratis unerschütterliches Festhalten an ihrer unabhängigen Vision dazu, dass sie im vergangenen Jahr Berichten zufolge ein Übernahmeangebot von Metas Mark Zuckerberg ablehnte.
Trotz anfänglicher Turbulenzen in der Führungsebene, einschließlich einer Umstrukturierung des Managements, hat Thinking Machines Lab einen laserähnlichen Fokus auf seine einzigartige technologische Philosophie beibehalten: die Priorisierung der Mensch-KI-Kollaboration gegenüber rein autonomem Handeln. Anstatt undurchsichtige Black-Box-Systeme zu bauen, zielt das Labor darauf ab, hochgradig anpassungsfähige, multimodale KI zu erschaffen, die Nutzer umfassend gestalten, verstehen und in spezialisierte Arbeitsabläufe integrieren können.
Ein entscheidendes Differenzierungsmerkmal für Thinking Machines Lab ist sein Ansatz bei der Entwicklung von Unternehmensprodukten. Während führende Wettbewerber die Nutzer oft in proprietäre Verbraucher-Webschnittstellen einsperren, priorisiert Thinking Machines die Zugänglichkeit für Entwickler, wissenschaftliche Transparenz und effizientes Modell-Feintuning.
Der Flaggschiff-Cloud-Service des Unternehmens, die Tinker API, ist beispielhaft für diese Mission. Der Dienst ermöglicht es Entwicklern, Forschern und Unternehmenskunden, hochgradig angepasste Versionen von Open-Source-Large-Language-Models (LLMs) zu erstellen und so effektiv die Lücke zwischen Frontier-Fähigkeiten und lokalisierten, domänenspezifischen Anforderungen zu schließen.
Wichtige Vorteile des Tinker-API-Ökosystems sind:
Der massive Zustrom an Nvidia-Rechenleistung wird die globale Expansion der Tinker API direkt unterstützen und es ihr ermöglichen, mühelos zu skalieren und zunehmend komplexe, multimodale Anpassungsanfragen von Unternehmenskunden weltweit zu bearbeiten.
Die Führung beider Organisationen hat betont, dass diese Transaktion nicht bloß ein traditioneller Hardware-Kaufvertrag ist, sondern eine geteilte philosophische Ausrichtung auf die zukünftige Entwicklung der künstlichen Intelligenz darstellt.
„KI ist das mächtigste Instrument zur Wissensentdeckung in der Geschichte der Menschheit“, erklärte Nvidia-Gründer und CEO Jensen Huang angesichts des historischen Ausmaßes der Partnerschaft. „Thinking Machines hat ein Weltklasse-Team zusammengestellt, um die Grenzen der KI zu erweitern. Wir freuen uns sehr, mit Thinking Machines zusammenzuarbeiten, um ihre aufregende Vision für die Zukunft der KI zu verwirklichen.“
Für Mira Murati garantiert die Allianz die infrastrukturelle Stabilität, die notwendig ist, um etablierte Technologie-Monopole herauszufordern und die Mensch-Maschine-Interaktion neu zu definieren. „Die Technologie von NVIDIA ist das Fundament, auf dem das gesamte Feld aufgebaut ist“, bemerkte Murati in der gemeinsamen Ankündigung. „Diese Partnerschaft beschleunigt unsere Fähigkeit, KI zu bauen, die Menschen formen und zu ihrer eigenen machen können, während sie ihrerseits das menschliche Potenzial formt.“
Aus der analytischen Perspektive von Creati.ai signalisiert diese strategische Partnerschaft eine entscheidende Evolution in den breiteren KI-Hardware- und Softwaremärkten. Nvidia nutzt zunehmend seine dominante Marktposition, um die nächste Generation von KI-Softwareführern aktiv zu fördern und in sie zu investieren. Indem Nvidia neben seiner Hardware eine „signifikante Investition“ bereitstellt, stellt das Unternehmen sicher, dass innovative Plattformen vom ersten Tag an grundlegend für seine proprietären Architekturen optimiert sind, wodurch ein hochintegriertes, vertikal ausgerichtetes Ökosystem entsteht.
Diese Strategie fällt mit Nvidias breiterem Vorstoß in den Bereich Unternehmenssoftware zusammen, der durch den erwarteten Start seiner Open-Source-KI-Plattform für Unternehmen, NemoClaw, auf der kommenden GTC 2026-Konferenz unterstrichen wird. Zusammen verdeutlichen diese Schritte Nvidias bewussten Wandel von einem reinen Halbleiterhersteller zu einem ganzheitlichen Kraftzentrum für KI-Infrastruktur und -Software.
Während die Branche auf den Einsatz der Vera-Rubin-Systeme Anfang 2027 blickt, sind alle Augen auf Thinking Machines Lab gerichtet. Ausgestattet mit einer beispiellosen Rechenleistung von einem Gigawatt und unterstützt vom wertvollsten Technologieunternehmen der Welt, besitzt Mira Muratis Unternehmen sowohl das immense Kapital als auch das hochmoderne Silizium, das erforderlich ist, um neu zu definieren, wie menschliche Expertise und künstliche Intelligenz in den kommenden Jahrzehnten zusammenarbeiten.