
AI分野における画期的な進展として、Nvidiaは、元OpenAIの最高技術責任者(CTO)であるMira Muratiによって設立された野心的なAIスタートアップ、Thinking Machines Labとの数年にわたる戦略的パートナーシップを正式に締結しました。Creati.aiによる追跡と分析によれば、この提携は業界史上、最も大規模なハードウェア調達へのコミットメントの一つとなります。合意の中核となるのは、Thinking Machines Labが2027年初頭から、Nvidiaの次世代**Vera Rubin systemsを少なくとも1ギガワット(gigawatt)**分導入するという広範な約束です。
大規模なハードウェア供給契約に加え、Nvidiaはこのスタートアップに対して「多額の投資(significant investment)」を行い、非公開の資本を投入して同社の長期的な研究と成長の軌道を強化しました。業界のアナリストは、この契約におけるチップ供給コンポーネントの価値を数百億ドル規模と見積もっており、現代のAI軍拡競争で戦うために必要な莫大な資金と計算規模を裏付けています。資金的支援と大規模な計算パイプラインを組み合わせることで、Nvidiaはフロンティアモデル(frontier model)分野の新興チャレンジャーを直接後押ししています。
1ギガワットのデータセンター契約の重要性を完全に把握するには、そこに含まれる生の物理的・経済的規模を検討する必要があります。1**gigawatt**の電力は、中規模都市の電力消費量にほぼ匹敵します。この膨大なエネルギーをすべて人工知能(AI)のトレーニングと推論に充てることは、現在のメガクラスターからの飛躍的な進歩を意味します。
NvidiaのCEOであるJensen Huangは以前、1ギガワット規模のAIコンピューティング施設を建設するには、約500億ドルの設備投資が必要であると推定していました。このキャパシティを確保することで、Thinking Machines Labは瞬時にAI研究機関の上位層へと押し上げられ、既存の巨大テック企業のインフラ能力に匹敵、あるいはそれを上回ることになります。
この大規模な展開の根幹を成すのは、Blackwellアーキテクチャの後継として期待されているNvidiaのVera Rubin systemsです。
本合意の主要なハードウェア構成要素:
| インフラ構成要素 | 技術仕様 | 戦略的役割 |
|---|---|---|
| Rubin GPU | 1チップあたり3360億個のトランジスタ 大規模な推論ワークロード向けに最適化 |
極限のスケールでのディープラーニングおよびフロンティアモデルのトレーニングを支援 |
| Vera CPU | 88コア・アーキテクチャ Armv9.2命令セットを採用 |
高スループットのデータ処理とシームレスなシステム管理を保証 |
| 施設容量 | 1ギガワットの電力割り当て 数百億ドルの価値と推定 |
カスタマイズ可能なAIプラットフォームの長期にわたる中断のない運用をサポート |
2025年初頭の正式発足以来、Thinking Machines Labは猛烈なスピードで動いています。2024年末にOpenAIを華々しく去ったMira Muratiによって設立されたこの公益法人(public benefit corporation)は、閉鎖的なエコシステムを持つAI研究所に対抗する強力な独立系チャレンジャーとしての地位を確立しました。
同社は以前、Advanced Micro Devices(AMD)やServiceNowを含む主要投資家のコンソーシアムから20億ドルのシードラウンドを確保しており、立ち上げからわずか数ヶ月で評価額を驚愕の120億ドルにまで引き上げました。特に、Muratiは自身の独立したビジョンに対する確固たる決意から、昨年、MetaのMark Zuckerbergによる買収提案を拒否したと報じられています。
リーダーシップの再編を含む初期の経営陣の混乱を乗り越えながらも、Thinking Machines Labは「純粋な自律的エージェンシーよりも人間とAIの協調を優先する」という独自の技術哲学に焦点を合わせ続けてきました。中身の見えないブラックボックス・システムを構築するのではなく、ユーザーが包括的に形成、理解し、専門的なワークフローに統合できる、高度に適応可能なマルチモーダル(multimodal)AIの構築を目指しています。
Thinking Machines Labの決定的な差別化要因は、エンタープライズ製品開発へのアプローチにあります。主要な競合他社がユーザーを独自の消費者向けウェブインターフェースに囲い込むことが多い中、Thinking Machinesは開発者のアクセシビリティ、科学的透明性、および効率的なモデルのファインチューニング(fine-tuning)を優先しています。
同社の主力クラウドサービスである**Tinker API**は、この使命を具現化しています。このサービスは、開発者、研究者、および法人顧客がオープンソースの大規模言語モデル(LLM)の高度にカスタマイズされたバージョンを作成できるようにし、最先端の能力とローカライズされたドメイン固有の要件との間のギャップを効果的に埋めます。
Tinker APIエコシステムの主な利点は以下の通りです:
Nvidiaの計算能力が大量に投入されることで、Tinker APIのグローバル展開が直接支援され、世界中の法人顧客からのますます複雑化するマルチモーダルなカスタマイズ要求に対し、容易にスケールして対応できるようになります。
両組織のリーダーシップは、今回の取引が単なる伝統的なハードウェア購入契約ではなく、人工知能の将来の軌跡に関する共有された哲学的整合性であると強調しています。
「AIは人類史上、最も強力な知識発見の道具(knowledge discovery instrument)です」と、Nvidiaの創設者兼CEOであるJensen Huangは、今回の提携の歴史的な規模について述べました。「Thinking Machinesは、AIのフロンティアを前進させるために世界クラスのチームを集めました。私たちはThinking Machinesと提携し、彼らの刺激的な未来へのビジョンを実現できることを嬉しく思います。」
For Mira Muratiにとって、この提携は既存の巨大テック企業の独占に挑戦し、人間と機械の相互作用を再定義するために必要なインフラの安定性を保証するものです。「NVIDIAのテクノロジーは、この分野全体が構築されている基礎です」と、Muratiは共同発表の中で述べています。「このパートナーシップにより、人々が自ら形成し、自分のものにできるAIを構築する能力が加速されます。それは翻って人間の可能性を形成することになるでしょう。」
Creati.aiの分析的観点からは、この戦略的パートナーシップは、より広範なAIハードウェアおよびソフトウェア市場における重要な進化を予感させます。Nvidiaは、支配的な市場地位を活用して、次世代のAIソフトウェアリーダーを積極的に育成し、投資しています。ハードウェアとともに「多額の投資」を提供することで、Nvidiaは最先端のプラットフォームが初日から自社の独自アーキテクチャに根本的に最適化されるようにし、高度に統合された垂直型のエコシステムを構築しています。
この戦略は、次回のGTC 2026カンファレンスで発表予定のオープンソース・エンタープライズAIプラットフォーム「NemoClaw」に代表される、Nvidiaのエンタープライズソフトウェアへの広範な攻勢と一致しています。これらの動きを合わせると、Nvidiaが純粋な半導体ベンダーから、総合的なAIインフラおよびソフトウェアの強者へと意図的に転換していることがわかります。
業界が2027年初頭のVera Rubin systemsの展開に注目する中、すべての視線はThinking Machines Labに注がれるでしょう。前例のない1ギガワットの計算能力を備え、世界で最も価値のあるテクノロジー企業に支えられたMira Muratiのベンチャーは、今後数十年にわたって人間の専門知識と人工知能がどのように協調するかを再定義するために必要な、莫大な資本と最先端のシリコンの両方を手にしています。