
GTC 2026において、NVIDIAは単なるモデルのトレーニングやデプロイメントを超えた、人工知能の新しいパラダイムを正式に導入しました。同社は、エージェンティック AI(Agentic AI)の時代を支えるために特別に設計された革新的なコンピューティング・アーキテクチャであるNVIDIA Vera Rubinプラットフォームを発表しました。この発表は、従来のスタンドアロンのチップリリースからの大きな転換を意味し、単一のコヒーレントなスーパーコンピュータとして機能するように設計された、完全に統合された大規模システムを提示しています。
NVIDIAの創設者兼CEOであるジェンスン・フアン(Jensen Huang)氏は、Vera Rubinを「世代を超えた飛躍」であると宣言し、自律的で推論能力を持つエージェントの変曲点が到来したことを強調しました。企業が複雑なワークフロー(モデルが多段階のロジックを実行し、結果を検証し、自律的に動作する必要があるプロセス)へと焦点を移す中、基盤となるインフラストラクチャは個別のコンポーネントから包括的なAIファクトリーへと進化しなければなりません。Vera Rubinプラットフォームはこのビジョンの具現化であり、7つの異なるタイプのチップを統合して、60エクサフロップスの演算性能を実現できる一貫したインフラストラクチャを構築します。
Vera Rubinプラットフォームの核心的な革新は、その極限の共同設計(co-design)の哲学にあります。NVIDIAは、チップを個別に最適化するのではなく、ネットワーキング、ストレージ、計算レイヤー全体で完璧に同期して動作する7つの専門チップのエコシステムを開発しました。このアプローチは、大規模なAI向けのハイパフォーマンス・コンピューティング(HPC)を長年悩ませてきた、メモリ移動と通信における従来のボトルネックを解消することを目指しています。
Vera Rubinシリコン・アーキテクチャの7つの柱は以下の通りです:
この発表の中心となるのは、40ラック・スケールの巨大なスーパーコンピュータ構成であるVera Rubin PODです。上記の7つのチップを5つの異なる専用ラック・スケール・システムに統合することで、PODは比類のないスループットと効率を実現します。
これら5つのシステム(NVL72 GPUラック、Groq 3 LPXラック、Vera CPUラック、BlueField-4 STXラック、Spectrum-6 SPXラック)は、混合専門家(MoE:mixture-of-experts)ルーティングやロングコンテキストのメモリ・ストレージを含む、最新のエージェンティック AI(Agentic AI)のパラダイムをサポートするために連携するように設計されています。
| 構成システム | 主な機能 | 主なパフォーマンス指標 |
|---|---|---|
| Vera Rubin NVL72 | トレーニングおよび推論エンジン | NVLink 6を搭載した72基のRubin GPU |
| Vera CPU Rack | RL(強化学習)およびオーケストレーション | ロジック制御用の256基のVera CPU |
| Groq 3 LPX Rack | デコードの加速 | 低レイテンシ推論用の256基のLPU |
| BlueField-4 STX Rack | データ/KVキャッシュストレージ | 強化されたメモリスループット |
| Spectrum-6 SPX Rack | ネットワーキング・バックボーン | 高速イーサネット同期 |
その規模は驚異的です。フル構成のVera Rubin PODは、合計1.2 quadrillion個のトランジスタを含む、約20,000個のNVIDIAダイを包含しています。このセットアップは、60エクサフロップスの性能と10 PB/sの帯域幅を提供し、絶え間ない検証と反復ループを必要とする次世代AIエージェントの重い計算負荷要件に対応します。
単に次のトークンを予測するだけでなく、システムが「推論」しなければならないエージェンティック AIへの移行は、ハードウェアに独自の要求を突きつけます。従来の推論システムは、ミッションクリティカルな意思決定に必要なレベルの自律性へとスケールアップする際、高いレイテンシと法外なコストに悩まされることがよくあります。NVIDIAのVera Rubinプラットフォームは、推論のプリフィル(計算集約型)フェーズとデコード(レイテンシに敏感)フェーズを分離することで、これらの問題に具体的に対処します。
計算負荷の高いプリフィルタスク用のRubin GPUと、デコードフェーズ用のGroq 3 LPUを組み合わせることで、NVIDIAはこのアーキテクチャがメガワットあたりの推論スループットを大幅に向上させることができると主張しています。この改善は、1兆パラメータのモデルを運用する企業にとって、より持続可能な運用モデルを可能にするため、極めて重要です。
さらに、Vera CPUは、エージェントがコードをテストおよび検証する強化学習環境などの「CPUネイティブ」なワークフローにおいて重要な役割を果たします。1.2テラバイト/秒のメモリ帯域幅と完全なArm互換性を備えたVera CPUは、GPUが制御命令を待つ状態にならないようにし、現代のAIデータセンターにおける最も一般的な生産性のボトルネックの1つを効果的に解決します。
業界が2026年以降に向かうにつれ、「AIファクトリー」の定義はより明確になりつつあります。それはもはや単一のGPUの能力によって定義されるのではなく、システムスタック全体の効率性によって定義されます。システム全体の共同設計、エネルギー効率、およびスケーラビリティに焦点を当てたNVIDIA Vera Rubinプラットフォームは、世界のAIインフラストラクチャの新しいベンチマークを確立します。
複雑な自律型エージェントのデプロイを目指す企業やハイパースケーラーにとって、GTC 2026からのメッセージは明確です。それは、深い統合によってハードウェアのボトルネックが解消されつつあるということです。Vera Rubinベースの製品が今年後半に本格的な生産に移行するにつれ、次世代のインテリジェントで推論ベースのエージェントを支えるインフラストラクチャを構築するための競争が正式に始まりました。