
Creati.aiでは、私たちは常に人工知能(Artificial Intelligence)の進化を監視しており、NVIDIAからの最新リリースは自律システムにとって決定的な瞬間を刻んでいます。2026年3月11日、NVIDIAは、複雑なエージェント推論(Agentic Reasoning)タスクを強化するために特別に設計された、オープンウェイトのハイブリッドMamba-Transformer Mixture-of-Experts (MoE) モデルであるNemotron 3 Superを正式に発表しました。マルチエージェント・ワークフローに伴う法外な計算コストとコンテキストの制限を緩和するように設計された、この1,200億パラメータの強力なモデルは、トークンごとにわずか120億の有効パラメータで動作し、エンタープライズAIアプリケーションの構築と展開の方法を再定義することを約束します。
エンタープライズAIが単純なチャットボット・インターフェースを超えて、洗練されたマルチエージェント・オーケストレーションへと移行するにつれ、開発者は2つの重要なボトルネックに直面しています。1つ目は、業界の専門家が「コンテキスト爆発(Context Explosion)」と呼ぶものです。マルチエージェント・ワークフロー (Multi-agent workflows)は、標準的な対話型AIよりも最大15倍多くのトークンを頻繁に生成します。これは、エージェントが常に完全な履歴、中間的な推論ステップ、およびツールの出力をあらゆる場面で交換しなければならないために発生します。タスクが長期化すると、この膨大なデータの流入によって「ゴール・ドリフト(Goal Drift)」、つまりAIが本来の目的から徐々に逸脱していく現象がしばしば引き起こされます。
2つ目のボトルネックは「思考税(Thinking Tax)」です。自律的なワークフローにおけるあらゆる細かなサブタスクを実行するために、巨大で高密度な言語モデルを必要とすることは、計算コストが法外に高く、実用的な現実世界のアプリケーションにとっては苦痛なほど低速です。高度に最適化されたアーキテクチャを活用することで、Nemotron 3 Superはこれらの制約に直接対処します。前世代のNemotron Superと比較して5倍以上のスループットを実現し、計算予算を使い果たすことなく、自律エージェントを大規模に継続実行することを可能にします。
Nemotron 3 Superは、単にNemotron 3 Nanoのような初期モデルをスケールアップしただけのものではありません。大容量推論エンジンの効率と精度のパラダイムを再定義する、深遠なアーキテクチャ上の革新を導入しています。
このモデルのバックボーンは、パフォーマンスを最大化するために、2つの異なるレイヤー・タイプをエレガントに組み合わせています。Mamba-2レイヤーは、シーケンス処理の大部分を処理します。状態空間モデル(SSMs)として、シーケンス長に対して線形時間の複雑さを提供します。この効率性こそが、理論的な概念であった膨大な100万トークンのコンテキスト・ウィンドウを、非常に実用的なツールへと変貌させるのです。これらの間に散りばめられているのがTransformer attentionレイヤーであり、複雑なコーディング、数学、および多段階の論理タスクに必要な高度で微細な推論を促進するために、主要な深度に戦略的に配置されています。
NVIDIAは、このハイブリッドな基盤をさらに2つの最先端技術で強化しました。
自律的な推論が可能なモデルを構築するには、革新的なアーキテクチャ以上のものが必要です。それは、綿密で膨大なトレーニング・パイプラインを必要とします。NVIDIAは、Nemotron 3 Superを3つの連続したフェーズでトレーニングしました。まず、事前学習において、厳選された10兆トークンを使用し、のべ25兆トークンの学習を通じて広範な世界の知識を確立しました。これには、推論に特化した100億トークンと1,500万件のコーディング問題が追加で含まれています。次に、教師あり微調整(SFT)により、多様なエージェント・タスク・タイプにわたってモデルの動作を形成しました。最後に、マルチ環境強化学習(RL)により、検証可能な結果に対してこの動作を洗練させ、高精度のツール呼び出しと実行を保証しました。
独立した評価において、この厳格なトレーニングは大きな成果を上げています。Artificial Analysisのリーダーボードにおいて、Nemotron 3 Superは効率性とオープン性の項目でトップの座を獲得しました。直接比較では、gpt-oss-120bのような同等のモデルよりも高い知性と、NVIDIA B200 GPUあたり最大11%高いスループットを実証しました。Qwen3.5-122Bと比較した場合、Nemotron 3 Superは同等以上の精度を達成しつつ、長いコンテキストのタスクにおいて劇的に高い推論スループットを実現しています。
機能の飛躍をよりよく理解するために、Nemotron 3 Superモデルの主な仕様をまとめました。
| 機能 | 詳細 | メリット |
|---|---|---|
| アーキテクチャ | ハイブリッド Mamba-Transformer MoE | 効率的な線形時間シーケンス処理と高度な推論機能を組み合わせます。 マルチエージェント・システム向けに最適化されています。 |
| パラメータ数 | 合計1,200億(120B) 有効120億(12B) |
巨大なモデルの知性を維持しながら、推論コストと思考税を劇的に削減します。 |
| コンテキスト・ウィンドウ | 100万トークン | 完全なワークフローの状態をメモリ内に保持し、長期の自律タスクにおける目的の逸脱を防ぎます。 |
| 主な革新 | 潜在MoE マルチトークン予測 (MTP) |
同じ計算コストで4倍多くのエキスパートを呼び出します。 組み込みの投機的デコードにより生成を加速します。 |
| 精度 | NVFP4 事前学習 | 次世代NVIDIA GPUにおける高いスループットと最適なハードウェア利用を保証します。 |
Creati.aiでは、オープンソースの可用性が迅速なAIイノベーションの主要な触媒であると固く信じています。NVIDIAはこの哲学を共有しており、かつてないレベルの透明性を持ってNemotron 3 Superをリリースしました。このモデルは、完全に公開された重み、レシピ、そして最も注目すべきことに、オープンデータセットを特徴としています。これらのデータセットは、S/N比を最大化するために徹底的に重複排除と品質フィルタリングが行われており、開発者にエージェントAIのための再現可能なビルディングブロックを提供します。
Nemotron 3 Superのエコシステム・サポートは広範です。このモデルは主要な推論プラットフォームで利用可能であり、NVIDIA NIMマイクロサービスとしてパッケージ化されているため、ローカルのエンタープライズ・ワークステーションからグローバルなクラウド環境まで、あらゆる場所にデプロイできます。開発者はHugging Face経由で重みに直接アクセスしたり、Unslothのようなプラットフォームを使用して微調整したり、Together AI、Oracle Cloud Infrastructure (OCI) Generative AI、Perplexity、Lightning AI、DeepInfraなどのマネージド・サービスを通じてモデルをデプロイしたりできます。特に、最適化されたフットプリントにより、NVIDIA H200またはH100ハードウェアでのシングルGPUデプロイが可能であり、小規模なエンジニアリングチームにとっての参入障壁を大幅に下げています。
Nemotron 3 Superの実用的なアプリケーションは、特に深い技術的な問題解決と自律的なオーケストレーションを必要とする業界において広大です。
エンタープライズAIの未来を見据えると、高密度モデルを単にスケールアップすることは、もはやマルチエージェント・システムにとって実行可能な道ではないことは明らかです。NVIDIAのNemotron 3 Superは、効率的なインテリジェンスへの見事な転換を象徴しています。Mambaの長いコンテキスト機能とTransformerの推論能力をシームレスに融合させ、潜在MoEとマルチトークン予測を通じてすべてを最適化することで、NVIDIAはオープンソースAIコミュニティに新しいベンチマークを打ち立てました。
堅牢でスケーラブルな自律型AIエージェントの構築を目指す開発者、研究者、および企業組織にとって、Nemotron 3 Superは単なる漸進的なアップグレードではありません。それは、次世代のエージェント推論 (agentic reasoning)を支える基礎エンジンなのです。私たちCreati.aiは、オープンソース・コミュニティがこれらの比類なきツールをどのように活用して明日の自律的なワークフローを構築していくのか、引き続き注視していきます。