
テクノロジー業界に波紋を広げる率直な情報開示の中で、Google DeepMindのCEOであるデミス・ハサビス(Demis Hassabis)氏は、記憶チップ(メモリチップ)の世界的不足を、現在人工知能の進歩を阻害している唯一かつ最も重大な「チョークポイント(choke point)」であると特定しました。今週初めにCNBCの取材に応じたハサビス氏は、歴史的には計算能力が主な制約要因であったが、業界の焦点は今や高帯域幅メモリ(High-Bandwidth Memory)(HBM)サプライチェーンにおける深刻な制限へと緊急に移行しなければならないと強調しました。
この警告は、人工汎用知能(Artificial General Intelligence)(AGI)への競争が激化する2026年2月という極めて重要な時期に発せられました。Google独自のGemini 2.0 Flashなどの生成AI(Generative AI)モデルが前例のない能力を示している一方で、これらのモデルを大規模に展開するために必要な物理的インフラは厳しい限界に直面しています。ハサビス氏は、独自のテンソル・プロセッシング・ユニット(Tensor Processing Unit)(TPU)インフラを保有し有利な立場にあるGoogleでさえ、こうした世界的なサプライチェーンの摩擦と無縁ではないと指摘しました。
業界関係者の間で俗に「RAMマゲドン(RAMmageddon)」と呼ばれるこの危機は、半導体製造における構造的な変化に起因しています。AIアクセラレータは、ダイナミック・ランダム・アクセス・メモリ(Dynamic Random-Access Memory)(DRAM)チップを垂直に積み重ねることで、巨大なニューラルネットワークのトレーニングに必要な超高速のデータ転送速度を実現する特殊なメモリであるHBMを必要とします。
しかし、HBMの製造は資源を大量に消費します。業界のデータによると、わずか1ギガバイトのHBMを製造するために、コンシューマー向け電子機器に使用される標準的なDDR5メモリの約3倍のウェハー容量が必要となります。TSMC、Samsung、SK Hynixなどのファウンドリが、ハイパースケーラーからの飽くなき需要に応えるために生産ラインを積極的に再配分するにつれ、利用可能なメモリの総量は収縮しています。
ハサビス氏はCNBCに対し、このゼロサムゲームが小規模なAI研究ラボやスタートアップにとって手ごわい参入障壁となっていると説明しました。「市場の二極化が進んでいます」とハサビス氏は述べています。「革新する能力は、長期的なメモリ供給契約を確保する能力と厳密に相関するようになっています。もはや最高のアルゴリズムを持っているかどうかだけではなく、それらを動かすためのシリコンを持っているかどうかが問題なのです。」
不足により、主要なプレーヤーはハードウェア戦略の再考を余儀なくされています。NvidiaがGPU市場を支配し続けている一方で、これらのプロセッサに付随するHBMチップの不足により、リードタイムが長期化しています。Googleにとって、この状況はカスタムシリコンへの10年にわたる投資の正当性を証明するものとなりました。独自のTPUを設計し、「ベアメタル」からデータセンターに至るスタック全体をオーケストレートすることで、Googleはサードパーティベンダーのみに依存する競合他社を襲っているボラティリティの一部から自身を守っています。
それにもかかわらず、ハサビス氏は「商業的圧力」が残っていることを認めました。コンテキストウィンドウやアクティブなパラメータを保持するために膨大なメモリを必要とする推論負荷の高いモデルの展開は、次世代のフロンティアモデルのトレーニングに必要なメモリリソースと事実上競合しています。
Table: セクター別のメモリ不足(Memory Shortage)の影響
| セクター | 主な課題 | 戦略的対応 |
|---|---|---|
| ハイパースケーラー(Google, Microsoft) | 10億人規模のアプリ向けの推論スケーリング | 垂直統合、効率化のための「ライトチップ(light chips)」の開発 |
| AIスタートアップ | HBMインスタンスの法外なコスト | 小規模言語モデル(SLM)と蒸留(distillation)への焦点の移行 |
| コンシューマー向け電子機器 | AI需要による供給の代替 | PC/スマートフォン用RAMの価格上昇、製品サイクルの遅延 |
| 半導体ファウンドリ | 容量割り当ての競合 | DDRラインのHBMへの転換、100%の稼働率 |
サプライチェーンのロジスティクスを超えて、ハサビス氏はこれらのハードウェア制約がもたらす理論的な含意についても触れました。同氏は、現在のAIシステムを「ギザギザの知能(Jagged Intelligence)」を持っていると表現しました。つまり、国際数学オリンピックのメダルを獲得できる能力がありながら、プロンプトの言い回し次第では初歩的な論理パズルに失敗することもあるという状態です。
この「ギザギザさ」を解決するには、より優れたアーキテクチャだけでなく、思考の連鎖(Chain-of-Thought)推論や長期計画などの手法を促進するための大幅に多くの計算リソースとメモリが必要です。「次の単語を予測するチャットボットから、数週間や数ヶ月にわたって計画を立てるエージェントへと移行するには、メモリが必要です」とハサビス氏は主張しました。「システムがアクティブな状態で首尾一貫した世界モデルを保持する必要があります。メモリ帯域幅が物理的に制限されているなら、私たちは事実上、これらのモデルの認知の深さに上限を設けていることになります。」
このハードウェアのボトルネックは、AGIのタイムラインを遅らせる可能性があります。2024年と2025年の予測では、2027年までに人間レベルの能力に到達することについて楽観的でしたが、チップ製造の物理的な現実はこの展望を延ばすかもしれません。専門家の間のコンセンサスは、新しいリソグラフィの画期的進歩が起こるか、メモリ効率が劇的に改善されない限り(1ビットLLMなどの技術を通じて)、業界は進歩が指数関数的ではなく線形的になる「停滞(grind)」フェーズに直面するというものです。
これらの制約に対応して、Google DeepMindはアルゴリズムの効率化に力を入れています。ハサビス氏は、AIモデルの推論フェーズ専用に設計された特殊プロセッサである「ライトチップ」の開発を強調しました。誤差逆伝播法(backpropagation)のために膨大なスループットを必要とするトレーニング用チップとは異なり、推論用チップは低精度かつ低メモリ帯域幅に最適化することができ、利用可能なHBMの供給を効果的に引き延ばすことができます。
さらに、DeepMindは「蒸留(distillation)」を優先しています。これは、巨大なフロンティアモデルがより小さく効率的なモデルを教えるプロセスです。これにより、Googleは研究やGeminiの次世代版のトレーニングのために保存されている最高ティアのハードウェア予備を消費することなく、数十億のユーザーに有能なAIサービスを展開できるようになります。
このメモリ不足の衝撃波は、シリコンバレーをはるかに越えて感じられています。報告によると、メーカーが利益率の低いコンシューマー市場を去り、利益率の高いAI契約を追い求めているため、コンシューマー向けメモリの価格はこの1年で170%以上高騰しました。主要なメモリベンダーがコンシューマー向けブランドを廃止する可能性を示唆していることは、この変化を如実に物語っています。
AI業界にとって、この「チョークポイント」は現実を直視させるものです。計算リソースを追加すれば自動的により良い結果が得られた無限のスケーリング則(scaling laws)の時代は、物理学とサプライチェーンの限界に衝突しています。ハサビス氏が警告するように、AI革命の次の段階は、誰が最も賢い研究者を抱えているかだけでなく、誰が学んだことを記憶するためのメモリを確保できるかによって定義されることになるでしょう。
この制約された環境において、Googleの垂直統合戦略はますます先見の明があるように見えます。スタックを所有することで、メモリに飢えた市場で割り当てを奪い合う他の業界を尻目に、自らの運命をコントロールしているのです。2026年が進むにつれ、この「RAMポカリプス」を乗り切る能力が、生成AI時代の勝者と敗者を決定することになるでしょう。