
В откровенном заявлении, вызвавшем резонанс в технологическом секторе, генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) назвал мировой дефицит чипов памяти самым критическим «узким местом» (choke point), сдерживающим развитие искусственного интеллекта в настоящее время. Выступая на CNBC в начале этой недели, Хассабис подчеркнул, что, хотя исторически основным ограничением была вычислительная мощность, теперь внимание отрасли должно срочно переключиться на серьезные лимиты в цепочке поставок памяти с высокой пропускной способностью (High-Bandwidth Memory, HBM).
Предупреждение прозвучало в переломный момент в феврале 2026 года, когда гонка за создание искусственного общего интеллекта (Artificial General Intelligence) (AGI) обостряется. В то время как генеративные модели ИИ продемонстрировали беспрецедентные возможности — такие как собственная модель Google Gemini 2.0 Flash — физическая инфраструктура, необходимая для масштабного развертывания этих моделей, упирается в жесткий потолок. Хассабис отметил, что даже Google, несмотря на свое выгодное положение с собственной инфраструктурой тензорных процессоров (TPU), не застрахован от этих глобальных проблем в цепочке поставок.
Кризис, получивший в профессиональных кругах название «RAM-магеддон» (RAMmageddon), вызван структурным сдвигом в производстве полупроводников. Ускорители ИИ требуют HBM — специализированного типа памяти, в котором чипы динамической памяти с произвольным доступом (DRAM) накладываются друг на друга вертикально для достижения молниеносной скорости передачи данных, необходимой для обучения массивных нейронных сетей.
Однако производство HBM ресурсозатратно. Данные отрасли показывают, что изготовление одного гигабайта HBM требует примерно в три раза больше мощностей по производству пластин, чем стандартная память DDR5, используемая в потребительской электронике. Поскольку такие заводы, как TSMC, Samsung и SK Hynix, агрессивно перераспределяют свои производственные линии для удовлетворения ненасытного спроса со стороны гиперскейлеров, общий объем доступной памяти сократился.
Хассабис пояснил CNBC, что эта «игра с нулевой суммой» создает серьезный барьер для входа небольших исследовательских лабораторий и стартапов в области ИИ. «Мы наблюдаем бифуркацию рынка», — заявил Хассабис. «Способность к инновациям становится напрямую зависимой от возможности заключения долгосрочных контрактов на поставку памяти. Теперь речь идет не только о наличии лучших алгоритмов; речь идет о наличии кремния для их запуска».
Дефицит заставил крупных игроков переосмыслить свои стратегии в области аппаратного обеспечения. В то время как Nvidia продолжает доминировать на рынке GPU, нехватка чипов HBM, сопровождающих эти процессоры, привела к увеличению сроков выполнения заказов. Для Google эта ситуация подтверждает правильность её десятилетних инвестиций в заказные чипы. Разрабатывая собственные TPU и организуя весь стек — от «голого железа» до центра обработки данных — Google оградила себя от некоторой волатильности, затрагивающей конкурентов, которые полагаются исключительно на сторонних поставщиков.
Тем не менее, Хассабис признал, что «коммерческое давление» сохраняется. Развертывание моделей с интенсивным инференсом (выводом), требующих огромного объема памяти для хранения окон контекста и активных параметров, эффективно конкурирует с ресурсами памяти, необходимыми для обучения следующего поколения передовых моделей.
Таблица: Влияние дефицита памяти на различные секторы
| Сектор | Основная проблема | Стратегический ответ |
|---|---|---|
| Гиперскейлеры (Google, Microsoft) | Масштабирование инференса для приложений с миллиардами пользователей | Вертикальная интеграция; разработка «легких чипов» для эффективности |
| ИИ-стартапы | Непомерно высокая стоимость инстансов с HBM | Перенос акцента на малые языковые модели (SLM) и дистилляцию |
| Потребительская электроника | Вытеснение поставок из-за спроса на ИИ | Рост цен на оперативную память для ПК/смартфонов; задержка циклов выпуска продукции |
| Полупроводниковые заводы | Конфликты при распределении мощностей | Перевод линий DDR на выпуск HBM; 100% коэффициент использования мощностей |
Помимо логистики цепочки поставок, Хассабис коснулся теоретических последствий этих аппаратных ограничений. Он описал современные системы ИИ как обладающие «зубчатым интеллектом» (Jagged Intelligence) — способные выигрывать медали на Международной математической олимпиаде, но при этом терпящие неудачу в элементарных логических головоломках в зависимости от того, как сформулирован запрос.
Решение этой «зубчатости» требует не только лучшей архитектуры, но и значительно большего объема вычислений и памяти для внедрения таких методов, как цепочка рассуждений (chain-of-thought) и долгосрочное планирование. «Чтобы перейти от чат-бота, предсказывающего следующее слово, к агенту, который планирует на недели или месяцы вперед, вам нужна память», — утверждает Хассабис. «Вам нужно, чтобы система удерживала когерентную модель мира в активном состоянии. Если мы физически ограничены пропускной способностью памяти, мы фактически ограничиваем когнитивную глубину этих моделей».
Это аппаратное узкое место потенциально может задержать сроки появления AGI. В то время как прогнозы в 2024 и 2025 годах были оптимистичными в отношении достижения возможностей человеческого уровня к 2027 году, физическая реальность производства чипов может отодвинуть этот горизонт. Консенсус среди экспертов заключается в том, что, если не произойдет нового прорыва в литографии или эффективность памяти не улучшится радикально (с помощью таких методов, как 1-битные LLM), отрасль столкнется с фазой «застоя», где прогресс будет линейным, а не экспоненциальным.
В ответ на эти ограничения Google DeepMind удваивает усилия по повышению алгоритмической эффективности. Хассабис выделил разработку «легких чипов» — специализированных процессоров, предназначенных именно для фазы инференса моделей ИИ. В отличие от чипов для обучения, требующих огромной пропускной способности для обратного распространения ошибки, чипы для инференса могут быть оптимизированы для более низкой точности и меньшей пропускной способности памяти, что позволяет более эффективно использовать имеющиеся запасы HBM.
Кроме того, DeepMind отдает приоритет «дистилляции» — процессу, при котором массивная передовая модель обучает меньшую, более эффективную модель. Это позволяет Google развертывать функциональные ИИ-сервисы для миллиардов пользователей без использования аппаратных резервов высшего уровня, которые сохраняются для исследований и обучения следующей версии Gemini.
Отголоски этого дефицита памяти ощущаются далеко за пределами Кремниевой долины. Отчеты показывают, что цены на потребительскую память выросли более чем на 170% за последний год, так как производители уходят с низкорентабельного потребительского рынка в погоне за высокорентабельными контрактами в сфере ИИ. Решение крупных поставщиков памяти о возможном прекращении поддержки брендов, ориентированных на потребителей, служит ярким индикатором этого сдвига.
Для индустрии ИИ это «узкое место» служит проверкой реальности. Эпоха безграничных законов масштабирования, когда добавление вычислительных мощностей автоматически давало лучшие результаты, сталкивается с пределами физики и логистики цепочки поставок. Как предупреждает Хассабис, следующая фаза революции ИИ будет определяться не только тем, у кого самые умные исследователи, но и тем, кто сможет обеспечить память для хранения того, что они узнали.
В этой ограниченной среде стратегия вертикальной интеграции Google кажется все более прозорливой. Владея всем стеком, они контролируют свою судьбу, даже когда остальная часть индустрии борется за квоты на рынке, испытывающем голод по памяти. По мере развития 2026 года способность справиться с этим «RAM-покалипсисом», вероятно, определит победителей и проигравших в эру генеративного ИИ.