
Редакционная команда Creati.ai
2 марта 2026 г.
Шаг, сигнализирующий об углублении разрыва в глобальной цепочке поставок искусственного интеллекта: китайская лаборатория ИИ DeepSeek готовится к выпуску своей флагманской модели четвертого поколения — DeepSeek V4. Отчеты указывают на то, что запуск модели состоится в начале марта и совпадет с ежегодными парламентскими встречами «Две сессии» в Китае. В отличие от своих предшественников, V4 является нативно мультимодальной системой, способной генерировать текст, изображения и видео, что позиционирует ее как прямого конкурента Google Gemini 3.0 и новейшим предложениям OpenAI.
Однако технологический скачок омрачен значительным стратегическим поворотом: по сообщениям, DeepSeek отказала американским полупроводниковым гигантам Nvidia и AMD в предрелизном доступе для оптимизации. Вместо этого лаборатория предоставила эксклюзивный ранний доступ отечественным китайским производителям чипов, в частности Huawei и Cambricon, для оптимизации модели под их оборудование. Это решение нарушает давний отраслевой протокол, согласно которому крупные разработчики моделей сотрудничают с Nvidia для обеспечения производительности с первого дня, что знаменует отчетливый сдвиг в сторону экосистем «суверенного ИИ» (sovereign AI).
В течение многих лет стандартной операционной процедурой для ведущих лабораторий ИИ — включая OpenAI, Anthropic и ранее DeepSeek — было предоставление Nvidia и AMD весов моделей и архитектурных деталей за несколько недель до публичного запуска. Это «окно оптимизации» позволяет производителям чипов обновлять свои программные стеки (такие как CUDA и ROCm), чтобы гарантировать эффективную работу новой модели на их графических процессорах сразу после выпуска.
Отказывая в этом доступе американским фирмам, DeepSeek фактически провоцирует задержку производительности для пользователей, запускающих V4 на оборудовании Nvidia в момент выхода, обеспечивая при этом бесперебойную работу модели на чипах Huawei Ascend 910C и серии MLU от Cambricon.
Последствия стратегии исключения:
| Стратегическая цель | Влияние на внутренний рынок | Влияние на мировой рынок |
|---|---|---|
| Аппаратный суверенитет | Демонстрирует, что передовые модели ИИ могут обучаться и эффективно работать на не-западном кремнии (например, Huawei Ascend). | Оспаривает утверждение о том, что оборудование Nvidia является обязательным условием для современного логического вывода ИИ. |
| Сцепление экосистем | Вынуждает китайских корпоративных разработчиков переходить на отечественное оборудование для получения лучшей производительности V4. | Создает «раздвоенную» программную экосистему, где оптимизации больше не являются универсально переносимыми. |
| Геополитический сигнал | Соответствует мандатам Пекина на «самообеспечение» в преддверии политического собрания «Две сессии». | Сигнализирует регуляторам США, что экспортный контроль может ускорить, а не остановить внутреннее технологическое развитие Китая. |
| Защита рынка | Дает Huawei и Cambricon преимущество «первопроходца» в сравнительном тестировании и маркетинге их чипов против H100/H200. | Может временно снизить показатели бенчмарков для графических процессоров Nvidia на DeepSeek V4, влияя на настроения покупателей. |
Помимо геополитического маневрирования, DeepSeek V4 внедряет существенные архитектурные инновации, призванные поддержать репутацию лаборатории как поставщика решений с экстремальной стоимостной эффективностью. Модель построена на массивной архитектуре Смеси экспертов (Mixture-of-Experts, MoE) с оценочным общим числом параметров в 1 триллион, однако она активирует лишь около 32 миллиардов параметров на токен. Эта разреженность позволяет ей обеспечивать производительность, сопоставимую с плотными моделями класса GPT-5, требуя лишь малую часть вычислительной мощности для инференса.
Ключевым отличием V4 является внедрение архитектуры условной памяти «Engram» (Engram conditional memory architecture). Этот инновационный механизм отделяет извлечение статических знаний от динамического рассуждения, позволяя модели обращаться к контекстному окну, превышающему 1 миллион токенов, без квадратичного вычислительного штрафа, характерного для традиционных механизмов внимания Transformer.
Ключевые технические характеристики DeepSeek V4:
DeepSeek V4 представляет собой первый опыт лаборатории в создании по-настоящему единой структуры модели типа «omni». Предыдущие итерации, такие как серия Janus, отделяли визуальное понимание от генерации текста. V4 объединяет эти модальности, позволяя выполнять сложные задачи рассуждения, в которых переплетаются текст, код и визуальные входные данные.
Например, сообщается, что модель справляется с генерацией кода по видео (video-to-code generation), когда пользователь может загрузить запись экрана с взаимодействием в интерфейсе, а модель сгенерирует соответствующий фронтенд-код. Аналогично, ожидается, что ее возможности генерации видео составят конкуренцию специализированным моделям, используя огромное контекстное окно для поддержания временной согласованности в длинных роликах.
Эта способность ставит DeepSeek V4 в прямую конкуренцию с Google Gemini 1.5 Pro и Gemini 3.0, которые определили текущий стандарт мультимодального рассуждения с длинным контекстом. Однако подход DeepSeek с открытыми весами (ожидается, что будет следовать модели лицензирования V3) может дестабилизировать рынок, предоставив эти возможности разработчикам бесплатно, подрывая бизнес-модели западных конкурентов, основанные на API.
Выпуск V4 происходит на фоне усиленного внимания к инфраструктуре обучения DeepSeek. Недавние отчеты Reuters и Financial Times цитируют анонимных официальных лиц США, утверждающих, что DeepSeek могла обучать свои модели на ограниченных к экспорту чипах Nvidia Blackwell, потенциально приобретенных через каналы серого рынка в нарушение экспортного контроля США.
Поворот DeepSeek к Huawei для запуска V4 служит двойной цели в этом контексте:
Выпуск DeepSeek V4 представляет собой тонкую, но опасную угрозу текущей экономической модели ИИ, часто называемой «пузырем капитальных затрат» (Capex Bubble). Западные технологические гиганты в настоящее время тратят сотни миллиардов долларов на инфраструктуру ИИ, исходя из убеждения, что законы масштабирования требуют экспоненциального увеличения вычислений и энергии.
DeepSeek оспорила это предположение своими моделями V3 и R1, которые были обучены менее чем за 6 миллионов долларов — крошечная часть стоимости OpenAI GPT-4. Если V4 обеспечит «современную» мультимодальную производительность при столь же скромном бюджете, это еще раз подтвердит тезис о том, что алгоритмическая эффективность (через архитектуры MoE и Engram) важнее грубой вычислительной силы.
Потенциальные рыночные последствия:
Предстоящий выпуск DeepSeek V4 — это больше, чем просто запуск продукта; это геополитическое заявление. Отделяя свой план оптимизации от Nvidia и AMD, DeepSeek фактически проводит черту на кремнии. Посыл ясен: Китай намерен построить самодостаточный стек ИИ, от уровня чипов до уровня приложений.
Для мирового сообщества ИИ выпуск V4 представляет собой дилемму. Вероятная открытая доступность и высокая производительность модели делают ее непреодолимо привлекательной для исследователей и разработчиков. Тем не менее, ее уклон в оптимизацию под не-западное оборудование может расколоть сообщество, создавая «закрытые сады» оптимизации, где модели работают лучше всего на оборудовании того геополитического блока, в котором они были созданы.
Пока на следующей неделе в Пекине созываются «Две сессии», мир будет следить не только за политическими речами, но и за бенчмарками модели, которая обещает переопределить возможности при ограниченных вычислениях и суверенном кремнии.