
Пока миллионы людей по всему Китаю готовятся к празднованию Нового года по лунному календарю, технологический сектор страны развернул неистовую волну релизов в области искусственного интеллекта, превратив праздничный сезон в поле битвы за господство в сфере генеративного ИИ (Generative AI). В ходе скоординированного блицкрига, который наблюдатели называют «Весной в красном океане» (Red Ocean Spring), крупнейшие игроки, включая Alibaba, ByteDance и Zhipu AI, практически одновременно представили значительные обновления своих моделей.
Шквал анонсов, кульминация которых пришлась на 17 февраля 2026 года — первый день Года Лошади, — сигнализирует о решающем сдвиге в отрасли. Фокус решительно сместился от простых чат-ботов к «агентным» (agentic) рабочим процессам, массивным контекстным окнам (context windows) и агрессивным ценовым войнам, призванным подорвать позиции западных конкурентов, таких как OpenAI и Google. Лидером наступления является долгожданная DeepSeek V4, наряду с мощной Qwen 3.5 от Alibaba, ориентированной на потребителя Doubao 2.0 от ByteDance и обученной на отечественном оборудовании GLM-5 от Zhipu.
Возможно, самым ожидаемым релизом квартала является DeepSeek V4. После потрясшего рынок успеха предшественника, который вызвал волатильность на мировых фондовых рынках в начале 2025 года, DeepSeek удвоила ставку на свою репутацию экстремальной эффективности. Пока сообщество все еще анализирует официальные технические документы, предварительные данные указывают на то, что в V4 представлена инновационная архитектура «гиперсвязей с ограничениями на многообразиях» (Manifold-Constrained Hyper-Connections, mHC).
Сообщается, что этот архитектурный сдвиг позволяет модели сохранять связность в контекстных окнах, превышающих один миллион токенов (tokens), без вычислительных затрат, обычно связанных с таким масштабом. Утечки из отрасли указывают на то, что DeepSeek V4 нацелена на структуру затрат, составляющую примерно 1/20 от стоимости эквивалентов GPT-4, что, вероятно, заставит мировых поставщиков API снова скорректировать цены.
Стратегия DeepSeek остается ясной: предлагать возможности рассуждения и написания кода «класса GPT-5» по цене, которая делает широкомасштабное развертывание автоматизированных агентов экономически выгодным. Внедрение «условной памяти энграмм» (Engram Conditional Memory), метода выборочного удержания информации, говорит о том, что модель специально оптимизирована для сложных многоэтапных задач по разработке программного обеспечения.
Чтобы не остаться в стороне, Alibaba Cloud официально запустила Qwen 3.5, назвав ее «важной вехой» в своем стремлении стать операционной системой эры ИИ. Семейство Qwen 3.5 расширяет мультимодальные возможности серии 2.5, демонстрируя значительные успехи в визуальном мышлении и следовании сложным инструкциям.
Релиз Alibaba делает упор на стабильность и интеграцию. В отличие от экспериментального характера некоторых конкурентов, Qwen 3.5 позиционируется как безопасный и масштабируемый выбор для предприятий. Модель обладает расширенной поддержкой «вызова функций» (function calling) — способности ИИ взаимодействовать с внешними программными инструментами, что критически важно для автоматизации бизнеса.
«В будущем большие модели ИИ будут глубоко интегрированы в широкий спектр устройств», — заявило руководство Alibaba Cloud во время запуска. Открывая исходный код значительной части пакета Qwen 3.5, Alibaba продолжает укреплять свою экосистему как стандарт по умолчанию для разработчиков, предпочитающих открытые архитектуры проприетарным решениям.
ByteDance, материнская компания TikTok, официально вступила в «Эру агентов» (Agent Era) с моделью Doubao 2.0. Выпущенная всего за несколько дней до праздника, эта модель лежит в основе самого популярного в Китае приложения с ИИ и представляет собой значительную архитектурную переработку, известную как «Doubao-Seed-2.0».
Фокус Doubao 2.0 отличается: автономное выполнение задач. Вместо того чтобы просто отвечать на запросы пользователей, модель предназначена для выполнения многоэтапных рабочих процессов, таких как планирование маршрута путешествия с бронированием билетов или исследование темы с последующим созданием отчета в заданном формате. ByteDance выпустила модель в нескольких размерах, включая Pro, Lite и специализированный вариант Code, гарантируя охват всего спектра — от мобильных устройств до тяжелых серверных вычислений.
Что особенно важно, ByteDance использует свою огромную пользовательскую базу для совершенствования «эмоционального интеллекта» и беглости разговора модели, стремясь сохранить Doubao в качестве главного потребительского суперприложения (super-app) на переполненном рынке.
Релиз GLM-5 от Zhipu AI выделяется по другой причине: независимость инфраструктуры. Модель с 744 миллиардами параметров (использующая архитектуру «смеси экспертов» (Mixture-of-Experts, MoE)), по сообщениям, была полностью обучена на чипах Huawei Ascend, что стало важной вехой в усилиях Китая по отказу от оборудования NVIDIA, на которое распространяются ограничения США.
GLM-5, запущенная с агрессивно низкой ценой около 0,80 доллара за миллион входных токенов, позиционирует себя как тяжеловес для академических и исследовательских кругов. Предварительная версия модели «Пони Альфа» (Pony Alpha) уже привлекла внимание своими способностями к рассуждению еще до официального объявления бренда. Успех Zhipu в обучении столь массивной модели на отечественном кремнии развеивает опасения, что экспортный контроль США навсегда ограничит потолок развития китайского ИИ.
В следующей таблице обобщены ключевые характеристики и стратегическое позиционирование моделей, выпущенных в это предпраздничное окно.
Таблица: Релизы моделей ИИ к Лунному Новому году 2026
| Название модели | Разработчик | Ключевая архитектура/особенность | Основной стратегический фокус |
|---|---|---|---|
| DeepSeek V4 | DeepSeek AI | Гиперсвязи с ограничениями на многообразиях (mHC) | Экстремальная экономическая эффективность и логика кодирования |
| Qwen 3.5 | Alibaba Cloud | Расширенная мультимодальность и вызов функций | Корпоративная интеграция и экосистема с открытым кодом |
| Doubao 2.0 | ByteDance | Doubao-Seed-2.0 / Агентные рабочие процессы | Потребительские приложения и автономные агенты |
| GLM-5 | Zhipu AI | 744 млрд параметров (MoE) на чипах Ascend | Независимость от отечественной инфраструктуры и масштаб |
Одновременный выпуск этих моделей подчеркивает яростный характер внутренней конкуренции в Китае. Динамика «ценовой войны» 2024 и 2025 годов не утихла; она мутировала в «войну за эффективность».
Для разработчиков наступил золотой век. Стоимость интеллектуальных мощностей падает быстрее, чем предсказывает закон Мура, что позволяет создавать новые классы приложений, выполняющих непрерывные фоновые вычисления (inference) — такие как персональные помощники в реальном времени или боты для автоматического рефакторинга кода, эксплуатация которых ранее была слишком дорогой.
Однако для вовлеченных компаний финансовое давление огромно. Спешка с релизом перед Новым годом по лунному календарю говорит о менталитете «захвата территорий», где завоевание внимания разработчиков перед праздничным затишьем считается критически важным.
В то время как Кремниевая долина по-прежнему сосредоточена на пути к сильному ИИ (AGI) с помощью массивных вычислительных кластеров, китайские лаборатории формируют особую идентичность, ориентированную на эффективность вычислений и доминирование на прикладном уровне. Способность DeepSeek V4 бросать вызов топовым американским моделям при ничтожной доле затрат на обучение и инференс ставит под сомнение превалирующее мнение о том, что «чем больше, тем лучше».
С началом Года Лошади сигнал из Пекина, Ханчжоу и Шанхая предельно ясен: гонка ИИ больше не сводится только к тому, у кого самая «умная» модель, а к тому, кто сможет сделать интеллект повсеместным, доступным и практически полезным.