
На GTC 2026 компания NVIDIA официально провозгласила новую парадигму искусственного интеллекта, выходящую за рамки простого обучения и развертывания моделей. Компания представила платформу NVIDIA Vera Rubin — революционную вычислительную архитектуру, специально разработанную для обеспечения работы в эпоху агентного ИИ (Agentic AI). Этот запуск знаменует собой значительный отход от традиционных выпусков отдельных чипов, представляя вместо этого полностью интегрированную крупномасштабную систему, спроектированную для функционирования как единый, связный суперкомпьютер.
Основатель и генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) назвал Vera Rubin «скачком между поколениями», подчеркнув, что наступил переломный момент для автономных агентов, способных к рассуждению. По мере того как предприятия смещают акцент на сложные рабочие процессы, в которых модели должны выполнять многошаговую логику, проверять результаты и работать автономно, базовая инфраструктура должна эволюционировать от дискретных компонентов к комплексным ИИ-фабрикам (AI factories). Платформа Vera Rubin является воплощением этого видения, объединяя семь различных типов чипов в единую инфраструктуру, способную обеспечить производительность вычислений в 60 эксафлопс.
Основная инновация платформы Vera Rubin заключается в ее философии экстремального совместного проектирования. Вместо оптимизации чипов по отдельности, NVIDIA разработала экосистему из семи специализированных чипов, которые работают в идеальной синхронизации на уровнях сети, хранения данных и вычислений. Этот подход направлен на устранение традиционных узких мест при перемещении данных в памяти и коммуникациях, которые исторически мешали высокопроизводительным вычислениям (HPC) для крупномасштабного ИИ.
Семь столпов кремниевой архитектуры Vera Rubin включают в себя:
В центре этого анонса находится Vera Rubin POD — массивная конфигурация суперкомпьютера масштаба 40 стоек. Путем интеграции семи вышеупомянутых чипов в пять различных специализированных систем стоечного масштаба, POD достигает беспрецедентной пропускной способности и эффективности.
Эти пять систем — стойка с GPU NVL72, стойка с LPU Groq 3 LPX, стойка с Vera CPU, стойка с BlueField-4 STX и стойка с Spectrum-6 SPX — разработаны для согласованной работы в поддержку современных парадигм агентного ИИ, включая маршрутизацию «смеси экспертов» (MoE) и хранение памяти с длинным контекстом.
| Системный компонент | Основная функция | Ключевой показатель производительности |
|---|---|---|
| Vera Rubin NVL72 | Движок обучения и вывода | 72 GPU Rubin с NVLink 6 |
| Vera CPU Rack | RL и оркестрация | 256 процессоров Vera для логического управления |
| Groq 3 LPX Rack | Ускорение декодирования | 256 LPU для вывода с низкой задержкой |
| BlueField-4 STX Rack | Хранилище данных/KV-кэша | Улучшенная пропускная способность памяти |
| Spectrum-6 SPX Rack | Сетевой скелет | Высокоскоростная синхронизация Ethernet |
Масштаб поражает: полная конфигурация Vera Rubin POD включает почти 20 000 кристаллов NVIDIA, что в сумме составляет 1,2 квадриллиона транзисторов. Эта установка обеспечивает производительность 60 эксафлопс и пропускную способность 10 ПБ/с, отвечая жестким требованиям к вычислениям агентного ИИ следующего поколения, которому требуются постоянные циклы проверки и итерации.
Переход к агентному ИИ — где системы должны «рассуждать», а не просто предсказывать следующий токен — предъявляет уникальные требования к оборудованию. Традиционные системы логического вывода часто страдают от высоких задержек и непомерных затрат при масштабировании до уровня автономности, необходимого для принятия критически важных решений. Платформа NVIDIA Vera Rubin специально нацелена на решение этих проблем путем разделения фаз префилла (prefill — ресурсоемкая фаза) и декодирования (decode — чувствительная к задержкам фаза) логического вывода.
Сочетая Rubin GPU для тяжелых вычислительных задач префилла с Groq 3 LPU для фазы декодирования, NVIDIA утверждает, что архитектура может обеспечить значительно более высокую пропускную способность вывода на мегаватт. Это улучшение критически важно для компаний, использующих модели с триллионами параметров, так как оно позволяет создать более устойчивую операционную модель.
Кроме того, Vera CPU играет решающую роль в рабочих нагрузках, нативных для центрального процессора, таких как среды обучения с подкреплением, где агенты тестируют и проверяют код. Благодаря пропускной способности памяти 1,2 терабайта в секунду и полной совместимости с Arm, Vera CPU гарантирует, что графические процессоры не будут простаивать в ожидании управляющих инструкций, эффективно решая одну из самых распространенных проблем производительности в современных центрах обработки данных ИИ.
По мере того как индустрия движется к 2026 году и далее, определение «ИИ-фабрики» становится все более четким. Она больше не определяется возможностями одного GPU, но эффективностью всего системного стека. Платформа NVIDIA Vera Rubin, ориентированная на общесистемное совместное проектирование, энергоэффективность и масштабируемость, устанавливает новый эталон для глобальной инфраструктуры ИИ.
Для предприятий и гиперскейлеров, стремящихся развернуть сложных автономных агентов, послание GTC 2026 предельно ясно: проблема узких мест в аппаратном обеспечении решается за счет глубокой интеграции. По мере того как продукты на базе Vera Rubin будут переходить к полномасштабному производству во второй половине года, гонка за создание инфраструктуры, способной обеспечить работу следующей волны интеллектуальных агентов, основанных на рассуждении, официально началась.