
В качестве мощного сигнала доверия к полупроводниковому сектору группа стартапов в сфере чипов для искусственного интеллекта привлекла более 1,1 миллиарда долларов венчурного финансирования только за эту неделю. Лидером этого всплеска является MatX, стартап из Маунтин-Вью, основанный бывшими архитекторами Google TPU, который обеспечил себе значительный раунд серии B в размере 500 миллионов долларов. Эта волна финансирования подчеркивает растущее стремление инвесторов поддерживать специализированные аппаратные архитектуры, способные пошатнуть доминирование Nvidia в эпоху генеративного ИИ (Generative AI).
Коллективные инвестиции в размере 1,1 миллиарда долларов направлены на критическое «узкое место» в цепочке поставок ИИ: зависимость от графических процессоров (GPU) общего назначения для запуска все более сложных больших языковых моделей (Large Language Models, LLMs). По мере того как модели ИИ масштабируются до триллионов параметров, индустрия делает ставку на то, что специализированные кремниевые решения, разработанные с нуля для трансформеров (Transformers), обеспечат эффективность и пропускную способность, необходимые для следующего поколения интеллекта.
MatX, стартап, стоящий во главе этого ажиотажа вокруг финансирования, вышел из режима скрытности с амбициозными заявлениями и внушительным списком спонсоров. Раунд компании на 500 миллионов долларов оценивает предприятие в несколько миллиардов долларов, предоставляя ей капитал, необходимый для завершения разработки чипа и резервирования производственных мощностей на TSMC.
Раунд возглавили Jane Street и Situational Awareness, инвестиционная фирма, основанная бывшим исследователем OpenAI Леопольдом Ашенбреннером (Leopold Aschenbrenner). Участие также приняли полупроводниковый гигант Marvell Technology, NFDG, Spark Capital, а также сооснователи Stripe Патрик и Джон Коллисон (Patrick and John Collison).
Авторитет MatX во многом обусловлен его основателями, Райнером Поупом (Reiner Pope) (CEO) и Майком Гюнтером (Mike Gunter) (CTO). Оба являются ветеранами подразделения аппаратного обеспечения Google, где они играли ключевую роль в разработке тензорного процессора (Tensor Processing Unit, TPU) — специализированного чипа, который обеспечивает работу внутренних рабочих нагрузок ИИ в Google.
Поуп и Гюнтер покинули Google в 2022 году со специфическим тезисом: хотя GPU мощны, они несут «багаж» вычислений общего назначения и графического наследия. MatX стремится устранить эту неэффективность, проектируя чип исключительно для математических операций, необходимых современным LLM.
В основе предложения MatX лежит MatX One, процессор, спроектированный для обеспечения производительности до 10 раз выше, чем у текущих предложений Nvidia для обучения и инференса больших моделей. Чип использует инновационную архитектуру, известную как «разделяемый систолический массив (splittable systolic array)».
Традиционные систолические массивы, используемые в Google TPU и других ускорителях ИИ, представляют собой жесткие сетки вычислительных блоков. Инновация MatX позволяет динамически реконфигурировать или «разделять» эти массивы для более эффективной обработки матриц различных размеров. Эта гибкость критически важна для обработки меняющихся вычислительных требований моделей на базе архитектуры Transformer.
Ключевые архитектурные инновации:
Неделя финансирования на сумму 1,1 миллиарда долларов отражает сдвиг в рыночных настроениях. В течение многих лет программный «ров» Nvidia в виде CUDA считался непреодолимым. Однако сама стоимость обучения передовых моделей, часто исчисляемая сотнями миллионов долларов, создала экономическую необходимость в более эффективном оборудовании.
Инвесторы делают ставку на то, что зависимость от программного обеспечения ослабевает, так как фреймворки вроде PyTorch становятся все более независимыми от аппаратного обеспечения. «Налог на Nvidia» — наценка за дефицит и маржу — заставил крупные лаборатории ИИ искать альтернативы. Стратегия MatX, заключающаяся в продаже напрямую этим топовым лабораториям (таким как OpenAI, Anthropic и xAI), избавляет от необходимости в широком канале корпоративных продаж, позволяя им полностью сосредоточиться на производительности.
Следующая таблица описывает, как MatX позиционирует свою технологию по сравнению с преобладающим стандартом — архитектурой Nvidia H100/Blackwell.
Сравнение позиционирования на рынке
---|---|----
Характеристика|MatX One (прогноз)|Nvidia H100 / Blackwell
Основная архитектура|Разделяемый систолический массив (Splittable Systolic Array)|GPU общего назначения (SIMT)
Иерархия памяти|Сначала SRAM с HBM для контекста|Преимущественно HBM (HBM3e)
Целевая нагрузка|LLM и трансформеры (7B+ параметров)|Общий ИИ, графика, HPC
Экосистема ПО|Кастомный компилятор (специфичный для LLM)|CUDA (обширная, зрелая)
Происхождение основателей|Google TPU и DeepMind|Графика и параллельные вычисления
Ключевое преимущество|В 10 раз выше плотность вычислений для LLM|Универсальность и доминирование в цепочке поставок
Несмотря на масштабное финансирование, MatX и ее конкуренты сталкиваются с серьезными препятствиями. Проектирование чипа — это лишь первый шаг; получение функционирующего кремния при объемах массового производства — задача чрезвычайной сложности. MatX планирует финализировать свой проект в этом году, а начало поставок намечено на 2027 год.
Этот график ставит их в прямую конкуренцию с будущей дорожной картой Nvidia, включая архитектуру Rubin. Кроме того, задача создания программного стека, который позволит исследователям легко переносить свои наработки с GPU Nvidia, остается самым большим риском для любого претендента.
Тем не менее, имея 500 миллионов долларов на счету и руководящую команду, которая помогла изобрести современный ускоритель ИИ, MatX позиционирует себя как самую серьезную угрозу гегемонии GPU на данный момент. Поскольку спрос на вычисления продолжает опережать предложение, полупроводниковая индустрия готовится к новой эре конкуренции, где победу будет определять эффективность, а не только чистая мощность.