
반도체 부문에 대한 강력한 신뢰의 신호로, 이번 주에만 인공지능(AI) 칩 스타트업 그룹이 11억 달러 이상의 벤처 캐피털(VC) 자금을 조달했습니다. 이러한 급증을 주도하는 것은 전직 Google TPU 아키텍트들이 설립한 마운틴뷰 기반의 스타트업 MatX로, 이들은 5억 달러 규모의 대규모 시리즈 B 라운드를 확보했습니다. 이러한 투자 물결은 생성형 AI(Generative AI) 시대에 Nvidia의 지배력을 무너뜨릴 수 있는 특화된 하드웨어 아키텍처를 지원하려는 투자자들의 커지는 열망을 강조합니다.
총 11억 달러의 투입은 AI 공급망의 핵심 병목 현상인 점점 더 복잡해지는 대규모 언어 모델(LLM) 실행을 위해 범용 GPU에 의존하는 문제를 해결하는 데 목적이 있습니다. AI 모델이 수조 개의 매개변수 규모로 확장됨에 따라, 업계는 트랜스포머(Transformers)를 위해 처음부터 설계된 특수 실리콘이 차세대 지능에 필요한 효율성과 처리량을 제공할 것이라고 내기하고 있습니다.
이번 자금 조달 열풍의 중심에 있는 스타트업인 MatX는 대담한 주장과 영향력 있는 후원자 명단과 함께 스텔스 상태에서 벗어났습니다. 이 회사의 5억 달러 규모 라운드는 기업 가치를 수십억 달러로 평가하며, 칩 설계를 마무리하고 TSMC에서 제조 용량을 확보하는 데 필요한 자금을 제공합니다.
이번 라운드는 Jane Street와 전 OpenAI 연구원 레오폴드 아셴브레너(Leopold Aschenbrenner)가 설립한 투자 회사인 Situational Awareness가 주도했습니다. 참여 기업에는 반도체 거물인 Marvell Technology, NFDG, Spark Capital, 그리고 Stripe의 공동 창립자인 Patrick 및 John Collison도 포함되었습니다.
MatX의 신뢰성은 주로 창립자인 Reiner Pope(CEO)와 Mike Gunter(CTO)로부터 나옵니다. 두 사람 모두 Google의 하드웨어 부문 베테랑으로, Google 내부 AI 워크로드를 구동하는 맞춤형 실리콘인 텐서 처리 장치(TPU) 개발에 중추적인 역할을 했습니다.
Pope와 Gunter는 GPU가 강력하지만 범용 컴퓨팅 및 그래픽 유산의 "짐(baggage)"을 지니고 있다는 구체적인 가설을 가지고 2022년 Google을 떠났습니다. MatX는 이러한 비효율성을 제거하고 현대 LLM에 필요한 수학적 연산만을 위해 전용으로 칩을 설계하는 것을 목표로 합니다.
MatX 홍보의 핵심은 대규모 모델의 학습 및 추론(Inference)에 있어 Nvidia의 현재 제품보다 최대 10배 높은 성능을 제공하도록 설계된 프로세서인 MatX One입니다. 이 칩은 **"분할 가능한 시스톨릭 어레이(splittable systolic array)"**라고 불리는 새로운 아키텍처를 활용합니다.
Google의 TPU 및 기타 AI 가속기에서 사용되는 기존 시스톨릭 어레이는 처리 장치들이 고정된 격자 형태를 이룹니다. MatX의 혁신은 이러한 어레이를 동적으로 재구성하거나 "분할"하여 다양한 행렬 크기를 더 효율적으로 처리할 수 있게 합니다. 이러한 유연성은 Transformer 기반 모델의 다양한 계산 요구 사항을 처리하는 데 중요합니다.
주요 아키텍처 혁신:
11억 달러 규모의 자금 조달 주간은 시장 심리의 변화를 반영합니다. 수년 동안 Nvidia의 CUDA 소프트웨어 해자(moat)는 극복할 수 없는 것으로 여겨졌습니다. 그러나 종종 수억 달러에 달하는 프론티어 모델 학습의 막대한 비용은 더 효율적인 하드웨어에 대한 경제적 필연성을 만들어냈습니다.
투자자들은 PyTorch와 같은 프레임워크가 점점 더 하드웨어에 구애받지 않게 됨에 따라 소프트웨어 고착화 현상이 완화되고 있다는 점에 내기하고 있습니다. 희소성과 마진으로 인해 지불하는 프리미엄인 "Nvidia 세금(Nvidia tax)"으로 인해 주요 AI 연구소들은 대안을 찾게 되었습니다. 이러한 최고 수준의 연구소(OpenAI, Anthropic, xAI 등)에 직접 판매하려는 MatX의 전략은 광범위한 기업용 영업 채널의 필요성을 우회하여 성능에만 전적으로 집중할 수 있게 해줍니다.
다음 표는 MatX가 자사의 기술을 현재의 표준인 Nvidia의 H100/Blackwell 아키텍처와 비교하여 어떻게 포지셔닝하고 있는지 보여줍니다.
시장 포지셔닝 비교
---|---|----
기능|MatX One (예상)|Nvidia H100 / Blackwell
기본 아키텍처|분할 가능한 시스톨릭 어레이|범용 GPU (SIMT)
메모리 계층 구조|컨텍스트용 HBM을 갖춘 SRAM 우선|HBM 위주 (HBM3e)
대상 워크로드|LLM 및 Transformers (7B+ 매개변수)|일반 AI, 그래픽, HPC
소프트웨어 에코시스템|맞춤형 컴파일러 (LLM 특화)|CUDA (광범위하고 성숙함)
창립자 배경|Google TPU 및 DeepMind|그래픽 및 병렬 컴퓨팅
주요 장점|LLM을 위한 10배 높은 연산 밀도|다재다능함 및 공급망 지배력
막대한 자금 조달에도 불구하고 MatX와 그 동료들은 상당한 장애물에 직면해 있습니다. 칩을 설계하는 것은 첫 번째 단계일 뿐이며, 대량 생산 규모에서 작동하는 실리콘을 생산하는 것은 악명 높게 어렵습니다. MatX는 올해 설계를 마무리할 계획이며, 초기 출하 목표는 2027년입니다.
이 일정은 그들을 Rubin 아키텍처를 포함한 Nvidia의 미래 로드맵과 직접적인 경쟁 상태에 놓이게 합니다. 또한, 연구자들이 Nvidia GPU에서 자신의 작업을 쉽게 이식할 수 있도록 하는 소프트웨어 스택을 구축하는 과제는 모든 도전자에게 여전히 가장 큰 위험 요소로 남아 있습니다.
그러나 5억 달러의 자금과 현대 AI 가속기를 발명하는 데 기여한 리더십 팀을 보유한 MatX는 GPU 패권에 대한 지금까지의 가장 신뢰할 만한 위협으로 자리매김했습니다. 컴퓨팅 수요가 계속해서 공급을 앞지름에 따라 반도체 산업은 단순한 원동력이 아닌 효율성이 승자를 정의하는 새로운 경쟁의 시대를 준비하고 있습니다.