
인공지능(AI) 분야의 획기적인 발전 과정에서, Nvidia(엔비디아)는 전 OpenAI 최고기술책임자(CTO)인 Mira Murati(미라 무라티)가 설립한 야심 찬 AI 스타트업 Thinking Machines Lab과 다년간의 전략적 파트너십을 공식화했습니다. Creati.ai가 추적하고 분석한 바에 따르면, 이번 협력은 업계 역사상 가장 실질적인 하드웨어 약정 중 하나를 나타냅니다. 합의의 핵심은 Thinking Machines Lab이 2027년 초부터 최소 1기가와트(gigawatt) 규모의 Nvidia 차세대 **Vera Rubin systems**을 배포하겠다는 전면적인 약속에 집중되어 있습니다.
대규모 하드웨어 공급 계약 외에도, Nvidia는 이 스타트업에 "상당한 투자"를 단행하여 장기적인 연구 및 성장 궤도를 강화하기 위해 공개되지 않은 자본을 투입했습니다. 업계 분석가들은 이번 거래의 칩 공급 구성 요소가 수백억 달러의 가치가 있는 것으로 추정하며, 이는 현대 AI 군비 경쟁에서 경쟁하는 데 필요한 막대한 재정적 및 계산적 규모를 강조합니다. 재정적 지원과 거대한 컴퓨팅 파이프라인을 결합함으로써, Nvidia는 프런티어 모델(Frontier Model) 분야에서 떠오르는 도전자에게 직접적으로 동력을 공급하고 있습니다.
1기가와트 데이터 센터 약정의 중대성을 완전히 파악하려면, 관련된 가공되지 않은 물리적 및 경제적 규모를 살펴봐야 합니다. 1**gigawatt**의 전력은 중소도시의 전력 소비량과 거의 맞먹습니다. 이 엄청난 양의 에너지를 전적으로 인공지능 훈련 및 추론(Inference)에 할당하는 것은 현재의 메가 클러스터에서 기념비적인 도약을 이룩했음을 보여줍니다.
Nvidia의 CEO Jensen Huang(젠슨 황)은 이전에 1기가와트급 AI 컴퓨팅 시설을 구축하는 데 약 500억 달러의 자본 지출이 필요할 것으로 추정했습니다. 이러한 용량을 확보함으로써, Thinking Machines Lab은 즉시 상위권 AI 연구 기관으로 도약하여 기존 기술 거대 기업들의 인프라 역량과 대등하거나 오히려 능가하게 되었습니다.
이 대규모 배포의 중추는 Blackwell(블랙웰) 아키텍처의 뒤를 잇는 Nvidia의 큰 기대를 모으고 있는 Vera Rubin 시스템이 될 것입니다.
합의의 핵심 하드웨어 구성 요소:
| 인프라 구성 요소 | 기술 사양 | 전략적 목적 |
|---|---|---|
| Rubin GPU | 칩당 3,360억 개의 트랜지스터 대규모 추론 워크로드에 최적화 |
극한의 규모에서 딥러닝 및 프런티어 모델 훈련 지원 |
| Vera CPU | 88코어 아키텍처 Armv9.2 명령어 세트 활용 |
높은 데이터 처리량 및 원활한 시스템 관리 보장 |
| 시설 용량 | 1기가와트 전력 할당 수백억 달러의 가치 추정 |
맞춤형 AI 플랫폼의 장기적이고 중단 없는 배포 지원 |
2025년 초 공식 출범 이후, Thinking Machines Lab은 맹렬한 속도로 움직여 왔습니다. 2024년 말 OpenAI를 떠나 세간의 이목을 끌었던 Mira Murati가 설립한 이 공익 법인(Public Benefit Corporation)은 폐쇄형 생태계 AI 연구소들에 대항하는 강력하고 독립적인 도전자로서 입지를 다졌습니다.
이 회사는 이전에 Advanced Micro Devices (AMD)와 ServiceNow를 포함한 중량급 투자자 컨소시엄으로부터 20억 달러의 대규모 시드 라운드 자금을 확보했으며, 이는 출시 몇 달 만에 기업 가치를 120억 달러라는 놀라운 수준으로 끌어올렸습니다. 특히, Murati는 자신의 독립적인 비전에 대한 확고한 의지로 인해 작년에 Meta의 Mark Zuckerberg(마크 저커버그)로부터 받은 인수 제안을 거절한 것으로 알려졌습니다.
리더십 재편을 포함한 초기 경영진의 동요를 겪었음에도 불구하고, Thinking Machines Lab은 순수한 자율적 대행(Agency)보다 인간과 AI의 협업을 우선시하는 고유한 기술 철학에 레이저처럼 집중해 왔습니다. 불투명한 블랙박스 시스템을 구축하는 대신, 이 연구소는 사용자가 포괄적으로 형성하고 이해하며 전문화된 워크플로우에 통합할 수 있는 적응성이 뛰어난 멀티모달(Multimodal) AI를 만드는 것을 목표로 합니다.
Thinking Machines Lab의 중요한 차별점은 엔터프라이즈 제품 개발에 대한 접근 방식입니다. 주요 경쟁업체들이 종종 사용자를 독점적인 소비자 웹 인터페이스에 가두는 반면, Thinking Machines는 개발자의 접근성, 과학적 투명성 및 효율적인 모델 미세 조정(Fine-tuning)을 우선시하고 있습니다.
회사의 대표적인 클라우드 서비스인 **Tinker API**는 이러한 사명을 예시합니다. 이 서비스는 개발자, 연구원 및 기업 고객이 오픈 소스 대규모 언어 모델(LLM)의 고도로 맞춤화된 버전을 생성할 수 있도록 지원하며, 프런티어 역량과 현지화된 도메인별 요구 사항 간의 간극을 효과적으로 메워줍니다.
Tinker API 생태계의 주요 장점은 다음과 같습니다:
Nvidia 컴퓨팅 파워의 대규모 유입은 Tinker API의 글로벌 확장을 직접적으로 지원하여, 전 세계 기업 고객의 점점 더 복잡하고 다각적인 멀티모달 맞춤화 요청을 손쉽게 확장하고 처리할 수 있게 할 것입니다.
양사 리더십은 이번 거래가 단순한 전통적 하드웨어 구매 계약이 아니라, 인공지능의 미래 궤적에 대한 공유된 철학적 연대임을 강조했습니다.
"AI는 인류 역사상 가장 강력한 지식 발견 도구입니다."라고 Nvidia의 설립자이자 CEO인 Jensen Huang은 파트너십의 역사적 규모를 언급하며 말했습니다. "Thinking Machines는 AI의 프런티어를 발전시키기 위해 세계적 수준의 팀을 모았습니다. 우리는 Thinking Machines와 파트너가 되어 그들의 흥미진진한 AI 미래 비전을 실현하게 되어 매우 기쁩니다."
Mira Murati에게 이번 동맹은 기존 기술 독점에 도전하고 인간과 기계의 상호작용을 재정의하는 데 필요한 인프라 안정성을 보장합니다. Murati는 공동 발표에서 "NVIDIA의 기술은 전체 분야가 구축되는 토대입니다."라고 언급했습니다. "이 파트너십은 사람들이 스스로 형성하고 자신의 것으로 만들 수 있는 AI를 구축하는 역량을 가속화하며, 이는 다시 인간의 잠재력을 형성하게 될 것입니다."
Creati.ai의 분석적 관점에서 볼 때, 이 전략적 파트너십은 광범위한 AI 하드웨어 및 소프트웨어 시장에서 중요한 진화를 시사합니다. Nvidia는 지배적인 시장 지위를 활용하여 차세대 AI 소프트웨어 리더들을 적극적으로 육성하고 투자하고 있습니다. 하드웨어와 함께 "상당한 투자"를 제공함으로써, Nvidia는 최첨단 플랫폼이 첫날부터 자사의 독점 아키텍처에 근본적으로 최적화되도록 보장하며, 고도로 통합되고 수직적으로 정렬된 생태계를 구축하고 있습니다.
이러한 전략은 다가오는 GTC 2026 컨퍼런스에서 오픈 소스 엔터프라이즈 AI 플랫폼인 NemoClaw의 출시 예정과 함께 Nvidia의 광범위한 엔터프라이즈 소프트웨어 진출과 맞물려 있습니다. 이러한 움직임은 Nvidia가 단순한 반도체 벤더에서 통합적인 AI 인프라 및 소프트웨어 강자로 의도적으로 전환하고 있음을 보여줍니다.
업계가 2027년 초 Vera Rubin 시스템의 배포를 주목함에 따라, 모든 시선은 Thinking Machines Lab에 쏠릴 것입니다. 전례 없는 1기가와트의 컴퓨팅 파워를 갖추고 세계에서 가장 가치 있는 기술 기업의 지원을 받는 Mira Murati의 벤처는, 향후 수십 년 동안 인간의 전문 지식과 인공지능이 협업하는 방식을 재정의하는 데 필요한 막대한 자본과 최첨단 실리콘을 모두 보유하게 되었습니다.