
At Creati.ai, 우리는 인공지능의 진화를 지속적으로 모니터링하고 있으며, NVIDIA의 최신 발표는 자율 시스템의 결정적인 순간을 예고합니다. 2026년 3월 11일, NVIDIA는 복잡한 에이전트 추론(agentic reasoning) 작업을 수행하도록 특별히 설계된 오픈 가중치(open-weights) 하이브리드 Mamba-Transformer 전문가 믹스(Mixture-of-Experts, MoE) 모델인 Nemotron 3 Super를 공식 발표했습니다. 멀티 에이전트 워크플로우와 일반적으로 연관된 과도한 컴퓨팅 비용과 컨텍스트 제한을 완화하기 위해 설계된 이 1,200억 개의 파라미터 모델은 토큰당 120억 개의 활성 파라미터로만 작동하며, 엔터프라이즈 AI 애플리케이션의 구축 및 배포 방식을 재정의할 것을 약속합니다.
엔터프라이즈 AI가 단순한 챗봇 인터페이스를 넘어 정교한 멀티 에이전트 오케스트레이션으로 진화함에 따라 개발자들은 두 가지 치명적인 병목 현상에 직면해 있습니다. 첫 번째는 업계 전문가들이 컨텍스트 폭발(context explosion)이라 부르는 현상입니다. Multi-agent workflows는 표준 대화형 AI보다 최대 15배 더 많은 토큰을 생성하는 경우가 많습니다. 이는 에이전트가 매 단계마다 전체 기록, 중간 추론 단계 및 도구 출력 결과를 끊임없이 교환해야 하기 때문입니다. 작업이 확장됨에 따라 이러한 대량의 데이터 유입은 AI가 원래 목표와의 정렬을 점차 잃게 되는 "목표 이탈(goal drift)" 현상을 초래하곤 합니다.
두 번째 병목 현상은 사고 비용(thinking tax)입니다. 자율 워크플로우 내의 모든 사소한 하위 작업을 수행하기 위해 거대하고 조밀한 언어 모델을 사용하는 것은 계산 비용이 지나치게 높으며 실제 애플리케이션에 적용하기에는 매우 느립니다. 고도로 최적화된 아키텍처를 활용함으로써, Nemotron 3 Super는 이러한 제약 사항을 직접적으로 해결합니다. 이전 Nemotron Super 버전보다 5배 이상의 처리량을 제공하여, 자율 에이전트가 컴퓨팅 예산을 소진하지 않고도 대규모로 지속적인 운영을 할 수 있도록 지원합니다.
Nemotron 3 Super는 단순히 이전 Nemotron 3 Nano 모델의 확장 버전이 아닙니다. 이는 고성능 추론 엔진의 효율성-정확도 패러다임을 재정의하는 심오한 아키텍처 혁신을 도입했습니다.
모델의 중추는 성능을 극대화하기 위해 두 가지 고유한 레이어 유형을 정교하게 교차 배치합니다. Mamba-2 레이어는 시퀀스 처리의 대부분을 담당합니다. 상태 공간 모델(SSM)로서, 시퀀스 길이에 대해 선형 시간 복잡도를 제공합니다. 이러한 효율성이 바로 거대한 100만 토큰 컨텍스트 윈도우를 이론적 개념에서 매우 실용적인 도구로 변모시키는 핵심입니다. 이들 사이에 교차 배치된 트랜스포머 어텐션 레이어는 복잡한 코딩, 수학 및 다단계 논리 작업에 필요한 고급의 세밀한 추론을 유도하기 위해 주요 깊이에 전략적으로 배치되었습니다.
NVIDIA는 두 가지 최첨단 기술을 통해 이 하이브리드 기반을 더욱 강화했습니다:
자율 추론이 가능한 모델을 구축하려면 혁신적인 아키텍처 이상의 것이 필요합니다. 세심하고 방대한 학습 파이프라인이 요구됩니다. NVIDIA는 Nemotron 3 Super를 세 가지 순차적 단계로 학습시켰습니다. 첫째, 사전 학습(pretraining) 단계에서 10조 개의 정제된 토큰을 사용해 폭넓은 세계 지식을 구축했으며, 총 25조 개의 노출된 토큰에 대해 학습을 진행했습니다. 여기에는 추론에 특화된 100억 개의 토큰과 1,500만 개의 코딩 문제가 추가로 포함되었습니다. 둘째, 지도 미세 조정(SFT)을 통해 다양한 에이전트 작업 유형에 걸쳐 모델의 행동을 형성했습니다. 마지막으로, 다중 환경 강화 학습(RL)을 통해 검증 가능한 결과에 맞춰 이 행동을 정교화함으로써 높은 정확도의 도구 호출 및 실행을 보장했습니다.
독립적인 평가에서 이러한 엄격한 학습은 막대한 보상으로 이어졌습니다. Artificial Analysis 리더보드에서 Nemotron 3 Super는 효율성과 개방성 부문에서 1위를 차지했습니다. 직접적인 비교에서, NVIDIA B200 GPU당 gpt-oss-120b와 같은 유사 모델보다 더 높은 지능과 최대 11% 높은 처리량을 보여주었습니다. Qwen3.5-122B와 비교했을 때, Nemotron 3 Super는 대등하거나 우수한 정확도를 달성하는 동시에 롱 컨텍스트(long-context) 작업에 대해 훨씬 높은 추론 처리량을 제공합니다.
기능의 도약을 더 잘 이해하기 위해 Nemotron 3 Super 모델의 핵심 사양을 정리했습니다.
| 기능 | 세부 사항 | 이점 |
|---|---|---|
| 아키텍처 | 하이브리드 Mamba-Transformer MoE | 효율적인 선형 시간 시퀀스 처리와 고급 추론 기능을 결합합니다. 멀티 에이전트 시스템에 최적화되었습니다. |
| 파라미터 수 | 총 120B 활성 12B |
거대 모델의 지능을 유지하면서 추론 비용과 "사고 비용"을 획기적으로 줄입니다. |
| 컨텍스트 윈도우 | 100만 토큰 | 메모리에 전체 워크플로우 상태를 유지하여 확장된 자율 작업에서 목표 이탈을 방지합니다. |
| 주요 혁신 | Latent MoE 멀티 토큰 예측(MTP) |
동일한 컴퓨팅 비용으로 4배 더 많은 전문가를 호출합니다. 내장된 추측성 디코딩을 통해 생성을 가속화합니다. |
| 정밀도 | NVFP4 사전 학습 | 차세대 NVIDIA GPU에서 높은 처리량과 최적의 하드웨어 활용을 보장합니다. |
Creati.ai에서 우리는 오픈 소스 가용성이 빠른 AI 혁신의 기본 촉매제라고 굳게 믿습니다. NVIDIA 역시 이러한 철학을 공유하며, 전례 없는 투명성 수준으로 Nemotron 3 Super를 출시했습니다. 이 모델은 완전히 공개된 가중치, 레시피, 그리고 특히 공개 데이터셋을 특징으로 합니다. 이러한 데이터셋은 신호 대 잡음비를 극대화하기 위해 공격적으로 중복 제거 및 품질 필터링을 거쳤으며, 개발자에게 에이전트 AI를 위한 재현 가능한 빌딩 블록을 제공합니다.
Nemotron 3 Super에 대한 에코시스템 지원은 광범위합니다. 이 모델은 주요 추론 플랫폼 전반에서 사용 가능하며 NVIDIA NIM 마이크로서비스로 패키징되어 로컬 엔터프라이즈 워크스테이션부터 글로벌 클라우드 환경에 이르기까지 어디에나 배포할 수 있습니다. 개발자는 Hugging Face를 통해 가중치에 직접 액세스하거나, Unsloth와 같은 플랫폼을 사용하여 미세 조정하거나, Together AI, Oracle Cloud Infrastructure(OCI) Generative AI, Perplexity, Lightning AI, DeepInfra와 같은 관리형 서비스를 통해 모델을 배포할 수 있습니다. 특히 최적화된 설치 공간 덕분에 NVIDIA H200 또는 H100 하드웨어에서 단일 GPU 배포가 가능하여 소규모 엔지니어링 팀의 진입 장벽을 크게 낮췄습니다.
Nemotron 3 Super의 실제 응용 분야는 방대하며, 특히 심도 있는 기술적 문제 해결과 자율 오케스트레이션이 필요한 산업에서 두드러집니다.
엔터프라이즈 AI의 미래를 내다볼 때, 단순히 밀집 모델(dense models)의 규모를 키우는 것은 더 이상 멀티 에이전트 시스템을 위한 실행 가능한 경로가 아님이 분명합니다. NVIDIA의 Nemotron 3 Super는 효율적인 지능을 향한 숙련된 전환을 상징합니다. Mamba의 롱 컨텍스트 기능과 트랜스포머의 추론 능력을 매끄럽게 결합하고, Latent MoE와 멀티 토큰 예측을 통해 이 모든 것을 최적화함으로써 NVIDIA는 오픈 소스 AI 커뮤니티에 새로운 기준을 세웠습니다.
강력하고 확장 가능한 자율 AI 에이전트를 구축하려는 개발자, 연구자 및 기업 조직에게 Nemotron 3 Super는 단순한 점진적 업그레이드가 아닙니다. 이는 차세대 agentic reasoning을 이끌 토대 엔진입니다. 우리 Creati.ai는 오픈 소스 커뮤니티가 이러한 전례 없는 도구를 활용하여 내일의 자율 워크플로우를 어떻게 구축해 나가는지 계속해서 면밀히 지켜볼 것입니다.