
생성형 AI(Generative AI)의 거침없는 확장으로 정의되는 시대에, 거대 기술 기업들의 병목 현상은 더 이상 소프트웨어의 탁월함이 아니라 하드웨어의 물리적 역량 자체가 되었습니다. 최근 구글(Google)이 커스텀 AI 칩을 공동 개발하기 위해 마벨 테크놀로지(Marvell Technology)와 심도 있는 논의를 진행 중이라는 보도가 나왔습니다. 이러한 움직임은 거대언어모델(LLM) 추론의 높은 에너지 요구 사항을 구체적으로 겨냥하여 데이터 센터 인프라를 최적화하려는 구글의 내부 노력이 상당히 강화되었음을 시사합니다.
실리콘 전쟁을 지켜보는 이들에게 있어, 이미 텐서 프로세싱 유닛(TPU)을 통해 가장 성숙한 AI 칩 생태계를 보유하고 있다고 평가받는 Google과 같은 하이퍼스케일러와 마벨과 같은 칩 설계 전문 기업 간의 협력은 매우 중요한 의미를 갖습니다. 마벨과 협력함으로써 구글은 AI 작업의 복잡성 증대를 관리하는 동시에 전체 소유 비용을 절감할 수 있는 차세대 하드웨어 개발을 가속화하고자 합니다.
이 파트너십의 핵심에는 서로 다르면서도 상호 보완적인 두 가지 칩 이니셔티브가 있습니다. 첫째는 현대 AI 워크로드의 엄격한 요구 사항에 맞춘 차세대 TPU 개발이며, 둘째는 특수화된 **메모리 프로세싱 유닛(MPU)**의 생성입니다.
여기서 '추론'에 대한 집중은 매우 중요합니다. AI 모델 학습에는 거대한 병렬 처리 능력이 필요하지만, 모델이 사용자에게 응답을 제공하는 행위인 추론이야말로 AI 서비스의 매일 발생되는 운영 비용을 결정짓기 때문입니다. 수십억 개의 쿼리가 구글 검색 및 기타 플랫폼에 쏟아짐에 따라, 추론에 소비되는 매 마이크로초의 효율성은 막대한 재정적 지렛대가 됩니다.
| 이니셔티브 유형 | 주요 집중 분야 | 예상 효과 |
|---|---|---|
| 차세대 TPU | 핵심 컴퓨팅 | 모델 실행을 위한 와트당 FLOPS 개선 |
| 메모리 프로세싱 유닛(MPU) | 데이터 처리량 | 고대역폭 작업을 위한 지연 시간 단축 |
| 최적화 전략 | 소프트웨어-하드웨어 통합 | 대규모 운영 비용 절감 |
마벨은 커스텀 실리콘 설계, 특히 인프라 중심 애플리케이션 분야에서 업계 리더로 자리매김했습니다. 고속 연결 및 스토리지 컨트롤러 실리콘을 전문으로 하는 마벨은 구글의 내부 TPU 팀을 보완하는 아키텍처 전문성을 제공합니다.
구글의 전략은 두 가지로 보입니다. 핵심적인 고부하 작업은 내부 TPU를 활용하고, 특정 구성 요소는 마벨에 아웃소싱하여 그들이 보유한 특수 IP 라이브러리와 검증된 설계 효율성의 혜택을 누리는 것입니다. 이러한 '하이브리드' 접근 방식을 통해 구글은 자체 아키텍처가 제공하는 경쟁 우위를 유지하면서도, 단독 개발이 허용하는 것보다 더 빠르게 하드웨어 주기를 반복할 수 있습니다.
Creati.ai에서 관찰한 바와 같이, 업계는 범용 GPU 패러다임에서 벗어나 도메인별로 고도로 특화된 실리콘으로 전환하고 있습니다. 이러한 전환은 세 가지 주요 요인에 의해 주도됩니다.
잠재적인 구글-마벨 파트너십의 파급 효과는 반도체 산업 전반에 걸쳐 느껴질 것입니다. 현재 기업용 AI 칩 시장을 장악하고 있는 엔비디아(NVIDIA)와 같은 기업들은 하이퍼스케일러들이 자체 실리콘 설계에 능숙해짐에 따라 지속적인 압박을 받게 될 것입니다.
더 넓은 AI 생태계의 관점에서, 이는 더 저렴하고 빠르며 효율적인 추론 기능에 대한 접근을 의미합니다. 이러한 새로운 칩 개발이 성공한다면, 현재 기업 규모의 AI 배포를 저해하는 과도한 전력 비용 없이도 검색부터 워크스페이스(Workspace)에 이르기까지 구글 제품 전반에 더 복잡한 AI를 통합할 수 있는 역량을 갖추게 될 것입니다.
구글이 로드맵을 지속적으로 다듬어감에 따라, 마벨의 전문적인 역량이 통합되는 과정은 우리가 계속해서 면밀히 주시할 부분입니다. AI 추론 하드웨어를 마스터하기 위한 경쟁은 본질적으로 미래 인터넷의 경제학을 마스터하기 위한 경쟁이며, 이번 협상은 구글이 어떠한 영역도 양보할 의사가 없음을 시사합니다.