
알리바바는 지금까지 추진한 인공지능 인프라 프로젝트 가운데 가장 야심적인 사업 중 하나를 가동했다. 바로 자사에서 설계한 전무(Zhenwu) 칩 1만 개로 구동되는, 중국 내 신규 AI 특화 데이터 센터다. 인하우스로 개발되어 China Telecom과의 파트너십을 통해 대규모로 배치된 이 반도체는 AI 학습(training)과 추론(inference) 워크로드를 모두 처리하도록 설계되어 있으며, 이는 첨단 컴퓨팅 분야에서 중국의 자립을 향한 새로운 단계를 의미한다.
Creati.ai 독자들에게 이번 소식은 커스텀 실리콘, 하이퍼스케일 데이터 인프라, 그리고 지정학적으로 민감한 AI 경쟁이 교차하는 중대한 분기점을 보여준다.
이번 신규 시설은 Alibaba와 China Telecom이 공동으로 공개했으며, 대규모 언어 모델, 컴퓨터 비전 시스템, 그리고 최신 AI 애플리케이션을 떠받치는 기타 고집적 연산 워크로드에 최적화된 클라우드 스케일 AI 허브로 자리매김하고 있다.
공개된 정보에 따르면, 이번 배치는 다음을 포함한다.
알리바바는 칩 단위의 상세 스펙을 모두 공개하지는 않았지만, 전무가 다음과 같은 목표로 설계되었다고 강조한다.
이를 통해 새 데이터 센터는 알리바바 AI 클라우드 로드맵의 기초 노드로 자리 잡으며, 전무 플랫폼은 성능과 전략 양 측면에서 차별화 요소로 작용하게 된다.
중국 최대 통신사 중 하나인 China Telecom과 협력함으로써, 알리바바는 데이터 센터를 고대역폭 백본 네트워크 전반에 연결하고 있다. 이러한 연결성은 다음을 위해 필수적이다.
이 시설은 독립형 자산이 아니라, 스토리지·네트워킹·오케스트레이션 레이어를 AI 워크로드에 맞춰 조정한 통합 클라우드 AI 패브릭의 일부로 포지셔닝되고 있다.
커스텀 실리콘은 이제 하이퍼스케일 AI의 핵심 특징이 되었다. Nvidia가 여전히 글로벌 성능 리더이지만, Google(TPU), Amazon(Trainium, Inferentia), Microsoft(Maia, Cobalt)와 같은 기업들은 인하우스 칩 개발에 공격적으로 나서고 있다. 전무는 중국 특유의 규제·공급망 환경 안에서 이러한 흐름에 대응하는 알리바바의 해답이다.
데이터 센터 스케일로 전무를 배치하는 시점은 여러 측면에서 의미가 크다.
알리바바의 대외 메시지는 Zhenwu chips가 학습과 추론 모두를 위해 설계되었다는 점을 강조하며, 특수 용도의 틈새 가속기가 아니라 범용 워크호스로 활용되도록 의도되었음을 시사한다.
상세 벤치마크는 아직 공개되지 않았지만, 전무의 전략적 포지셔닝은 다른 하이퍼스케일러 칩 이니셔티브와 대체로 유사하다.
| Vendor | Custom AI Chip | Primary Use Case |
|---|---|---|
| Alibaba | Zhenwu | Alibaba Cloud 내 AI 모델 학습 및 추론 |
| TPU (v4/v5) | Google 및 Google Cloud AI 워크로드의 학습 및 추론 | |
| Amazon | Trainium & Inferentia | AWS 상 학습(Trainium) 및 추론(Inferentia) |
| Microsoft | Maia & Cobalt | AI 가속과 클라우드 인프라 최적화 |
각 공급자는 오케스트레이션, 모델 서빙, 개발자 툴링과 긴밀히 결합된 실리콘을 통해 자사 클라우드 소프트웨어 스택을 최적화하고자 한다. 전무는 중국 시장과 규제 환경에 맞춰 조정된, 이와 같은 카테고리 속 알리바바의 진입 사례다.
China Telecom과의 협업은 이번 프로젝트를 단순한 기업 인프라 업그레이드를 넘어, AI 역량 확장을 위한 국가적 노력의 일부로 만든다.
China Telecom이 제공하는 것은 다음과 같다.
반대로 알리바바는 다음을 제공한다.
이러한 통신–클라우드 파트너십은 중국이 산업 인터넷, 스마트 시티 프로젝트, 공공 IT 시스템에 AI 역량을 융합하려는 중장기 전략과 맞닿아 있다.
전무 기반 데이터 센터는 또한 글로벌 공급망 불확실성과 기술 수출 제한에 대응해 **자립형 AI infrastructure**를 구축하려는 중국 전략의 일부이기도 하다. 구체적으로는 다음과 같다.
알리바바와 China Telecom은 이로써 “자체 개발” AI 연산 역량의 핵심 공급자로 자리매김하려 한다.
이번 AI data center 출시는 칩 공급사뿐 아니라, 프런티어 AI 모델 개발사 및 글로벌 클라우드 제공업체 간 경쟁이 한층 격화되는 가운데 나왔다.
AI 연산 수요 곡선은 계속 가팔라지고 있다.
1만 개 칩 규모 시설을 가동함으로써, 알리바바는 자신들이 단순한 이커머스 대기업을 넘어, 풀스케일 AI 인프라 제공업체로서 이 경쟁에서 계속 존재감을 유지하겠다는 신호를 보내고 있다.
국제적으로 AI 클라우드 시장은 현재 소수의 그룹이 주도하고 있다.
알리바바의 전무 생산 배치는 다음과 같은 효과를 가져온다.
수출 통제가 이 기술의 국제 확산 범위를 제한하겠지만, 이번 조치는 중국 AI 생태계 내에서 알리바바의 역할을 더욱 공고히 한다.
AI 기반 서비스를 구축하는 개발자와 엔터프라이즈에게 이번 소식의 의미는, 알리바바가 전무를 어떻게 운영화하고 그 역량을 알리바바 클라우드를 통해 어떻게 노출하느냐에 달려 있다.
전무 기반 클러스터가 알리바바 클라우드의 퍼블릭 오퍼링에 완전히 통합될 경우, 다음과 같은 이점이 가능하다.
주로 중국 내에서 운영되는 조직에게 이는 생성형 AI, 추천 시스템, 도메인 특화 모델 배포에 대한 로드맵을 보다 안정적으로 만드는 요소가 될 수 있다.
개발자 생태계에서 여전히 열려 있는 주요 질문은 다음과 같다.
이러한 답변이 전무 기반 인프라가 알리바바 내부 제품을 넘어 더 폭넓은 고객에게 얼마나 빠르게 매력적인 선택지가 될지를 좌우할 것이다.
Creati.ai의 관점에서, 알리바바 전무 데이터 센터는 더 넓은 구조적 흐름을 상징한다. AI 연산이 지역화되고, 수직 통합된 스택으로 이동하고 있다는 점이다. 소수의 미국 칩 기업이 지배하는 단일 글로벌 하드웨어 생태계 대신, 우리는 다음과 같은 양상을 목격하고 있다.
글로벌 AI 커뮤니티에게 이런 분절은 상반된 함의를 가진다. 한편으로는 공급망의 단일 실패 지점을 줄여 회복력을 높이지만, 다른 한편으로는 여러 관할권과 플랫폼을 가로질러 매끄럽게 동작하는 AI 시스템을 구축하는 복잡성을 키운다.
알리바바가 새 AI 데이터 센터에 1만 개의 전무 칩을 배치한 것은 이러한 방향성을 잘 보여주는 상징적 조치로, 중국 내 경쟁사뿐 아니라, 다음 10년의 AI 인프라를 정의하기 위해 경쟁 중인 전 세계 클라우드 사업자와 칩 설계자들 역시 면밀히 주시하게 될 움직임이다.