
Un año después de que el «DeepSeek Shock» remodelara fundamentalmente el panorama global de la inteligencia artificial (IA), los principales laboratorios de IA de China han lanzado una ofensiva coordinada de lanzamientos de modelos importantes. Mientras la industria conmemora el aniversario de la disruptiva entrada de DeepSeek en el mercado durante el Festival de Primavera de 2025, gigantes como Zhipu AI, Moonshot AI y ByteDance han presentado simultáneamente sus modelos fundacionales de próxima generación. La oleada de anuncios de esta semana —encabezada por el GLM-5 de Zhipu, el Kimi 2.5 de Moonshot y el Seedance 2.0 de ByteDance— señala un cambio decisivo de las tácticas de imitación hacia una verdadera innovación arquitectónica en el ecosistema de IA chino.
El momento es estratégico, imitando la ventana de lanzamiento festiva que impulsó a DeepSeek a la prominencia global el año pasado. Sin embargo, a diferencia de las guerras de precios de 2025, el campo de batalla de 2026 se define por las capacidades agénticas (agentic), el dominio de la generación de vídeo y, posiblemente, el hito más significativo hasta ahora: la total independencia del hardware.
Liderando la carga se encuentra Zhipu AI, que ha lanzado oficialmente el GLM-5, un modelo de lenguaje masivo (Large Language Model) que representa un momento decisivo para la infraestructura informática de China. Con un recuento total de parámetros de 745.000 millones, el GLM-5 está construido sobre una arquitectura de Mezcla de Expertos (Mixture-of-Experts, MoE) que activa 44.000 millones de parámetros por inferencia.
Lo que distingue al GLM-5 no es solo su escala, sino su procedencia. Zhipu AI confirmó que el modelo fue entrenado íntegramente con chips Huawei Ascend, lo que marca la primera vez que se desarrolla un modelo de este nivel de frontera y magnitud sin depender del hardware de NVIDIA restringido por EE. UU. Este logro aborda la ansiedad por la «brecha de cómputo» que ha plagado al sector, demostrando que las pilas de hardware nacionales pueden soportar el entrenamiento de modelos competitivos con GPT-5.2 y Claude Opus 4.5.
La reacción del mercado fue inmediata. Tras el anuncio, las acciones de Zhipu AI en la Bolsa de Valores de Hong Kong subieron casi un 30%. La empresa, que completó su salida a bolsa (IPO) en enero de 2026, ha posicionado al GLM-5 como la piedra angular de la «ingeniería agéntica». A diferencia de las iteraciones anteriores centradas en el chat, el GLM-5 está optimizado para operaciones de sistemas complejos y codificación autónoma, superando supuestamente al Gemini 3 Pro de Google en los benchmarks internos de razonamiento lógico y comprensión de contexto largo (hasta 200.000 tokens).
Mientras Zhipu se centró en la infraestructura y la escala, Moonshot AI ha redoblado su apuesta por el flujo de trabajo agéntico con el lanzamiento de Kimi 2.5. El nuevo modelo introduce una tecnología propia denominada «Agent Swarm» (Enjambre de Agentes), capaz de orquestar hasta 100 subagentes paralelos para ejecutar tareas complejas de forma simultánea.
Kimi 2.5 utiliza una novedosa metodología de entrenamiento conocida como Aprendizaje por Refuerzo de Agentes Paralelos (Parallel-Agent Reinforcement Learning, PARL). Esto permite que el modelo descomponga una única instrucción del usuario —como «construir un panel de control de comercio electrónico full-stack»— en docenas de hilos distintos gestionados por subagentes especializados (por ejemplo, diseño front-end, esquema de base de datos, integración de API) que se comunican y fusionan sus resultados en tiempo real.
Los resultados son asombrosos. Moonshot afirma que Kimi 2.5 reduce la latencia de las tareas complejas de varios pasos en 4,5 veces en comparación con los modelos de ejecución secuencial. El modelo también se ha integrado directamente en la plataforma Microsoft Foundry, un movimiento que amplía su alcance a clientes empresariales a nivel mundial. En las pruebas de benchmark, Kimi 2.5 logró una puntuación del 96,1% en AIME 2026, consolidando su estatus como el modelo de referencia para el razonamiento matemático y la ingeniería de software automatizada.
En el ámbito multimodal, ByteDance ha presentado Seedance 2.0, un modelo de vídeo generativo que amenaza con trastocar las industrias del cine y la publicidad. Superando la fase «experimental» de la IA de vídeo temprana, Seedance 2.0 se comercializa como una herramienta lista para la producción capaz de generar clips de 4 a 15 segundos en resolución cinematográfica 2K.
La arquitectura subyacente, descrita como un «Transformer de Difusión de Doble Rama» (Dual Branch Diffusion Transformer), permite la generación simultánea de vídeo y audio de alta fidelidad. Esto resuelve el problema de las «películas mudas» que ha obstaculizado a competidores como Sora y Kling. Seedance 2.0 también introduce un control sin precedentes sobre el movimiento de la cámara y la consistencia de los personajes. En las demostraciones beta, los usuarios generaron narrativas complejas de «tomas múltiples» donde la apariencia de un personaje permanecía perfecta a nivel de píxel en diferentes entornos de iluminación y ángulos de cámara.
Los analistas de la industria señalan que Seedance 2.0 procesa vídeo un 30% más rápido que sus competidores más cercanos, aprovechando la masiva infraestructura interna de ByteDance. El lanzamiento ya se ha vuelto viral en las plataformas de redes sociales, con creadores mostrando «películas de IA» que son prácticamente indistinguibles del CGI tradicional.
El lanzamiento coordinado de estos modelos está indisolublemente #vinculada al «Efecto DeepSeek». A principios de 2025, el lanzamiento por parte de DeepSeek de un modelo de alto rendimiento y bajo coste hundió el poder de fijación de precios de las empresas establecidas y forzó una rápida aceleración de la innovación. Un año después, el mercado ha madurado. El enfoque ha pasado de simplemente reducir los costes de los tokens a aumentar la «densidad de inteligencia» de los modelos.
Los inversores han recompensado este giro estratégico. El índice Hang Seng Tech repuntó esta semana, impulsado por las entradas de capital en empresas relacionadas con la IA. Sin embargo, una sombra planea sobre estas celebraciones: el inminente lanzamiento de DeepSeek V4. Los rumores sugieren que el nuevo modelo de DeepSeek, previsto para finales de este mes, podría restablecer una vez más el nivel de referencia de rendimiento, particularmente en tareas de razonamiento.
La siguiente tabla proporciona una comparación técnica de los tres modelos principales lanzados esta semana, destacando los diversos enfoques adoptados por las empresas chinas para captar cuota de mercado.
| Característica/Métrica | Zhipu AI GLM-5 | Moonshot Kimi 2.5 | ByteDance Seedance 2.0 |
|---|---|---|---|
| Dominio principal | Modelo de lenguaje masivo (Lógica/Código) | Orquestación agéntica y multimodal | Vídeo y audio generativo |
| Arquitectura | Mezcla de Expertos (MoE) | Aprendizaje por Refuerzo de Agentes Paralelos (PARL) | Transformer de Difusión de Doble Rama |
| Escala/Especificaciones | 745B Parámetros (44B Activos) | Soporta más de 100 agentes concurrentes | Resolución 2K, 15s de duración |
| Innovación clave | Entrenado al 100% en chips Huawei Ascend | «Agent Swarm» para ejecución paralela | Sincronización nativa de audio-vídeo y consistencia de personajes |
| Disponibilidad comercial | Pesos abiertos (Open Weights) y API | Microsoft Foundry y API | Beta cerrada (Plataforma Jimeng) |
| Hito en Benchmarks | Rivaliza con GPT-5.2 en codificación | 96,1% en AIME 2026 | Generación un 30% más rápida que Kling |
A pesar de lo impresionantes que son estos lanzamientos, la industria permanece en estado de alerta máxima. Fuentes de Creati.ai indican que DeepSeek se está preparando para lanzar su modelo V4 antes de finales de febrero. A diferencia de sus competidores que se han diversificado hacia el vídeo (ByteDance) o los agentes empresariales (Moonshot), se espera que DeepSeek se mantenga enfocado en las capacidades de razonamiento puro, introduciendo potencialmente un nuevo paradigma para el pensamiento de «Sistema 2» en la IA.
Por ahora, sin embargo, el protagonismo pertenece a Zhipu, Moonshot y ByteDance. Han demostrado con éxito que el ecosistema de IA chino ya no se define únicamente por seguir rápidamente los pasos de otros, sino por filosofías tecnológicas distintas, ya sea la soberanía de hardware de Zhipu, los enjambres agénticos de Moonshot o la maestría creativa de ByteDance. A medida que avanza 2026, la competencia ya no se trata solo de quién tiene el modelo más grande, sino de quién puede integrar de manera más efectiva estas inteligencias en el tejido de la economía digital global.