
Por el Equipo Editorial de Creati.ai
2 de marzo de 2026
En un movimiento que señala una fractura cada vez más profunda en la cadena de suministro global de inteligencia artificial, el laboratorio de IA chino DeepSeek se prepara para lanzar su modelo insignia de cuarta generación, DeepSeek V4. Los informes indican que el modelo se lanzará a principios de marzo, coincidiendo con las reuniones parlamentarias anuales de las "Dos Sesiones" (Two Sessions) de China. A diferencia de sus predecesores, V4 es un sistema multimodal nativo (natively multimodal) capaz de generar texto, imágenes y video, posicionándose como un competidor directo de Gemini 3.0 de Google y las últimas ofertas de OpenAI.
Sin embargo, el salto tecnológico está siendo eclipsado por un giro estratégico significativo: según se informa, DeepSeek ha denegado el acceso de optimización previo al lanzamiento a los gigantes estadounidenses de semiconductores Nvidia y AMD. En su lugar, el laboratorio ha otorgado acceso anticipado exclusivo a los fabricantes de chips chinos nacionales, específicamente a Huawei y Cambricon, para optimizar el modelo para su hardware. Esta decisión rompe un protocolo de larga data en la industria donde los principales desarrolladores de modelos colaboran con Nvidia para garantizar el rendimiento desde el primer día, marcando un cambio distintivo hacia los ecosistemas de "IA soberana (sovereign AI)".
Durante años, el procedimiento operativo estándar para los laboratorios de IA de primer nivel —incluidos OpenAI, Anthropic y anteriormente DeepSeek— ha sido proporcionar a Nvidia y AMD los pesos del modelo y los detalles arquitectónicos semanas antes de un lanzamiento público. Esta "ventana de optimización" permite a los fabricantes de chips actualizar sus pilas de software (como CUDA y ROCm) para garantizar que el nuevo modelo se ejecute de manera eficiente en sus GPU inmediatamente después del lanzamiento.
Al negar este acceso a las firmas estadounidenses, DeepSeek está forzando de manera efectiva un retraso en el rendimiento para los usuarios que ejecuten V4 en hardware de Nvidia en el momento del lanzamiento, al tiempo que garantiza que el modelo funcione sin problemas en los chips de la serie Ascend 910C de Huawei y MLU de Cambricon.
Implicaciones de la estrategia de exclusión:
| Objetivo estratégico | Impacto en el mercado nacional | Impacto en el mercado global |
|---|---|---|
| Soberanía de hardware | Demuestra que los modelos de IA de primer nivel pueden entrenarse y ejecutarse eficientemente en silicio no occidental (por ejemplo, Huawei Ascend). | Desafía la narrativa de que el hardware de Nvidia es un requisito previo para la inferencia de IA de vanguardia. |
| Acoplamiento de ecosistema | Obliga a los desarrolladores de empresas chinas a adoptar hardware nacional para acceder al mejor rendimiento para V4. | Crea un ecosistema de software "bifurcado" donde las optimizaciones ya no son universalmente transferibles. |
| Señalización geopolítica | Se alinea con los mandatos de "autosuficiencia" de Pekín antes de la reunión política de las "Dos Sesiones". | Indica a los reguladores de EE. UU. que los controles de exportación pueden acelerar, en lugar de detener, el desarrollo tecnológico interno de China. |
| Protección del mercado | Otorga a Huawei y Cambricon una ventaja de "primer movimiento" en la evaluación comparativa y comercialización de sus chips frente al H100/H200. | Puede reducir temporalmente las puntuaciones de referencia para las GPU de Nvidia en DeepSeek V4, afectando el sentimiento del comprador. |
Más allá de las maniobras geopolíticas, DeepSeek V4 introduce innovaciones arquitectónicas sustanciales diseñadas para mantener la reputación del laboratorio de una eficiencia de costos extrema. El modelo se basa en una arquitectura masiva de Mezcla de Expertos (Mixture-of-Experts - MoE) con un estimado de 1 billón de parámetros totales, aunque activa solo aproximadamente 32 mil millones de parámetros por token. Esta dispersión le permite ofrecer un rendimiento comparable a los sistemas de clase GPT-5, requiriendo solo una fracción de la potencia de cómputo para la inferencia.
Un diferenciador clave para V4 es la introducción de la arquitectura de memoria condicional "Engram". Este mecanismo novedoso separa la recuperación de conocimiento estático del razonamiento dinámico, lo que permite que el modelo acceda a una ventana de contexto (context window) que supera el 1 millón de tokens sin la penalización computacional cuadrática asociada con los mecanismos de atención tradicionales de Transformer.
Especificaciones técnicas clave de DeepSeek V4:
DeepSeek V4 representa la primera incursión del laboratorio en una estructura de modelo verdaderamente "omni". Las iteraciones anteriores, como la serie Janus, separaban la comprensión visual de la generación de texto. V4 unifica estas modalidades, permitiendo tareas de razonamiento complejas que entrelazan texto, código y entradas visuales.
Por ejemplo, se informa que el modelo puede manejar la generación de video a código, donde un usuario puede cargar una grabación de pantalla de una interacción de interfaz de usuario (UI) y el modelo genera el código frontend correspondiente. Del mismo modo, se espera que sus capacidades de generación de video rivalicen con los modelos especializados, aprovechando la amplia ventana de contexto para mantener la consistencia temporal en clips más largos.
Esta capacidad coloca a DeepSeek V4 en competencia directa con Gemini 1.5 Pro y Gemini 3.0 de Google, que han definido el estándar actual para el razonamiento multimodal de contexto largo. Sin embargo, el enfoque de pesos abiertos (open-weights) de DeepSeek (que se espera siga el modelo de licencia de V3) podría sacudir el mercado al poner estas capacidades en manos de los desarrolladores de forma gratuita, socavando los modelos de negocio basados en API de los competidores occidentales.
El lanzamiento de V4 se produce en medio de un mayor escrutinio sobre la infraestructura de entrenamiento de DeepSeek. Informes recientes de Reuters y el Financial Times citan a funcionarios anónimos de EE. UU. alegando que DeepSeek podría haber entrenado sus modelos en chips Nvidia Blackwell restringidos, potencialmente adquiridos a través de canales del mercado gris en violación de los controles de exportación de EE. UU.
El giro de DeepSeek hacia Huawei para el lanzamiento de V4 cumple un doble propósito en este contexto:
El lanzamiento de DeepSeek V4 plantea una amenaza sutil pero peligrosa para el modelo económico actual de la IA, a menudo denominado la "Burbuja de Capex" (Capex Bubble). Los gigantes tecnológicos occidentales están gastando actualmente cientos de miles de millones de dólares en infraestructura de IA, basándose en la creencia de que las leyes de escala requieren aumentos exponenciales en computación y energía.
DeepSeek desafió esta suposición con sus modelos V3 y R1, que fueron entrenados por menos de 6 millones de dólares, una fracción del costo de GPT-4 de OpenAI. Si V4 ofrece un rendimiento multimodal de "vanguardia" con un presupuesto igualmente reducido, valida aún más la tesis de que la eficiencia algorítmica (a través de arquitecturas MoE y Engram) importa más que la computación de fuerza bruta.
Posibles repercusiones en el mercado:
El inminente lanzamiento de DeepSeek V4 es más que el simple lanzamiento de un producto; es una declaración geopolítica. Al desacoplar su hoja de ruta de optimización de Nvidia y AMD, DeepSeek está trazando efectivamente una línea en el silicio. El mensaje es claro: China tiene la intención de construir una pila de IA autosuficiente, desde la capa del chip hasta la capa de la aplicación.
Para la comunidad global de IA, el lanzamiento de V4 presenta un dilema. La probable disponibilidad abierta del modelo y su alto rendimiento lo hacen irresistible para investigadores y desarrolladores. Sin embargo, su sesgo de optimización hacia el hardware no occidental puede fracturar la comunidad, creando "jardines vallados" de optimización donde los modelos funcionan mejor en el hardware del bloque geopolítico del que se originaron.
Mientras las "Dos Sesiones" se reúnen en Pekín la próxima semana, el mundo estará atento no solo a los discursos políticos, sino a los puntos de referencia de un modelo que promete redefinir lo que es posible con computación limitada y silicio soberano.