
Durante los últimos dos años, la narrativa global de los semiconductores ha estado dominada por un solo acrónimo: GPU. A medida que el auge de la IA generativa (Generative AI) se encendió, los hiperescaladores y las empresas se apresuraron a asegurar hardware de NVIDIA, posicionando a las Unidades de Procesamiento Gráfico (GPUs) como el motor indiscutible de la revolución de la IA. Sin embargo, un nuevo informe de Morgan Stanley sugiere que la industria está al borde de un cambio arquitectónico significativo. A medida que la IA Agéntica (Agentic AI) madura —pasando de interfaces simples de chatbot a sistemas autónomos de ejecución de tareas—, la demanda de potencia de cómputo está lista para expandirse hacia un ecosistema de hardware más amplio, revitalizando específicamente el mercado de CPUs (Unidades Centrales de Procesamiento).
Según los analistas de Morgan Stanley, esta transición representa más que un cambio marginal en la adquisición; es una reconfiguración fundamental de los centros de datos. Si bien las GPUs siguen siendo vitales para el procesamiento paralelo masivo requerido para entrenar Modelos de Lenguaje Extensos (LLMs), el despliegue de "agentes" autónomos requiere un perfil computacional diferente, uno que dependa en gran medida de las capacidades versátiles y sensibles a la latencia de los procesadores tradicionales.
La transición de la IA "generativa" a la "agéntica" es un cambio hacia sistemas que pueden planificar, ejecutar e iterar sobre flujos de trabajo complejos con una supervisión humana mínima. Estos agentes requieren una toma de decisiones constante y rápida, además de interacción con bases de datos dispares, APIs y datos del entorno en tiempo real.
Morgan Stanley proyecta que este cambio de paradigma podría añadir hasta 60 mil millones de dólares en ingresos incrementales al mercado de CPUs para 2030. Este crecimiento es impulsado por varios factores clave:
Para visualizar cómo el panorama del hardware se está diversificando, hemos esbozado las diferencias principales en la afinidad de carga de trabajo entre las categorías en evolución del despliegue de IA.
| Tipo de Hardware | Función principal de IA | Responsabilidad en el flujo de trabajo agéntico | Énfasis en el hardware |
|---|---|---|---|
| GPU | Entrenamiento de modelos e inferencia masiva | Procesamiento paralelo de cálculos masivos de nodos neuronales | Memoria HBM de alto rendimiento y núcleos Tensor |
| CPU | Orquestación de tareas y preprocesamiento de datos | Gestión de lógica de agentes, enrutamiento de datos y llamadas a API | Alta velocidad de reloj y ancho de banda de E/S de baja latencia |
| ASIC/NPU | Aceleración específica de dominio | Inferencia energéticamente eficiente en el borde (edge) | Alta eficiencia de rendimiento por vatio |
La inyección de 60 mil millones de dólares en el sector de CPUs significa que el "centro de datos de IA" de 2030 se verá fundamentalmente diferente de los clústeres cargados de GPUs de 2024. Los arquitectos de la industria están rediseñando los racks de servidores actualmente para equilibrar la disipación de calor masiva de las GPUs de alta potencia con la conectividad de alto ancho de banda y la agilidad de procesamiento de las CPUs sofisticadas.
Esta evolución es una señal positiva para el sector de los semiconductores en general. Al diluir la hiperconcentración de gasto en una sola categoría de hardware, el mercado está logrando una trayectoria de crecimiento más sostenible. Como señalaron los analistas de Morgan Stanley, esta diversificación reduce el perfil de riesgo de la cadena de suministro tecnológica más amplia, asegurando que los recursos de cómputo se ajusten a las características específicas del software que se ejecuta en ellos.
Para los observadores de Creati.ai, las implicaciones de la investigación de Morgan Stanley son claras: el auge de la IA está entrando en su "fase de implementación". Mientras que la "fase de entrenamiento" fue una era definida por la escasez de GPUs y el hipercrecimiento del gasto de capital, la "fase agéntica" estará definida por la integración, la optimización y la computación heterogénea de hardware equilibrado.
Las empresas que históricamente habían quedado al margen por el intenso enfoque en los actores de hardware exclusivo para GPUs ahora se encuentran de nuevo en el centro de atención. Se espera que los principales fabricantes de CPUs y proveedores de cómputo especializado desempeñen un papel tan crítico en el futuro de la cadena de valor de la AGI (Inteligencia Artificial General) como los líderes tradicionales de hardware de GPU.
A medida que miramos hacia 2030, los 60 mil millones de dólares en crecimiento proyectado para CPUs no son simplemente un pronóstico estadístico; es una hoja de ruta de cómo la industria anticipa el futuro de la productividad. Los agentes autónomos del mañana dependerán de una arquitectura holística, demostrando que en la carrera por construir la inteligencia del futuro, la versátil CPU sigue siendo una pieza indispensable del rompecabezas de la infraestructura.