
En una revelación franca que ha causado un gran impacto en el sector tecnológico, el CEO de Google DeepMind, Demis Hassabis, ha identificado la escasez mundial de chips de memoria como el "punto de estrangulamiento" (choke point) más crítico que actualmente inhibe el avance de la inteligencia artificial. En declaraciones a CNBC a principios de esta semana, Hassabis destacó que, si bien la potencia de cómputo (computational power) ha sido históricamente la limitación principal, el enfoque de la industria debe ahora desplazarse urgentemente hacia las graves limitaciones en la cadena de suministro de memoria de alto ancho de banda (High-Bandwidth Memory, HBM).
La advertencia llega en un momento crucial en febrero de 2026, mientras se intensifica la carrera hacia la Inteligencia Artificial General (Artificial General Intelligence, AGI). Aunque los modelos de IA generativa han demostrado capacidades sin precedentes —como el propio Gemini 2.0 Flash de Google— la infraestructura física necesaria para desplegar estos modelos a escala está alcanzando un techo difícil de superar. Hassabis señaló que incluso Google, a pesar de su posición ventajosa con su infraestructura de Unidades de Procesamiento Tensorial (Tensor Processing Unit, TPU) propietaria, no es inmune a estas fricciones en la cadena de suministro global.
La crisis, apodada coloquialmente "RAMmagedón" por los expertos de la industria, surge de un cambio estructural en la fabricación de semiconductores. Los aceleradores de IA requieren HBM, un tipo especializado de memoria que apila chips de memoria dinámica de acceso aleatorio (Dynamic Random-Access Memory, DRAM) verticalmente para lograr las velocidades de transferencia de datos vertiginosas necesarias para entrenar redes neuronales masivas.
Sin embargo, producir HBM consume muchos recursos. Los datos de la industria revelan que fabricar un solo gigabyte de HBM requiere aproximadamente tres veces la capacidad de oblea (wafer capacity) de la memoria DDR5 estándar utilizada en la electrónica de consumo. A medida que fundiciones (foundries) como TSMC, Samsung y SK Hynix reasignan agresivamente sus líneas de producción para satisfacer la demanda insaciable de los hiperescaladores (hyperscalers), el volumen total de memoria disponible se ha contraído.
Hassabis explicó a CNBC que este juego de suma cero crea una barrera de entrada formidable para los laboratorios de investigación de IA y las empresas emergentes más pequeñas. "Estamos viendo una bifurcación en el mercado", afirmó Hassabis. "La capacidad de innovar se está correlacionando estrictamente con la capacidad de asegurar contratos de suministro de memoria a largo plazo. Ya no se trata solo de tener los mejores algoritmos; se trata de tener el silicio para ejecutarlos".
La escasez ha obligado a los principales actores a replantear sus estrategias de hardware. Mientras Nvidia sigue dominando el mercado de las GPU, la escasez de los chips HBM que acompañan a estos procesadores ha provocado tiempos de entrega prolongados. Para Google, la situación valida su inversión de una década en silicio personalizado (custom silicon). Al diseñar sus propias TPU y orquestar toda su pila, desde el "metal desnudo" (bare metal) hasta el centro de datos, Google se ha protegido de parte de la volatilidad que afecta a los competidores que dependen exclusivamente de proveedores externos.
No obstante, Hassabis admitió que la "presión comercial" persiste. El despliegue de modelos de inferencia pesada (inference-heavy models), que requieren grandes cantidades de memoria para almacenar ventanas de contexto (context windows) y parámetros activos, compite eficazmente con los recursos de memoria necesarios para entrenar la próxima generación de modelos de frontera.
Tabla: Impacto de la escasez de memoria (Memory Shortage) en los sectores
| Sector | Desafío principal | Respuesta estratégica |
|---|---|---|
| Hiperescaladores (Google, Microsoft) | Escalar la inferencia para aplicaciones de miles de millones de usuarios | Integración vertical; desarrollo de "chips ligeros" para mayor eficiencia |
| Startups de IA | Coste prohibitivo de las instancias HBM | Cambio de enfoque hacia modelos de lenguaje pequeños (SLM) y destilación |
| Electrónica de consumo | Desplazamiento del suministro por la demanda de IA | Aumento de precios para la RAM de PC/Smartphone; ciclos de productos retrasados |
| Fundiciones de semiconductores | Conflictos en la asignación de capacidad | Conversión de líneas DDR a HBM; tasas de utilización del 100% |
Más allá de la logística de la cadena de suministro, Hassabis se refirió a las implicaciones teóricas de estas limitaciones de hardware. Describió los sistemas de IA actuales como poseedores de una "inteligencia irregular" (jagged intelligence): capaces de ganar medallas en la Olimpiada Matemática Internacional y, sin embargo, fallar en acertijos de lógica elemental dependiendo de cómo se redacte el mensaje.
Resolver esta "irregularidad" requiere no solo una mejor arquitectura, sino significativamente más cómputo y memoria para facilitar técnicas como el razonamiento de cadena de pensamiento (chain-of-thought reasoning) y la planificación a largo plazo. "Para pasar de un chatbot que predice la siguiente palabra a un agente que planifica durante semanas o meses, se necesita memoria", argumentó Hassabis. "Se necesita que el sistema mantenga un modelo del mundo coherente en su estado activo. Si estamos limitados físicamente por el ancho de banda de la memoria, estamos limitando efectivamente la profundidad cognitiva de estos modelos".
Este cuello de botella de hardware podría retrasar potencialmente el cronograma para la AGI. Si bien las predicciones en 2024 y 2025 eran optimistas sobre alcanzar la capacidad a nivel humano para 2027, la realidad física de la fabricación de chips puede extender este horizonte. El consenso entre los expertos es que, a menos que ocurra un nuevo avance en litografía o que la eficiencia de la memoria mejore radicalmente (a través de técnicas como los LLM de 1 bit), la industria se enfrenta a una fase de "esfuerzo continuo" donde el progreso es lineal en lugar de exponencial.
En respuesta a estas limitaciones, Google DeepMind está redoblando su apuesta por la eficiencia algorítmica. Hassabis destacó el desarrollo de "chips ligeros" (light chips), procesadores especializados diseñados específicamente para la fase de inferencia de los modelos de IA. A diferencia de los chips de entrenamiento, que requieren un rendimiento masivo para la retropropagación (backpropagation), los chips de inferencia pueden optimizarse para una menor precisión y un menor ancho de banda de memoria, estirando eficazmente el suministro disponible de HBM.
Además, DeepMind está priorizando la "destilación" (distillation), un proceso en el que un modelo de frontera masivo enseña a un modelo más pequeño y eficiente. Esto permite a Google desplegar servicios de IA capaces a miles de millones de usuarios sin consumir el nivel superior de reservas de hardware, que se reservan para la investigación y el entrenamiento de la próxima iteración de Gemini.
Las ondas de choque de esta escasez de memoria se están sintiendo mucho más allá de Silicon Valley. Los informes indican que los precios de la memoria de consumo han aumentado más del 170% en el último año a medida que los fabricantes abandonan el mercado de consumo de bajo margen para perseguir contratos de IA de alto margen. La decisión de los principales proveedores de memoria de retirar potencialmente las marcas centradas en el consumidor sirve como un indicador crudo de este cambio.
Para la industria de la IA, el "punto de estrangulamiento" sirve como una dosis de realidad. La era de las leyes de escalado (scaling laws) ilimitadas, donde añadir más cómputo producía automáticamente mejores resultados, está colisionando con los límites de la física y la logística de la cadena de suministro. Como advierte Hassabis, la próxima fase de la revolución de la IA no se definirá solo por quién tiene los investigadores más brillantes, sino por quién puede asegurar la memoria para recordar lo que aprenden.
En este entorno restringido, la estrategia de integración vertical de Google parece cada vez más premonitoria. Al ser dueños de la pila, controlan su propio destino, incluso mientras el resto de la industria lucha por una asignación en un mercado hambriento de memoria. A medida que avanza 2026, la capacidad de navegar este "RAMpocalipsis" probablemente determinará a los ganadores y perdedores de la era de la IA generativa.