El futuro de la memoria HBM: de HBM4 a HBM8 con velocidades exabyte y refrigeración integrada

El futuro de la memoria HBM: de HBM4 a HBM8 con velocidades exabyte y refrigeración integrada

La memoria de alto ancho de banda (HBM) será la columna vertebral de las futuras GPU para inteligencia artificial y centros de datos

. Recientemente, KAIST y Tera Labs presentaron su hoja de ruta desde HBM4 hasta HBM8, con avances impresionantes en velocidad, capacidad y potencia que parecen sacados de una película de ciencia ficción.

HBM4, que llegará en 2026, será clave para las nuevas generaciones de GPU. NVIDIA Rubin y AMD Instinct MI400 serán las primeras en integrarla. Rubin contará con entre 8 y 16 pilas HBM4, hasta 384 GB de VRAM y consumos que rozan los 2200 W. AMD sube la apuesta con 432 GB de capacidad y hasta 20 TB/s de ancho de banda. Todo esto se enfría con refrigeración líquida directa, consumiendo 75 W por pila.

HBM5, prevista para 2029, aumentará las líneas de E/S a 4096 y alcanzará 4 TB/s por pila, con hasta 80 GB por módulo. NVIDIA estrenará esta tecnología con su GPU “Feynman”. ¿El consumo? Hasta 4400 W por conjunto de chips. Refrigeración por inmersión y tecnologías como LPDDR+CXL estarán presentes.

HBM6 apunta a duplicar el rendimiento nuevamente: 8 TB/s por pila y hasta 120 GB de capacidad. Sin soldaduras, con enlaces Cu-Cu directos, interposer híbrido de silicio y vidrio, y refrigeración por inmersión. Potencia estimada por chip: 5920 W.

HBM7 lleva esto a otro nivel con 8192 E/S y velocidades de 24 Gbps. Cada módulo podría alcanzar 192 GB y 24 TB/s. Con diseño de doble torre y refrigeración embebida, podríamos ver paquetes con más de 6 TB de RAM y 1024 TB/s de ancho de banda. Todo esto con un consumo de 15.360 W.

HBM8 no llegaría antes de 2038, pero sus especificaciones son alucinantes: 32 Gbps, 16.384 líneas de datos, 240 GB por pila y 64 TB/s de ancho de banda. Esta tecnología requerirá refrigeración embebida y TSV coaxiales, con consumo comparable al de una ciudad pequeña.

Por otro lado, HBF (High-Bandwidth Flash) propone una solución híbrida que combina NAND de 128 capas con HBM. Cada pila HBF suma 1 TB y se conecta al HBM con un enlace de 2 TB/s. Junto con LPDDR de hasta 384 GB y conectores sobre interposer de vidrio, se perfila como la arquitectura ideal para IA y modelos de lenguaje.

Desde 2 TB/s hasta 64 TB/s, y desde decenas hasta miles de GB por chip, HBM no es solo una evolución: es una revolución que redefine cómo entendemos el procesamiento de datos. ¿Estamos listos para alimentar y enfriar esta nueva generación de monstruos?

Related posts

SK hynix domina el mercado de HBM con el suministro de HBM4 a NVIDIA para los GPUs Rubin AI

SHADOW Neo ya es oficial: PC en la nube con RTX 4060 y CPU EPYC por 37,99 €/mes

Biostar B850MT-E PRO: una placa AM5 sencilla, moderna y económica