Inicio » Sin categorizar » El plan a largo plazo de SK hynix: HBM5, DDR6 y 4D NAND de 400+ capas (2029–2031)

El plan a largo plazo de SK hynix: HBM5, DDR6 y 4D NAND de 400+ capas (2029–2031)

por ytools
2 comentarios 0 vistas

El plan a largo plazo de SK hynix: HBM5, DDR6 y 4D NAND de 400+ capas (2029–2031)

El plan a largo plazo de SK hynix: HBM5/HBM5E, GDDR7-next, DDR6 y 4D NAND de 400+ capas entre 2029 y 2031

En el SK AI Summit 2025, SK hynix no mostró simples diapositivas: trazó una estrategia coherente para la década de la IA donde la memoria pasa de ser un accesorio a convertirse en arquitectura. La hoja de ruta se divide en dos actos. De 2026 a 2028, el objetivo es despejar cuellos de botella con HBM4/HBM4E, LPDDR6, una segunda oleada de CXL y SSD empresariales de densidad extrema. De 2029 a 2031, llega el giro profundo: HBM5/HBM5E (con variantes personalizadas), un escalón llamado GDDR7-next para gráficos discretos, DDR6 en el mainstream, ideas de DRAM 3D y una 4D NAND que supera las 400 capas. Como puente entre memoria y almacenamiento, la compañía propone HBF (High-Bandwidth Flash), un nivel no volátil pensado para alimentar la inferencia de IA sin disparar la factura energética.

2026–2028: despejar el presente con HBM4/HBM4E y DRAM afinada para IA

En el corto plazo, SK hynix planea HBM4 de 16-Hi y HBM4E de 8/12/16-Hi, además de un HBM personalizado. La clave está en mover la lógica correcta al lugar correcto: el controlador HBM y parte del IP de protocolo se integran en el base die del propio stack HBM. ¿Resultado? Más área libre en GPU/ASIC para cómputo y cachés, trazos eléctricos más cortos y menor potencia en la interfaz. Para esta co-integración y los flujos de empaquetado avanzados, SK hynix colabora con TSMC, algo natural cuando el “paquete” ya es el sistema.

El DRAM convencional también evoluciona. Llega LPDDR6 para móvil y edge, y se suma una familia orientada a IA que la empresa agrupa como AI-D. Ahí encajan piezas como LPDDR5X SOCAMM2 para memoria cercana al cómputo, MRDIMM Gen2 en servidores que buscan densidad sin ahogar el ancho de banda, LPDDR5R para presupuestos energéticos agresivos y una segunda generación de CXL junto a ensayos de LPDDR6-PIM (processing-in-memory). El hilo conductor es claro: más GB/s por vatio, menos latencia hacia el acelerador y un pooling de memoria más flexible entre CPU, GPU y ASIC.

En flash, la marea sube por dos carriles: una línea “estándar” y otra AI-N (NAND para IA). En el mapa aparecen eSSD PCIe Gen5 con capacidades QLC de clase 245 TB por unidad, seguidas por PCIe Gen6 para eSSD/cSSD y UFS 5.0 en cliente. AI-N prioriza un QoS predecible a colas profundas y controladores más inteligentes, para que las tuberías de inferencia no patinen por I/O justo cuando más ancho de banda se necesita.

2029–2031: HBM5/HBM5E, GDDR7-next, DDR6, DRAM 3D y 4D NAND de 400+ capas

En el horizonte lejano, SK hynix apunta a HBM5/HBM5E, nuevamente con opciones personalizadas que llevan más funciones al base die para recortar potencia de interfaz y latencias del paquete. En gráficos discretos, asoma GDDR7-next: un mensaje entre líneas de que la primera hornada de GDDR7 – hoy visible a 30–32 Gb/s por pin, con un techo de especificación cercano a 48 Gb/s – todavía tiene recorrido antes de un salto de nomenclatura. En memoria de sistema, DDR6 entra en escena entre 2029 y 2031, un tempo que encaja con los ciclos de plataforma de PC y servidor sin forzar sockets nuevos cada año.

En paralelo maduran conceptos de DRAM 3D: más apilamiento vertical y acoplamiento íntimo entre lógica y matriz, yendo más allá de los TSV tradicionales. En NAND, la apuesta es 4D NAND de 400+ capas. En el lenguaje de SK hynix, 4D significa cell-over-peripheral: celdas sobre la periferia para aumentar densidad de bits sin inflar el die de forma desproporcionada. Que haya más capas es inevitable; lo decisivo termina siendo el coste por bit, la resistencia de escritura, la retención y la eficiencia de E/S: métricas poco glamorosas que, sin embargo, dictan si un array de petabytes tiene sentido económico.

HBF: un flash que se comporta un poco más como memoria

El ingrediente más sugerente es High-Bandwidth Flash (HBF). Piénsalo como un escalón entre DRAM y SSD: no volátil como NAND, pero conectado y gestionado para ofrecer mucha más tasa efectiva y un QoS más estricto que un disco convencional. En inferencia de IA – sobre todo en PCs y nodos de borde donde los modelos ya desbordan el presupuesto DRAM – , HBF puede mantener un flujo constante de tokens sin caer en una fiebre de paginación. Si el HBM es la turbina, HBF quiere ser esa admisión grande y eficiente que evita que el motor pase hambre de datos.

Una estrategia de memoria full-stack para la era de la IA

SK hynix empaqueta todo esto como un full-stack de memoria para IA. Tres pilares sostienen la propuesta:

  • HBM personalizado: trasladar ciertas funciones del GPU/ASIC al base die del HBM recorta la potencia de la interfaz y libera área para cómputo y cachés, a la vez que el co-diseño del paquete mejora la latencia de forma más determinista.
  • AI-D (DRAM para IA): se subdivide en O (Optimization) para bajar TCO y consumo, B (Breakthrough) para capacidades ultra-altas que empujan la “pared de memoria”, y E (Expansion) para llevar DRAM a robótica, movilidad y automatización industrial.
  • AI-N y HBF: controladores más listos, QoS estable y una capa cuasi-memoria que mantiene alimentados los aceleradores incluso cuando el working set se come la DRAM.

Implicaciones para PCs, workstations y centros de datos

En el data center el mensaje es directo: más stacks de HBM por paquete, más capacidad por módulo y mejor ancho de banda por vatio. Para creadores y gamers, la lectura es mixta pero lógica. GDDR7-next sugiere que aún hay margen en la electrónica actual antes de girar hacia otra familia; no esperes “más allá de GDDR7” en consumo hasta que se exprima gran parte del techo de 48 Gb/s. En memoria de sistema, el DDR6 entre 2029 y 2031 implica varios años más de DDR5 en escritorio y portátil. A más de uno le decepcionará – se hablaba de DDR6 para 2027 – , pero ciclos largos de socket y memoria protegen a OEMs y usuarios de una mudanza perpetua.

También regresa una queja recurrente: capacidad antes que velocidad bruta. Con juegos que superan 150 GB por instalación, los SSD de 2–4 TB se quedan cortos. La hoja de ruta de SK hynix enfatiza capacidades monstruosas en enterprise (esa clase de 245 TB por unidad), pero los avances en controladores y NAND acaban permeando al cliente. Si la industria sostiene el QoS a medida que suben las capas, el gran salto para el consumidor quizá no sea otra cifra récord de lectura secuencial, sino SSD de 8–16 TB a precios razonables.

Carrera de capas vs. realidad

La provocación es tentadora: si un rival llega a 1000 capas en 2027, ¿no quedará anticuado un 400+ en 2029–2031? No necesariamente. La cuenta de capas es solo un eje. Rinden y deciden el yield, la defectividad, la fiabilidad del string stacking, la escalabilidad de la periferia y la arquitectura de E/S. Un 4D NAND de 400+ capas robusto, con buena resistencia y retención, puede vencer a un competidor más alto pero frágil, con RBER complicado y envejecimiento prematuro. Cada fabricante optimiza un punto distinto de la curva coste-calidad, no solo el titular más ruidoso.

Sobre el sueño de un “QDR”

De vez en cuando aparece el deseo de “no necesitamos DDR6, queremos QDR – quadruple data rate – ”. En la práctica, la memoria moderna ya bebe de modulaciones multinivel (PAM3/PAM4 en enlaces rápidos) y se apoya en empaquetado y ecualización para subir tasa de datos. Duplicar conmutaciones por ciclo no sale gratis: crece la sensibilidad al jitter y la complejidad del PHY. El camino pragmático de la industria es claro: más ancho de banda crudo con HBM, topologías DRAM más inteligentes y un nivel de flash que se comporte más como memoria. Así sube el rendimiento efectivo sin incendiar potencia y coste.

Conclusión

La hoja de ruta de SK hynix es ambiciosa y aterrizada. Entre 2026 y 2028 llegarán mejoras tangibles para mantener ocupados los aceleradores de IA y plataformas eficientes. De 2029 a 2031 asoman los pesos pesados: HBM5/HBM5E, pasos hacia DRAM 3D, un GDDR7-next maduro, DDR6 para la corriente principal y 4D NAND de 400+ capas respaldada por HBF. Los plazos pueden moverse y la competencia reconfigurará detalles, pero la dirección no cambia: la memoria deja de ser pasajera y ocupa el asiento del conductor. Si la ejecución acompaña, la próxima ola de PCs y servidores con IA se sentirá más rápida no solo por los relojes, sino porque el tubo de datos por fin se pondrá a la altura del apetito de cómputo.

También te puede interesar

2 comentarios

GalaxyFan November 21, 2025 - 3:14 pm

Seamos honestos: lo que falta es espacio. 2–4 TB en 2025 es poco cuando un juego pasa de 150 GB 😅

Responder
sunny January 27, 2026 - 5:20 am

DDR6 era ‘para 2027’ y ahora 2029+… Los comités van a ritmo de tortuga, bro

Responder

Deja un comentario