NVIDIA producirá 800,000 unidades de memoria SOCAMM para productos de IA en 2025

NVIDIA planea producir hasta 800,000 unidades de sus nuevos módulos de memoria SOCAMM en 2025 para sus productos de inteligencia artificial (IA). Esta solución de memoria modular está diseñada para simplificar la actualización de memoria en los dispositivos, ofreciendo un mejor rendimiento y mayor eficiencia.

La memoria SOCAMM fue presentada por primera vez en el evento GTC de NVIDIA y es parte de los esfuerzos de la empresa para mejorar el rendimiento y reducir el consumo de energía en sus productos de IA.

En el evento GTC, NVIDIA mostró su plataforma GB300 utilizando la memoria SOCAMM, desarrollada por Micron. Esta nueva solución de memoria es una alternativa a las memorias HBM y LPDDR5X, que se utilizan comúnmente en productos de IA como servidores y dispositivos móviles. La memoria SOCAMM está basada en DRAM LPDDR, que tradicionalmente se utiliza en dispositivos móviles, pero con una diferencia clave: es actualizable. A diferencia de las soluciones HBM y LPDDR5X, la memoria SOCAMM no está soldada en la placa base, sino que se puede asegurar con solo tres tornillos.

Según un informe del portal surcoreano ETNews, NVIDIA planea producir entre 600,000 y 800,000 unidades de la memoria SOCAMM este año, lo que representa un gran impulso para su implementación en productos de IA. El primer producto que utilizará esta memoria SOCAMM será la plataforma GB300 Blackwell, lo que indica que NVIDIA probablemente adoptará esta solución de memoria modular en muchos de sus productos de IA futuros.

Aunque la meta de producción de 800,000 unidades en 2025 es relativamente pequeña en comparación con las cantidades de memoria HBM que NVIDIA espera recibir en ese mismo período, se espera que la producción de SOCAMM aumente considerablemente el próximo año, especialmente con el lanzamiento de la memoria SOCAMM 2. Esta memoria modular no solo es compacta, sino que también es mucho más eficiente en términos de energía que las soluciones RDIMM. Aunque aún no se han revelado detalles sobre las mejoras exactas en la eficiencia energética, los informes indican que la SOCAMM ofrecerá una mayor banda ancha que RDIMM, LPDDR5X y LPCAMM, que son soluciones populares para plataformas móviles.

Se espera que la memoria SOCAMM ofrezca un ancho de banda de entre 150 y 250 GB/s, lo que la convierte en una solución flexible y actualizable para PC y servidores de IA. En el futuro, se espera que la SOCAMM se convierta en el estándar para dispositivos de IA de bajo consumo energético. Micron es el fabricante actual de estos módulos, pero fuentes indican que NVIDIA está en conversaciones con Samsung y SK Hynix para ampliar la producción.

Related posts

Beelink Presenta el GTi15 Ultra con Procesador Intel Core Ultra 9 285H

ASUS revela una configuración de PC única inspirada en Hatsune Miku

Nuevo récord mundial de overclocking DDR5: G.Skill alcanza 12.872 MT/s en la plataforma Z890