Inicio » Sin categorizar » AMD lanza soporte para LLMs de 128B y 96GB de memoria gráfica local

AMD lanza soporte para LLMs de 128B y 96GB de memoria gráfica local

por ytools
1 comentario 4 vistas

AMD acaba de encender la revolución de la IA en PCs.
AMD lanza soporte para LLMs de 128B y 96GB de memoria gráfica local
Con su nueva actualización de drivers Adrenalin Edition 25.8.1, los procesadores Ryzen AI MAX+ ahora pueden usar hasta 96 GB de memoria gráfica dedicada
AMD lanza soporte para LLMs de 128B y 96GB de memoria gráfica local
. ¿El resultado? Modelos enormes como Llama 4 Scout (128 mil millones de parámetros) pueden ejecutarse localmente en tu PC – sin necesidad de nube.

Todo esto es posible gracias a la tecnología Variable Graphics Memory (VGM), que permite a las APUs de AMD usar la RAM como memoria de video. El modelo Llama 4 Scout, que utiliza la arquitectura Mixture of Experts, solo necesita unos 17 mil millones de parámetros en tiempo real, permitiendo respuestas rápidas y gran rendimiento para asistentes de IA locales.

Y si eso no te sorprende, espera: AMD ha llevado el límite del contexto a 256.000 tokens, superando por muchísimo los 4.096 tokens estándar. Esto permite conversaciones más largas, detalladas y naturales con modelos de lenguaje.

Por ahora, esta tecnología se encuentra en equipos con la plataforma Strix Halo, que no son precisamente baratos – muchos superan los 2.000 dólares. Pero el mensaje es claro: AMD quiere que la IA de alto nivel llegue a los escritorios personales.

Algunos ya sueñan con versiones de 3nm, LPDDR6X y 1 TB de RAM, capaces de ejecutar GPT-4 sin despeinarse. Pero incluso con lo que ya hay, queda claro que la era del PC con inteligencia artificial real… ya está aquí.

1 comentario

XiaoMao September 6, 2025 - 4:14 am

Lisa Su es una crack, cada vez sube más el listón 🔥

Responder

Deja un comentario