AMD lleva tiempo dejando claro que EPYC no es solo una marca para servidores gigantes de centro de datos. Poco a poco, la compañía está metiendo sus CPUs también en el corazón de la infraestructura: routers, switches, cabinas de almacenamiento, gateways de seguridad y máquinas industriales que viven años en un armario técnico sin que nadie les haga mucho caso. 
Con las nuevas familias EPYC Embedded Venice, Fire Range y Annapurna, esa estrategia entra en una fase mucho más ambiciosa, con un stack pensada de arriba abajo para el mundo embebido.
El punto de partida es lo que ya existe en el mercado. La serie EPYC Embedded 4005, basada en Granite Ridge con núcleos Zen 5, ofrece hasta 16 núcleos, PCIe 5.0 y memoria DDR5 para PCs industriales, pequeños servidores de edge y equipos de red avanzados. Por encima, AMD ha lanzado variantes embebidas de plataformas tipo Genoa con enormes recuentos de núcleos, cientos de megabytes de caché L3 y 128 líneas de PCIe 5.0: en la práctica, silicio de centro de datos empaquetado para chasis de telecomunicaciones y appliances profesionales. Pero lo realmente interesante es lo que viene a continuación.
EPYC Embedded Venice 9006: Zen 6 y PCIe 6.0 para el edge pesado
La pieza estrella del nuevo roadmap se llama EPYC Embedded Venice, que todo apunta a que llegará al mercado como serie EPYC Embedded 9006. En servidores, Venice está pensada para ofrecer hasta 256 núcleos Zen 6 fabricados en 2 nm por TSMC, apuntando a hyperscalers y nubes enormes. La versión embebida reduce el número de núcleos, pero sigue siendo bestial: hasta 96 núcleos Zen 6, soporte para PCIe 6.0, DDR5 y módulos MRDIMM que permiten montar mucha memoria con un ancho de banda muy alto.
Este tipo de CPU no está pensada para un router doméstico, sino para cargas que hoy suelen ocupar varias unidades de rack: motores de inspección profunda de paquetes, firewalls de muy alto rendimiento, plataformas SASE, nodos de core 5G o servidores de borde que dan servicio a fábricas, hospitales u operadores de telecomunicaciones. En todos esos casos, una combinación de muchos núcleos modernos, IO de última generación y soporte a largo plazo permite consolidar hardware y simplificar el despliegue.
Todo esto ocurre mientras el marketing del sector entra en una carrera de números. En presentaciones de Intel ya se habla de futuros diseños como Diamond Rapids con 192 núcleos sobre nodo 18A casi milagroso, y no faltan fans que dan por hecho que arrasarán a AMD y a TSMC de un plumazo. La realidad, sin embargo, no vive en las diapositivas, sino en los equipos que llegan de verdad al rack. Venice Embedded se mueve justo en ese terreno: menos postureo de récord mundial, más producto aterrizado con TDP razonable y ciclos de vida de una década para OEMs que odian las sorpresas.
Fire Range: Zen 5 reciclado con cabeza para el mainstream embebido
No todos los dispositivos necesitan 96 núcleos ni PCIe 6.0. Para el grueso del mercado, AMD prepara EPYC Embedded Fire Range, la familia de gama media. Aquí el foco está en el equilibrio: hasta 16 núcleos Zen 5, PCIe 5.0, memoria DDR5 a 5600 y un detalle importante bajo el difusor térmico: los mismos dies que se usan en la gama móvil Ryzen 9000HX, a su vez descendientes de chips de escritorio adaptados al portátil.
Lejos de ser un truco cutre, esta reutilización es una ventaja clara. La plataforma ya ha pasado por millones de portátiles, con firmware, drivers y gestión de energía muy pulidos. Para quien diseña appliances de almacenamiento, equipos SD-WAN, controladores de red o pasarelas industriales, eso se traduce en menos bugs extraños, tiempos de validación más cortos y costes más predecibles. Y para tareas típicas de plano de control, servicios en contenedores, cifrado, monitorización o pequeñas cargas de virtualización, 8 a 16 núcleos Zen 5 rápidos van más que sobrados.
Además, se crea una especie de idioma común de hardware. El mismo núcleo Zen 5 que usa el desarrollador en su sobremesa o portátil es el que se encuentra luego dentro del firewall o del NAS de rack. Menos ajustes raros, menos incompatibilidades, más tiempo para trabajar en funciones, calidad y seguridad.
Annapurna: el SoC x86 que manda en switches y routers
La tercera pata de la propuesta se llama EPYC Embedded Annapurna, probablemente la más misteriosa y a la vez la que más memes genera. Hay quien lee el nombre y piensa en la montaña del Himalaya, otros lo asocian a un plato de curry, pero AMD lo utiliza para una idea muy concreta: SoCs x86 muy integrados, orientados a la control plane de equipos de red.
En Annapurna importa menos presumir de núcleos y más exprimir la eficiencia: rendimiento por vatio y rendimiento por euro. Es la clase de chip que termina en switches de acceso y agregación, routers compactos, CPE, appliances de seguridad y nodos de transporte óptico. Equipos que pasan años empotrados en armarios, cajas en la calle o salas sin climatización de lujo, y que tienen que funcionar sin drama y sin disparar la factura de la luz.
En paralelo, cada vez más voces en la industria avisan de que el tsunami de inversión en mega centros de datos para IA quizá no se amortice con los costes de infraestructura actuales. Y ahí es donde la parte menos glamourosa de la cadena se vuelve crítica: CPUs eficientes en el borde y en el plano de control que permitan que toda esa capacidad de cómputo se use de verdad, en lugar de quedarse a medio gas por cuellos de botella en la red.
Por qué la CPU sigue mandando en plena fiebre de GPU
En debates online se escucha mucho el mantra de que «ahora todo se hace en la GPU» y que la CPU ya casi estorba. Basta haber operado un clúster real para saber que eso no es así. Alguien tiene que arrancar el sistema, levantar el hypervisor, orquestar Kubernetes, aplicar reglas de firewall, escribir logs, sanear datos antes de pasarlos a la GPU y coordinar docenas de microservicios de soporte. Las tarjetas aceleradoras son especialistas; el director de orquesta sigue siendo la CPU.
Venice Embedded, Fire Range y Annapurna encajan exactamente en ese papel, pero en versión embebida: el «cerebro» silencioso dentro de routers, switches, cabinas de almacenamiento, equipos 5G y gateways industriales que hace que todo lo demás funcione. Sin CPUs de control competentes, hasta la GPU de IA más espectacular acabaría sentada en el rack esperando órdenes.
2026–2027: una apuesta a largo plazo por el mercado embebido
Según los calendarios actuales, AMD irá desplegando estas plataformas EPYC Embedded de nueva generación entre 2026 y 2027, a la vez que empuja Zen 6 en el segmento de servidores tradicionales. La jugada es clara: ofrecer a los OEMs un stack coherente, desde Venice 9006 como opción multincore extrema, pasando por Fire Range como caballo de batalla, hasta Annapurna como base de SoC ultraficiente.
Para los fabricantes, eso significa una única ISA, soporte consistente de PCIe 5.0 y 6.0, DDR5 y MRDIMM, y una hoja de ruta más predecible con ciclos de vida largos, justo lo que piden los que despliegan hardware de red e industrial. Para operadores y empresas, implica equipos más capaces y eficientes, con margen para crecer en tráfico sin reventar la factura eléctrica. Y para quienes observan desde fuera, el mensaje es sencillo: dentro de unos años, ese router de oficina o ese firewall de borde que nadie mira probablemente tendrá bastante más potencia bruta que muchos servidores de centro de datos de hace una década, aunque el ruido del sector siga girando en torno a la próxima diapositiva con 192 núcleos mágicos.