AMD vuelve a marcar el ritmo en el mundo de la inteligencia artificial al anunciar una reducción del 97% en el consumo energético en comparación con sistemas de hace cinco años.
Su enfoque ahora apunta a una mejora masiva a nivel de racks completos, optimizando cada componente: CPU, GPU, memoria, almacenamiento, red y software como un sistema integrado.
En su evento Advancing AI, AMD confirmó que ya ha superado su objetivo 30×25, que buscaba una eficiencia 30 veces mayor en nodos de IA y HPC para 2025. No solo lo han cumplido, sino que lo han hecho antes de tiempo.
Ahora, el nuevo desafío es lograr una eficiencia 20 veces superior a nivel rack para 2030, tomando 2024 como punto de partida. Esto implicaría una mejora casi tres veces más rápida que el promedio de la industria. Traducido: centros de datos que hoy necesitan 275 racks podrían operar con solo uno, reduciendo enormemente el consumo eléctrico y las emisiones de carbono.
Este avance se apoya en una estrategia de diseño de IA integral, en la que AMD ya no solo mejora componentes individuales, sino que diseña sistemas completos pensando en rendimiento y sostenibilidad a gran escala.
Algunos críticos dudan de los métodos de cálculo, especialmente si se comparan resultados FP4 con FP16. Sin embargo, la evidencia es clara: muchos de los sistemas más eficientes del ranking Green500 usan tecnología de AMD, incluso en servidores de NVIDIA que integran CPUs EPYC.
Si AMD cumple con lo prometido, se consolidará como líder absoluto en eficiencia energética para IA, algo cada vez más valioso tanto por razones ecológicas como económicas.