Intel ha lanzado la primera gran actualización para sus GPU Arc Pro dentro del proyecto Battlematrix – LLM Scaler v1.0.
Presentado en Computex 2025, Battlematrix está pensado como una solución completa para estaciones de trabajo de inferencia con múltiples GPU Arc Pro, y esta versión llega con un salto de rendimiento notable.
El contenedor LLM Scaler v1.0 ofrece hasta un 80 % más de rendimiento gracias al escalado multi-GPU, transferencias de datos PCIe P2P y una pila optimizada para Linux. Las optimizaciones de vLLM para secuencias largas aumentan el rendimiento en 1,8× en modelos KPI de 32B y en 4,2× en modelos KPI de 70B para entradas de 40K tokens. También hay una mejora de alrededor del 10 % en el rendimiento de salida para modelos de 8B–32B, y la cuantización en línea por capa ayuda a reducir el uso de memoria de la GPU.
Entre las funciones experimentales se incluyen el paralelismo en pipeline, la integración con torch.compile
, la decodificación especulativa y el soporte para modelos de embedding y rerank. También se ha mejorado el soporte para modelos multimodales, detección automática de longitud máxima y paralelismo total de datos. Para diagnósticos, Intel ha habilitado herramientas OneCCL y funciones del XPU Manager – monitoreo de energía de la GPU, actualización de firmware, medición de ancho de banda de memoria y más.
Battlematrix se ha desarrollado pensando en los estándares de la industria y en la facilidad de despliegue. Incluye funciones empresariales como ECC, SR-IOV, telemetría y actualizaciones de firmware remotas. Intel planea una versión más robusta con mejoras en el servicio vLLM para este mismo trimestre, y un lanzamiento completo con todas las funciones en el cuarto trimestre.
Mientras algunos entusiastas ya imaginan usos creativos – desde generadores de assets para videojuegos hasta modelos de texturas en 4K – otros dudan si Intel podrá alcanzar a NVIDIA en potencia bruta de IA. Sea como sea, LLM Scaler v1.0 es un paso firme en las ambiciones AI-GPU de Intel.
3 comentarios
Intel: ahora con 80% más subsidios 😏
Hermano, imagina entrenar una IA que solo escupa texturas 4K para juegos sin parar 😂
La verdad, mejor soporte que muchos servicios de IA de pago