En la mesa del “desktop AI” están chocando dos ideas muy distintas. Por un lado, el NVIDIA DGX Spark, un equipo compacto construido alrededor del Superchip GB10 y el ecosistema CUDA/TensorRT-LLM que reina en centros de datos. Por el otro, el GMKtec EVO-X2 con AMD Strix Halo (Ryzen AI Max+ 395), una APU que une CPU, iGPU y NPU XDNA 2 para ofrecer IA local sin precio de servidor. 
La pregunta real no es quién “gana” un benchmark aislado, sino qué enfoque encaja mejor con tu flujo de trabajo y con quién paga la factura: tú o tu empresa.
Dos filosofías: throughput frente a latencia
La propuesta de NVIDIA gira en torno al throughput. El DGX Spark apuesta por sostener altos tokens/segundo en modelos grandes y contextos extensos, con paralelismo, lotes y múltiples sesiones. Las cifras teóricas en precisiones bajas suenan a ciencia ficción, pero cobran sentido cuando hay cargas prolongadas o varios usuarios concurrentes. Es el ADN de la casa verde llevado al escritorio.
AMD, en cambio, juega la carta de la latencia. Al convivir CPU, iGPU y NPU en el mismo paquete, Strix Halo reduce orquestación y caminos de datos, lo que se traduce en menos tiempo hasta el primer token. En pruebas divulgadas por GMKtec con modelos como Llama 3.3 70B, Qwen3 Coder, GPT-OSS 20B y Qwen3 0.6B, el EVO-X2 arranca antes en muchas tareas interactivas. Si tu día a día es chatear con asistentes, autocompletar código o dictar notas, esa sensación de respuesta inmediata pesa más que una cifra bruta de t/s.
Qué significa en la práctica
En modelos muy grandes, el EVO-X2 se mantiene a la par y a ratos parece más ágil en el trato “uno a uno”. A medida que los modelos se hacen pequeños, la brecha se estrecha: nada estresa de verdad la memoria ni la computación. El Spark recupera ventaja cuando hay que producir durante horas, procesar lotes pesados o servir a varios clientes: allí su diseño, optimizado para GPU y CUDA, luce pleno.
El peso del ecosistema
La gravedad del software sigue mandando. Si tu organización vive en CUDA, usa contenedores y perfiles de NVIDIA, y sincroniza con clusters L40S/H100, un DGX Spark como estación de desarrollo mantiene paridad con producción y reduce sorpresas. Si buscas una máquina personal para IA privada en Windows o Linux, el camino de AMD resulta muy atractivo: ROCm, DirectML y los runtimes de socios avanzan rápido, y no obligan a hipotecar el presupuesto.
Memoria, ancho de banda y por qué los tests discrepan
Muchas tablas “contradictorias” no son truco: atacan cuellos de botella distintos. Los diseños orientados a throughput trabajan mejor con caminos de memoria anchos que alimentan enormes bloques en paralelo; los orientados a latencia ganan integrando y recortando overhead. Según el tokenizador, la cuantización y la longitud del contexto, el péndulo oscila: a veces brilla NVIDIA (t/s, decodificación paralela), a veces AMD (respuesta inicial, interacción).
Precio y coste real de propiedad
Aquí es donde se nota la diferencia. La configuración tope del EVO-X2 (128 GB y 2 TB) ronda los 2.199 USD. El DGX Spark se mueve en torno a 4.000 USD, con preventas incluso por encima. Para un uso personal, sensible a latencia y privacidad local, la relación experiencia/precio del EVO-X2 es dura de superar. Para equipos que necesitan throughput sostenido, herramientas CUDA nativas y un entorno que espeje sus servidores, la prima del Spark puede estar justificada – y, seamos honestos, normalmente la paga la empresa.
Guía rápida: ¿cuál es para ti?
- Diálogo, un usuario, respuesta ágil: Strix Halo en el EVO-X2 suele “hablar” primero y cuesta menos mantenerlo.
- Batch pesado, contextos largos, pipelines CUDA: DGX Spark entrega tokens/segundo estables y paridad con el backend de NVIDIA.
- Copilotos de código y asistentes locales: ambos sirven; la NPU de AMD aporta ese “clic” de fluidez.
- Paridad de dev con servidores NVIDIA: Spark reduce fricción al promover a producción.
Caveats sensatos
Los números de GMKtec provienen del fabricante y de un recorte concreto; cambia modelo, quant o contexto y la clasificación baila. Con el paso de los meses importan también drivers, termal, ruido y estabilidad. Toma cada gráfico como pista, no como veredicto final.
Veredicto
Si quieres una estación de IA privada y reactiva sin que duela el bolsillo, el EVO-X2 con AMD Strix Halo ofrece “sensación de modelo grande” a precio razonable. Si tu mundo es CUDA, con varios usuarios y despliegues en clusters de NVIDIA, el DGX Spark es la clase correcta de caro. Son filosofías distintas con vencedores distintos: decide por tu workflow, no por el logo.