El mercado de tarjetas gráficas en 2025 parece más una montaña rusa que un simple catálogo de productos: llegan nuevos conectores de energía, algunos chips tope de gama desaparecen del mapa, Intel intenta su gran regreso en sobremesa, AMD cambia de estrategia y, mientras tanto, tecnologías como DLSS y FSR empujan la generación de fotogramas a otro nivel. Con este panorama, es normal que mucha gente se sienta perdida a la hora de elegir GPU. 
Este FAQ nace justo para eso: ordenar las dudas que más se repiten y dar respuestas claras, mirando no solo a hoy, sino también a los próximos años.
A lo largo del artículo veremos si tu viejo cable 12VHPWR es realmente seguro en una tarjeta con el nuevo conector 12V-2×6, qué está pasando en realidad con las supuestas Intel Battlemage B770/B780, por qué AMD ha decidido renunciar a una RDNA 4 de gama ultra alta estilo RX 9080 o 9090 XTX, cuánta VRAM tiene sentido para jugar en 1440p y 4K en 2025/2026 y hasta qué punto FSR 4 ha recortado distancia frente a DLSS 4 en generación de cuadros. Y entre medias aparecerán temas muy de comunidad: la nostalgia por el conector de 8 pines, la estabilidad con varios monitores y esa eterna búsqueda de la tarjeta “equilibrada”, tipo una hipotética 9070 XT que lo haga casi todo bien.
¿Puedo usar mi cable 12VHPWR con una GPU 12V-2×6 sin miedo a quemarlo?
Empecemos por lo que puede acabar literalmente chamuscado si se hace mal: el cable de alimentación de la gráfica. La pregunta del millón es si puedes conectar tu antiguo 12VHPWR a una GPU moderna con conector 12V-2×6 o si necesitas sí o sí un cable nuevo. La respuesta, en la mayoría de casos, es que sí puedes reutilizarlo siempre que sea un cable decente, procedente de una fuente de alimentación de calidad. A nivel eléctrico el cable no ha cambiado; la diferencia está en el propio conector: el nuevo estándar 12V-2×6 recorta las patillas de detección (sense) y alarga los contactos de potencia para que el enchufe quede mejor asentado y el sistema detecte con más fiabilidad cuándo está bien conectado.
Eso no significa que el conector nuevo sea mágico o infalible. La mayoría de historias de conectores derretidos en las primeras GeForce RTX 4090 tenían casi siempre los mismos ingredientes: el conector no estaba totalmente insertado y el cable salía del bloque de plástico con una curva brutal de 90 grados nada más salir. Si repites esa receta, da igual que uses 12VHPWR, 12V-2×6 o incluso un 8 pines: estás forzando la física. Las reglas son simples y siguen vigentes: empuja el conector hasta notar y escuchar el clic, revisa visualmente que el borde del plástico está pegado al de la tarjeta y organiza el cable con curvas suaves, sin doblarlo en seco nada más salir del conector.
Si estás pensando en dar un salto grande, hacia una futura GeForce RTX 5090 o cualquier otra GPU de gama entusiasta, tiene mucho sentido planear el cambio junto con una fuente ATX 3.1 que incluya salidas 12V-2×6 nativas. Así evitas adaptadores, reduces puntos de fallo, mejoras la ventilación interna y te aseguras protecciones modernas diseñadas para picos de consumo muy altos. Dicho esto, sigue habiendo un grupo ruidoso que defiende el clásico conector PCIe de 8 pines: es simple, robusto y lleva años demostrando que funciona. Para una tarjeta de gama alta pero razonable, algo en la línea de una Radeon RX 9070 XT con uno o dos 8 pines, buen soporte multimonitor y drivers maduros, esa combinación tiene bastante sentido. Pero la dirección del sector es clara: los conectores compactos de alta potencia han llegado para quedarse, y si quieres jugar en la liga más alta tendrás que convivir con ellos.
Intel Battlemage B770/B780: ¿realidad cercana o vaporware elegante?
Pasamos al frente de Intel. La segunda generación de GPUs Arc, con arquitectura Xe2, se conoce como Battlemage y lleva rondando en rumores, parches y drivers desde hace tiempo. En ese baile de filtraciones aparece una y otra vez un chip grande llamado BMG-G31; se menciona en código de kernel, bases de datos de pruebas y actualizaciones de controladores. Eso deja bastante claro que el silicio existe. Lo que todavía no existe es la tarjeta de consumo que puedas comprar en tienda con la marca Arc B770 o B780, su disipador de serie y una ficha técnica oficial.
La explicación más razonable es que Intel está jugando sus cartas con bastante cuidado. Un chip grande puede terminar en distintos sitios: tarjetas profesionales, aceleradores de centro de datos o GPUs gaming para entusiastas. Si el chip, en su configuración máxima, no encaja del todo en lo que Intel quiere en términos de consumo, temperaturas o frecuencia, siempre pueden reservar esas variantes completas para el mercado profesional y construir la gama gaming a partir de versiones algo recortadas, que sean más fáciles de refrigerar y de colocar a un precio atractivo. Encaja bastante con lo que pasó en la primera generación Arc: la A770 y la A750 llegaron con una relación precio/rendimiento interesante, pero con drivers verdes en DX9 y DX11 y un rendimiento muy irregular dependiendo del juego.
Estos últimos años Intel ha dedicado mucho esfuerzo justo a esa parte incómoda: reescribir componentes antiguos del controlador, mejorar compatibilidad y reducir sorpresas. Battlemage es su oportunidad de presentarse de nuevo, esta vez con menos letra pequeña. En ese contexto, lanzar un mega-flagship directamente contra las RTX más caras de NVIDIA sería un salto de fe bastante arriesgado. Tiene más lógica entrar por la gama media y media-alta con productos sólidos, coger reputación poco a poco y, si todo va bien, subir un escalón más arriba en una segunda oleada.
Por qué AMD ha decidido bajarse del tren de los súper flagships RDNA 4
En AMD el mensaje es más claro porque la propia compañía ha dejado caer su estrategia. La familia RDNA 4 no va a luchar por el puesto de GPU gaming más rápida del planeta. Es decir, esas supuestas Radeon RX 9080 o 9090 XTX de las que tanto se hablaba en filtraciones se quedan, por ahora, como un ejercicio de imaginación. Oficialmente se habla de prioridades y de aprovechar mejor los recursos; traducido, construir un monstruo multi-chip con PCB exagerada, refrigeración enorme y desarrollo de años para venderlo a un puñado de entusiastas no compensa.
Al centrarse en modelos mainstream y de gama media-alta, AMD se posiciona justo donde están la mayoría de las ventas reales. Chips más pequeños significan más unidades útiles por oblea, menos riesgo financiero y mucho más margen para moverse en precio sin destrozar la rentabilidad. Al mismo tiempo, la empresa está volcando mucho talento de ingeniería en productos de centro de datos y aceleradores de IA, donde cada chip genera bastante más dinero que una tarjeta gráfica de consumo. Para los fans de la guerra en la cima absoluta, esto sabe a poco. Pero para la mayoría de jugadores, lo que importa de verdad es que exista algo tipo una RX 9070 XT bien equilibrada: potente en 1440p, relativamente eficiente, con ventiladores discretos y sin dramas al conectar dos o tres monitores.
VRAM para 1440p y 4K en 2025/2026: el nuevo suelo mínimo
Pocas cosas generan tantas discusiones en foros como la VRAM. Siempre hay quien asegura que 8 GB siguen siendo más que suficientes y, enfrente, gente enseñando capturas de juegos actuales devorando 12 o 13 GB a 1440p con todo en ultra. Como casi siempre, la realidad es más compleja que un número. El consumo de VRAM depende del preset gráfico, de la calidad de las texturas, del uso de ray tracing, de la distancia de dibujado, de sistemas de caché internos, de si usas mods, filtros de posprocesado agresivos e incluso del tipo de upscaling o frame generation activado.
Si miramos hacia los próximos dos años y los títulos AAA que vienen, se ve bastante claro que 12 GB dejan de ser un capricho y se convierten en un mínimo razonable para 1440p si quieres jugar con ajustes altos o muy altos. Sí, muchos juegos arrancan y se mueven en 8 GB, pero cada vez con más compromisos: texturas a medio camino, reflejos recortados, sombras simplificadas y, sobre todo, micro tirones cuando la VRAM se llena y el motor tiene que ir moviendo datos de ida y vuelta a la RAM del sistema. Con 12 GB es mucho más probable que puedas activar lo que el juego ofrece sin tener que negociar cada detalle.
Para 4K, la conversación arranca ya en 16 GB. Hay excepciones: títulos competitivos ligeros y motores muy optimizados que se las apañan con menos, especialmente si usas modos de rendimiento en los escaladores y estás renderizando internamente bastante por debajo de 4K. Pero en el tipo de juego que suele estrenar hardware – mundos abiertos enormes, texturas ultra, iluminación avanzada y ray tracing – el margen de 12 GB se queda estrecho muy rápido. Tarjetas con 20 GB o más son ideales para quien vive de mods pesados, packs de texturas 8K y experimentos con path tracing, pero para el jugador avanzado medio, 16 GB es el punto dulce entre precio y margen de futuro.
FSR 4 vs DLSS 4: cómo está realmente la batalla de la generación de cuadros
La otra gran discusión visual de esta generación no es solo cuántos FPS marca el contador, sino cuántos son reales y cuántos son generados. FSR 4 de AMD y DLSS 4 de NVIDIA atacan el mismo problema: hacer que el juego se sienta mucho más fluido sin obligar a la GPU a dibujar todos y cada uno de esos cuadros desde cero. El motor renderiza menos frames “de verdad” y un sistema de reconstrucción genera fotogramas intermedios a partir de información de movimiento, profundidad y contexto temporal.
DLSS 4 se apoya en el hardware dedicado de las RTX y en un modelo de tipo transformer entrenado específicamente para este trabajo. Analiza varios fotogramas a la vez, interpreta vectores de movimiento y otras pistas de la escena y genera nuevos cuadros intercalados. Con la llamada multi-frame generation no está inventando cada frame por separado, sino viendo un tramo de tiempo y manteniendo la coherencia de los movimientos. El resultado, cuando el estudio integra bien la tecnología, suele ser una imagen muy limpia, con pocos artefactos visibles y una fluidez difícil de conseguir solo a fuerza bruta.
FSR 4, en cambio, mantiene la filosofía abierta y funciona en un abanico más amplio de hardware. Sus mayores problemas en la versión 3.1 eran el ghosting tras objetos en movimiento y el temblor constante en detalles finos como hojas, cables o rejas. En la cuarta generación, AMD mejora de forma evidente ambas cosas: los bordes se reconstruyen mejor, las estelas molestan menos y la nitidez se acerca bastante a la del render nativo. En algunas escenas extremas DLSS 4 sigue teniendo una ligera ventaja, pero ya no es ese abismo que muchos recuerdan de las primeras comparativas.
Donde FSR 4 tiene un arma muy fuerte es en cómo llega al usuario. Con los últimos controladores Adrenalin, cualquier GPU RDNA 4 puede aprovechar FSR 4 en muchos juegos DirectX 12 que originalmente solo anunciaban soporte para FSR 3.1, sin necesidad de que el estudio publique un parche específico. Eso dispara el número de títulos en los que los usuarios de Radeon pueden probar frame generation de un día para otro. Aun así, DLSS 4 conserva ventaja en catálogo total y en calidad máxima sobre las RTX más potentes. Lo importante es que, por primera vez, la opción de AMD se siente de verdad competitiva y no un “plan B” al que uno recurre solo porque no tiene una RTX.
Conclusión: en qué fijarse realmente al elegir GPU en 2025
Si juntamos todas estas piezas, el mercado de GPUs en 2025 deja de parecer un caos total y empieza a mostrar un cierto orden. Los nuevos conectores de energía son más seguros siempre que se usen bien, los fabricantes están redirigiendo esfuerzo hacia las gamas donde se venden más tarjetas, las exigencias de VRAM suben a la vez que lo hacen los juegos y la generación de cuadros pasa de experimento curioso a parte estable del paquete gráfico.
Los debates sobre cuál es la “mejor tarjeta del mundo” seguirán ahí, con gente enamorada de su teórica 9070 XT con un solo 8 pines y drivers de hierro, otros que no se bajan de un monstruo RTX con todo el ray tracing activo y, quién sabe, un grupo dispuesto a darle una oportunidad seria a Battlemage cuando llegue. Pero si quitamos ruido, lo que más importa para ti es bastante concreto: un sistema de alimentación moderno y bien montado, suficiente VRAM para el tipo de juegos que realmente juegas y una solución de upscaling y frame generation que encaje con tu hardware. Si clavas esas tres patas, el logo que salga en la caja pasa a ser un detalle y no el centro de la decisión.
2 comentarios
lo de battlemage ya parece cuento de hadas, hasta que no vea una B770 en una tienda online no me creo nada de nada 🤷
muy top que hables de fuentes y cablerío, todo el mundo se obsesiona con FPS y luego alimenta la GPU con una fuente de dudosa procedencia 🙃