Inicio » Sin categorizar » HDR gaming en 2025: cómo una revolución gráfica se atascó y aún puede salvarse

HDR gaming en 2025: cómo una revolución gráfica se atascó y aún puede salvarse

por ytools
0 comentario 0 vistas

Hace unos diez años, si le preguntabas a casi cualquier fan del hardware qué iba a cambiar de verdad la forma en que vemos los videojuegos, la respuesta rara vez era «4K». El nombre que circulaba en foros, ferias y presentaciones era otro: HDR, alto rango dinámico.
HDR gaming en 2025: cómo una revolución gráfica se atascó y aún puede salvarse
Sony preparaba por entonces la revisión de su PlayStation 4, la futura PS4 Pro lanzada en 2016, y muchos analistas repetían la misma idea: más importante que meter más píxeles en pantalla era aprovechar mejor cada uno de ellos, con luces más intensas, negros más profundos y colores mucho más vivos. Microsoft, AMD y varios fabricantes de televisores mostraban encuestas en las que los usuarios decían notar más el salto de HDR que el de resolución. Y, además, la promesa sonaba deliciosa: a diferencia del 4K, bien implementado el HDR apenas debía costar rendimiento.

Los primeros pasos parecían darles la razón. Estudios como Naughty Dog o Playground Games hablaban sin rodeos de que, una vez visto un juego con buen HDR, volver a SDR se sentía como ponerse una gafa empañada. NVIDIA sacaba pecho con sus primeros monitores G-SYNC HDR en ferias como el CES 2017. En 2018, Sony, Microsoft, fabricantes como LG o Samsung y editoras como EA, Ubisoft o Square Enix anunciaban la formación del HDR Gaming Interest Group, HGiG, un intento de sentar por fin unas bases comunes para que los juegos se viesen bien en la enorme variedad de pantallas del mercado. Sobre el papel, todo apuntaba a una revolución tranquila: el hardware estaba alineado, las consolas listas y los motores gráficos preparados para emitir en alto rango dinámico.

Sin embargo, si adelantamos la cinta hasta finales de 2025, el panorama real es mucho más caótico de lo que cualquiera habría imaginado. Hoy resulta difícil comprar un televisor de gama media o alta que no lleve pegado al menos un logo de HDR en la caja. Las OLED se han convertido en objeto de deseo de medio mundillo, los mejores modelos de LCD con mini-LED alcanzan picos de más de 2.000 nits, y casi todos los monitores «gaming» presumen en grande de soportar HDR. Pero cuando encendemos el PC o la consola y lanzamos el gran juego de moda, la realidad suele ser otra: o el título directamente no admite HDR, o el modo HDR está tan mal resuelto que la mayoría de jugadores lo apaga a los diez minutos. La supuesta revolución se ha quedado a medio camino.

Esa sensación de promesa incumplida es precisamente lo que lleva años obsesionando al programador gráfico italiano Filippo Tarpini. Mientras buena parte de la industria miraba hacia efectos vistosos como el ray tracing, él se fijó en la parte menos glamurosa pero crucial de la cadena: el último tramo del pipeline de renderizado, allí donde una imagen en coma flotante se convierte en la señal real que recibe el televisor. Es decir, tonemapping, codificación HDR, color grading. Con el paso del tiempo se ha convertido en uno de los nombres de referencia cuando se habla de cómo deberían verse realmente los juegos en pantallas modernas.

Antes de entrar en el diagnóstico, conviene repasar por qué el HDR causó tanto entusiasmo al principio. El SDR con el que llevamos conviviendo décadas se diseñó para una época muy concreta: televisores de tubo de rayos catódicos, primeras LCD domésticas, niveles de brillo modestos. El estándar –en la práctica, una mezcla de Rec. 709, curvas de gamma aproximadas y un «blanco» pensado para unos 100 nits– está lleno de compromisos heredados. Para ese mundo tenía sentido. Para un televisor 4K de 55 pulgadas que puede iluminar un recuadro pequeño por encima de los 1.500 nits y bajar el negro a casi cero, ya no tanto.

El HDR viene a romper precisamente esa camisa de fuerza. Por un lado, amplía brutalmente el rango entre la parte más oscura y la más brillante de la imagen. Por otro, utiliza espacios de color más amplios, como Rec. 2020, capaces de representar rojos, verdes o azules que simplemente no entran en sRGB. En un juego bien gradeado en HDR, el reflejo del sol sobre una espada o el destello de una granada aturde de verdad la vista durante un instante, igual que cuando sales a la calle en un día despejado. Las sombras, en vez de convertirse en manchas negras sin información, conservan detalle y textura. No se trata de hacer «modo vívido de tienda», sino de acercarse un poco más a cómo funciona nuestro sistema visual.

Quizá lo más interesante, y lo que tantos desarrolladores repiten, es que todo eso no requiere rehacer el juego de arriba abajo. Las engines modernas ya trabajan internamente con valores de luminancia y color en rangos amplios; la cuestión está en cómo se comprimen al final para caber en el marco que permite la pantalla. HDR, en esencia, es una forma distinta –más inteligente y exigente– de hacer ese mapeo. No pide duplicar la carga de la GPU como un 4K nativo, ni escribir un trazador de rayos completo. Pide, eso sí, entender bien qué está pasando en ese último tramo de la cadena y dedicarle cariño.

Y ahí aparece el primer gran choque con la realidad del desarrollo. Dentro de un estudio, cada euro y cada semana de producción cuentan. Hay que elegir batallas: sistemas de combate, IA, red, cinemáticas, efectos, marketing. En esa lista, un juego funciona igual de bien –vende, da titulares, se coloca en rankings– con o sin HDR. No hay ningún test de certificación que diga «sin HDR no puedes publicar». En cambio, sí hay mucha presión comercial para implementar cosas que se ven muy bien en un GIF de Twitter: reflejos ray traced, niebla volumétrica, partículas por todas partes.

Además, a diferencia de un bug que tira abajo el servidor o de un crash evidente, un HDR mediocre no se percibe inmediatamente como un problema crítico dentro del estudio. En el monitor de desarrollo, con luz de oficina y bajo prisas, «parece bien». Y como casi nadie en el equipo tiene la misión específica de mirar la imagen en diferentes televisores HDR, medir curvas y revisar calibraciones, lo normal es que el tema se deje para el final. En muchos proyectos, el modo HDR se implementa cuando ya está casi todo lo demás cerrado, como quien pinta la pared el último día sin cambiar el tipo de yeso.

A eso se suma un factor cultural poco reconocido: la mayoría de artistas, diseñadores y programadores han crecido profesionalmente en SDR. Sus herramientas, sus monitores de referencia, sus LUTs, todo el pipeline está pensado para Rec. 709. En ese contexto, el SDR se percibe como algo conocido y, en cierta manera, «fiable». HDR, en cambio, se presenta como una jungla de siglas –HDR10, HLG, Dolby Vision, HDR10+– y una colección de experiencias contradictorias en casa. El mito que se instala es el contrario de la realidad: que SDR es un estándar claro y HDR es un caos, cuando en verdad es al revés.

Filippo Tarpini se hartó de ver cómo ese tramo final del render se dejaba en piloto automático. Tras trabajar en varios estudios, acabó fichando por Remedy, donde tuvo la oportunidad de meterse de lleno en esa batalla. Allí, en su tiempo libre, empezó creando un mod de HDR «de verdad» para Control, porque la implementación original no le convencía. El mod corrió como la pólvora entre los jugadores con buenas teles, y al final el propio estudio lo tomó como base para un parche oficial. Lo que comenzó como experimento personal terminó integrado en un juego de alto perfil.

Más tarde llegó Alan Wake II, un título donde Tarpini pudo influir desde mucho antes en el pipeline de color y HDR. La calibración que ofrece el juego es, para muchos, un ejemplo de cómo debería hacerse: pocos deslizadores, bien explicados, lecturas automáticas de la capacidad de brillo de la pantalla y, sobre todo, un objetivo claro de respetar la intención artística original. No se trata de dar al usuario veinte mandos, sino de guiarlo a una imagen coherente y consistente, que se vea bien en el mayor número de pantallas posibles.

En paralelo a ese trabajo «oficial», Tarpini empezó a compartir conocimientos y herramientas con otros entusiastas. De ahí nació Luma, una iniciativa open source pensada para injertar pipelines HDR modernos en juegos de PC que no los tienen o los tienen mal implementados. Luma ha firmado ya mods para títulos tan distintos como Starfield, Prey o incluso proyectos aún inéditos. En muchos de esos juegos, la recomendación de quienes tienen una tele potente es clara: si quieres verlos de verdad en condiciones, instala Luma.

Todo esto cristalizó en Gamma Studios, la pequeña empresa que Tarpini fundó para formalizar lo que ya estaba haciendo: ayudar a otros equipos a arreglar sus cadenas de postprocesado, implementar HDR de forma limpia y modernizar su color grading. Gamma colabora tanto con estudios relativamente modestos como con grandes nombres, y participa además en la integración de HDR en RTX Remix, la plataforma de NVIDIA para remasterizar clásicos de PC. No venden una caja mágica, sino un servicio muy concreto: experiencia acumulada en esa parte del pipeline que casi nadie quiere mirar.

Alrededor de Gamma ha florecido también una comunidad peculiar: HDR Den. Nació como un servidor de Discord donde un puñado de locos del color compartían capturas y curvas, y hoy funciona como especie de laboratorio colectivo. En su Reddit se publican comparativas entre versiones de consola y PC, análisis de cómo una tele concreta responde en modo HGiG o con mapeo dinámico del fabricante, y hasta scripts para parchear shaders en memoria. Allí se fraguan soluciones que luego acaban llegando a mods públicos y, en algunos casos, incluso a desarrollos comerciales.

Ese ecosistema de mods y foros ha dado lugar a una paradoja llamativa: hay juegos AAA donde una docena de fans, trabajando en su tiempo libre, consiguen una implementación HDR más consistente y fiel que la versión oficial lanzada por un estudio con decenas de millones de presupuesto. En lugar de sentirse amenazados, algunos desarrolladores han empezado a hacer justo lo contrario: entrar en HDR Den, preguntar, escuchar y contratar. Varios de los encargos que recibe Gamma Studios nacen de hilos de Reddit o de parches comunitarios que demuestran que, con el enfoque adecuado, ese juego puede verse mucho mejor.

Pero, si existe gente capaz de hacerlo bien, ¿por qué seguimos viendo tantos tropiezos? Una parte de la respuesta está en el PC, el territorio donde HDR quizá tiene peor fama. Durante años, las tiendas se llenaron de monitores con un pequeño logo de «HDR» que, en la práctica, apenas ofrecían algo más que un SDR mediocre. Paneles sin atenuación local, picos de brillo ridículos, negros grisáceos… todo eso se escondía bajo siglas como HDR400. Técnicamente cumplían un mínimo de la especificación; visualmente eran una trampa para quien esperaba un salto real.

Quien compró uno de esos monitores y activó el HDR en Windows se encontró con un cóctel familiar: escritorio lavado, colores raros, vídeos que parecían peores que antes y juegos que, al pasar al modo HDR, perdían punch en lugar de ganarlo. Incluso títulos con soporte nativo podían verse peor que en SDR, porque la combinación de un panel flojo, un pipeline de color dudoso y un sistema operativo inmaduro hacía desastres. No hace falta mucho para que, después de dos o tres experiencias así, alguien etiquete HDR en PC como «la peor función gráfica que ha probado jamás».

Windows tampoco ha ayudado precisamente a limpiar esa imagen. El sistema sigue siendo torpe a la hora de mezclar contenido SDR y HDR en el mismo escritorio. Algunas aplicaciones se ven apagadas, otras sobresaturadas, capturar pantallas en HDR es un quebradero de cabeza, y AutoHDR –el intento de Microsoft de convertir juegos SDR en algo parecido a HDR mediante algoritmos– puede tanto sorprender positivamente como destrozar el balance de un título. Desde el punto de vista del usuario, la culpa se difumina: ¿es problema del juego, del monitor, del driver, del propio Windows?

No extraña, por tanto, que se haya formado un bloque de jugadores que desconfía profundamente del HDR. Para muchos, no es más que un nombre bonito para describir paneles de 10 bits que deberían haber llegado sin tanto humo. Otros lo ven como un «truco propietario» pensado para vender cables, consolas y suscripciones. Y en medio de ese ruido es muy fácil tirar el bebé con el agua sucia: confundir el potencial de la tecnología con la suma de sus peores implementaciones.

Frente a esta percepción, Tarpini insiste en separar el concepto de la ejecución. Según él, HDR no es un gimmick, sino la forma natural de enseñarle a un display moderno aquello que la engine ya está calculando internamente. El problema no es que la idea esté rota, sino que la industria, en conjunto, todavía no ha aprendido a tratarla como parte esencial del diseño. Mientras en muchas cadenas de producción se siga viendo el HDR como algo «que se enchufa al final», el resultado seguirá siendo ese batiburrillo de experiencias que vemos hoy.

Y eso nos lleva de vuelta al papel de los estándares. Mucho se habla de Dolby Vision o HDR10+ como formatos «premium», pero en el terreno de juego la realidad es más prosaica: la inmensa mayoría de los títulos se limitan a emitir en HDR10, por pura compatibilidad. Dolby y compañía aportan cosas interesantes, como metadatos dinámicos que permiten ajustar brillo escena a escena, pero su adopción en videojuegos es todavía residual. ¿Tiene sentido pedirle a los estudios que den ese salto, si ni siquiera el HDR10 básico se está usando de forma correcta?

Más relevante, al menos por ahora, es HGiG. No es un formato, sino una serie de recomendaciones para que los televisores dejen de «meter mano» a la señal de los juegos. El modo HGiG de muchos modelos actuales lo que hace, precisamente, es desactivar el tonemapping dinámico propio del fabricante y mostrar el contenido tal y como llega de la consola o del PC, dentro de las capacidades físicas del panel. La idea es simple: que el juego mande y el televisor obedezca, no al revés.

Cuando esa pieza encaja, la calibración deja de ser una odisea. Un juego bien planteado en HDR necesita muy pocos mandos: un control para ajustar el nivel de blanco de referencia (el «paper white»), quizá un deslizador para la intensidad de la UI y, como mucho, una opción para desplazar mínimamente la exposición según gustos. El título puede incluso leer del sistema cuál es el pico de brillo real de la pantalla y ajustar automáticamente la curva. No hace falta presentar seis sliders distintos con nombres crípticos ni ilustrarlos con imágenes SDR que, encima, no representan lo que pasará en una escena real.

Sin embargo, eso es justamente lo que muchas producciones hacen: llenar el menú de opciones HDR con barras para sombras, luces, contraste, saturación y una vaga «intensidad HDR», acompañadas de dibujos de prueba que, seamos sinceros, nadie entiende del todo. El resultado es que buena parte de los usuarios acaba dejándolo todo en valores por defecto, mientras que otra parte se pierde en ajustes extremos recomendados en foros, rompiendo sin querer la intención visual del equipo de arte. Y cuando la imagen resultante no convence, la culpa recae sobre «el HDR», no sobre el diseño del menú.

Más allá de los menús, el gran cuello de botella sigue estando en las pipelines de arte. Cada vez que un estudio crea un mundo, lo hace pensando en un entorno de trabajo concreto: monitores de referencia, LUTs, gamma, herramientas de corrección. Todas esas piezas llevan décadas afinadas para SDR. Cambiar a HDR no es únicamente mover un par de sliders; implica repensar cómo se expone la imagen, qué se considera correctamente iluminado, qué rango de luminancia se reserva para el HUD, cómo se evitan zonas sin detalle en los extremos, etcétera. Es, en el fondo, cambiar de idioma visual.

No todos los equipos pueden permitirse ese cambio profundo en mitad de un proyecto a gran escala. En muchos casos, HDR entra en escena demasiado tarde como para plantear una transición ordenada. El resultado son soluciones a medias: se intenta estirar el mismo grading SDR hacia arriba, se aplican curvas ad-hoc para «hacerlo brillar», se toquetean parámetros hasta que en la tele del estudio parece aceptable. Pero esa tele no es la del salón de cada jugador, y el parche que lo arregla todo en un modelo concreto puede estropearlo en otro.

Visto desde fuera, podría parecer que esto es únicamente un problema técnico. Pero en realidad es también un problema de cultura y prioridades. Mientras la industria siga premiando más el reflejo vistoso en un tráiler que la fidelidad silenciosa de un pipeline bien ajustado, será difícil que los equipos dediquen recursos a algo tan poco sexy como medir nits, revisar curvas y documentar buenas prácticas. Y, sin embargo, es ahí, en ese trabajo invisible, donde se decide si en unos años jugaremos casi todo en HDR sin pensarlo o si seguiremos asociando esas tres siglas a dolores de cabeza.

¿Qué tendría que ocurrir para que HDR por fin deje de ser una lotería y se convierta en el estándar silencioso que siempre debió ser? La lista de deseos de gente como Tarpini no es irreal. Por un lado, los fabricantes de consolas podrían elevar el listón de sus propias certificaciones: no solo exigir que un juego emita en HDR, sino comprobar que lo hace con una curva razonable, respetando el brillo máximo informado por la tele y ofreciendo una calibración clara. Nada impide que parte del proceso de QA incluya hoy pruebas sistemáticas en varios modelos HDR, igual que se comprueba el rendimiento o el input lag.

Por otro, la industria necesita documentar mejor lo que ya sabemos. Existen presentaciones de GDC excelentes, hilos técnicos, charlas de ingenieros de motores… pero hace falta traducir todo eso a guías prácticas accesibles para estudios grandes y pequeños. Manuales que expliquen, paso a paso, cómo pasar de un proyecto 100 % SDR a uno en el que HDR sea la referencia y SDR, el derivado. Plantillas para menús de calibración que no asusten al usuario. Ejemplos de curvas bien comportadas en distintos rangos de brillo.

Un tercer pilar sería sacar parte del trabajo de las manos de cada juego y llevarlo al sistema operativo o a la propia consola. Que Windows, PlayStation o Xbox ofrezcan un asistente de HDR serio, con patrones de prueba y validación, y que los juegos puedan leer de ahí un resumen fiable: pico de brillo, nivel de negro, nivel de papel blanco recomendado. Si esa capa común existiera y estuviera bien implementada, dejaríamos de ver tantos títulos reinventando la rueda con menús pobres o contradictorios.

También los medios especializados tienen un papel. Hoy se analizan al detalle cosas como el rendimiento en distintos modos gráficos, la calidad del DLSS o el impacto del ray tracing en la tasa de imágenes, pero el HDR a menudo se menciona de pasada, si acaso. Incluir la calidad de su implementación en las críticas –señalando claramente cuándo un título brilla o patina en este frente– enviaría un mensaje claro a editoras y estudios: esto importa, no es un extra misterioso que pueda dejarse para después.

Por último, hay que asumir una verdad incómoda: no todas las pantallas sirven para disfrutar de HDR. Pretender que un monitor con 350 nits, sin atenuación local y con un logo mínimo de certificación ofrezca milagros es engañarse. Y quizá la decisión más honesta que puede tomar un estudio, en algunos casos, sea no ofrecer HDR en ese tipo de dispositivos y quedarse en SDR bien resuelto. Igual que no esperamos trazado de rayos ultra en una GPU de gama baja, tampoco deberíamos exigir un HDR deslumbrante en paneles que físicamente no lo permiten.

Con todos esos pasos, el futuro que dibuja Tarpini es bastante claro: a medida que se asiente un flujo de trabajo sano para HDR, SDR empezará a verse viejo, como hoy nos parece viejo un vídeo en 480p. Los juegos que nazcan ya con pipelines de color pensados para alto rango dinámico aprovecharán cada mejora de los televisores y monitores que se vayan lanzando. Y los títulos que en estos años estén llegando sin HDR, o con un HDR roto, corren el riesgo de envejecer de golpe cuando el estándar cambie.

Lo paradójico es que la tecnología, en esencia, ya está ahí. Los motores saben trabajar con valores físicos; las pantallas tienen brillo y color de sobra; hay comunidades dedicadas a exprimir cada bit. Falta, sobre todo, una decisión de la industria de tratar el HDR no como un truco publicitario o una casilla que marcar al final, sino como una pieza central de cómo se concibe la imagen en un juego moderno. Esa decisión no la puede tomar un modder en su casa, pero sí puede empujarla mostrando una y otra vez que, cuando se hace bien, la diferencia es tan grande que resulta difícil volver atrás.

Mientras tanto, el día a día del jugador medio seguirá siendo una mezcla de experiencias: un exclusivo de consola que brilla como un escaparate de cine, un port de PC donde el HDR es injugable, un indie sorprendente que clava la calibración, un triple A que presume de tecnología punta y sin embargo no ofrece ni la opción. El reto para los próximos años será reducir esa variabilidad hasta que, por pura inercia, HDR deje de ser tema de discusión y pase a ser parte invisible del paisaje. Que lo único de lo que tengamos que hablar sea de historias, mecánicas y mundos, no de sliders y menús ocultos.

Cuando llegue ese punto, quizá volvamos a leer entrevistas como esta con otros ojos. Veremos a pioneros como Filippo Tarpini y a comunidades como HDR Den no como rarezas de nicho, sino como las personas que, a base de cabezonería, ayudaron a que el alto rango dinámico dejara de ser un sueño medio roto y se convirtiera, por fin, en la forma normal de jugar.

También te puede interesar

Deja un comentario