Parece que el «boom» del Ray Tracing ha dado un respiro a todos y aunque sigue vigente porque AMD llega tarde a la pelea con NVIDIA, volverá a coger impulso cuando haya que comparar arquitecturas y rendimiento. La gran pregunta es si esta tecnología tendrá un recorrido similar a lo visto con el HDR, el cual no termina de despegar en PC. ¿Corren suertes paralelas o siguen caminos distintos?
Huelga decir que este es uno de esos artículos abiertos a debate y que será interesante conocer el punto de vista de cada uno en los comentarios. Es posiblemente una reflexión más que un artículo instructivo como tal, pero es igualmente interesante sentarse a pensar sobre el camino que van a enfrentar estas dos tecnologías y cómo pueden terminar.
Ray Tracing y HDR, presente y ¿futuro? o ¿moda pasajera?
Lo que estamos viendo con HDR puede que no tenga mucho que ver con Ray Tracing por simples mercados y apoyos distintos, pero no es menos curioso que la primera está pasando con más pena que gloria por el mundo del PC.
Llegó como una revolución (HDR), algo que cambiaría no solo el mundo del gaming sino la forma de entender y ver el contenido en monitores para PC. Años después está cada vez más en el olvido y no es por falta de soporte:
- Windows se puso al día y lo soporta de forma nativa e incluso lo potencia con distintas opciones.
- AMD y NVIDIA dan soporte desde hace años en sus GPU.
- Los fabricantes de monitores tienen un amplio catálogo donde elegir.
Entonces, ¿qué falla en HDR para que no sea un estándar usado en cada casa y oficina? En nuestra opinión hay dos factores bien diferenciados: la cantidad de estándares que impulsa HDR y la calidad de los paneles para poder implementarlo.
Existe demasiada fragmentación en los estándares HDR, cada uno es diferente y tiene unos requerimientos distintos (existen 12 versiones) y algunos ni siquiera entran dentro de las características mínimas para la certificación, aunque incluyen la palabra HDR en sus denominaciones.
Además, se da el problema de que un contenido HDR puede no ser reproducible en dos monitores con distintos certificados, lo cual genera a veces bastantes problemas de compatibilidad.
¿Seguirán el mismo camino?
No exactamente, Ray Tracing es una característica añadida que tiene unos parámetros y forma de funcionar mucho más delimitado que HDR. No deja de ser una moda pasajera como fue el Antialiasing, la teselación o el TAA en su momento, pero a diferencia de estos está moviendo una industria completa y arrastrando a las consolas hacia un mercado que dejará de ser relevante solo cuando el hardware sea capaz de moverlo con suficiente soltura, desde la menor de las GPU hasta la mayor.
Además, Ray Tracing no depende de tantas empresas como tal, depende de una API con soporte, un driver que lo gestione y un software que lo reproduzca. HDR en cambio necesita un estándar certificador, un panel que lo soporte, un contenido que lo ofrezca y todo de forma específica, no general como ocurre en RT.
Si HDR quiere sobrevivir tiene que simplificarse y llegar a más mercados, los panelistas tienen que dar un salto de calidad y ofrecer paneles VA, TN e IPS con mayor contraste y brillo, mayores capacidades de reproducción de color y para rematar, a menor costo.
El contenido debe de estandarizarse, llegar desde más medios y con más bitrate, si no, HDR como tecnología pasará muy de largo en el tiempo y será olvidada como Ray Tracing pero por diferentes motivos, ya que el trazado de rayos pasará a ser una característica más en los juegos, usada y activada para mejorar la calidad como si de un filtro cualquiera se tratase.
HDR en cambio puede ser sustituida por otros estándares más simples y efectivos, con menores costes y sobre todo con mejor implementación, donde quizás solo la tecnología OLED en monitores gaming pueda terminar por salvarla.
HDR vía Inteligencia Artificial
El motivo por el cual el HDR no ha despegado es por el hecho que aumenta enormemente la carga en cuanto a ancho de banda, ya que no es lo mismo trabajar con píxeles de 8 bits por componente RGB o RGBA que hacerlo con 10 bits por componente y menos aún con 12 bits.
El HDR reduce la tasa de relleno y por tanto el rendimiento en los juegos, de ahí a que muchos desarrolladores lo implementen a regañadientes. Aparte de que no es una tecnología que pueda utilizar todo el mundo.
El futuro parece estar en la simulación del HDR a través de la IA, donde a través de algoritmos de inteligencia artificial se transforma un espacio limitado de color en otro más amplio, obviamente no deja de ser una especulación por parte de la máquina pero para mucha gente puede ser suficientemente buena y no resulta una carga adicional para el sistema como lo es el HDR implementado de manera nativa.