Qué es el NVIDIA DLSS y cómo mejora el rendimiento en los juegos
El lanzamiento de las nuevas tarjetas gráficas NVIDIA Geforce RTX ha traído muchas nuevas tecnologías a la palestra. Pero en este tutorial queremos hablar de la que más tiene intrigados a los usuarios, dado que esta tecnología implica el empleo de la IA para mejorar la imagen e incrementar el rendimiento de las tarjetas: hablamos del NVIDIA DLSS.
Tras el lanzamiento de las nuevas tarjetas gráficas NVIDIA GeForce RTX, dos aspectos quedaron muy claros: el importante empuje que NVIDIA quería darle al Ray Tracing en su nueva plataforma de juegos, y la implementación, por primera vez, de una técnica de mejora de imagen basada en la IA. Este último punto es el que concierne a la tecnología de NVIDIA DLSS (Deep Learning Super Sampling).
NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.
Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor.
NVIDIA DLSS mejora el rendimiento reconstruyendo la imagen
La tecnología detrás NVIDIA DLSS y su incremento en el rendimiento de la tarjeta gráfica, se basa en que los núcleos Tensor solo recogen la información de la mitad (más o menos) de los píxeles que ha de renderizar la gráfica, salvo que lo hacen a una resolución inferior a la nativa a la que se va a renderizar toda la escena. El resto de la información la reciben a través de la IA, desde el servidor central de NVIDIA, extrapolando los datos de los miles de imágenes que tienen procesadas, para conseguir la imagen definitiva. En resumidas cuentas, que la tarjeta gráfica solo renderiza la mitad (más o menos, dado que puede variar) de la escena cuando se emplea el DLSS que cuando se emplean otras técnicas de tratamiento de imagen.
Obviamente, esta tecnología tiene sus «inconvenientes». El primero y más importante, que solo va a estar disponible para las tarjetas gráficas NVIDIA de la nueva generación. La suerte es que, no solo se centrará en las actuales NVIDIA GeForce RTX 2070, 2080 y 2080 Ti, sino que es más que posible que también lo esté para las tarjetas gráficas de series más bajas, como la 2060 o, incluso, la 2050 (se rumorea que estas nuevas gráficas no tendrán núcleos RT, solo Tensor).
El otro problema es que, para que esta tecnología se pueda emplear, previamente el juego habrá de soportarla, Y sí, aunque aún es muy pronto para saber cuántos juegos la soportarán (por el momento hay bastantes confirmados que lo van a hacer), está claro que no todos los juegos del mercado actual van a tener soporte para esta tecnología.