NVIDIA sufre con el HDR y AMD no: pierde un 10% de rendimiento de media

Escrito por Manuel Santos

EL HDR es una tecnología que muchos usuarios utilizan con sus tarjetas gráficas de alta gama. Las tarjetas de NVIDIA se han ganado la fama de conseguir un mejor resultado en sus gamas más altas, no obstante, las últimas pruebas realizadas sitúan a las gráficas por debajo de las de AMD en cuanto al rendimiento en HDR. Estos benchmark demostrarían que las GTX 1080 actualmente estaría produciendo un verdadero cuello de botella al tener HDR activado en los juegos.

amd vs nvidia hdr

Las tarjetas gráficas NVIDIA GTX 1080 pierden un 10% de rendimiento al ejecutar juegos en HDR

Estos datos han sido recogidos en una serie de pruebas realizadas a una NVIDIA GTX 1080 y una AMD RX Vega 64 ejecutando 12 juegos diferentes. El resultado más destacado de estos benchmarks es el mal funcionamiento de las NVIDIA GTX 1080 cuando el HDR estaba activado en los juegos. Siendo en el Destiny 2 dónde la diferencia era más notable, pasando de 61 FPS cuando se ejecutaba en SDR a 49 FPS en HDR.

En los test realizados a la AMD RX Vega 64 los resultados obtenidos no fueron tan llamativos, ya que la gráfica ha sido capaz de mantener el rendimiento al ejecutar los juegos en HDR. En esta gráfica se alcanzan 55 FPS en la ejecución en SDR y 50 FPS en la ejecución en HDR del mismo juego.

AMD ha conseguido mejorar su rendimiento y sólo perder un 2% de rendimiento en HDR

La media global de las dos sitúa a las gráficas de NVIDIA bastante por debajo en este campo, demostrando que producen un verdadero cuello de botella a la hora de ejecutar nuestros juegos en HDR. La media de resultados a la hora de ejecutar los doce juegos en HDR y SDR con la GTX 1080 es de un 10% de pérdida de rendimiento al ejecutarlos en HDR. En cuanto a la AMD RX Vega 64, la media de resultados tras ejecutar los doce juegos en los dos modos es de una pérdida del 2% al ejecutarlos en HDR.

Una de las teorías que se barajan para justificar esta pérdida de rendimiento es que los drivers no están lo suficientemente optimizados para tener la mejor ejecución de los juegos. NVIDIA aún no ha dado respuestas a este problema y lo más seguro es que la solución llegue con una actualización de software, pero por el momento una AMD RX Vega 64 se convierte en una mejor elección para la ejecución de HDR.

Vía > ComputerBase

Continúa leyendo
  • Yuryma

    No sólo son los drive las memorias HBM2 son memorias más rápidas , a pesar de que están ahogadas en esa rx vega 64 culpa de su absurdo consumo , si no fuera por el consumo seria unas gráficas exelentes . Pero no es así están armadas a las apuradas .

    • Kevin Marcelo Antelo Cossio

      recuerdo cuando los chips graficos de las radeon hd desde la serie 2000 hasta la serie 7000 eran de menor tamanho y consumian menos que los chips de nvidia y ahora las cosas estan al reves desde la llegada de las r9 excepto las rx serie 400-500 consumen mucho pero por ahora en el campo de los procesadores amd esta recuperando terreno poco a poco con la llegada de navi en 2019-2020 puede recuperar algo de terreno hasta que intel plante cara con su debut en el campo de la tarjetas de video y trate de opacar a nvidia en el campo de la gama de entrada como lo hizo con las integradas de sandy bridge y haswell.

      • Yuryma

        Tengo entendido que en amd tuvieron que recortar el presupuesto en las gpu casi un 70% se entiende que las vega 64 y 56 no eran lo que tendrían que aver sido pero ahora con el tema de las r9 también paso lo mismo consumo excesivo y tampoco el rendimiento esperado . Ahora la pregunta es ¿AMD viene de hace rato con ese recorte de presupuesto? Porque si fuera así para que optar por HBM2 sabiendo que son caras y que tenes poco margen de gasto y sabiendo que están las GDDR5X. Eso es lo que no me cuadra con esa jugada de AMD .

        • FranCañon

          el GDDR6 ya esta listo para produccion….doble de rapidez que la gddr5 y mas barata de fabricar…asi que…No sé en que se quedará la Memoria HBM2

          • Yuryma

            Yo como opinión mia de mi porque es mía creo que la memoria HBM la veo como una ” FUTURA ” remplazante del GDDR por el ancho de banda que tiene y el poco consumo . Ahora eso es para un futuro mientras tanto las HBM quedan para las gráficas profesionales por cuestiones de precio y disponibilidad . También dije en unos post anteriores que no creo que fuera a existir un GDDR7 o GDDR6 X , ya a esa altura tendrían que estar listas HBM3 o HBM 2.0 o HBM v2 no se que nombre le llegaran a dar .

          • Ocelot

            Yuryma mira calcula tu y dime si piensas como yo ..

            20nm = 8gb , 307GB bw a 2.4Gbps hbm2

            10nm = 16gb , 614Gb bw a 4.8Gbps hbm 3

            5nm = 32gb , 1228Gb bw a 9.6Gbps hbm 4

            3nm = 64gb , entre 1700 y 1900Gb Bw a 19.2Gbps max.. hbm5

            Ya que a partir de 2nm ya es imposible .. pero vamos eso seria por pila los datos.. vale , vamos que si son 8 pilas por stack y lo maximo son 4 para mainstream/pro”workstation” y para IA/DL/LM.. etc etc son 6 .. Pues ya puedes empezar hacer cálculos.. y eso si no sacan luego aparte para alargar las memorias unos años mas con las versiones nm+++ xD..

          • Ocelot

            No tienes ni puta idea … Ya que las gddr6 ya se hablo por un medio con fundamentos hace tiempo y costaban mas que las gddr5.. hablas con una noticia de esta web sin fundamentos.. así calla y no habrás mas la boca que lo que consigues es que suba el pan con tus tonterías..

          • FranCañon

            Ahora, después de insultar y faltar al respeto.Solo te queda poner un hilo donde diga que la HBM2 es más barata que la gddr6. !😂Campeón!jaja

          • Ocelot

            Pues campeón 4gb son 40$ 2,4 Gbps/307Gb bw.. 1.25V y las actuales gddr6 cuesta 10/15$ por GB 14Gbps.. que ofrece solo 56Gb bw… a 1.35V…

          • jhalcon

            Es un troll, solo va insultando sin respetar a la gente.

          • jhalcon

            Medio con fundamentos? Jajajajaja

          • Ocelot

            Hablo la información en persona el que todo lo sabe , no se que haces aqui y no en una empresa .. ah ya lo se , eres un FANTASMA!.

    • Erick Osvaldo Trujillo Castañe

      no creo que sea por eso del armado apurado, creo que al contrario, son buenas tarjetas, pero por debajo de las 1080 y 70, pero amd les ha metido oc de stock para que puediesen de alguna forma equipararlas a la gama alta de nvidia, haciendo el consumo y el calor ridiculamente absurdo, todo para poder decir que la 56 le gana por 3 fps a la 1070, ya que sabemos que a priori lo que ve la gente son los bench

      • Yuryma

        Ahora a AMD algo les fallo en los planos o cálculos . Porque no puede ser que con el semejante ancho de banda que logra dar HBM2 por si sola , se aya visto tan ahogada y con un consumo y temperaturas muy muy exageradas tengo entendido que hiceron un fuerte recorte de presupuesto en el sector de GPU , pero si tenían esas limitación ¿porque optar por HBM2? Sabiendo que es una memoria cara y con poca información sobre ella , porque ahy que decirlo así si comparas gddr con hbm gddr es una memoria mas veterana se sabe como funciona y demás al 100% .

  • Varaskkar

    AMD le está comiendo terreno a Nvidia.

    • fulanodetal

      Le comio el terreno por completo el dia que firmaron con Sony y Xbox.

  • Anonymus

    Después de mucha prueba en Guru3d, el mismo sitio del que parte la noticia, finalmente vieron de donde venía el problema.
    Resumiendo, el rendimiento en amd y en nvidia es el mismo después de activar el hdr.

    Update, thanks Nizzen for the hint. The performance loss is likely due to the way NVIDIA converts RGB to reduced chroma YCbCr 4:2:2 in HDR (we discussed that previously here) which was used for HDR testing. If they used 4:4:4 or RGB, the performance would be the same as SDR. Considering GSYNC Ultra HD monitors bog down to 4:2:2, this looks the be the most plausible explanation.

    • El de los Hachazos™

      Explicación plausible, pero no certeza.

      • Anonymus

        Me has pillado.