Este es el rendimiento de las NVIDIA RTX 2080 y 2080 Ti con Ray Tracing

Escrito por Javier Lopez

Después del “atracón” de reviews que hemos sufrido y que ha inundado Internet durante casi un par de semanas con las RTX 2080 Ti y RTX 2080 como protagonistas, hoy tenemos datos (por fin) de su rendimiento en Ray Tracing gracias al soporte de Microsoft con DXR en su Windows 1809 Redstone 5.

NVIDIA prometió hasta un 600% más de rendimiento en Ray Tracing

RTX DXR Ray Tracing

Todos recordamos a Jen-Hsun Huang, RTX en mano, comentar en muchas ocasiones las palabras Ray Tracing y Gigarays, alguno incluso se lo tomó con humor ante tal insistencia del CEO de NVIDIA en dicha presentación. Lo cierto es que al contar Turing con unidades de cómputo exclusivas y dedicadas para Ray Tracing (RT Cores) es posible que Jen-Hsun Huang no estuviese muy desacertado en dicha cifra.

Antes de comenzar hemos de incidir en que las pruebas que vais a ver son preliminares y que es posible que con la API OptiX se consiga un mejor rendimiento que con DXR, principalmente por las directrices de NVIDIA frente a las de Microsoft, pero constituyen los primeros datos válidos de rendimiento al comparar arquitecturas, ya que en las reviews no se pudo hacer por limitaciones técnicas de Microsoft y de soporte por parte de NVIDIA y desarroladores de test.

Hemos detectado una pequeña errata en los gráficos, ya que aparecen dos GTX 1080, entendemos que la de mayor rendimiento es la GTX 1080 Ti y simplemente ha sido un error editorial puntual, además, la unidad de media es errónea ya que es MRPS y no MPRs, así que dicho esto pasemos a los datos:

RTX Ray Tracing 1

El rendimiento sin duda es espectacular, el baluarte de Pascal (GTX 1080 Ti) se ve superado por su homóloga en Turing (RTX 2080 Ti) hasta en un 380% en cuanto a millones de rayos por segundo, mientras que en FPS consigue una diferencia de rendimiento de 352%. Son datos “esperables” pero ¿cuál es la diferencia entre la GTX 1080 Ti y la RTX 2080?

Quizás sea la pregunta más esperada ya que ambas están muy cerca en rendimiento en juegos (entorno al 8%). En este caso la diferencia se reduce a un 321% en MRPS y a un 315% en FPS.

De momento no son las cifras que NVIDIA dijo, pero no nos desalentemos tan rápido, hay más datos comparativos por analizar.

RTX Ray Tracing 2

En este gráfico lo que estamos viendo es la aceleración de los rayos, por lo que la diferencia debería ser mayor que en el gráfico de rendimiento puro. Pero vemos que realmente no es así, la RTX 2080 Ti consigue un 380% más de aceleración de rayos frente a la GTX 1080 Ti, mientras que en FPS la diferencia es calcada, un 352%.

El rendimiento no es el esperado para Turing

Si comparamos de nuevo la RTX 2080 con la GTX 1080 Ti, las diferencias son idénticas al apartado anterior, 321% y 315% respectivamente.

Esto denota varios aspectos: cuando en rendimiento puro las gráficas RTX consiguen el doble de rayos por segundo que FPS, en aceleración solo consiguen una diferencia del 8% y 2%.  En Pascal y Maxwell las diferencias no llegan al 1%, lo que evidencia que aun habiendo una diferencia brutal de rendimiento contra Turing (recordemos que no tienen RTs) con menos aceleración consiguen la misma proporción de rendimiento al comparar MRPS/FPS, lo cual es algo curioso y deja entrever que ni Turing es tan rápido como dijo NVIDIA ni Pascal/Maxwell tan malo como lo dejaban entrever.

Fuente > Wccftech

Continúa leyendo
  • hank81

    Esos benchmark no sirven para nada, excepto para vender la máxima cantidad de RTX antes de que el mundo vea cuál es el verdadero coste de tener el RayTracing activado.

    • Javisoft

      Sirven para hacerse una idea del rendimiento de tener o no tener unas unidades dedicadas para RT.

      Otra cosa será si son suficientes para mantener una tasa de frames suficiente para jugar como mínimo a 2K, porque si finalmente el rendimiento cae hasta tal punto de tener que jugar a 1080p para el trazado de rayos … pues como que no XD.

      • hank81

        Es que es una comparación absurda. Tanto da si la diferencia es del 300% o del 3000%.

        • Javisoft

          ¿Absurda por qué? Se muestra en un benchmark la diferencia de tener RT Cores a no tenerlos, se muestra si NVIDIA decía la verdad o simplemente la mejora que se puede experimentar en FPS en un test como este.

          ¿Si no es válido para un juego en concreto ya es absurdo? ¿Mirar el impacto de rendimiento del DLSS en FFXV Benchmark es absurdo?

          ¿Hay algún juego que soporte Ray Tracing con OptiX a día de hoy y que esté habilitado para poder testearlo? ¿Cómo no lo hay es absurdo todo esto?

          Yo creo que no XD.

          • FranCañon

            Exacto.Hay que esperar que los programadores optimicen los juegos para el trazado de rayos de luz.Luego ya veremos….ya verán los que se compren la RTX xD

          • Javisoft

            No se trata de optimizar, se trata de incluir más rayos o menos y donde impactan, eso no es optimizar, en todo caso es limitar.

            En ese caso especular con la caída de rendimiento si que es absurdo, además, eso ya lo decidirán los compradores (si les merece la pena o no).

            Vulkan es posiblemente la API que está con menor soporte para juegos, de momento Microsoft y NVIDIA se llevan la palma, veremos si la API codesarrollada con AMD se lleva muchos títulos, aunque viendo DX12 vs Vulkan se me antoja complicado.

          • Joël Bonet Rodríguez

            Esto es un poco raro puesto que DX12 incorpora Vulkan en si mismo. Son ambos un “fork” de Mantle. El problema es que estamos casi a 2019 y hay desarrolladores que tienen los huevacos de sacar juegos con DX11 todavía. Eso, claro está, contenta a nvidia, donde gana a AMD. En los juegos DX12 con las extensiones Vulkan que no incorpora dx12 propiamente, AMD se lleva el mejor rendimiento precio/fps, y en DX12 “a palo seco”, también.

          • Javisoft

            Siento discrepar, Mantle no forma parte de DX12, solamente comparten filosofía en cuanto a objetivos y resoluciones.

            El problema de las APIs de bajo nivel ya se veía venir, le das control a los desarrolladores y estos o bien no quieren tal control y lo quieren todo mas “automatizado” tipo DX11 o bien no tienen suficiente tiempo para desarrollar y optimizar antes del lanzamiento.

            Sobre la diferencia de rendimiento en DX12 a favor de AMD…

            En las mejores condiciones como son BF1 en DX12 apenas supera a Nvidia. https://uploads.disquscdn.com/images/ec62b777c7c5e939d623b0e8628ff97e2d8d5cfd980d24af126427200157df8d.png

            En juegos más imparciales no la supera.

            Un saludo!

  • Mentasuave

    Nose, estas cosas me parecen feas. Es decir Nvidia quizas no tenga los mayores fps del mercado en cuanto amd saque su proxima generacion.
    Pero para que tantos FPS? prefiero jugar a 30 fps con raytracing y dlss que a 60 con una calidad mas pobre.

    Pero solo es mi punto de vista, supongo que muchos jugadores no lo ven asi, aun asi no me compraria la serie 2000 por la falta de soporte, pero creo que es un paso acertado y atrevido de Nvidia.
    Para gustos los colores, eso si, estan carisimas.

    • Javisoft

      Te recomiendo jugar a 144 Hz en cualquier condición y resolución, te va a cambiar la perspectiva y si es con G-Sync mejor.

      • Mentasuave

        Tengo puestos 144Hz en mi monitor G-sync no (ya era muy caro), pero siendo sincero, yo no noto la diferencia entre 60 y 144. Tambien es verdad que no juego mucho, soy de esos gamer ocasionales que les gusta que los graficos les pegen en la cara pero me imagino que para alguien que juegue de continuo quizas sea un mundo aparte.
        Un saludo Javi

        • Javisoft

          Algo parecido le pasa a mi mujer, es por no tener el ojo entrenado. Yo noto g-sync y los hz incluso en el escritorio moviendo el ratón XD.

          Un saludo!

  • Miguelmemox Guzman Paez

    No tardan en limitar la generación anterior por drivers para que sus nuevas GPUs tengan la diferencia que dicen

    • Jorge Alvarado

      Mira a mi no me agrada nvidia, pero las reviews no confirman ese falso mito de internet de enfermos de internet que inundan dando conceptos muy falsos

    • Javisoft

      Eso no es cierto, sobre todo porque desde Fermi/kepler la unidad mínima de procesamiento (SM) se sigue usando, solo que ha ido evolucionando.

      Capar el rendimiento de una serie implica caparlo en todas, además, hay una gran cantidad de reviews que un par de veces al año prueban baterías de juegos con distintos drivers y se ve perfectamente que el rendimiento siempre aumenta.

      Otra cosa es que ciertas GPUs se queden por arquitectura sin soporte de hardware para ciertos tier de DX y tengan que hacerlo por software etc.. Donde en juegos más nuevos irán quedándose atrás.

      Esto ha pasado y pasará, pero no es tema de drivers desde luego.

      Un saludo!