[Rumor] NVIDIA Pascal las pasa “canutas” en cómputo asíncrono

Escrito por Rodrigo Alonso
Tarjetas Gráficas

Antes de nada vamos a dejar claro (además de que ya lo dice en el título) que lo que manejamos en éste artículo es solo un rumor y como tal lo trataremos. En cualquier caso, según un reporte publicado por Bitsandchips las primeras muestras de GPU de arquitectura NVIDIA Pascal tienen serias dificultades para superar el rendimiento de la anterior generación, Maxwell, en cuanto a cómputo asíncrono.

Se supone que Pascal será un gran salto generacional con respecto a Maxwell, una arquitectura totalmente nueva con nueva litografía, nuevo controlador de memoria y que promete un enorme salto de rendimiento. Sin embargo los primeros reportes preliminares muestran que a pesar de tener un FP64 muy superior a Maxwell, las GPUs NVIDIA Pascal apenas superan por unas décimas los resultados obtenidos con las GPUs NVIDIA Maxwell, por lo que podríamos estar ante una enorme decepción en ciernes. El reporte incluso menciona que NVIDIA espera ganar a Maxwell por números brutos “a pelo”.

Pascal

La computación asíncrona ha sido el punto fuerte de las GPUs AMD Radeon desde que DirectX 12 entró en escena, y los de rojo están liderando todas las clasificaciones de rendimiento en DirectX 12 a día de hoy gracias a que sus GPUs son capaces de manejar varios procesos asíncronos de manera simultánea. Las GPUs de NVIDIA superan a las de AMD bajo DirectX 12 en el caso de que se desactive la computación asíncrona. Según el reporte que hemos mencionado antes esto es así porque NVIDIA ha desactivado ésta característica directamente a nivel de software porque su hardware no es capaz de procesar varias tareas asíncronas de manera concurrente.

En teoría las GPUs NVIDIA Pascal utilizan una técnica llamada “pre-emption” para paliar ésto. Según NVIDIA, la computación asíncrona es ineficiente y han optado por utilizar otro sistema para procesar los frames en los juegos, y éste es el motivo por el que los analistas no son capaces de ver predicción de frames cuando se fuerza a las gráficas NVIDIA a utilizar computación asíncrona.

amd async

Los resultados por el momento le dan la razón a AMD, y demuestran que NVIDIA se equivoca al decir que es ineficiente, aunque habrá que ver qué ocurre cuando tengamos los modelos finales en el mercado y con los drivers optimizados, ya que ésto parece que está sucediendo de ésta manera a nivel de software.

Continúa leyendo
  • Solaire Astora

    El apocalipsis se aproxima para los verdes.

  • Ariel Mansur

    Mientras la que tenga el nivel de potencia de la gtx 970 salga mas barata que esta ultima, compro.

  • Solaire Astora

    Espero que sea solo un rumor…

  • Promocionaron el computo asincrono cuando salio la 980ti y ahora esto?

    • Jesus Adolfo Baltan ramirez

      al parecer el departamento de mercadeo y ventas no estan sincronizado con el departamento de i+d

      • kibocop

        (Rumor) “Nvidia ardera en el infierno”

    • doublemeehhh!!

      ¿? No sé de qué mundo vuelves, pero en la Tierra nvidia NUNCA promocionó los async shaders como característica a destacar y menos con la 980 ti.

      ¿Sabes que esta característica, totalmente opcional, en DX12, la han metido con calzador hace menos de un año, no?

      Lo digo porque por desconocer, desconoces hasta de dónde viene la promoción de esta característica tan absurda (AMD, y en menor medida Microsoft, es lo que tiene llorarle a microsoft para que te haga favores, que igual al final te hace caso pero ya como opcional y después de que se saquen las especificaciones obligatorias de DX12.1).

  • Aix

    Async Compute no es la panacea.
    http://wccftech.com/async-compute-boosted-hitmans-performance-510-amd-cards-devs-super-hard-tune/

    “That definitely shows how, despite an increasing number of developers looking at some kind of Compute implementation for their games, Asynchronous Compute isn’t a magic wand that grants huge performance benefits. There are many other factors to be considered when looking at performance in games and some are definitely more important than Async Compute; moreover, for some types of games it may not necessarily bring noticeable improvements due to the way they’re structured, just like not every game is CPU overhead bound under DirectX 11.”

    • Juan Ulises Barba Andrade

      no es lo mismo un juego que fue desarrollado en su totalidad en directx 11 y luego adaptado al 12, se necesita que el juego este hecho desde 0 en directx12

      • Jesus Adolfo Baltan ramirez

        lo lamento mucho pero dice la verdad, en AOTS la mejora que existe entre DX 12 con Async Compute y sin AC es insignificante solo unos 5% o 7% de mejora con relación con DX 11, con esta API el juego demuestra generar una gran sobre carga sobre las GPU de AMD por lo cual muestra un rendimiento desastroso bajo DX 11 por eso no me lo tome como referencia, lo mismo pasa con Fable: Legens, no se muestra mucha mejora

        Súmele algo AC es difícil de implementar, en el mismo articulo lo dice y lo he comprobado con la documentación de 3DD12 donde AC no esta en forma explicita si no implícita (tienes que decirle como manejar las operaciones de dibujo y computo en bajo nivel (muchas lineas de codigo))

      • doublemeehhh!!

        Eso es una colosal chorrada. Ahora va a ser la disculpa de la temporada cada vez que no haya mojo mágico con DX12 y más con la característica ultrasecreta especial de AMD, metida con calzador y como opcional para DX12 a última hora, los async shaders.

        Para tu información, los motores gráficos punteros NUNCA se desarrollan desde cero realmente, dejemos el resto de partes de un motor de juego al que les importa un higo lo que hace la parte gráfica, sino que son versiones EVOLUCIONADAS desde APIs graficas muy posteriores.

        Es curioso que muy pocos motores realmente nuevos al 100%, escritos realmente desde cero, se puedan comparar al rendimiento de un Cry Engine o un Unreal Engine, a pesar de que estos motores son evolutivos.

        Algunos realmente os creéis las historietas de “con un motor gráfico nuevo (traducido, rehecho)”. Más que nada porque NO CAMBIA el xxx paradigma de programación ni del renderizado 3D de DX11 a DX12. Si hubiera un cambio radical de la filosofía del pipeline gráfica, podría llegar a ser cierto, pero NO LO ES.

    • Async Compute
      Sí lo es, otra cosa es que no sepas nada de la ingenieria a bajo nivel en programación, sin hardware no hay software y esto ha quedado demostrado desde que AMD apostó por GNC 1.0 hace más de 3 años con la serie 7xxx, qué casualidad juegos como STAR WARS BATTLEFRONT que son modernos y será uno de los primeros con DX12 en Xbox One al realizar la actualización, en PC la seria 7xxx destroza a Nvidia. Es algo normal cuando AMD invierte los mismo o más en i+d que ronda los 300 millones, Async Compute es el futuro y Nvidia SE HA COMIDO LOS MOCOS, no pinta nada en las ultimas consolas, todo es hardware AMD, actualmente el mercado internacional le corresponde en torno a un 80% hardware AMD sumando las consolas, los de NVIDIA se estan comiendo los mocos, AMD siempre ha sido lider en tecnologia y soluciones gráficas. No te olvides que AMD hace además de GPUs, tambien CPUs, jajaja me descojono de los principantes que son en Nvidia en todos los aspectos, os comeis cada gráfica que solo os dura 6 meses luego se queda sin soporte y tenéis en hardware un 50% menos potente por hardware, luego pasa lo que pasa, pasan 2 años y la seria 7xxx de AMD pasa como un tanque por encima de Nvidia. Están los que saben elegir y los que no.

      – PD: Cuando instale los nuevos drivers CRIMSON gané aproximadamente un 30% de mejora de FPS en el Star Wars Battlefront, esto me supuso en torno 10 y 25 fps más. Éso es innovar, eso es aprovechar hardware, le época de que los drivers no aprovechaban el hardware ya pasó de moda. Me descojono de Nvidia y cómo sus ussuarios tragan con semejante hardware desfasado, pegatinas del medimark, porque eso es lo que tiene, los sectores profesionales y técnicos no recomendamos Nvidia bajo ningun concepto, dado que solo muestran GTX 8 bit, AMD en toda la gama da 10bit, son más potentes, duran mas.., en fin.

      • cagarriches

        Eso eso, síguele comiendo el ojal a AMD.

      • Jesus Adolfo Baltan ramirez

        sabes cuanto es la mejora de DX12 con Async Compute habilitado y no habilitado

        sabes cual es el problema realmente de AMD’

        • doublemeehhh!!

          Un 15% en el mejor de los casos. Pero tranqui que el ingeniero te dirá que es el 150%.

      • doublemeehhh!!

        Me parece a mí que el que no tiene ni idea de ingenería a bajo nivel en programación eres tú, porque precisamente los que han programado usando los async shaders como el caso de los desarrolladores de Hitman, ya dijeron el enorme esfuerzo que significó usarlos, aumentando enormemente las horas de programación dedicadas, y para un beneficio que no llega ni al 15% y para más inri en el hard de AMD, no para las nvidia.

        Y además los tipos admitiendo que hay que tener mucho cuidado porque es muy fácil que usándolos consigas todo lo contrario, perder rendimiento, fuera de tener que optimizar básicamente por arquitectura (por no decir casi por chip, si hay suficientes cambios arquitectónicos, muchos chips varían ligeramente características arquitectónicas relacionadas entre chips, y más con AMD y su generación actual de revisiones de GCN, con variaciones hasta en el balance de motores ACEs en relación al hard de ejecución en sí).

        Así que mejor que venir diciendo que los demás no saben cierto tema, harías en coger los libros y leer más y hablar menos.

  • Ahora lo pasaran mucho mas canutas
    https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved
    https://community.amd.com/servlet/JiveServlet/showImage/38-1310-104752/pastedImage_5.png

    Virtual reality rendering provides a great use case for the quick response queue. For example, the production release of the Oculus Rift VR headset implements a technique known as Asynchronous Time Warp (ATW) to reduce latency and prevent image judder caused by dropped frames.
     
    In VR, dropped frames can occur when a frame takes too long to render and misses a refresh of the head-mounted display, causing the same image to be displayed repeatedly. The effect is jarring and destroys the sense of presence that is essential to VR. While there are a variety of ways to address this problem (including application tuning, reducing image quality, or upgrading to a more powerful graphics card), Oculus’ ATW solution is designed to be automatic and transparent to users as well as to developers.

    Que sea automatica y transparente es una excelente noticia.

    • Jesus Adolfo Baltan ramirez

      ellos en una conferencia ya dijeron… no lo necesitan aun

  • Handrox

    Lo que queráis, pero Microsoft cuando fue abordar el tema en la SIGGRAPH2015, lo demostro usando una GTX 970. AMD se sale mejor en Hitman y AOS no por culpa del Async Shader, pero porque son juegos echos a medida pa su hardware.

    El que quiera ver la presentacion de Microsoft, aqui dejo el link: http://nextgenapis.realtimerendering.com/presentations/3_Boyd_Direct3D12.pptx

  • Handrox

    El que sea desenvolvedor y quiera jugar un poco con Asynchronous bajo DX11, ese material ayuda bastante, 🙂

    http://humus.name/Articles/Persson_LowlevelShaderOptimization.pdf