AMD planea un gran cambio en la arquitectura de sus GPU

Escrito por Manuel Santos

Una patente de AMD indica que la compañía puede estar trabajando en una renovación de su CU, la primera desde el diseño del GCN de sus tarjetas gráficas. Lo más curioso de todo es que esta patente fue registrada en noviembre de 2016 pero no se ha conocido hasta ahora que la compañía la ha renovado. Este podría suponer uno de los mayores cambios en la arquitectura de GPU de AMD que vendría después de la arquitectura Navi.

El cambio más importante en las CU de las GPU de AMD desde GCN

AMD no busca solo reducir el tamaño de los transistores de sus chips, también cuenta con diferentes equipos que trabajan activamente en el desarrollo de mejores herramientas hardware para nuestros procesadores y tarjetas gráficas. Sin duda, sería un gran avance que la compañía añadiese esta funcionalidad a las GPU que saldrán en agosto -aunque no es 100% probable-.

En la patente se desarrolla una estructura computacional de instrucciones simples y múltiples datos (SIMD, single instruction, multiple data) y un método para ejecutar instrucciones en este Super-SIMD.

Con esta estructura las gráficas serán capaces de ejecutar más de una instrucción en un o varios hilos y añade una gran variedad de vectores de registros de propósito general (VGPR), una ALU, una ALU conectada a los VGPR, una caché de destino (Do$) conectada a la primera ALU, una segunda ALU y una salida recibe la salida de la primera y de la segunda ALU. En esta patente también se desarrollan una unidad computacional (CU) y una pequeña CU que incluye una gran cantidad de super-SIMD.

Con esto AMD pretende evitar que las ALU (las encargadas de hacer las matemáticas de los chips) se queden en estado ocioso cuando las gráficas hacen una operación de lectura o escritura, ya que ahora en una misma instrucción combinan dos operaciones.

Este modo de funcionamiento de las CU es muy similar al que tiene NVIDIA desde sus arquitecturas Fermi y Maxwell, por lo que presenta un panorama interesante en el que ambas compañías empiecen a competir de forma más directa.

Al ser un cambio tan sustancial en la arquitectura, puede que finalmente no llegue a Navi, si no que se retrase para el próximo anuncio de la compañía en su hoja de ruta. Es algo bastante lógico que no llegue en Navi ya que AMD no ha anunciado -aun- importantes cambios ni mejoras en las nuevas gráficas.

Un punto importante es que, aunque las empresas registren patentes ello no implica que vayan a utilizarlas en un futuro próximo.

Vía > Free Patents Online

Continúa leyendo
  • Jorge Pascual

    Dos operaciones por instrucción… de alguna forma recuerda a las arquitecturas VLIW que usaron y descartaron en generaciones anteriores de Radeon, aunque seguramente sea otro enfoque diferente.

    • Adrián Ramón Plá

      Da la sensación que AMD quiere una arquitectura potente y al mismo tiempo muy eficiente tanto para gaming como para cómputo que era el talón de aquiles de la antigua arquitectura Terascale (VLIW) muy dependiente del scheduling por software( drivers)… es una muy buena noticia esta patente, la estudiaré a fondo cuando llegue del trabajo…

      • Jorge Pascual

        Por favor, no dejes de compartir lo que descubras… a mi estas cosas me interesan también mucho, pero no dejo de ser un “profano” en la materia, jejeje. Un saludo.

        • Jorge Antonio Piris Da Motta

          x2

  • FaniosGnosis

    “No sé Rick, parece IA”.

    Ahora en serio, buena falta le hacía a AMD cambiar por fin GCN. Pero esos cambios que listas parecen poca cosa para un cambio completo de arquitectura y parecen más enfocados al propósito general y la IA que a gaming. SIMD lleva con nosotros más de 15 años que recuerde en productos de consumo y decidir implementarla ahora es como “vale” pero se necesita algo más ¿no? Creo Cellbe Engine (chip de la play3) hacía uso masivo de este tipo de instrucciones…y ya sabemos lo que le costó arrancar las ventas y a los desarrolladores hacer juegos potentes aprovechando sus recursos. Prácticamente cuando lo consiguieron, se acababa la generación y tuvieron que alargarla un par de años más con los mandos motion esos que sacaron.

    Por tanto, será dependiente de que los programadores y motores gráficos hagan uso eficiente de esos recursos. Si Nvidia ya lo ha implementado, al menos asumo que se están usando y AMD se beneficiaría desde el primer día (siempre que se actualicen los juegos y los nuevos desarrollos para incorporarlos). Ya sabemos que novedades que obligue a implicarse a un desarrollador para un nicho del mercado gráfico que no supone ni el 30%…va a ser que no.

    En serio, tanto en CPU como GPU y muy especialmente en GPU se nota una barbaridad y durante mucho tiempo que AMD es muuuuuuuucho más pequeña que su competencia directa. Tiene que estar el mercado estancado o salir con una genialidad que cambie la concepción de arquitecturas para que se ponga por delante de su rival. Pero todo eso para que le dure 1 año que es cuando el músculo financiero de sus rivales hace que peguen un sprint. Si el sprint lo mete la competencia, AMD se queda 10 años a la sombra fácil. Esto se ve muy claramente en los lanzamientos de productos (CPU o GPU). AMD puede tardar fácil 1 año en sacar a todos los segmentos del mercado una misma arquitectura (desktop, HPC, servidores, portatiles y APUs…) mientras que la competencia si quiere lo hace en 4 meses….y con unidades en todas las tiendas desde el día 0. Ya sabemos (otra vez) que AMD pone a la venta un chip y si acaso lo puedes comprar al mes siguiente.

    En fin, hay que quererla por hacer lo que puede con lo que tiene. Sin AMD nos comeriamos unos buenos y jugosos mojones a precio de oro tanto en GPU como en CPU, pero no sé, casi siempre pienso que se queda corta. Ryzen es una excepción. Pero en gráficas…a partir de GCN 1.3 ya deberían haber pensado en desarrollar la siguiente arquitectura. Y que la renovación de microarquitecturas no sea siempre un refrito de la anterior generación excepto para la gama alta. En eso nvidia gana siempre.

    Menudo tochanco ha salido al final.

    • Pepitopalotes

      Se necesitan mas comentarios Como los tuyos 🙂

    • SIMD se usa desde GCN. Lo que esto seria un tipo de SMT para GPU’s. Por otro lado AMD ha cambiado mucho internamente, si siguen el camino actual es de esperar que sean capaces de ser mucho mas competentes, aunque lo tienen mucho mas fácil con Intel que con Nvidia.

    • javron

      una pregunta el cpu del ps3 el cell era el que tenia 7 nucleos, pero segun cheque la gpu decia ser RSX de Nvidia, no estoy seguro si lo que dices lo hacia la grafica de la ps3.

      • FaniosGnosis

        Sin buscar nada y de memoria, el rsx era el chip gráfico de nvidia para la ps3. Y el cell disponía de 8 spes (núcleos SIMD) y un ppe de propósito general (IBM). Si se programa con los spes y se hacía uso de la carga y almacenamiento de datos de forma asíncrona como se había diseñado era una bestia parda. El problema es que no era fácil, la sincronización de hilos eran un dolor y para algunas tareas sí pero para otras no. La ps3 creo que tenía 6 núcleos spes activos, sólo por cierto. Se quedaban con los chips más deficientes y casi siempre había alguno que no tiraba, así que por defecto se deshabilitaban 2 (al menos quie recuerde, pero 1 seguro que sí estab fuera de juego).

        • javron

          oh gracias, muy interesante si recuerdo haber leido algo asi mas simplificado cuando lanzaron uncharted

  • Hugo Bravo

    hiperthreading o SMT a nivel gpu , interesante

  • alxSoft

    Con el rendimiento que han alcanzado, tanto nVidia como AMD, me parece que debería ahora primar, es el consumo y TDP tan elevado, evidentemente sin perder la pista al rendimiento y las arquitecturas modulares que además podrían reducir costos!.