AMD Polaris y Vega: así serán sus unidades de cómputo (CUs)

Escrito por Rodrigo Alonso
Tarjetas Gráficas

A través de algunas filtraciones de benchmarks en Compubench, ya se conoce algo más de información sobre las próximas arquitecturas de GPU Polaris y Vega de AMD, especialmente en lo relativo a sus unidades de cómputo (CUs) y el número de stream processors con los que contarán. En éste artículo os lo contamos todo sobre la información filtrada y sacamos nuestras propias conclusiones al respecto.

Vamos por partes, y empezamos por los números. VideoCardZ asegura que tras analizar los datos filtrados en Compubench, han determinado que las GPUs AMD Polaris 11 partirán de tan solo 16 CUs. Con esta información y partiendo de la base que los CUs de la arquitectura Graphics Core Next cuentan cada uno con 64 stream processors (así ha sido en las tres últimas generaciones), podemos sacar las siguientes conclusiones:

  • Las GPUs AMD Polaris 11 “Baffin” podrían tener unos 1.024 stream processors en 16 CUs.
  • Polaris 10 “Ellesmere” por su parte tendría 2.304 stream processors en 36 CUs.
  • Vega 10 contará finalmente con 4.096 stream processors, ya que tendrá 64 CUs.

El chip Baffin (Polaris 11) será el relevo generacional del actual chip Curacao, y será el que potenciará la gama media de gráficas de AMD. Se espera que utilice todavía memoria GDDR5 con un bus de 128 bits. Por su parte, el chip Ellesmere (Polaris 10) será el que sucederá al actual Tonga y conformará el segmento de gama media-alta de AMD. Ya contará con gráficas de hasta 8 GB de memoria GDDR5X con un bus de 256 bits.

Finalmente, las GPUs Vega 10 serían las teóricas sucesoras de Fiji, y estarían lógicamente orientadas al segmento de la gama alta. Contarán por fin con memoria gráfica HBM2 y se verán con capacidades de 16 GB fácilmente. Según AMD, éstas gráficas no llegarán hasta principios del año que viene, y prometen un incremento de la eficiencia (rendimiento por vatio) de 2.5X veces el de la arquitectura GCN 1.2 (chips Tonga y Fiji entre otros).

AMD Polaris edit

Con estos datos en la mano podemos sacar una conclusión clara: AMD buscará éste incremento de eficiencia para meter un menor número de cores en sus próximas GPUs, lo que les permitirá mantener o mejorar el rendimiento con chips más pequeños y que se calienten menos.

De ser así, pienso sinceramente que AMD no se va a llevar el gato al agua. Los usuarios no necesitamos eficiencia ahora mismo, sino rendimiento. Necesitamos productos capaces de mover juegos a tope a 4K y 60 FPS. AMD, si nos puedes proporcionar esto, ¿por qué sigues empeñada en mejorar la eficiencia cuando lo que hace falta es rendimiento bruto? Pienso, personalmente, que quien quiere jugar a tope a 4K y 60 FPS no se va a preocupar por la eficiencia de la gráfica. Es como decir que quien se compra un Ferrari se va a preocupar por el consumo de combustible, ¿no creéis?

Continúa leyendo
  • pablo

    bueno siempre se le critica la pura fuerza bruta y alto consumoy ahora q buscan rendimiento/vatio lo critican por no ir por la fuerza bruta. son increibles|.

    • Jorge Antonio Piris Da Motta

      lo mismo pense

  • Bluatsauger Dmp

    Totalmente de acuerdo con usted,quiero potencia bruta a 8k a 60fps,un saludo.

  • Julio Alberto Hernandez

    A si mismo pablo pero que se le puede hacer parece que nunca estaran conformes.. Para mi AMD esta haciendo un buen trabajo hay que esperar a ver las notas finales ya que esto son supuestas filtraciones y rumores.

  • JhooshSGW

    No estoy totalmente de acuerdo con la opinion. AMD siempre se fue por potencia bruta y es lo que mas le criticaron. Si creo que alguien que se compra una tope de gama tiene dinero suficiente para tener una fuente decente por lo que en ese caso la potencia bruta siempre se agradece y algo que me gusta de AMD es que siempre ha ofrecido muchas tarjetas graficas en una generacion asi que lo mas probable es que lanzaran productos para todos los gustos, tanto tarjetas graficas muy eficientes como tarjetas con mucha potencia

    • Jorge Antonio Piris Da Motta

      Exacto.

  • Juan Gabriel Torrico Padilla

    “Quien quiere jugar a tope a 4K y 60 FPS no se va a preocupar por la eficiencia de la gráfica.” Es como decir que quien se compra un Galaxy S8 se va a preocupar por la duración de la batería. Para mí mas importante es la eficiencia que el rendimiento, odio las series samsung galaxy porque le ponen una batería que no dura ni 1 hora a pleno rendimiento. Lo único que me importara seria que una tarjeta gráfica pueda abrir los juegos pesados aunque la imagen salga un poco borrosa o a cuadrillos en calidad muy baja, es suficiente para mi, pero los que buscan “algo mas” ya es por lujuria.

  • Ariel Mansur

    Necesitas eficiencia si o si.. y a la par ir aumentando la potencia.. pero no podes tener gráficas de 300 watts solo para mover 4k.. es un despropósito.

  • noimporta

    ” conclusión clara: AMD buscará éste incremento de eficiencia para meter un menor número de cores en sus próximas GPUs”. Creo que se refiere a en realidad, meter un MAYOR número de cores. Si no me equivoco.

    • No, es exactamente como lo explico. Menos cores = más barato de fabricar. Y si tienen la misma eficacia pueden permitírselo.

      • Matías Rodríguez

        Hola Rodrigo, leyendo la fuente da a entender que en el caso de polaris 10 y 11 no es el máximo de CU (16+ y 36+), en el único caso que lo asevera es en el de vega 10 (64). Por ejemplo dice textualmente “it does not mean that full Polaris 11 silicon has 16 CUs”. Yo apostaría a como vienen siendo los chips de AMD, que van a ser de 20, 44 y 64 CU en las versiones “X”. Igual no olviden que solo estamos hablando de rumores. En cualquier caso si nos guiamos por rumores parece que NVIDIA va a estar utilizando una cantidad muy similar de SP en sus chips.

        Saludos

  • fulanodetal

    Creo que no pueden meter mas potencia porque el TDP llegaria a 400 watt, por eso lo mas inteligente primero es reducir el consumo

  • Theodorán Nadaud

    No estoy de acuerdo. La eficiencia es necesaria, por muchos motivos. Desde que si pierdes esa baza la competencia la aprovecha en forma de marketing (como ha hecho Nvidia), por componentes (puede requerir cambiar fuentes de alimentación, incluir más ventiladores en el chasis, disipadores para la GPU más sofisticados; vamos, en general, sobrecoste para el usuario), por claros motivos ecológicos, etc. Aumentar el consumo en la nueva generación de un componente es una involución aberrante.

  • DOS87

    Primero empezaron con los conectores extras de alimentación para que pudieran recibir más energía, ahora algunos modelos ya empiezan a llevar refrigeración líquida… eso para ti será normal pero para los que llevamos años en el hardware, a muchos nos empieza aparecer una aunténtica burrada porque tenemos la sensación de que las GPUs van al revés de todo lo relacionado a la tecnología; Cada vez más grande y consumiendo más.
    Hay que buscar el equilibrio y de momento el tema de la eficiencia energética es una asignatura que tienen “muy retrasada”, así que mientras ellos se dedican a solucionar eso las desarrolladoras de videojuegos que se dediquen a pulir sus juegos, porque de nada te sirve potencia con toda la mierda de ports y juegos sin acabar que llevamos viendo estos últimos años.
    Hasta los Ferraris cada vez consumen menos respectos a sus antecesores, conque la reflexión ha sido bastante simplona y ambigua.

    • Conoces la Radeon R9 Nano, ¿verdad? O.o

      • DOS87

        Y que sus memorias no pueden pasar de 500Mhz también lo conozco. tampoco se salva mucho aún teniendo encuenta su TDP ( no el consumo, que es igual que las otras) y llevar solo un conector.
        La GTX 950 sí que tiene poco consumo y no necesita conector de pin, eso si que es un cambio.
        Te parece normal, 600, 700 ,800€ incluso ¿1000€? de tarjetas y por no calentarse la cabeza le meten refrigeradores de mierda con triple ventilador o incluso líquida y la gente encima no solo lo aplaudís, sino que pedís que sigan así y vayan a más cuando por esos precios deberían de haber buscado alternativas hace años para conseguir que no tengamos que usar 5 ventiladores en chasis y fuentes de alimentación más potentes y caras.
        Es como con los Drivers y Nvidia, encima aún viendo como están jodiendo viejas series ves a la gente saliendo a defender a la marca, como si les debieran la vida cuando no están tomando por imbéciles, imbéciles en el momento que pasamos por caja y pagamos esos precios monopolizados por 2 compañías. Yo creo que cuando AMD y NVIDIA saquen un pack de 200 latigazos para dejarte el seño de las compañías en la espalda muchos pagaréis por ello.
        Esto es una cosa que ya tendríais que estar recalcando todos los medios, pero es más fácil copiar y pegar noticias con “google traslate” y estirar la mano para que cobréis los anuncios, porque por culpa de reflxiones bananeras como la de esta página estamos ayudando a crear una visión que solo ayuda a enriquecer a dos compañías que ya de por si tienen el monopolio y pretenden que nos dejemos la nómina todos los años por cada producto nuevo que sacan, que son como migajas de pan porque Polaris y Pascal lo único que cambiarán es el nodo de fabricación ya que han dicho que en termino de rendimiento no nos esperemos mucho.¿ en serio? ¿nos lo dicen a la cara y se quedan tan tranquilos?

    • David STUDIOS

      Es verdad: no solo hace falta mejorar la eficiencia del harware, sinó que el software también se tiene que pulir mucho: hoy en dia hacen juegos y softwares como churros. Todos estan programados con lenguajes de programación de alto niven (así los cradores se ahorran tiempo y trabajo), pero eso hace que el ordenador, para calcular una operación simple tenga que hacer muchas de complejas por lo que es una pérdida estúpida de rendimiento.

      • DOS87

        Ahora con DX12 y Vulkan que es de bajo nivel ban a tener más dificulatades ( sobre todo ahora al principio) Eso sumado conque los editores achuchan a los desarroladores a acabar los productos antes de tiempo, yo desde luego no espero nada bueno almenos durante los 2 próximo años, y espero equivocarme y que todo cambie.
        Mira la última maravilla de Microsoft, Quantum Break, ese juego debería haber salido pasado el verano y que les hubieran dado tiempo a pulirlo, pero las prisas, las largas noches y las amenazas con falsos avisos de lanzamientos previstos están haciendo que un trabajo que debería de ser un sueño para los amantes de la programación sea más duro que la de une encofrador de obras y ujna pesadilla, y esto no me lo estoy inventando, son ya bastantes que han denunciado el caso y pocos medios se están haciendo eco.
        Mira GTAV, todo lo que se retraso para optimizarlo y la gente no paró de criticar esos retrasos, pero el resultado final habla por si mismo.

  • fulanodetal

    Una cosa que no comprendo es eso de “compute cores” , acaso estas nuevas GPU seran capaces de ejecutar operaciones tipicas de CPU?

  • Mrcool

    Estimado rodrigo.

    Es cierto lo que dices al final de tu articulo, no veia opiniones buenas y parciales desde mis inicios en CHW pero. AMD siempre tuvo la mejor fuerza bruta del mercado para calculos GPGPU y fue criticado en un pasado, hoy trata de conseguir rendimiento por watt y sigue sigue siendo “chuleado”, esta bien que el mercado ahora mismo exige escalar en rendimiento a toda costa pero “venga tio” que no nos cae mal un poco de mejora en el apartado del consumo.

    En mi mas sana opinion creo que esta nueva arquitectura esta siendo muy bien desarrollada en todos los aspectos y creo que dara un revolución al mundo del gaming

    Salud2 desde colombia!

    • Estoy de acuerdo contigo, sobre todo porque has entendido bien lo que he querido expresar con éste artículo: “el mercado ahora mismo exige escalar en rendimiento a toda costa”.

      No es criticar porque AMD siempre ha ofrecido fuerza bruta y ahora busca la eficiencia, es criticar que han escogido un MAL MOMENTO para buscar eficiencia cuando lo que hace falta es fuerza bruta.

      • Séneca Augusto

        Yo creo que equivocas la interpretación de los datos, y te lo escribo sin ánimo de ofender.

        Partiendo desde la base de que soy profesional del sector y me da igual Nvidia que AMD (pues cuando me compran cualquiera de ellas ya gano dinero), he de decir que yo percibo otra interpretación opuesta a tus datos.

        Los fuertes de Nvidia siempre han sido tecnologías propietarias de las que obtienen máximo desempeño, litografías pequeñas que favorecían el rendimiento/Watio y una actualización de sus chipsets (Drivers) mucho más pulida y adaptativa que la competencia.

        AMD; al estar más limitada en I+D (la canadiense ATI, actualmente AMD, es 50 veces más pequeña que el gigante Nvidia), basaba su fortaleza en una arquitectura EXCEPCIONAL (GCN) que ha competido con Fermi, Maxwell y Haswell muy decentemente durante mucho tiempo a base de refritos. Los citados refritos los obtenían con “truquillos” chapuceros. Léase aumento del tamaño y densidad del PCB para obtener más margen de temperatura, aumento de los disipadores activos (RL) para lo mismo, ect… en realidad, lo único novedoso en los últimos años de AMD fue Tonga pues hasta Fiji no es más que una evolución de un Dual Bonaire (HD 7790). La única innovación que ha venido en los últimos años de AMD ha sido la RAM HBM, que no es poco (golpe brutal al problema de las latencias. En realidad, el HBM casi que tiene su origen con la “APU” de la Play Station 4, cuya GPU prescinde de controlador de RAM y conecta directamente con los módulos de RAM GDDR5)… en todo lo demás iba por debajo de Nvidia como comprobamos en el pasado más reciente con las mediciones de ambas marcas bajo DirectX 11.

        El caso es que esa excelsa arquitectura que es GCN, ha vuelto a sorprender al gigante verde bajo el nuevo estandar de API como es DirectX 12, que está basada en Mantle y HSA. Además, la potenciación de la computación asincrona de W10 (basada en HSA), favorece más a OpenGL que a CUDA en cuestión de renderizado. Es sorprendente ver como en todas las sintéticas y comparativas de nuevos juegos bajo DirectX 12 una antigua y humilde R9 280X compite de tú a tú con la poderosa GTX 970. Por ello la primera en mover ficha, forzada, va a ser Nvidia con su Pascal este mismo verano, dando la ventaja a AMD de conocer sobradamente a lo que se enfrenta.

        Si esos datos son ciertos, los que tú has posteado, que lo serán… AMD se estaría guardando armas contundentes para futuros refritos para igualarse o adelantar a la competencia pues ahora tendrán el arma de implementar más núcleos Stream, canales, aumento de bus, ect… con tan buena eficiencia.

        habría mucho de lo que hablar pues da para 10 libros el asunto… pero a mí me parece más un punto a favor de AMD su nueva eficiencia pues, si lo piensas bien, la gran ventaja de Nvidia estos años atrás fue esa precisamente, una mayor eficiencia para trabajar gracias a sus más pequeñas litografías respecto a AMD/ATI.

  • Jorge Antonio Piris Da Motta

    o.O y ahora que buscan mejorar lo que le criticaban lo critican y piden potencia bruta q es por lo que se caracterizo siempre?

  • Felipe

    Lo ideal son las 2 cosas eficiencia y potencia, si logra las 2 bien por AMD.

  • Fran Baña

    Pues yo creo que AMD-Radeon van por el camino correcto.Lo que pasa que igual van unos meses(o 1 año) retrasados con respecto a la tecnología de monitores, pero estoy seguro que es cosa de la eficiencia, la cual considero indispensable a fecha de hoy. Lo de la potencia bruta, eso es la parte fácil, para AMD eso nunca ha sido un problema.Y aunque las gráficas y monitores estuviesen a la par en tecnologia, aun tendríamos que sufrir a las empresa de software, que quieren sacar productos al mercado aun sin estar acabados,sin testear,muchas veces incluso rotos y sin garantia de devolucion . ¡Vender ,vender, vender¡

  • Sterling Archer

    Siguen sin hablar de HDMI 2.0

  • JoseIg Prism

    Por lo menos se calentarán menos.