HBM2 vs GDDR6: qué tipo de memoria es la mejor para una tarjeta gráfica
En febrero, AMD lanzó su última tarjeta gráfica Radeon VII con el último estándar de alto rendimiento para VRAM llamado HBM2, vista también en su RX Vega 64. Este tipo de memoria ha sido usada por los de Lisa Su en todas su GPU de gama alta desde hace años, en contra de NVIDIA que ha ido saltando de GDDR5 a GDDR6. ¿Es mejor HBM2 o GDDR6 para una tarjeta gráfica?
No todo es rendimiento, una GPU tiene que mantener un balance entre precio/consumo
El rendimiento no lo es todo, no en un sector tan competitivo como el del gaming, donde cada euro es mirado por los usuarios para realizar la mejor compra en cuanto al balance de precio/rendimiento. En este caso y tomando la media de usuarios, el consumo es algo secundario en la mayoría de casos, no siendo así desde el punto de vista de ingenieros y fabricantes.
Un menor consumo es beneficioso para la industria, ya que exime a los ensambladores de modelos muy avanzados en cuanto a refrigeración/disipador, lo cual se traduce en un menor precio final por norma general. Esto solo se cumplirá si la GPU en sí misma mantiene también un consumo reducido para la potencia generada, por lo que siempre se barajan ambas opciones de cara al uso de una u otra para ciertos modelos de tarjetas gráficas.
Para entender de mejor forma todo esto, es necesario hablar en concreto de ambos tipos de memoria, para así comprender el porqué de todo el entramado que generan estos dos tipos de VRAM, al menos hacerlo de forma breve.
Memoria HBM2
La memoria HBM2 parte de su antecesora, la memoria gráfica HBM, también conocida como High Bandwidth Memory, la cual es la segunda generación que llega al mercado siendo producida en exclusiva por Hynix y Samsung bajo una estrecha colaboración. Dicho entendimiento está dando nuevos frutos, ya que HBM3 llegará en poco tiempo al mercado de gama alta para tarjetas gaming y centros de datos o inteligencia artificial (supuestamente 2020).
La principal novedad que implementó HBM frente a la GDDR actual es su estructura de capas apiladas en 3D, donde en un primer momento se consiguieron hasta 4 matrices por pila. La idea es sencilla: en vez de colocar en el PCB varios módulos físicos con múltiples conexiones por el mismo, se apilan de forma vertical varias capas de memoria, ahorrando espacio en el PCB y costo en los chips.
Como se ve en la imagen superior, la reducción del espacio necesario es muy grande, pero este sistema tiene varias desventajas muy claras que tienen consecuencias directas para competir contra GDDR6.
El principal factor es su complejidad a la hora de ser implementada. Las distintas capas, también llamadas HBM DRAM Die, tienen que estar interconectadas verticalmente por lo que se conoce como TSV (Through-Silicon-Vias) y Microbumps. Para no extendernos demasiado y que se comprenda, las TSV son interconexiones de alto rendimiento entre circuitos verticales integrados 3D (en este caso en concreto) donde sustituyen el cableado típico en el PCB, mientras que las Microbumps son pequeñas soldaduras que proporcionan contacto entre las TSV.
Un diseño mucho más complejo, pero con más rendimiento
Cada pila se conecta con la inferior en base a más de 5000 TSV hasta llegar al controlador lógico, también conocido como HBM controller (controlador de memoria) o PHY (depende del diseño), el cual vuelve a necesitar microbumps para interconectarse con un nuevo concepto: el Interposer. Este es creado para interconectar las pilas de HBM a la GPU o SOC, y al mismo tiempo se ancla al PCB para realizar las interconexiones del resto de componentes con los anteriores protagonistas. Esto lógicamente permite un diseño más compacto, pero además elimina el cuello de botella en el ancho de banda entre la VRAM de la GPU y la propia tarjeta gráfica.
HBM2, siendo la segunda generación de este tipo de memoria, trajo al mercado dos ventajas claras frente a HBM: mayor capacidad por pila y mayor ancho de banda total/mayor velocidad. En concreto, hablamos de 8 matrices DRAM por pila y velocidades de hasta 2 Gbps, duplicando así las tasas de transferencia por pin y logrando un ancho de banda por paquete de 256 GB/s, todo con un voltaje de solo 1.2 voltios por pila.
Memoria GDDR6
La memoria GDDR6 es una clara progresión de lo que vimos en GDDR5 y GDDR5X, donde añade unas características más que interesantes, algunas con un concepto similar a HBM y HBM2. El principal escollo de GDDR5 y GDDR5X era su canal único de 32 bits, el cual en GDDR5X se dividió en dos pseudo canales de 16 bits que compartían realmente el mismo bus de direcciones y comandos.
La GDDR6 supone un paso adelante, ya que cada chip se comporta como dos módulos independientes, ya que ahora cada bus de datos de 16 bits tiene su propio bus de dirección /comando. Esto permite que a mayor número de canales tenga la GPU el controlador es capaz de trabajar y administrar más posibilidades e información con la DRAM.
Desde el apartado eléctrico, comparte voltaje con la GDDR5X, es decir, 1.35 voltios y además formato de memoria (BGA). Además de esta compatibilidad, añade dos mejoras más: mayor capacidad por chip y mayor velocidad, algo que curiosamente depende del modelo en concreto usado, ya que Micron y Samsung ofrecerán sus versiones conforme estén acabadas.
Actualmente, Micron tiene 7 versiones distintas de módulos GDDR6, donde solo tres son de alto rendimiento y en unas densidades máximas de 8 GB en configuraciones de 256 MB X 32. Las velocidades ofrecidas actualmente son 12 Gbps, 13 Gbps y 14 Gbps, donde los primeros módulos de 16 Gbps ya están citados en los White paper.
Entonces ¿cuál es mejor para una tarjeta gráfica?
Eso depende del diseño del chip en concreto y del concepto general que va tras él, es decir, cada una tiene unas virtudes y unos defectos, no hay exactamente un ganador claro. No importa si miramos al lado de AMD o al lado de NVIDIA, esto es indistinto.
Cada uno desarrolla sus GPUs en base a una arquitectura pensada para ser usada con ambas tecnologías, solo hay que mirar NVIDIA con sus tarjetas Volta y Turing o a AMD con Vega y próximamente Navi. Lo que intentamos decir es que el tipo de memoria usado no es excluyente para una determinada arquitectura, simplemente necesita un diseño de un chip o chips en concreto para ser usada.
Desde el punto de vista del rendimiento, está claro que HBM2 lleva una clara ventaja a GDDR6, ya que consigue mayor ancho de banda, mayor bus y un mayor número de canales internos paralelizables, además de un menor consumo de energía y menor espacio físico final.
En contra, las ventajas de GDDR6, ya que esta última es más barata en general a misma capacidad. No hay cifras exactas, solamente valoraciones de los analistas que investigan sobre los precios en el mercado y sobre los contratos de ambas compañías con terceros. Así, se estima que en HBM2 solamente el interposer cueste alrededor de 20/25 dólares, mientras que la pila de 8 GB rondaría los 150 dólares, es decir, de los 699 dólares de la Radeon VII, 325 dólares serían simplemente el interposer y la HBM2.
Los precios de la GDDR6 se estipulan mucho menores
Es decir, una NVIDIA RTX 2080 Ti con sus 11 GB de GDDR6 gastaría de esos 1199 euros MSRP sobre unos 128,59 dólares en su VRAM, bastante menos de la mitad de lo que le cuesta a AMD la HBM2. Entonces ¿por qué usa AMD HBM2 en vez de GDDR6 en la Radeon VII? Principalmente por temas de consumo: su HBM2 se estipula que ronda un consumo entre 20 y 25 vatios, mientras que en GDDR6 no solo sería imposible a día de hoy conseguir 16 GB a 14 Gbps, sino que en el caso de usar 12 GB como la TITAN RTX el consumo se dispararía alrededor de los 75 vatios, es decir, 50 vatios más de esos 300 vatios que ya porta su tarjeta.
Esto por supuesto en un bus de 384 bits, mucho menor que los 4096 bits que incluye. NVIDIA puede permitirse GDDR6 porque su arquitectura es mucho más eficiente, incluso en un nodo menor como es 12 nm vs 7 nm de AMD/TSMC. Con ello rebaja costes permitiendo un poco más de consumo (sin dispararlo) y con un buen ancho de banda.
Esto también se aplicará a la nueva arquitectura Navi, donde AMD será más competitiva en precio para la gama media gracias a su inclusión (GDDR6), por lo que el consumo de sus chips debe haberse mejorado gracias a la optimización de la arquitectura. Además, GDDR6 se acercará bastante a HBM2 en ancho de banda total con menor bus cuando lancen los módulos de 16 Gbps, por no olvidar de la compatibilidad que ofrecen con módulos anteriores de GDDR5 y GDDR5X.
Lo que intentamos decir es que, de cara a un usuario común, GDDR6 es mucho más sensata que HBM2 por simples costes, donde además, los chips no tienen la potencia suficiente para trabajar con los anchos de banda y bus disponibles por este tipo de memoria, son recursos desperdiciados en gaming. En centros de datos e IA, HBM2 tiene mucho más sentido al ser totalmente paralelizable debido a sus canales y en ese sector marca la diferencia y el precio es asumible para las grandes empresas.
Por desgracia, no veremos GDDR6 en GPUs AMD de gama alta hasta que no solventen los problemas de consumo generados por una arquitectura menos eficiente que la de su rival, y por lo tanto los precios de dichas GPUs de los de Lisa Su siempre serán elevados, cuando realmente podrían ser mucho más competitivos.