Desde SDRAM hasta GDDR: así han evolucionado las VRAM en las tarjetas gráficas

Desde SDRAM hasta GDDR: así han evolucionado las VRAM en las tarjetas gráficas

Juan Diego de Usera

Todas las tarjetas gráficas necesitan algún tipo de memoria RAM. Este es un hecho incontestable. En dicha memoria se almacenan los datos de operaciones y de texturas, necesarios para el desarrollo de su función con normalidad. Sin embargo, a lo largo de los años se han usado muy diferentes tipos de memoria VRAM en esta función. Desde la antigua SDRAM, hasta la más moderna GDDR. Sin olvidarnos de la HBM que usan algunas tarjetas gráficas de gama alta. Veamos cuáles han sido los diferentes tipos de memoria empleados.

Si tienes un PC con tarjeta gráfica dedicada seguramente sepas cuánta memoria dedicada tiene y de qué tipo es (por ejemplo, 6 GB GDDR6), así que la VRAM no será un concepto que te suene a chino. En este artículo vamos a hablarte no de qué es esta memoria ni qué características tiene, sino que vamos a contarte un poco de su historia, que siempre es interesante saber un poco más.

VRAM son las siglas de Video Random Access Memory, y es como se denomina a la memoria RAM que es usada por las tarjetas gráficas. Ya sea en tarjetas gráficas integradas o gráficas dedicadas. Cualquiera de los dos tipos, necesitan memoria VRAM para funcionar. De hecho, las primeras tarjetas de vídeo de los ordenadores, en el año 1981, no necesitaban memoria de ninguna clase. Dado que su salida de vídeo era monocromática.

memoria VRAM en una gráfica

No sería hasta el año 1983 en el que IBM lanzaría la primera tarjeta gráfica como tal. Con 16 kB de memoria de vídeo. Este tipo de memoria había sido específicamente desarrollada para funcionar con este modelo de gráfica.

A lo largo de los años se han desarrollado memorias VRAM específicas para ser usadas con las tarjetas gráficas (VRAM, WRAM, SGRAM). Pero, el hecho de tener un diseño tan similar a la memoria RAM que usan los procesadores de nuestros equipos, ha hecho que también este tipo de memoria se haya usado como memoria de vídeo.

Historia de la memoria VRAM

El primer tipo de memoria VRAM que se usó con las tarjetas gráficas (salvo aquellas que usaron memorias propietarias) fue la SDRAM. Este tipo de memoria era relativamente barata en el mercado. Por lo que podía ser usada en las tarjetas gráficas, por parte de los fabricantes. Esta sería la memoria más usada hasta el año 2003, en el que se producen los primeros chips de memoria DDR. El salto en rendimiento que supuso el uso de esta nueva RAM, propició que los desarrolladores de tarjetas gráficas del momento, pasaran a usarla de manera inmediata.

La RAM DDR sería la más usada en las gráficas, hasta que la memoria DDR SGRAM, desarrollada por Samsung, alcanzó su versión GDDR3. Esta versión, del año 2003, (y desarrollada por ATI Technologies) fue la que hizo a los fabricantes de tarjetas gráficas, comenzara implementarla en masa en sus diseños.

A la memoria GDDR3, le seguirían la GDDR4 (2005), GDDR5 (2008), GDDR5X (2016) y GDDR6 (2018). Sin embargo, durante este tiempo, algunos desarrolladores también han usado módulos normales de memoria RAM DDR3 y DDR4 como VRAM en tarjetas gráficas de gama muy baja. Principalmente porque sus chips son más baratos de producir.

Mención aparte merece la memoria HBM. Este tipo de memoria de vídeo solo se usa en modelos de gama muy alta (de AMD Radeon). O en modelos para centros de datos (NVIDIA). Este tipo de memoria VRAM se basa en el apilado de chips de memoria gráfica (algo similar a lo que ya se hace con los chips de la memoria NAND Flash). Por diseño, esta memoria ha de estar siempre situada muy cerca de la GPU de la tarjeta gráfica. Porque, para conseguir el elevado ancho de banda de la que es capaz esta memoria, es necesario que, tanto ella como la GPU se conecten a través de un interposer.