Qué es una Tarjeta Gráfica

Hoy en día, máxime con el auge de los equipos Gaming, la tarjeta gráfica es uno de los principales componentes de cualquier PC, y de hecho en estos casos suele ser el componente más caro. En este artículo os vamos a explicar qué es una tarjeta gráfica, cuáles son sus funciones, qué tipos hay y por qué no, un poco de historia sobre ellas.

¿Qué es la tarjeta gráfica?

La tarjeta gráfica, también llamada tarjeta de vídeo, adaptador de pantalla o simplemente GPU (heredado del nombre de su procesador gráfico) es una tarjeta de expansión o un circuito integrado que se encarga de procesar los datos que le envía el procesador del ordenador y transformarlos en información visible y comprensible para el usuario, representado en el dispositivo de salida, el monitor.

Actualmente podemos encontrar dos tipos de tarjetas gráficas: las integradas y las dedicadas.

Las gráficas integradas

Antiguamente, muchas placas base integraban su propia GPU entre sus circuitos, pero actualmente esto se dejó de hacer para dar paso a las llamadas iGPU o gráficas integradas, que vienen ya en el propio procesador (las placas base, no obstante, siguen integrando las salidas de vídeo). Estas gráficas integradas tienen lógicamente una potencia bastante reducida, y además necesitan tomar parte de la memoria RAM del sistema para ellas mismas.

En la actualidad, tanto AMD como Intel cuentan con gráficas integradas en sus procesadores. El principal motivo es que los procesadores gráficos son muy potentes a la hora de realizar procesos paralelos, y ubicar la GPU junto con la CPU permite utilizar los gráficos integrados para realizar muchos procesos además del procesamiento de gráficos propiamente dicho (Ver arquitectura de sistemas heterogéneos).

Las gráficas dedicadas

Las tarjetas gráficas dedicadas son las que todos conocemos: placas de vídeo que tienen su propia GPU, memoria gráfica, salidas de vídeo y sistema de refrigeración y que se conectan a la placa base a través de un puerto PCI-Express. Proporcionan un nivel de rendimiento muy superior a los gráficos integrados, pero también son bastante más caras, si bien nos permiten el poder actualizar o sustituir el componente de una manera mucho más sencilla.

Las salidas de vídeo

Se conoce como salidas de vídeo a los puertos de conexión que se utilizan para conectar la tarjeta gráfica al monitor. Hay muchos tipos de salida de vídeo diferentes, pero en la actualidad se utilizan únicamente las siguientes:

  • VGA (prácticamente en desuso): significa Video Graphics Array, y fue el estándar de vídeo analógico en la década de los 90. Estaba diseñada para monitores CRT, y sufre bastante de ruido eléctrico y distorsión en la conversión de analógico a digital, por lo que los cables VGA suelen llevar filtro de línea en el propio cable. Su conector se llama D-sub y tiene 15 pines.
  • DVI: Significa Digital Visual Interface, y sustituye a la anterior. Es totalmente digital, por lo que no hay que hacer conversión, eliminando gran parte del ruido eléctrico y la distorsión. Ofrece una mayor calidad y mayores resoluciones posibles.
  • HDMI: Significa High Definition Multimedia Interface, y actualmente es el que más se utiliza. Cuenta con cifrado sin compresión y es capaz de transmitir audio a la vez que vídeo, ofreciendo resoluciones todavía más altas.
  • DisplayPort: Actualmente es el “rival” del HDMI. Se trata de una tecnología propietaria de VESA que también transmite audio y vídeo, pero a mayor resolución y frecuencia que HDMI. Tiene como ventaja que está libre de patentes, por lo que es más fácil que su uso se extienda (actualmente prácticamente todas las gráficas llevan DisplayPort). Cuenta con una versión de tamaño reducido llamada Mini DisplayPort de iguales características que permite la inclusión de muchos más puertos en una misma tarjeta gráfica.

Un poco de historia ¿por qué se inventaron las tarjetas gráficas?

La historia de las tarjetas gráficas comienza a finales de los años 60, cuando se deja de utilizar impresoras como principal elemento de visualización y entran en juego los monitores. Las primeras tarjetas gráficas solo eran capaces de mostrar una resolución de 40 x 25 píxeles monocromo, hasta que aparecieron los primeros chips gráficos dedicados como el Motorola 6845.

Más tarde comenzaron a aparecer las primeras videoconsolas y el éxito del PC (Personal Computer, ordenador doméstico) tuvo un gran auge, abaratando mucho los costes de producción dado que se hacían ya en masa. Al principio las tarjetas gráficas que se comercializaban eran de 80 columnas, que añadían un modo texto de hasta 80 x 25 caracteres (no píxeles), principalmente para software CP/M. Después, llegaron los famosos IBM PC que popularizaron el diseño “intercambiable” de las tarjetas gráficas. La más extendida fue la MDA (Monochrome Display Adapter) que IBM creó en 1981. Ésta gráfica contaba con una memoria gráfica de 4 KB y era capaz de representar en el monitor hasta 25 líneas de texto de 80 caracteres cada una.

IBM MDA (Wikipedia)

A partir de ahí se entró en un ciclo de competencia en el mercado de PC, con nombres que os sonarán mucho tales como Commodore, Amiga 2000 y Apple Macintosh. Éstos equipos comenzaron a utilizar tecnología propietaria para la tarjeta gráfica, integrando la GPU en la placa base. Esta situación se mantiene hasta la aparición de otro integrante que también os sonará: el puerto PCI.

El PCI eliminaba el cuello de botella de la interfaz anterior (ISA), y comenzaron a desarrollarse los primeros adaptadores 3D profesionales (S3 ViRGE). Se comenzó a la fabricación masiva de gráficas para zócalos PCI. A partir de ahí, la industria evolucionó hasta como la conocemos hoy en día, con los siguientes hitos destacados:

  • En 1995 aparecieron las primeras tarjetas gráficas 2D/3D fabricadas por Matrox, ATI, S3 y Creative entre otros. Cumplían con el estándar SVGA pero con funciones 3D.
  • En el año 1997, 3DFX lanzó el que posiblemente sea el chip gráfico más famoso de todos los tiempos: Voodoo. Éste tenía una potencia de cálculo ingente para la época y añadía diversos efectos 3D como Mip Mapping, Z-Buffering y Antialiasing. A partir de ésta, se lanzaron diversos modelos conocidos como el Voodoo2 de 3DFX, TNT de Riva y después, el TNT2 de NVIDIA (después de adquirir Riva).
  • Tal era la potencia de esas gráficas que el puerto PCI se quedó corto, pero llegó Intel para desarrollar el puerto AGP (Accelerated Graphics Port) que solucionó los cuellos de botella que ya había en ese entonces.

Entre 1999 y 2002, NVIDIA se hizo con la hegemonía del mercado de tarjetas gráficas (entre otras cosas compró 3DFX) con su familia GeForce. En ese periodo hubo gran cantidad de mejoras gráficas en el entorno 3D. Las gráficas destacadas de aquellos tiempos tenían hasta 128 MB de memoria DDR.

  • La mayor parte de las consolas de aquellos tiempos utilizaban chips gráficos basados en las tarjetas aceleradoras 3D. Los Apple Macintosh usaban chips de NVIDIA y ATI.
  • En 2006 AMD compra ATI, y se hace rival directo de NVIDIA en el mercado de tarjetas gráficas. Desde entonces se repartieron el liderazgo con sus respectivas familias GeForce y Radeon, y así siguen hasta el día de hoy.

Los comentarios están cerrados.