¿Cómo ha evolucionado la resolución en PC y cómo ha afectado a su rendimiento?

La alta definición llegó a nosotros a mediados de los 2000, la cual trajo consigo la aparición de las pantallas planas, primero del tipo LCD y después del tipo OLED. Así como la estandarización de diferentes resoluciones llamadas HD Ready, Full HD y Ultra HD con el paso del tiempo. ¿En qué se diferencian las resoluciones HD y cómo han afectado, afectan y afectarán al futuro de la informática?

En los últimos años hemos podido conectar nuestro PC a un televisor de alta definición, todo gracias a que las resoluciones HD son lo suficientemente buenas para un PC. ¿Cuál ha sido su evolución?

¿Qué diferencias hay entre resoluciones HD?

Resoluciones HD

Obviamente la primera diferencia está en la cantidad de píxeles en pantalla, ya que pese a que las tres resoluciones tienen un formato de dieciséis novenos, donde la proporción de la resolución horizontal respecto a la vertical es de 16:9. En cada una de estas resoluciones, la cantidad de píxeles varía.

Todas las resoluciones que vamos a tratar en este artículo corresponden a los estándares televisivos y no a los de la VESA, por lo que no trataremos aquellas resoluciones intermedias y los formatos de imagen que se pueden dar en diferentes monitores de televisión, pero que no cumplen el estándar.

La estandarización de las resoluciones HD

SDR vs HDR Gaming

La primera resolución en estandarizarse fue el HD Ready o conocida como 720p, pero esta forma de denominar a través de su resolución vertical no es la que se pensó inicialmente. Para ello hemos de tener en cuenta la resolución VGA estándar, la de 640 píxeles por línea, la cual tiene una frecuencia horizontal de 31 KHz, el doble que los 15.5 KHz del estándar de televisión estadounidense o NTSC.

La idea para el estándar de la televisión de alta definición era inicialmente que el contenido televisivo se pudiese reproducir bajo dicho formato. Vamos a descartar el Europeo por el hecho que la industria de la electrónica consumo en Europa está frita desde hace tiempo y son los fabricantes japoneses y estadounidenses quienes marcan los estándares.

Por lo que solo necesitaban cuadriplicar la frecuencia horizontal del NTSC y doblar la del VGA para el primer estándar HD que fueron los 720p o HD Ready con tal de conseguir la frecuencia horizontal. Esto fue lo que permitió que los primeros televisores HD Ready tuvieran una combinación de puertos típicos para televisor y ordenador.

De cuatro tercios a dieciséis novenos

HDTV Ratios

La otra decisión fue la elección del formato panorámico de 16:9 y esto tiene una motivación práctica. ¿Por qué no se continuó utilizando el formato 4:3? No olvidemos que cuando Thomas Edison inventó el film para guardar fotos y películas llegó a la conclusión que el mejor formato era precisamente el de 4:3 y dicho estándar se continuó utilizando durante más de un siglo.

El origen del formato panorámico viene del mundo del cine, cuando la televisión entró en los hogares en los años 50 esta compitió por interés con el cine, por lo que la solución de la gran mayoría de productoras fue utilizar un formato de pantalla diferente, es decir, uno panorámico. Pero por aquel entonces se utilizaron varios formatos distintos, como el Panavision con un ratio de aspecto de  2.20:1 o el famoso  CinemaScope con un ratio de 2.39:1.

Cuando la tecnología de los paneles televisivos empezó a estar lista para resoluciones más altas fue cuando se decidieron sentar de nuevo para decidir el nuevo estándar. Uno de los proponentes, el Dr. Kerns Powers, tomó varios cartones recortados de los ratios de aspecto más importantes y los puso uno encima del otro con un centro en común.

La Observación era que el rectángulo más grande, el cual albergaba en su interior todos los rectángulos tenía el mismo ratio de aspecto que el rectángulo más interior. ¿Cuál era? 1.78:1 o 16:9.  A partir de ahí los 16:9 fueron el estándar escogido, por lo que los 720p fueron la resolución elegida para la alta definición.

La evolución hacía el Full HD

Full HD

El siguiente estándar en escogerse fue el Full HD o más conocida como resolución 1080p, pero como hemos dicho antes la elección de las resoluciones iniciales no se hizo tomando como referencia la resolución vertical, sino la horizontal. En Full HD esta es de 1920, lo que significa que es un 50% más alta que la resolución horizontal del HD Ready.

El motivo es que los chips en los televisores encargados de recibir la señal de vídeo tenían un margen de mejora ya que estos consumían muy poco, por lo que decidieron crear una versión de más resolución del estándar. Pero principalmente fue porque se dieron cuenta que con el Blu-Ray podrían colocar una película a tiempo completo a resolución Full HD sin problemas y sin tener que comprometer nada. Por lo que el Full HD nació de manera accidental cuando vieron que podían forzar la maquinaria un poco más en todos los aspectos.

El otro motivo tiene que ver con el hecho de que a las distancias en las que la gente suele ver la televisión los 1080P marcaban una diferencia con los 720P en cuanto a calidad de imagen, además, los paneles LCD pese a necesitar una mayor densidad de píxeles habían pasado a ser los mismos que los del PC y la transición de los 720p a los 1080p se hizo con un coste muy bajo.

La última de las resoluciones HD: el 4K

AMD NVIDIA 4K

La última resolución estándar utilizada en los televisores son los 4K o UHD, su historia es distinta al resto y tiene un origen bien distinto a las otras dos resoluciones, dado que fue creada varios años más tarde.

Un salto importante en pantallas LCD fue la adopción de lo que Apple llamó comercialmente pantallas de retina con su iPhone 4. ¿La particularidad? La densidad de píxeles por pulgada pasó a ser de 300:1, la misma que la de las fotografías profesionales, un límite que a la distancia a la que mantenemos normalmente un smartphone si aumentaremos la resolución no se notaría la diferencia. ¿Cómo afectó esto los televisores? Pues se permitió empezar a crear paneles con mayor densidad de píxeles a gran escala al bajar los costes.

La elección de los 2160 píxeles de resolución vertical vino por el hecho que es la misma resolución del mismo tipo que la utilizada en el cine, solo que en las películas esta es de 4096 píxeles en horizontal y en los televisores de 3840 píxeles. Por lo que todo esto significa cuatro veces más resolución, lo que se traduce en el salto más grande que ha existido, ya que desde la televisión estándar al HD Ready fue de 3:1, del HD Ready al Full HD fue de 2.5:1, pero del Full HD hacía el 4K ha sido de 4:1.

Resoluciones HD en el PC a día de hoy

Las resoluciones HD son a día de hoy estándares en PC, los 1080p son el estándar por antonomasia por parte de la mayor gente que utiliza un PC. Pero, el hecho de tener una resolución con 4 veces más píxeles en el 4K respecto al Full HD significa por lo tanto una serie de requisitos en el hardware que son los siguientes:

  • El ancho de banda para transportar la información de los píxeles desde la GPU y hacía la GPU es cuatro veces mayor.
  • Al haber cuatro veces más píxeles tenemos cuatro veces más necesidad de cálculo, eso sin contar mejoras en la calidad de imagen que requieren más capacidad de procesamiento.
  • También significa cuadruplicar la memoria de vídeo necesaria.

De los tres puntos, el tercero es más más fácil de conseguir, pero no el cuarto, ya que la VRAM no ha evolucionado lo suficientemente rápido y hay un estancamiento en la evolución de las GPUs, lo que les ha llevado a tener que desarrollar técnicas de superresolución basadas en la IA donde la GPU solo tiene que renderizar una resolución de imagen en origen inferior para luego ser escalada.

Obviamente los 4K para el mundo del cine y la televisión no son un problema, códec capaz de reproducir vídeo a 4K cuesta implementarlos unos pocos dólares por no decir unos pocos céntimos. De ahí a que el contenido televisivo en 4K prolifere y si le sumamos la facilidad de portar de cine a televisión por la misma resolución vertical entonces queda todo dicho.

¡Sé el primero en comentar!