Se suele decir que un monitor cuanto más resolución tiene, entonces mejor calidad de imagen. Pues bien, si sois muy profanos en esto y si os hablan de resoluciones os suena a un idioma desconocido, entonces no os preocupéis. Ya que os vamos a enseñar la relación entre la calidad de imagen y la resolución de vuestro monitor.
El mercado está lleno de monitores de todo tipo que se promocionan con diferentes resoluciones y cuando más alta es esta mayor es la calidad de imagen que proporcionan. La mayoría de nuestros lectores saben muy de sobras lo que es un píxel y su relación con la calidad de imagen. Sin embargo, hemos decidido simplificarlo para que los menos avezados en el tema puedan tener claro este concepto básico.
Cantidad de píxeles y calidad de imagen están relacionados.
Las imágenes que vemos en las pantallas de nuestro PC a día de hoy se representan en pantallas compuestas por millones de puntos a las que llamamos píxeles. Cada uno de ellos compuestos por luces muy pequeñas en la que cada una de ellas representa un color del espectro RGB, de tal manera que al combinarlas se generan los colores. Luego tenemos la luminancia, que es la intensidad de luz de cada color y que puede venir desde las mismas luces o a través de un panel por separado.
Desde el lado del PC a cada imagen que se ve en pantalla lo llamamos frame o fotograma y en cuanto a la memoria lo se almacena de forma ordenada es el valor de color y luminancia combinados en una única información y de forma ordenada. Es decir, desde el primer píxel que se sitúa arriba a la izquierda hasta el último abajo a la derecha. Dicha información se pasa decenas de veces por segundo al monitor o televisor, todo ello usando una interfaz de vídeo como DisplayPort o HDMI y usando el controlador de pantalla de la tarjeta gráfica para ello.
Por lo que el píxel es el valor de información mínimo de una imagen, no puede existir una imagen que tenga una resolución por debajo de un píxel y el hecho de disponer de menos píxeles supone también tener menos información en la imagen. Por lo que por lógica si tenemos una imagen con menos resolución la calidad de imagen se resentirá.
¿Qué ocurre si reducimos el tamaño de una imagen?
Muchas veces por falta de espacio nos hemos visto obligados a recortar la resolución de una imagen, el resultado muchas veces ha sido que bajo nuestra percepción la imagen parece no existir una pérdida de calidad de imagen. Si embargo, eso es una ilusión óptica. Ya que dependiendo de la distancia del monitor y la densidad de estos en la pantalla hace que no podamos notar la diferencia si hay una mayor cantidad de píxeles.
Técnicamente, nuestra visión está realizando una simplificación de los «píxeles», con tal de realizar proceso de simplificar una imagen para que esta se pueda representar con menos píxeles. Obviamente, el proceso no siempre funciona y si la resolución de pantalla es demasiado pequeña se pierde detalle. ¿El proceso? Pues a través de una fórmula matemática se tienen en cuenta los valores de los puntos en cada área de la pantalla y se genera un nuevo píxel que tenga la información más cercana.
Obviamente con ello conseguimos que la imagen ocupe menos megas en el almacenamiento, el problema que hemos tenido un proceso de destrucción de la información que no se va a recuperar y, por tanto, y en principio será imposible generar la misma imagen a la resolución original. Como mucho podemos esperar que una IA alucine una versión a más resolución de la imagen, pero depende de tener la suficiente información para hacerlo o la falta de ella puede crear aberraciones o imágenes imprecisas.
La importancia de los formatos de archivo
Existe otra forma de recortar la información de una imagen y usando formatos de archivo de imagen, los cuales pueden ser con pérdidas de detalle o conservando la calidad de imagen original. En todas ella la clave es que en vez de almacenar la información de color para cada pixel tal cual se cifra la información para poder representarla con menos bits y con ello hacer que ocupen menos espacio. La contrapartida es que se requiere un proceso de conversión llevado a cabo por un algoritmo que se encargue de reconstruir la imagen original.
No obstante, no siempre, es así y existen formatos de imagen como el JPEG que acaban generando artefactos o errores si la información se acaba cifrando en pocos bits. Dicho de otra manera, si se acaba comprimiendo demasiado. Aquí es donde entran también las IA de imagen, pero de una forma distinta al aumento de resolución. Aprenden a identificar esos fallos comunes y como se producen y a restaurar la imagen a su calidad original, lo que permite disfrutar de estas ocupando menos espacio, pero sin perdida en su calidad.