¿Cuánta latencia puede tolerar nuestro cerebro jugando a videojuegos?

Algunas veces a la hora de probar cierto hardware en videojuegos os habréis dado cuenta de que hay un retraso enorme entre el tiempo que pasa entre que pulsamos un botón y el tiempo en que la imagen de muestra en pantalla. Este problema es el de la latencia de imagen, la cual es tolerable hasta cierto punto. Pero, ¿hasta qué punto podemos tolerar?

Si alguna vez os habéis preguntado como es que las imágenes que veis en vuestras pantallas reproduciendo juegos se ven tan rápido es porque estás se reproducen a una latencia de imagen que es tolerable para vuestro cerebro. No obstante cuando la información visual llega demasiado tarde, entonces es cuando esa ilusión se rompe.

¿Qué entendemos como latencia de imagen?

Fortnite UE4 RTX

Una de las cosas más molestas a la hora de interactuar con un PC o una consola de videojuegos es pulsar una tecla o un botón y que haya un retardo a la hora de mostrarse la acción en pantalla, esto en videojuegos es sumamente molesto, ya que nos impide reaccionar a tiempo frente a la acción en pantalla. Haciendo que la jugabilidad del mismo se vea afectada y la experiencia se vea negativamente afectada.

Tenemos la tendencia a pensar que cuando un juego funciona a una cantidad de fotogramas por segundo, esa es la tasa de velocidad en la que las imágenes cambian delante de nuestros ojos. Pero lo que mide la tasa de FPS es la cantidad de veces en la que la GPU genera la imagen final en la VRAM, imagen que se ha de trasladar a través del cable DisplayPort o HDMI a la pantalla, la cual ha de cambiar luego el valor de todos los píxeles de la misma.

Es decir, el tiempo desde el que realizamos la acción y la vemos representada en pantalla es mucho mayor que esos milisegundos en los que la GPU ha generado la imagen en la VRAM para luego ser transmitida al monitor, y hay ocasiones en las que ese tiempo de retardo es suficiente para mostrarnos que la cosa no funciona bien.

¿Cuánta puede soportar nuestro cerebro?

CerebroIA

¿En qué punto la latencia de imagen se convierte en un problema? Depende obviamente de la tasa de fotogramas por segundo, pero la respuesta es que esta empieza a ser preocupante cuando supera el tiempo de duración de un fotograma. ¿Y cómo podemos obtener dicho tiempo? Pues con una simple: 1/tasa de refresco, para saber el tiempo en el que tarda cada fotograma en generarse.

En realidad no debería haber un retraso mayor agregado de lo que tarda un fotograma, pero digamos que nuestros ojos pueden tolerar un retraso de 3 fotogramas entre que pulsamos el botón y vemos la acción en pantalla. Si estamos jugando a un juego a 60 FPS, 16.6 milisegundos, la media de retraso estaría en los 50 milisegundos, pero si estamos hablando de unos a 30 FPS la cosa se puede ir a los 100 milisegundos sin problemas.

Si hablamos ya de altas tasas de refresco, ampliamente utilizadas en el gaming competitivo como los eSports es cuando el retraso añadido por los diferentes elementos que se encargan de hacer que la imagen llegue a pantalla se convierten en un problema. Ya que el tiempo por fotograma es menor y se han de buscar técnicas para recortar ese tiempo en lo máximo posible.

¿Qué componentes influyen en la latencia de imagen?

GPU AMD VRAM

El hardware que influencia es de entrada la interfaz que utilizamos para comunicarnos, si estamos utilizando una interfaz inalámbrica es posible que esta no esté optimizada para gaming y añada varios milisegundos. Luego tenemos el tiempo en que CPU y GPU en conjunto generan la imagen en el búfer de imagen, pero como ya hemos explicado antes la cosa no termina ahí dentro de las acciones de la tarjeta gráfica.

Uno de los aceleradores más importantes en una GPU es el controlador de pantalla. Esta pieza funciona de forma automática y lo que hace es leer el búfer frontal en la VRAM, el cual almacena la imagen recientemente renderizada por la GPU, para transmitirla a través de la salida de vídeo de la tarjeta gráfica. Esta pieza es muy importante y a día de hoy es la que permite la aplicación de tecnologías como G-SYNC o el FreeSync/Adaptative Sync.

Debido a que muchas GPUs, especialmente integradas, no se han diseñado para el gaming, con tal de ahorrar costes se suelen utilizar controladores de pantalla de peor calidad, con un mayor retardo, los cuales no son un problema para trabajar en una oficina e incluso ver un vídeo, pero que son nefastos para jugar a videojuegos.

Periféricos y la latencia de imagen

HDMI-2.1

Ya si salimos fuera del PC nos encontramos con el siguiente punto, el cable o la interfaz inalámbrica con la que enviamos la señal de vídeo al monitor. Las interfaces inalámbricas suponen un retraso adicional a no ser que sacrifiquemos calidad de imagen, no son las más adecuadas para jugar a no ser que decidamos hacerlo a una menor resolución.

Si hablamos ya de los cables para las conexiones de vídeo, hay que tener en cuenta que los diferentes tipos de cable HDMI y DisplayPort no tienen el mismo ancho de banda, no es lo mismo un HDMI 1.4 que un 2.0 por ejemplo. Ya no solo en las resoluciones soportadas por cada uno, sino también por el ancho de banda. Un monitor con soporte HDMI 2.0 va a recibir el volumen de datos en menos tiempo que uno con una versión inferior y lo mismo ocurre con el Display Port. A día de hoy las resoluciones consideradas de alta definición no son un problema, pero si las 4K y es que en algunos casos se utilizan métodos de compresión y descompresión de datos que añaden latencia adicional al proceso si el volumen de datos es muy grande.

La parte final es el tiempo que tarda cada píxel del monitor a cambiar, dependiendo del tipo de panel utilizado puede tardar más o menos. Con cada imagen el valor de cada píxel en pantalla se ha de cambiar a la suficiente velocidad. No todos los tipos de panel tienen la misma velocidad en hacerlo y si jugamos a altas frecuencias el tiempo en que la pantalla tarda en cambiar el color de sus píxeles puede ser contraproducente, a no ser que quede compensado por otra parte.