20 años después los benchmarks de juegos se siguen midiendo en FPS

20 años después los benchmarks de juegos se siguen midiendo en FPS

Rodrigo Alonso

En los juegos, los frames (o fotogramas) por segundo o FPS son la unidad estándar para medir el rendimiento de nuestras tarjetas gráficas. Aunque algunos benchmarks están comenzando a mostrar el rendimiento como velocidad mínima de cuadros o velocidad por segundo para dar una idea más realista del rendimiento real, la unidad de medida FPS no ha cambiado realmente.

El problema de utilizar esta unidad de medida es que, cuando estamos hablando de un segundo como unidad de tiempo, tanto para un ordenador como para el cerebro humano esto es mucho tiempo. Actualmente los FPS se mide como una media de los cuadros que nuestra GPU es capaz de «dibujar» en un segundo, pero si en lugar de eso lo hiciéramos en FPmS (fotogramas por milisegundo), el resultado sería bien distinto, si bien es cierto que es posible que nuestros ojos no fueran capaces de captarlo.

Benchmark FPS

Hay una relación entre el número de fotogramas que se muestran en un único segundo y el retardo de fotogramas (cuánto se tarda en dibujar cada cuadro consecutivo). Por ejemplo, un vídeo que corre a 60 FPS tiene un retardo de fotogramas o latencia de 16.7 milisegundos. Por otro lado, un vídeo que corre a 30 FPS tiene justo el doble de latencia, 33,3 milisegundos. En un videojuego, estas latencias están variando todo el tiempo dado que la escena que estamos viendo en cada segundo es diferente, y depende tanto del motor del juego como de nuestra GPU y del número de éstas. El ojo humano puede no darse cuenta de esto, y de hecho los programas que se utilizan actualmente para medir los FPS tampoco puesto que ocurren en menos de un segundo (y estos programas miden precisamente eso, fotogramas por segundo). Si en lugar de medir los FPS midiéramos la latencia, otro gallo cantaría.

En el siguiente vídeo podremos ver un ejemplo. Se muestra la misma escena funcionando con una sola GPU frente a una configuración de varias GPUs. Los FPS se han dejado fijos a 30 FPS en ambos casos, lo que significa que la velocidad de actualización debería ser idéntica, pero como se puede ver, no lo es. La parte multi GPU del vídeo muestra un par de actualizaciones rápidas seguidas de una lenta, lo que se viene a llamar «Micro-Stuttering«. La configuración con una sola GPU siempre se mantiene a la misma velocidad.

Estos datos son tenidos en cuenta tanto por AMD como por NVIDIA, ya que esta evaluación de la latencia de los fotogramas permite demostrar por qué cuando hacemos funcionar juegos con gráficas NVIDIA parece que la experiencia de juego es subjetivamente más fluida. AMD, por su parte, se ha apresurado a lanzar nuevos drivers que han mejorado sustancialmente la experiencia de juego con una sola GPU, pero las configuraciones en CrossFireX siguen dando estos problemas de escalado o Micro-Stuttering bastante a menudo.

Ahora viene la pregunta del millón: ¿cómo obtener estos resultados de latencia de cuadro en lugar de los habituales FPS? Para esto, NVIDIA ha desarrollado una herramienta llamada FCAT (que viene a significar «Herramienta de análisis de captura de fotogramas»), que a diferencia de FRAPS (herramienta muy utilizada para capturar los FPS de un juego) captura la salida del cuadro final en lugar del cuadro manejado por DirectX. En este gráfico lo veremos mejor.

NVIDIA FPS

Aunque medir el rendimiento de los juegos en FPS sigue siendo una forma efectiva (recordad que el ojo humano solo captura imágenes a una frecuencia de entre 28 y 32 FPS), hacerlo midiendo la latencia de los cuadros es una manera más efectiva de mostrar de manera real el rendimiento de una tarjeta gráfica. Y al igual que la tecnología, esta forma de medición debe evolucionar, ya que llevamos 20 años estancados midiendo el rendimiento de los benchmarks en FPS, los cuales como os acabamos de mostrar, no son 100% reales.