20 años después los benchmarks de juegos se siguen midiendo en FPS

Escrito por Rodrigo Alonso
Tarjetas Gráficas
9

En los juegos, los frames (o fotogramas) por segundo o FPS son la unidad estándar para medir el rendimiento de nuestras tarjetas gráficas. Aunque algunos benchmarks están comenzando a mostrar el rendimiento como velocidad mínima de cuadros o velocidad por segundo para dar una idea más realista del rendimiento real, la unidad de medida FPS no ha cambiado realmente.

El problema de utilizar esta unidad de medida es que, cuando estamos hablando de un segundo como unidad de tiempo, tanto para un ordenador como para el cerebro humano esto es mucho tiempo. Actualmente los FPS se mide como una media de los cuadros que nuestra GPU es capaz de “dibujar” en un segundo, pero si en lugar de eso lo hiciéramos en FPmS (fotogramas por milisegundo), el resultado sería bien distinto, si bien es cierto que es posible que nuestros ojos no fueran capaces de captarlo.

Benchmark FPS

Hay una relación entre el número de fotogramas que se muestran en un único segundo y el retardo de fotogramas (cuánto se tarda en dibujar cada cuadro consecutivo). Por ejemplo, un vídeo que corre a 60 FPS tiene un retardo de fotogramas o latencia de 16.7 milisegundos. Por otro lado, un vídeo que corre a 30 FPS tiene justo el doble de latencia, 33,3 milisegundos. En un videojuego, estas latencias están variando todo el tiempo dado que la escena que estamos viendo en cada segundo es diferente, y depende tanto del motor del juego como de nuestra GPU y del número de éstas. El ojo humano puede no darse cuenta de esto, y de hecho los programas que se utilizan actualmente para medir los FPS tampoco puesto que ocurren en menos de un segundo (y estos programas miden precisamente eso, fotogramas por segundo). Si en lugar de medir los FPS midiéramos la latencia, otro gallo cantaría.

En el siguiente vídeo podremos ver un ejemplo. Se muestra la misma escena funcionando con una sola GPU frente a una configuración de varias GPUs. Los FPS se han dejado fijos a 30 FPS en ambos casos, lo que significa que la velocidad de actualización debería ser idéntica, pero como se puede ver, no lo es. La parte multi GPU del vídeo muestra un par de actualizaciones rápidas seguidas de una lenta, lo que se viene a llamar “Micro-Stuttering“. La configuración con una sola GPU siempre se mantiene a la misma velocidad.

Estos datos son tenidos en cuenta tanto por AMD como por NVIDIA, ya que esta evaluación de la latencia de los fotogramas permite demostrar por qué cuando hacemos funcionar juegos con gráficas NVIDIA parece que la experiencia de juego es subjetivamente más fluida. AMD, por su parte, se ha apresurado a lanzar nuevos drivers que han mejorado sustancialmente la experiencia de juego con una sola GPU, pero las configuraciones en CrossFireX siguen dando estos problemas de escalado o Micro-Stuttering bastante a menudo.

Ahora viene la pregunta del millón: ¿cómo obtener estos resultados de latencia de cuadro en lugar de los habituales FPS? Para esto, NVIDIA ha desarrollado una herramienta llamada FCAT (que viene a significar “Herramienta de análisis de captura de fotogramas”), que a diferencia de FRAPS (herramienta muy utilizada para capturar los FPS de un juego) captura la salida del cuadro final en lugar del cuadro manejado por DirectX. En este gráfico lo veremos mejor.

NVIDIA FPS

Aunque medir el rendimiento de los juegos en FPS sigue siendo una forma efectiva (recordad que el ojo humano solo captura imágenes a una frecuencia de entre 28 y 32 FPS), hacerlo midiendo la latencia de los cuadros es una manera más efectiva de mostrar de manera real el rendimiento de una tarjeta gráfica. Y al igual que la tecnología, esta forma de medición debe evolucionar, ya que llevamos 20 años estancados midiendo el rendimiento de los benchmarks en FPS, los cuales como os acabamos de mostrar, no son 100% reales.

La fuente de este artículo y los créditos de las imágenes corresponden a Extremetech.com.

Continúa leyendo
  • Javier

    si el ojo humano vé a 28-32FPS, ¿como es posible que notemos cuando un juego está a 60FPS o las pelis a 48-60FPS tipo el Hobbit?

    • Molina15

      Pues precisamente es por lo que ha explicado. Si los juegos a que corren a 30, esos fotogramas, se dividieran a la perfección en 1 segundo no notarias apenas nada. El problema esta en que no lo hacen, y notas que no va tan fluido. Al correr a 60 el juego, sigue sin estar compensados, pero al haber mas fotogramas, los espacios de tiempo entre ellos, aunque descompensados, son mas reducidos y no lo notas.

      • Luisito

        En el cine la “distacia”, el tiempo que transcurre entre fotogramas si es siempre el mismo, y sin embargo debe de notarse más fluidez con el Hobbit a 48fps

      • Eso es. Ten en cuenta que lo que decimos de “unos 30 fps” del ojo humano, si en vez de en FPS que es una medición “cada segundo” lo dijéramos en milisegundos sería otra historia.

        Por eso nos da la sensación real de que los juegos van con mayor fluidez con NVIDIA (en comparación con CrossFire).

        De todas maneras no desesperéis. Mañana a las 11:00 publicamos una buena noticia que tiene que ver precisamente con estos problemas de los CF de AMD.

      • hay algunos videos de youtube que se ven fluidos, como si estubieran a 60 fps, pero los videos de youtube solo llegan hasta 30 fps

        • Ciertamente, 29.97 FPS para ser exactos. No obstante, un vídeo siempre va a un framerate y una latencia de cuadros constante, por lo que no influye el rendimiento de la tarjeta gráfica en demasía.

  • Y la FCAT esa de nvidia, funciona con las radeon?

  • MustangGT

    Y, que benficio representa para el público?

    Lo más sencillo es lo más fácil de comprender y si van 20 años midiendo el rendimiento por FPS, porque no seguir haciendo lo mismo?.

    • Lo que hemos explicado en el artículo: debido a ese micro stuttering, da la sensación visual al usuario de que las NVIDIA van más fluídas.