A día de hoy no sabemos si NVIDIA es una empresa que hace hardware de inteligencia artificial con la capacidad de mostrar gráficos o viceversa. Y es que dicha disciplina informática se ha hecho popular en los últimos años y ha crecido exponencialmente. Todo esto gracias a la implementación de unidades capaces de ejecutar cálculos con matrices con pocos ciclos de reloj. ¿La siguiente ocurrencia de los de Jen Hsen Huang? La creación de drivers gráficos con IA. ¿Estamos ante un problema en ciernes o la solución definitiva a un problema común?
Los drivers o controladores gráficos son uno de los mayores problemas para los fabricantes de tarjetas gráficas y en especial para los diseñadores de GPU. Uno que sea de mala calidad puede suponer resultados mucho peores en benchmarks y juegos, lo cual es fatídico para la economía. Al fin y al cabo, nadie puede vender un hardware por un precio más alto que el que marca su rendimiento. ¿El motivo? Estás vendiendo menos valor por un precio más alto.
¿Drivers Gráficos e IA?
Uno de los mitos que no paramos de leer es que las inteligencias artificiales terminarán por eliminar muchos trabajos como el de la programación informática, sino que lo que harán en el ámbito del software informático es la eliminación de tareas repetitivas y mecanizadas. El hecho de que hablemos de drivers gráficos con IA no supone que estas sean las encargadas de crear estos programas. Más bien hace referencia a que la gestión de procesos y de los recursos de la GPU sean controlados por un programa de dicho tipo gestionado por el controlador.
Una GPU está compuesta por decenas de núcleos y al mismo tiempo por miles de hilos de ejecución, sin embargo, el problema viene en que la unidad de control de estas no es como la de los procesadores centrales. La gestión de los mismos necesita ser llevada a cabo desde el driver que se encarga de organizar todo el proceso. Pensad en ello como una enorme empresa de paquetería que ha de asignar los diferentes envíos a sus correspondientes destinos de la forma más eficiente posible.
En todo chip gráfico contemporáneo, la ocupación de los diferentes registros y el uso del mayor número de núcleos al mismo tiempo resulta crucial para el rendimiento. Una mala organización puede suponer que no se usen el máximo número de recursos posibles y fuerce por ejemplo a subidas de la velocidad de reloj y con ello un aumento del consumo.
NVIDIA ya lo estaría usando en sus RTX 40
Uno de los comportamientos que hemos visto en la nueva generación de tarjetas gráficas de NVIDIA es la forma en la que se comportan a la hora de gestionar juegos que piden pocos recursos. Las RTX 30 y anteriores lo que hacían era encender pocos núcleos, pero cuando el trabajo se les acumulaba terminaban funcionando a velocidades de Boost y encendiendo los ventiladores. En cambio, una mejor gestión de los drivers en sus nuevas GPU. Lo que hace es que dichos títulos utilicen más recursos del chip, pero a menos velocidad de reloj y con ello con un impacto menor sobre la factura de la luz por el rendimiento que dan.
En todo caso, una de las claves podría ser también el uso de compiladores con IA para generar un mejor código binario que es el que ejecuta la GPU en la tarjeta gráfica. Muchas veces ocurre que el código generado en compilación no es el más eficiente y ciertas combinaciones de instrucciones en lenguaje de alto nivel no se traducen en las mejores combinaciones de instrucciones del procesador. Aunque esto, más bien es algo que afecta a todos los programas.
En resumen, la apuesta de NVIDIA por la IA lleva tiempo dando sus frutos también para las tarjetas gráficas gaming y dado el pasotismo todo este tiempo de AMD en cuanto a este tema y sus problemas de drivers, es posible que la marca de verde se ponga un poco más por delante en cuanto a rendimiento.