NVIDIA dice que los chips para IA ya avanzan más rápido que la Ley de Moore
![](https://hardzone.es/app/uploads-hardzone.es/2025/01/nvidia-entrenamiento-ia.jpg)
Viendo como está evolucionado la industria de los chips relacionados con la Inteligencia Artificial en los últimos años de la mano de NVIDIA, máximo representante en este campo muy por encima de AMD y de Intel, era cuestión de tiempo que se cuestionara la Ley de Moore.
La Ley de Moore, acuñada por el cofundador de Intel, Gordon Moore, en 1965, afirma que el número de transistores utilizados en los procesadores se duplicaría cada dos años duplicando así el rendimiento sin apenas afectar a los procesos de fabricación.
La Ley de Moore está obsoleta
Si bien es cierto que, en los últimos años, parecía que esta ley no se estaba cumpliendo, conforme los chips de IA han ido llegando al mercado, la Ley de Moore ha quedado desfasada. Al menos eso es lo que afirman Jensen Huang, máximo responsable de NVIDIA en una entrevista que ha concedido al medio TechCrunch después de presentar la nueva generación RTX 50.
Nuestros sistemas están progresando mucho más rápido que la Ley de Moore. Podemos construir la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos, todo al mismo tiempo. Si haces eso, entonces puedes moverte más rápido que la Ley de Moore, porque puedes innovar de forma conjunta.
Según afirma Huang durante la presentación de esta nueva serie de gráficas de NVIDIA, la nueva generación de GPU GB200 NVL72 es 30 veces más rápida en cargas de trabajo de inferencia de IA que la generación anterior, la H100.
Esta no es la primera que vez que Huang realiza semejante afirmación, aunque no tenía datos sobre la mesa para corroborarlo, pero tenía muy claro que esta nueva generación de gráficas era la prueba que necesitaba.
La Ley de Moore fue muy importante en la historia de la computación porque redujo sus costes. Lo mismo va a suceder con la inferencia, donde aumentamos el rendimiento y, como resultado, el costo de la inferencia va a ser menor.
En su lugar, Huang afirma que el desarrollo de la IA actual se basa en tres puntos: pre-entrenamiento (los modelos de IA aprenden patrones para analizar grandes cantidades de datos), post-entrenamiento (en el que se ajustan las respuestas al modelo de IA con ayuda de personas) y el cómputo en tiempo de prueba (realizado durante la fase de inferencia y que le da más tiempo a la IA para pensar en una respuesta).
En esta misma entrevista, Huang afirma que los chips de IA disponibles actualmente en el mercado con 1.000 veces más rápidos que hace 10 años, por lo que han crecido a un ritmo mucho más rápido que el estándar establecido por la Ley de Moore y todo parece indicar que en los próximos años este avance no se detendrá.
El avance que NVIDIA ha experimentado en el campo de la IA, le ha permitido a la compañía verde convertirse en la empresa más valiosa del mundo, principalmente por H100, la GPU más utilizada en los grandes centros de datos para entrenar modelos de IA y que, con el lanzamiento de la GB200, ofrecerá un mejor rendimiento a un menor coste, lo que redundará en una bajada de precios en los servicios de IA.