De un tiempo a esta parte, las tarjetas gráficas han ido añadiendo cada vez más capacidades, hasta el punto no solo de ir más allá de generar gráficos realistas en nuestra pantalla, sino también como soporte para el auge de la inteligencia artificial. Esto ha permitido la creación de servicios a través de internet para la generación de imágenes automáticas como DALL-E u otros servicios como ChatGPT. Pero, ¿cuál es el coste de poder crear un servicio de IA en cuenta a hardware?
Pese a que todavía nos falta mucho camino en el campo de la inteligencia artificial, la aparición de servicios en los que colocando una serie de palabras o frases clave sea capaz de generar un relato en texto o en su defecto una imagen que puede ser más o menos correcta. Y pese al nivel de fallos que tiene dicha tecnología, a mucha gente le está dejando fascinada, pero desconocen que se necesita un nivel de complejidad y que es imposible emular incluso en el ordenador más potente que te puedas montar con los componentes más caros que puedes encontrar en estos momentos.
¿Cuánto cuesta el hardware de ChatGPT o Dall-E?
Pues muchos miles de euros, por no decir decenas de euros, debido a que la cantidad de datos que manejan para realizar su trabajo y la cantidad de potencia necesaria para hacerlo requiere configuraciones de decenas e incluso cientos de tarjetas gráficas. No solo de cara a generar las respuestas a partir del algoritmo de inferencia que es con lo que interactúa el usuario, sino también para entrenar la IA, es decir, para que aprenda los valores y a sacar sus propias conclusiones.
El hardware utilizado en muchos de estos casos es el NVIDIA DGX SuperPOD, un servidor construido por NVIDIA compuesto por cientos de tarjetas gráficas, pero no para gaming, sino las que se usan para computación de alto rendimiento. Pensad por ejemplo que el precio de una NVIDIA H100 nos puede costar un total de 5000 euros e incluso tenemos modelos que se van a las cinco cifras, esto es mucho más que lo que un usuario de pie se gastará en su ordenador, incluso con un i9 última generación y una RTX 4090 a día de hoy.
Y alto, que la cosa no termina ahí. El volumen de datos es tal que no cabe en una tarjeta gráfica y es necesario usar varias de ellas. Por ejemplo, ChatGPT requiere equipos de 8 tarjetas gráficas de ese tipo, un coste por lo menos de 40.000 euros por servidor como mínimo. Y si hablamos de Dall-E que maneja imágenes y es más complejo, entonces el coste se puede disparar varias decenas. Por lo que todavía nos falta mucho tiempo para que podamos tener algo así a nivel doméstico y para ello deberemos esperar una década entera a tener algo de dicha capacidad en nuestro PC de casa.
La memoria es el mayor cuello de botella para conseguirlo
Todo ello se debe a la cantidad de información que requiere el algoritmo de inteligencia artificial para sacar sus conclusiones, al igual que ocurre con el cerebro humano que saca conclusiones de la información y conocimiento que dispone. Por lo que va a necesitar almacenar datos de búsquedas en internet como base para realizar su trabajo. Lo cual es algo ingente y fuerza al uso de una infraestructura extremadamente cara.
Además, que no son del todo funcionales, solo hay que ver ciertas aberraciones que da ChatGPT como respuesta a ciertas preguntas o los dibujos dignos de las peores pesadillas y sin ningún sentido que a veces nos muestra Dall-E y que no sabemos cómo ha podido llegar a tal conclusión. Aunque se ha de reconocer que algunas son hasta curiosas y dignas de enmarcar, pero aún faltan muchos años para que no tengan un margen de error tan alto respecto a lo que se les pregunta y lo que muestran.