Elon Musk se sale con la suya: ya tiene la granja para IA más grande del mundo

Se podría decir que Elon Musk llegó tarde al tren de esto de la IA, pero como es un magnate al que le sobra el dinero, ha demostrado una vez más que no hay (casi) nada que no se pueda hacer con unos fajos de billetes. El multimillonario ya posee la granja de aprendizaje para IA más grande del mundo, con 100.000 tarjetas gráficas NVIDIA H100 enfriadas mediante refrigeración líquida. Poca broma la que ha montado.
Llevamos unos meses con una especie de fiebre por la IA entre las compañías más grandes del mundo. NVIDIA empezó antes que nadie y eso les ha servido para convertirse en la compañía más valiosa del planeta, pero ahora todas las demás están intentando subirse a tiempo al tren para reclamar su parte del pastel, y alguien como el multimillonario Elon Musk no podía ser menos… así que lo que ha hecho ha sido soltar tremendos fajos de billetes a NVIDIA para montarse la granja más grande del mundo.
La granja para IA más grande del mundo es de Elon Musk
La popular empresa xAI de Elon Musk ha comenzado oficialmente a entrenar su modelo de Inteligencia Artificial utilizando las gráficas más potentes que NVIDIA tiene para ello, las H100, y no precisamente pocas porque como ya informamos hace unas semanas, son 100.000 unidades nada más y nada menos. Elon Musk lo anunció con orgullo en X, llamándolo «el clúster de entrenamiento de IA más potente del mundo». En el mismo post afirmaba que su super clúster se entrenará con 100.000 gráficas NVIDIA H100 refrigeradas por agua en un único tejido RDMA, y felicitaba su equipo de xAI pero también a NVIDIA por iniciar el entrenamiento en Memphis, Estados Unidos.
Tras este anuncio inicial, Elon Musk afirmó que la IA más potente del mundo estará lista para diciembre de este mismo año, es decir, que serán capaces de tenerla lista tras solo unos 5 meses de entrenamiento. Según los informes, GROK 2 (que así se llama la IA de xAI) estará lista para su lanzamiento el mes que viene, pero es GROK 3, la siguiente iteración, la que será entrenada mediante este super clúster de gráficas H100, y llegará en diciembre.
Y ojo al dato, que este anuncio se ha producido tan solo dos semanas después de que xAI y Oracle cancelaran su acuerdo millonario en servidores. xAI tenía alquilados los chips de IA de NVIDIA a Oracle, pero decidió construir su propio mega servidor poniendo fin al acuerdo con Oracle, lógicamente bastante más potente.
Los datos puestos en perspectiva
Que os digamos que Elon Musk ha construido (bueno, él no, más bien su dinero) un mega clúster de servidores con 100.000 gráficas NVIDIA parece una auténtica burrada, pero lo es más si ponemos los datos en perspectiva.
Cada una de las gráficas NVIDIA H100 tiene un precio de aproximadamente 30.000 dólares. La IA GROK 2 ha utilizado 20.000 unidades, lo que significa que la inversión solo en tarjetas gráficas es de unos 600 millones, y eso sin contar el resto de la infraestructura. GROK 3 utiliza 100.000 unidades, por lo que estamos hablando de un gasto de 3.000 millones de dólares solo en gráficas… y de nuevo hay que sumar el resto de la infraestructura, por lo que fácilmente nos vamos a 5.000 millones.
Por cierto, aquí hay que comentar un dato más: al principio hemos mencionado que Elon Musk llegaba un poco tarde al tren de la IA, y esta afirmación se ve acrecentada por el hecho de que NVIDIA está a punto de lanzar al mercado su nueva generación de gráficas para IA, las H200, que llegarían en algún momento de este tercer trimestre del año. Estas gráficas en teoría proporcionan hasta un 45% más de rendimiento en IA generativa, así que imaginad lo que Musk podría haber conseguido si hubiera esperado a que las H200 estuvieran disponibles…