La Inteligencia Artificial se ha convertido en una herramienta fundamental para las grandes empresas. Mientras que algunas contratan estos servicios a terceros para ahorrarse las millonarias inversiones necesarias en GPUs, otros crean la suya propia, como es el caso de Tesla. En la última conferencia de resultados que celebró la compañía ayer, Elon Musk habló sobre la potencia actual y futura de su IA.
No estamos hablando de la IA de X (anteriormente conocida como Twitter), sino de la Inteligencia Artificial que ha permitido a la compañía crear un sistema de conducción autónomo / ayuda a la conducción. Según afirmó Elon Musk, durante el primer trimestre de 2024, la capacidad de entrenamiento de la IA de Tesla aumentó en un 130% en comparación con finales de 2023.
La segunda IA más potente del mercado
Este sustancial incremento se debe a que el número de GPU-100 que Tesla tiene entrenando su IA ha pasado de 10.000 a finales de 2023 a 40.000 a finales del primer trimestre de 2024.
En enero anunció una inversión de 500 millones de dólares para mejorar la IA de Tesla, inversión que equivale a unas 10.000 unidades de la GPU H100 y afirmó que, a lo largo de este año, la compañía aumentaría su inversión en el hardware de NVIDIA.
Stock Talk@stocktalkweeklyTESLA $TSLA A.I. training capacity jumped from roughly 15,000 H100 GPU equivalents at the end of 2023, to nearly 40,000 H100s in Q1 2024.By the end of this year, @elonmusk says Tesla will have 85,000 Nvidia H100 equivalents powering Tesla’s A.I. program (nearly +500% Y/Y 🤯) https://t.co/lbYU6OVmUZ https://t.co/7i8tewGKml
23 de abril, 2024 • 23:54
451
7
Para finales de 2024, Musk afirma que la compañía está trabajando para incrementar su capacidad en un 500% convirtiéndose así en la segunda más grande y seguida, en tercera posición por la IA de X (Twitter). Esto supone que, para finales de año, la IA de Tesla estará entrenada por 85.000 GPU H100 de NVIDIA.
Equivale a 85.000 GPU H100 de NVIDIA, pero ese número podría ser más reducido si, a lo largo del año, Tesla pasa a utilizar la GB200, un chip que combina una CPU Grace con dos GPU H100 y capaz de entrenar una IA con 27 billones de parámetros.
Inversión mil millonaria en IA
Esta gigantesca inversión que está realizando Tesla para mejorar el entrenamiento de su IA llama especialmente la atención, ya que, en los últimos meses, la demanda de sus vehículos eléctricos en el mercado ha bajado debido a que cada vez más fabricantes ofrecen vehículos eléctricos con una relación calidad-precio muy similar.
También ha afectado a las cifras de la empresa, en la que ha registrado un flujo de caja de 2.500 millones de dólares, motivado por el aumento del inventario de 2.700 millones de dólares y un gasto de 1.000 millones de dólares en infraestructura para IA (en GPUs de NVIDIA).
Como hemos comentado más arriba, la IA de Tesla no tiene nada que ver con la xIA, la Inteligencia Artificial de Twitter, también de Elon Musk. Se estima que esta IA está gestionada por entre 26.000 y 30.000 GPUs, GPUs que probablemente sean la H100 de NVIDIA, ya que esta información nunca se ha hecho pública.
Y no se ha hecho pública por X es una empresa privada que no cotiza en bolsa, mientras que Tesla es una empresa que están en manos de los accionistas, por lo que está obligada a anunciar las cifras económicas y de negocio trimestralmente.