No es ningún secreto que NVIDIA en estos momentos tiene un monopolio en inteligencia artificial, no solo por el hecho de haber empezado mucho antes a apostar por esta disciplina, sino por el hecho de haberse mantenido constante y coherente en una línea sin crear soluciones que compitan entre sí y se devoren entre ellas. No es el caso de Intel que no ha conseguido en todo este tiempo marcar huella.
Intel está tocando el problema de la IA con demasiados palos
Si existe una empresa que tiene todo el potencial en recursos, cuota de mercado, y relación con los desarrolladores como para romper el dominio de NVIDIA en IA, esta es Intel. Sin embargo, nos encontramos con que la empresa de verde parece ser que es la que se está beneficiando de todo el boom del aprendizaje profundo con el boom de los servicios basados en estas tecnologías. ¿El motivo? Simple, todas las aplicaciones usan librerías CUDA que necesitan hardware de NVIDIA para funcionar, incluso han llegado a sacar su propia CPU, basada en ISA ARM y bajo el nombre Grace, para desplazar a Intel y AMD de los centros de datos especializados.
Sin embargo, todo éxito, aunque se basa en el trabajo propio, también tiene que ver con la suerte y esta viene a veces con los traspiés de tus rivales. Y sinceramente Intel en IA es justamente el ejemplo perfecto de tener la casa desunida y enfrentada, demasiadas propuestas no compatibles entre sí y algunas incluso compitiendo en el mismo espacio.
Aunque lo mejor será listarlas para que veáis todo el lío existente:
- Las instrucciones AVX-512 pensadas para la IA que se ejecutan en algunos procesadores Xeon e Intel Core.
- Ya sin salirnos de la CPU, tenemos las unidades AMX, lo cual son núcleos del tipo Tensor pero en la CPU.
- Y si de núcleos del tipo Tensor se refiere, también nos las podemos encontrar en las Intel ARC con el nombre de XMX.
- También podemos usar los FPGA de Intel para ello.
- Todo ello sin hablar de los múltiples chips especializados en Deep y Machine Learning que han ido desarrollando.
Cómo se puede ver son demasiadas apuestas para solucionar un único problema, ejecutar algoritmos de IA, sea en un ordenador, una estación de trabajo o un servidor.
OneAPI cómo solución a los problemas de Intel
En vez de buscar una solución de hardware unificada no se les ocurrió otra cosa que crear una API de desarrollo universal a la que han llamado OneAPI y que engloba todo tipo de hardware creado por la empresa cofundada por el ya fallecido Gordon Moore. Básicamente, lo que han hecho es lanzarse a que se peleen entre sí las diferentes opciones de hardware existentes que ya serán los usuarios finales los que realicen la opción. Dicho de otra manera, es un cruel juego de la silla dónde poco a poco las diferentes soluciones propuestas para la IA se irán descabalgando hasta quedar solo una de ellas.
Guía para dispararte a tu propio pie
Desde hace tiempo que se ha demostrado que la arquitectura base usada en las GPU con unos pocos cambios son excelentes procesadores para la IA, no solo eso, sino que además al usar memorias de alto ancho de banda y es importante por el hecho que para poder sostener la capacidad de cálculo de este tipo de unidades hacen falta unos anchos de banda realmente grandes. El gran problema viene cuando lo habitual es que las CPU tengan memoria RAM más optimizada de cara a la latencia que el ancho de banda, y esto último es clave para la ingente cantidad de operaciones para la IA.
Tanto es así que Intel en el caso de sus Sapphire Rapids, con tal de sacar provecho de las unidades AMX que se encuentran en los 56 núcleos Golden Cove que hay en su interior, necesitan usar memoria HBM. Por otro lado, si os preguntáis por qué no existe una ARC A790 con una mayor cantidad de núcleos, este es el motivo. Han querido que toda la apuesta por la IA en servidores dependa de la venta de estos procesadores, ya que ese es el negocio principal de Intel.
Sin embargo, hay un motivo por el cual usar una GPU funciona mejor, no solo por el hecho que NVIDIA lo ha demostrado, sino más bien todo se explica en que las operaciones e instrucciones usadas en la IA son sumamente simples. Esto permite colocarlas en un núcleo de GPU sin problemas que es mucho más pequeño. El caso es un chip gráfico con 56 núcleos, tendría un coste mucho más bajo que un procesador de ese tamaño. Solo hay que ver lo mastodóntico que es Sapphire Rapids.
Una tarjeta gráfica la puedes colocar en cualquier ordenador
Continuando con el argumento anterior, nos encontramos con el hecho de que si se quiere trabajar en alguna disciplina relacionada con la IA en un PC me basta con comprar una tarjeta gráfica. Es por eso que la estrategia de Intel en la IA es errónea. No todo el mundo tiene los medios y tampoco los recursos en montarse un servidor o una estación de trabajo de alto calibre. Pero lo mejor es ponernos en situación, el precio oficial en dólares del Intel Xeon 9480 Max es de 12.000 euros aproximadamente y solo la CPU, como podéis entender, no son para el usuario que usa un ordenador normal.
La idea detras de los Xeon de cuarta generación es simple: ¿para que quieres una tarjeta gráfica para ejecutar el algoritmo de inferencia si tienes una CPU con las unidades necesarias para ello? El problema viene cuando otra división de la propia Intel estaba desarrollando una GPU bajo el mismo propósito.