Desde luego, AMD no se rinde y no va a consentir que NVIDIA continúe con su hegemonía en el terreno de la Inteligencia Artificial. Por este motivo, ayer por la noche tuvo lugar una conferencia en la que AMD nos mostró sus avances en la IA, entre los que destacamos la nueva GPU con la que pretende dar guerra a los de verde. Se trata de sus aceleradores de próxima generación, los Instinct MI350X e Instinct MI355X, basados en arquitectura CDNA 4 y que prometen saltos significativos en rendimiento, memoria y escalabilidad. Vamos a verlos con más detalle.
Este anuncio, a pesar de llegar con el Computex ya finalizado lo hace en un momento en el que el mercado de la inteligencia artificial sigue monopolizado por NVIDIA y su plataforma CUDA. AMD, sin embargo, parece dispuesta a plantar cara con una combinación de potencia bruta (típico en ellos), eficiencia y un fuerte compromiso con los estándares abiertos.
AMD y la IA: un salto técnico de lo más ambicioso
La serie Instinct MI350X es la primera incursión real de AMD en el mercado de la IA con su nueva arquitectura CDNA 4. Está fabricada utilizando chiplets a 3 nm para las unidades de cómputo, aunque se mantienen en los 6 nm para los controladores de entrada y salida. Con todo, prometen que esta generación tendrá mejoras sustanciales tanto en densidad de transistores como en eficiencia energética.
Cada una de estas GPU contará con 288 Compute Units y, ojo al dato, 288 GB de memoria HBM3E, alcanzando un ancho de banda brutal que llega a 8 TB/s. Estas cifras duplican lo que AMD tenía en la generación anterior, y sitúan por primera vez a AMD en una posición competitiva con respecto a lo que ofrece NVIDIA en su cartera de productos para IA, como su serie H200 y la plataforma Blackwell.
Uno de los aspectos más llamativos es su enfoque modular. Los componentes pueden escalarse y particionarse de forma dinámica, pudiendo utilizar hasta 8 GPU por nodo con conexiones de alta velocidad entre ellas. Además, AMD ha apostado como siempre por formatos abiertos como Open Accelerator Module (OAM) o UALink, una alternativa abierta el NVLink de NVIDIA.
Dos versiones hacia una IA más accesible
La compañía de Lisa Su ha anunciado dos variantes de su nuevo acelerador: el Instinct MI350X, orientado a sistemas relativamente más modestos, con refrigeración por aire y menor consumo, y el Instinct MI355X, diseñado para instalaciones con refrigeración líquida y que promete un rendimiento mucho mayor pero a costa de tener un TDP que puede alcanzar la friolera de 1.400W.
Según AMD, en cargas de trabajo de inferencia el rendimiento del Instinct MI350X puede llegar a sacarle hasta un 30% de ventaja a las soluciones de NVIDIA. En cargas de trabajo de entrenamiento la diferencia es más ajustada, pero todavía es competitivo con los de verde. No obstante ya sabéis cómo va esto, las cifras que proporciona AMD son internas y obtenidas en escenarios ideales, por lo que como siempre decimos hay que tomar estos datos con pinzas hasta tener benchmarks realizados por agentes independientes y no por quien fabrica el producto.
Por otro lado, AMD ha lanzado un mensaje clave durante la competencia, y es su compromiso con tener un ecosistema abierto, algo que choca con el enfoque cerrado y propietario de NVIDIA (como siempre, exactamente igual que en tarjetas gráficas convencionales, vamos). AMD aboga por un sistema abierto tanto a nivel de hardware como de software porque, según dicen, es esencial para democratizar el acceso a la inteligencia artificial.
Hay más cosas en camino
AMD ya ha adelantado que 2026 será un año clave para ellos, porque llegará la arquitectura MI400 con memoria HBM4, mayor ancho de banda y diseños más ambiciosos que podrían llegar a duplicar el rendimiento en cargas de trabajo FP4. Según Pegatron, uno de los socios de AMD en esto de la IA, ya están preparando racks con 128 GPUs MI350X capaces de superar el Petaflop de rendimiento en IA.
En resumen, AMD no piensa quedarse atrás. Bueno, realmente están muy por detrás, llegaron bastante tarde a esto de la IA y por eso NVIDIA les ha sacado ventaja a todos, pero quieren recuperar el terreno y están apostando fuerte por las infraestructuras de inteligencia artificial. Veremos en qué termina todo esto, pero como siempre decimos, está bien que haya competencia, el monopolio jamás es bueno.