Anoche, NVIDIA celebró su evento anual GTC (GPU Technology Conference) donde, entre otras cosas, sorprendió presentando oficialmente DLSS 5. Pero durante el evento, los fabricantes de memoria como Samsung, Micron, SK Hynix y Phison también tuvieron su protagonismo, anunciando todos ellos novedades relativas a los productos de memoria, con unos anuncios especialmente relevantes dado el momento de crisis que sacude al sector desde el año pasado.
Obviamente cada cual ha barrido para casa y ha presentado o anunciado lo suyo, y lo que os queremos decir con esto es que ninguno ha hablado de temas de escasez, aumento de producción o fecha estimada para el fin de la crisis, pero a pesar de ello todos estos anuncios tienen relevancia para el tema así que vamos a verlos uno a uno.
Samsung desvela soluciones HBM4E para la era de la IA
Samsung ha aprovechado el evento de NVIDIA para presentar sus nuevas soluciones HBM4E, una evolución directa de la memoria de alto ancho de banda que será clave para la próxima generación de aceleradores de IA. La compañía no solo ha mostrado chips, sino una visión global de su ecosistema.
Uno de los puntos más importantes es el papel que jugará esta memoria dentro de las futuras plataformas de NVIDIA, especialmente arquitecturas como Vera Rubin donde el ancho de banda de memoria y la eficiencia energética son críticos. Además, la compañía ha destacado su hoja de ruta tecnológica, subrayando que HBM4 y su evolución HBM4E serán fundamentales para sostener el crecimiento de la demanda de la IA a medio y largo plazo.
SK Hynix: memoria HBM para IA y nuevas soluciones avanzadas
SK Hynix también ha hecho acto de presencia en el evento reivindicando su posición dominante dentro del mercado de la memoria para IA. La compañía ha centrado su presentación en cómo su tecnología no solo responde a la demanda actual sino que están preparados para sostener el crecimiento exponencial de la IA en los próximos años. No es broma, de verdad estas han sido sus declaraciones.
Uno de sus pilares seguirá siendo la memoria HBM, y han afirmado que ya trabajan en la HBM4 que llevará la arquitectura Rubin de NVIDIA. Han hablado nuevas soluciones de empaquetado avanzado y eficiencia energética, pero más allá de esto, también han puesto el foco en otras soluciones para IA, y han comentado la creciente presión del mercado, que tiene una demanda sin precedentes hasta tal punto que está provocando tensiones en el suministro global de memoria.
Micron: HBM4 en producción, nuevos módulos SOCAMM2 y SSD PCIe 6.0
Micron ha realizado algunos de los anuncios más contundentes del evento, y ha sido el primero que no se ha centrado solo en la IA. El foco principal, igual que los otros dos principales fabricantes de memoria del mundo, ha sido HBM4 para Vera Rubin, del que han dicho que alcanzará un ancho de banda de más de 2,8 TB/s mejorando la eficiencia.
Pero no se han quedado ahí y han anunciado también nuevos módulos SOCAMM2, pensados para sistemas de alto rendimiento. Permiten configuraciones de varios Terabytes por CPU, con un ancho de banda que puede superar 1 TB/s, y que no solo es ideal para trabajos de IA sino también para HPC, es decir, PC de gama alta. También han hablado de su nueva generación de SSD PCIe 6.0, capaz de duplicar el rendimiento de la generación PCIe 5.0 actual, pero lamentablemente no han dado fechas de nada.
Phison también habla de la IA, pero la IA local
Phison ha tenido un enfoque diferente al resto: en lugar de centrarse en HBM o nuevas generaciones de memoria, su propuesta gira en torno a cómo afrontarán el cuello de botella actual de las IA. Para ello, la compañía ha hablado de su tecnología aiDAPTIV+, diseñada para ampliar la memoria efectiva del sistema utilizando almacenamiento flash como extensión del pool de memoria, lo que permitiría ejecutar modelos de IA local mucho más grandes.
La clave está en aprovechar SSD y controladoras propias para actuar como una especie de memoria auxiliar que descargue parte del trabajo a la DRAM y VRAM, especialmente en tareas de inferencia. Con esta estrategia, según Phison, buscan democratizar el acceso a la IA, llevando capacidades avanzadas a PCs, estaciones de trabajo e incluso dispositivos Edge sin depender de grandes centros de datos. Vamos, IA local.
Como podéis ver, en este momento todos los fabricantes de memoria parecen inclinados hacia los sistemas de Inteligencia Artificial y, salvo en el caso de Micron, únicamente en HBM4. También es algo normal que solo hayan hablado de estas cosas ya que el escenario era el GDC de NVIDIA y, como os podéis imaginar, la intención era presentar cosas relacionado con el gigante de las GPU.
