La inteligencia artificial ha convertido a la memoria avanzada en uno de los mayores cuellos de botella de la historia de la industria del hardware. Sin embargo, Google acaba de recordar a todo el mercado que también hay maneras de reducir la dependencia absoluta del hardware… con software.
Desde Mountain View han presentado TurboQuant, una nueva técnica de compresión de datos orientada al KV cache de los modelos de lenguaje. Es decir, a una de las partes que más memoria consumen durante todo el proceso. Según la propia explicación de Google, esta tecnología puede reducir hasta 6 veces las necesidades de memoria sin perder precisión, además de mejorar el rendimiento bajo ciertas condiciones.
La reacción del mercado ha sido abrumadora: las acciones de los fabricantes de memoria como Samsung Electronics, SK Hynix y Micron han sufrido severas caídas tras el anuncio. Lo que refleja el miedo a que una IA más eficiente necesite menos DRAM y HBM de la espada. Aun así, no todo queda en la superficie. Varios analistas creen que, a largo plazo, una mayor eficiencia también puede disparar todavía más la adopción de estas tecnologías.
Por qué TurboQuant asusta tanto al mercado
TurboQuant se dirige a uno de los grandes cuellos de botella de la IA: el consumo de memoria durante el proceso de inferencia. Google ha asegurado que su método comprime el key-value cache hasta unos 3 bits por valor sin necesidad de reentrenar el modelo. Incluso mantiene la precisión en las tareas más complejas. Esta misma compresión es la que se puede traducir en una reducción de memoria de hasta 6 veces en aceleraciones y hasta 8 veces en GPUs como la NVIDIA H100.
Ese ha sido el punto de partida que ha llevado al mercado a aterrarse. La explosión de la IA había convertido a la memoria en un activo esencial, y repartido entre los 3 fabricantes mencionados. Estos se han beneficiado todo este tiempo del auge de la HBM y de la demanda de grandes centros de datos. Si una técnica como TurboQuant consigue que cada servidor necesite menos memoria para ofrecer el mismo servicio, la reacción del mercado ha sido la de pensar en una futura desaceleración de demanda de memorias.
Precisamente por eso, el castigo en la bolsa ha sido inminente. Si la IA puede hacer más tareas con menos memoria, algunas previsiones de crecimiento de las 3 grandes empresas pueden frenarse de golpe.
| Empresa | Caída aproximada (%) | Período |
|---|---|---|
| Samsung Electronics | -3,8% | 25-26 marzo |
| SK Hynix | -4,1% a -6,23% | 25-26 marzo |
| Micron Technology | -4,64% a -5% | 25-26 marzo |
Un golpe que puede ser bueno para la memoria a largo plazo
Pero más allá de la reacción de pánico en la bolsa, no todo debe quedarse en este movimiento. Varios analistas citados por SCMP o KED Global defienden precisamente todo lo contrario: una mejora de eficiencia puede abaratar la inferencia, acelerar la adopción y terminar elevando el uso total de infraestructura. Básicamente, es una idea muy cercana a la paradoja de Jevons: el hecho de hacer algo más eficiente no reduce necesariamente su consumo total, sino que a menudo lo expande.
Si lo aplicamos a la IA, significa que, en el caso de que TurboQuant baje costes y permita usar contextos más largos, más agentes, más consultas y más despliegues, la demanda de la memoria puede seguir creciendo aunque cada tarea sea más eficiente. De hecho, en el mercado hay quienes ven el movimiento de estas acciones como una recogida de beneficios tras meses de subidas muy fuertes, en vez de una señal de debilidad.
Es decir: TurboQuant no destruye el negocio de la memoria. Solo obliga a replantearlo. A corto plazo, el susto bursátil impacta porque golpea a una de las premisas del boom de la IA. Pero a medio y largo plazo, puede convertirse en otra pieza para que la IA sea más barata, rápida y se adopte de una manera más amplia.
