A partir de los 5 nm las CPUs de Intel y AMD podrían envejecer antes

A partir de los 5 nm las CPUs de Intel y AMD podrían envejecer antes

Javier López

Normalmente cuando compramos un procesador lo hacemos con vistas a que nos dure X tiempo. En algunos casos dicho tiempo se extiende bastante, pero cuando consideramos que debemos cambiar, es posible que vendamos dicha CPU y esta termine en manos de una cadena de usuarios que le seguirán pidiendo el mismo rendimiento. Esto podría acabarse, o al menos recortarse con los procesadores que están por venir, ¿por qué habrá un envejecimiento de las CPU a mayor ritmo?

No vamos a descubrir nada si decimos que los nuevos procesos litográficos son cada vez más y más complicados, que toda la industria está gastando ingentes cantidades de dinero y que la inversión será mayor porque los desafíos a enfrentar así lo requieren. Pero, aunque se subsanen muchos de los problemas, hay uno en concreto que no deja dormir a muchos ingenieros: el envejecimiento prematuro de los chips a partir de ciertos nanómetros.

Envejecimiento de las CPU, ¿por qué ocurrirá y en qué medida?

Best-Processors-CPUs-for-Streaming

Hay varios factores que determinarán el envejecimiento prematuro de las nuevas CPU y posiblemente de las nuevas GPU. El primero es muy simple: se están llevando los diseños de los chips muy cerca del límite físico de frecuencias, núcleos y en general, de diseños excesivos que buscan ganar rendimiento diferenciándose con ello de la competencia.

El mejor ejemplo actual lo tenemos en el i9-10900K, una CPU que apenas tiene margen de overclock, donde el muro de tensión para temperaturas comunes llega muy rápido y donde el diseño de sus 14 nm+ ha llegado al límite físico por parte de Intel.

Esto supone un segundo factor que hay que tener en cuenta: el llamado estrés eléctrico. Elevar las frecuencias implica que el voltaje tiene que hacer lo propio y con ello, el chip sufre un mayor estrés eléctrico que obliga a Intel en este caso a dejar un margen de seguridad mínimo con dicho procesador. Esto genera dos efectos más adyacentes, no solo a esta CPU en concreto, si no a cualquiera que esté en su misma situación y que se conoce como autocalentamiento e intensidad de campo.

La temperatura alta logra un efecto muy curioso en los electrones, ya que los migra constantemente del metal más duro al más blando (electromigración) y esto cambia exponencialmente la vida del chip, sobre todo a ciertos delta de temperatura.

Inestabilidad de sesgo negativo

Hay otro dato curioso aparte de todo lo dicho y que se va a hacer todavía más grande conforme nos acerquemos al nanómetro en sí mismo y es el factor de inestabilidad de sesgo negativo. Este factor determina que voltaje se aplica a cada tipo de nodo según valores como la densidad, frecuencia o intensidad de campo.

Esto viene a decir que, aunque se reduzcan los nanómetros, el voltaje mínimo aplicable no se reduce en la misma medida. Por ejemplo, a 28 nm el voltaje mínimo oscilaba de media en 1,2 voltios o 1,3 voltios, pero para los 3 nm se estima que estaremos en 0,6 o 0,7 voltios en idle. La densidad en este ejemplo se ha multiplicado casi por 8, pero el voltaje apenas se ha reducido un 50%, lo cual genera problemas de sobrecalentamiento entre las interconexiones de los dispositivos.

Debido a todo esto, los fabricantes de las obleas han tenido que crear un sistema muy curioso de monitoreo y prueba de los chips, ya que cada usuario le da un uso distinto a cada CPU. Desde el que no hace overclock y tiene un buen sistema de refrigeración, hasta el que lleva al límite al mismo con chiller y voltaje manual para 24/7. El sistema se ha denominado burn-in testing y es bastante acertado dicho nombre.

Burn-in testing

El objetivo de esta prueba en las obleas es muy simple, ya que lo que se busca es envejecer a una serie de obleas previamente seleccionadas y registradas, de manera que mediante este proceso artificial se pueda comprobar su funcionalidad y confiabilidad. Además de esto, los fabricantes pueden añadir métodos de control mediante ciertos sensores, que tienen predefinidos ciertos tiempos donde los electrones deben dar la vuelta a un buque. Si el electrón tarda más o no pasa, el sensor detecta dicho problema e informa de la degradación del chip.

El problema lógicamente es que estos sensores son extremadamente caros y solo se usan en las fundiciones bajo el Burn-in testing, pero sería interesante tener algo así en todos los procesadores.

En definitiva, tanto Samsung, como Intel y TSMC se han dado cuenta de que sus dispositivos, si se someten a campos eléctricos más altos, se degradan mucho más rápido que antes a medida que reducen los transistores. Esto va a ocasionar que los costos de comprobación de las obleas sean mayores porque tienen que garantizar un mínimo de vida útil y seguramente termine afectando a las frecuencias y voltajes, por lo que las arquitecturas tendrán mucho que decir en este aspecto.