NVIDIA GeForce GTX 1660 Ti: por qué es el doble de eficiente que la AMD Radeon RX 590 si ambas son de 12 nm

Las recientemente lanzadas NVIDIA GeForce GTX 1660 Ti han sido tarjetas gráficas que nos sorprendieron a todos. Primero, por no haber sido esperadas por nadie y, segundo, por su gran relación de precio/rendimiento. Sin embargo, a pesar de tener una die algo más grande que las de las AMD Radeon RX 590 y estar fabricadas en el mismo nodo de 12 nm, el nuevo modelo de NVIDIA es capaz de ser el doble de eficiente que el modelo de AMD Radeon. ¿A qué se debe esta diferencia?
La arquitectura Turing, al menos en su versión completa, ha resultado ser demasiado cara para la gran mayoría de los usuarios. Los precios de las tarjetas gráficas de la gama RTX, en su mayor parte, están bastante por encima de lo que los usuarios están dispuestos a gastar en ellas. Sin embargo, los modelos que montan los núcleos Turing recortados (que carecen, tanto de núcleos RT como de núcleos Tensor), si parecen estar tocando todas las teclas adecuadas con los mismos usuarios.
De entre los nuevos modelos, especialmente notable es el caso de la NVIDIA GeForce GTX 1660 Ti. Este nuevo modelo salió con un rendimiento bastante cercano a la de las ya difuntas GeForce GTX 1070, pero costando 100 euros menos en precio. De hecho, cuando llegó en marzo de 2019 al mercado, su precio de 300 euros provocó que, inmediatamente, el precio de su competidora más directa, la AMD Radeon RX 590 cayera desde los 320 euros que tenía en ese momento, a los 239,89 que tiene hoy.
La culpa la tiene la arquitectura GCN
El problema de la diferencia en rendimiento tan abultada que hay entre ambos modelos de tarjetas gráficas, a pesar que las GeForce GTX 1660 Ti poseen una die de mayor tamaño, estriba, aparte de las posibles mejoras que la propia NVIDIA haya podido introducir en su arquitectura Turing, en que la arquitectura GCN ya ha sobrepasado con mucho su vida útil. Este modelo de arquitectura interna de AMD lleva en el mercado desde los tiempos de las AMD Radeon HD 7000. Es decir, hablamos del año 2012 y se ha venido usando hasta ahora, con las actuales tarjetas AMD Radeon Vega VII. Esta arquitectura interna es muy antigua y requiere un gran volumen de transistores para desarrollar su trabajo. No solamente eso, sino que parece ser que la arquitectura Turing es más eficiente a la hora de no dejar a los transistores inactivos.
También es verdad que el Hardware Scheduler que emplea AMD Radeon en sus tarjetas gráficas lleva años sin haber sido renovado, mientras que el scheduler que emplea NVIDIA es bastante más eficiente en su función.
Por otro lado, el proceso de fabricación en el nodo de 12 nm que emplea Samsung, parece ser bastante más efectivo a la hora de implementar este nodo que el de 12 nm que emplea GlobalFoundries.
De todas formas, hasta que AMD Radeon no lance de manera oficial su arquitectura Navi, no podremos saber si esta va a seguir empleando la arquitectura GCN (lo cual sería un lastre para los nuevos modelos) o va a emplear una arquitectura. Y esto lo sabremos a principios del próximo mes de junio de 2019, durante el Computex 2019, que es cuando AMD tiene previsto presentar sus procesadores Ryzen 3000 y sus nuevas tarjetas gráficas Navi.