NVIDIA reducirá la litografía de Pascal a 14 nanómetros

Escrito por Rodrigo Alonso

Al final parece que NVIDIA no va a saltarse la litografía de 14 nanómetros en el camino hacia los 10 nanómetros que llegarán próximamente. La compañía ha confirmado que ha llegado a un acuerdo con Samsung para que reduzcan sus actuales chips Pascal de 16 nanómetros, fabricados por TSMC, gracias al proceso FinFet a 14 nanómetros que poseen.

El tema es el siguiente: como sabéis, las nuevas generaciones de gráficas son de 14 nanómetros en AMD y de 16 nanómetros en NVIDIA. El siguiente paso para ambos son los 10 nanómetros, pero NVIDIA ha llegado a un acuerdo con Samsung para que realicen una reducción óptica de sus actuales chips Pascal utilizando su proceso de fabricación a 14 nm. Ésto significa que futuras gráficas NVIDIA Pascal vendrán fabricadas a 14 nanómetros y no a 16 como las actuales, siendo con ello igual de potentes pero con un consumo inferior y unas temperaturas de funcionamiento menores.

Pascal

Por el momento, la compañía solo ha anunciado el acuerdo y sus intenciones, pero no ha dejado claro si solo afectará a las próximas gráficas Pascal que están por llegar (es decir, los próximos nuevos modelos) o si los modelos actuales también serán actualizados con el nuevo proceso de Samsung. Creemos, sinceramente, que más bien será para los próximos modelos de gráficas pues hay bastantes papeletas de que NVIDIA ya tenga un gran número de chips a 16 nanómetros fabricados, y lógicamente querrán deshacerse de ellos.

No es la primera vez que NVIDIA recurre a una estrategia similar

Ya en el pasado NVIDIA hizo algo similar. La reducción óptica consiste en literalmente copiar los chips que tiene ahora mismo y fabricarlos con un proceso más pequeño. La compañía lo hizo ya con los nodos de 65 y 55 nanómetros hace tiempo, no es un proceso para nada costoso ni complicado que al final solo le reportará mejores resultados, así que tampoco es descabellado.

La previsión es que los nuevos chips NVIDIA Pascal a 14 nm entren en la fase de producción en masa para finales de éste mismo año (el diseño está hecho y Samsung tiene las fábricas listas, así que solo hay que esperar a que se pongan manos a la obra).

Continúa leyendo
  • david

    no me puedo creer que nos tuviesen estancados en los 28nm como 3 años y ahora parece que van a cambiar de litografía cada año pero… a que precios!!

  • Hachazos

    Pues es una buena noticia…excepto para los que ya han comprado una Pascal a 16 nm jajajaja

  • EpsylonRad

    Evidentemente entonces, debe haber una ventaja entre los 14nm Samsung y los 16 de Tsmc. Sino, no valdría el cambio.

    • Amd

      La única ventaja es la capacidad de producción y el precio de samsung.

      • EpsylonRad

        La verdad que en capacidad de producción y precio, a cambio de tal vez un nodo menos maduro, no le veo el negocio.

        Ademas será un verdadero patadon a los compradores de pascal 16nm si en 14nm hay diferencia de rendimiento en un mismo modelo.

        • Amd

          Es que diferencia de rendimiento no hay.

          • EpsylonRad

            Eso esta por verse, o tu tienes la pelota de cristal?

          • Amd
          • EpsylonRad

            Yo también.
            https://hipertextual.com/2015/10/apple-a9-samsung-y-tsmc
            Por eso dije que:
            “La verdad que en capacidad de producción y precio (Samsung), a cambio de tal vez un nodo menos maduro (TSMC), no le veo el negocio”

            Entiendes ahora?

          • Amd

            Entiendo que lo que me estás diciendo es que aún en el caso de que el nodo de fabricación sea el mismo, el hecho de que cada compañia utilice diferentes medidas de transistores y puertas pueda suponer una diferencia sustancial.
            Sinceramente, creo que no.

            Como dice el artículo que citas, “dependiendo de la fecha de fabricación impresa en la caja un procesador puede tener una identificación de voltaje (VID) diferente al que salió de la fabrica la semana anterior.”

  • kratos

    Lo que dejará aún más en evidencia la mala eficiencia energética de Polaris…

    • Amd

      No te creas, en consumos los 16 nm de tsmc y los 14nm de samsung están casi a la par.

      Incluso aunque consumiera más, a nvidia no le supondría nada, en la relación rendimiento/consumo no tienen rival.

      • EpsylonRad

        No se ve ese “rendimiento” del que hablas cuando las pruebas se hacen en DX12 y mucho menos en Vulkan.

        • Amd

          Pero en dx11 si la has visto.

          • EpsylonRad

            Pero Dx 11 es el PASADO. Asi estamos.

          • Amd

            Pasado, pasado es. Si el 60% de jugadores online no tienen hardware/software para poder usar dx12, que crees que hará la industria?
            La adopción de dx12 no va a ser todo lo rápida que debería.
            Respecto a async, indaga un poco sobre el tema, así sabrás que nvidia lleva desde kepler con capacidad para usarla.

            La diferencia radica en la cantidad de llamadas que soporta la versión de nvidia o la de amd. La de nvidia soporta un máximo de 64, y amd por encima de 128 no tiene rival.
            Con lo que la diferencia de rendimiento de la que hablas se ve en mayor o menor medida reflejada en la manera de implementar async.
            Saludos

          • EpsylonRad

            Pasado.
            Porque todos los nuevos juegos, tienen su “parche” DX12 y además Dx12 te brinda un aumento de rendimiento por un mejor uso del GPU tengas el CPU que tengas.

            La adopción no se como será pero el 40% de los jugadores Online y no online con DX 12 es un buen numero, por eso ya comenzó la adopción-.-.-

            Ademas AMD tiene varias generaciones que de distinta forma ya adoptan DX12… casi todo o todo GCN y Nvidia tiene un par.

            Indaga tu sobre Async… El peor fiasco de Nvidia. Lo emula, no lo tiene por hardware… y en maxwell dinamita el rendimiento en algunos casos. Pascal solo la 1070 y la 1080 aumentan un poquito el rendimiento en Async pero un poquitito. Saludos

          • Amd

            La cuestión es como serán esos parches de dx12, esperemos que no como en el tomb raider.
            En el resto estoy en casi todo deacuerdo contigo, y a modo informativo te copio esto, perdón por el tocho.

            Well, can it really do Asynchronous Shading?
            Yes. Both the GCN and Maxwell architectures are capable of Asynchronous Shading via their shader engines.
            GCN uses 1 graphics engine and 8 shader engines with 8-deep command queues, for a total of 64 queues.
            Maxwell uses 1 graphics engine and 1 shader engine with a 32-deep command queue, for a total of 32 queues (31 usable in graphics/compute mode)
            Both GCN and Maxwell (pg. 23) architectures claim to use context switching/priority at the shader engine to support Asynchronous Shader commands.
            Prove it
            Well, some guy on Beyond3d’s forums made a small DX12 benchmark. He wrote some simple code to fill up the graphics and compute queues to judge if GPU architecture could execute them asynchronously.
            He generates 128 command queues and 128 command lists to send to the cards, and then executes 1-128 simultaneous command queues sequentially. If running increasing amounts of command queues causes a linear increase in time, this indicates the card doesn’t process multiple queues simultaneously (doesn’t support Async Shaders).
            He then released an updated version with 2 command queues and 128 command lists, many users submitted their results.

            On the Maxwell architecture, up to 31 simultaneous command lists (the limit of Maxwell in graphics/compute workload) run at nearly the exact same speed – indicating Async Shader capability. Every 32 lists added would cause increasing render times, indicating the scheduler was being overloaded.
            On the GCN architecture, 128 simultaneous command lists ran roughly the same, with very minor increased speeds past 64 command lists (GCN’s limit) – indicating Async Shader capability.

    • EpsylonRad

      Polaris al parecer es GCN3.0 llevado a finfet y reducido en litografia… no se si arquitectónicamente hubo una mejora reconocible.

      Dice AMD que será Vega esa mejora. Por eso es que en 14nm 16nm sigue siendo pascal “maxwell” superior en relación al rendimiento DX11 con mejor consumo.

      Cuando hablamos de 28nm o 14nm y con Async y DX12 activados, ya es otro cantar.

      • Amd

        Estás mezclando churras con merinas, en cuanto a litografía no hay apenas diferencia de rendimiento/consumo en 16nm o 14nm.

        Ya si quieres hablar de Async, dx12 y del futuro, igual necesitas otro articulo.

        • EpsylonRad

          A soñar con Churras y Merinas.

          • Amd
          • EpsylonRad

            Falta compresión lectora amiguito y entendimiento del sarcasmo. El que hablo de Churras con Merinas fuiste tu.
            Por más diminuta que sea la diferencia, hay una diferencia en 14 y 16 nm—

            Pero lo más importante:

            YO NO HABLE DE ESA DIFERENCIA.

            Lo que dije es que Pascal es un Maxwell llevado a 16nm y Polaris, un GCN 3.0 (Fiji-tonga) a 14nm.

            Reconoci en el comentario que en cuanto a ARQUITECTURAS, Maxwell es superior a GCN 3.0 en cuanto a consumo Dx11 y que NO HAY VARIABLE en esa diferencia que se pueda suplir con 2nm de DIFERENCIA.

            En DX12 es otro cantar.

            Ahora, entendiste? o queres que te lo grafique de otra manera?

          • Amd

            La verdad es que no pretendía entrar a comparar arquitecturas,
            lo que quería dejar claro es que la diferencia de 2nm de la que hablas es una diferencia de nomenclatura unicamente.

            TSMC has opted for the nomenclature 16nm to describe its finFET-based process, which is consistent with the ITRS naming, while GlobalFoundries and Samsung Electronics use the term 14nm.