La NVIDIA GeForce GTX 1080 Ti utilizará el chip GP102

Escrito por Rodrigo Alonso

Era más que evidente que aun habiendo presentado ya las GTX 1080 y GTX 1070, NVIDIA se guardaba varios ases en la manga. El más evidente de todos es la GTX 1080 Ti, gráfica que utilizará el segundo “gran chip” de arquitectura Pascal de la marca: el GP102. Os contamos todo lo que se sabe sobre él.

El primer “gran chip” de ésta generación es el GP100 que debutó con el chip gráfico Tesla P100. Es un chip muy caro que utiliza una combinación de núcleos FP32 (precisión simple) y FP64 (doble precisión), utilizando un total de 3840 SPFP y 1920 DPFP en total, sumando 5760 CUDA cores, casi nada. Claro que los núcleos FP64 son prácticamente inútiles para el consumidor, particularmente en las manos de un usuario que se compra una gráfica para jugar. A esto hay que sumarle que éste chip emplea una interfaz de memoria HBM2 de 4096 bits con los chips de memoria integrados en la propia GPU, algo que hace del chip todavía más caro y motivo por el que NVIDIA ha relegado éstos chips para el ámbito profesional y lanzará otras versiones basadas en éste para el consumidor de a pie.

NVIDIA GP100

Vale, hecha la explicación vamos a lo que más nos interesa. Por lo que parece NVIDIA no ha encontrado el término medio entre el super potente chip GP100 y el simple GP104 todavía, y es que de hecho la competencia de AMD hará imposible que los de verde puedan vender una gráfica de consumidor basada en el chip GP100 a un precio que ronde los 650 dólares.

Aquí es donde entra en juego el seguido gran chip de la marca, el GP102. Éste ASIC estará orientado al mercado de consumidor y no al profesional, es decir, para productos GeForce GTX Series que incluirá en primera instancia la NVIDIA GeForce GTX 1080 Ti. Para esto, NVIDIA ha eliminado los cores FP64 reduciendo el consumo y por supuesto el coste de fabricación, por lo que estaremos ante un chip con un total de 3840 cores FP32, un 33% más de los que tiene el actual chip GP104 (de igual manera a como el chip GM200 tenía un 33% más de núcleos que el GM204).

NVIDIA GTX 1080 Ti

Ahora bien, hay debate entre los especialistas en hardware sobre qué hará NVIDIA con respecto a la memoria gráfica de la próxima GTX 1080 Ti. Los hay que están convencidos de que la marca utilizará memoria gráfica GDDR5X para abaratar todavía más el coste y sacarle un mayor partido a ésta tecnología, dejando la memoria HBM2 para el verdadero tope de gama (la próxima GTX Titan, lógicamente, una gráfica que ya solo por su nombre NVIDIA venderá a buen seguro por encima de los 1500 euros).

Vía | WCCFTech.

Continúa leyendo
  • Pancho Nopalero

    Proximamente Maxwell capada por drivers jaja.

    • Kibo

      Yo tengo una 780TI y con los últimos divers me va mejor aún, pero bueno, siempre os podéis consolar en que seguramente AMD este año no saque un nuevo refrito súper barato que le haga tener menos beneficios por quinto año consecutivo y que en las Nvidia con más de dos años explotan por qué están maldecidas por el inframundo; yo mientras esperare a ver qué saca este junio AMD que tenga mejor rendimiento que las 1080 o que saca a finales de año que sea mejor que las 1080 TI que “según dicen algunas fuentes Irán con memoria DDR3 ; ) ” y según vea comprare mi nueva GPU mono núcleo con el objetivo de aguantarla otros 2 años, aunque mi presupuesto estará entre 800 y 900 eurillos así que las locuras tipo titan o fury x2 las dejare para otros. PD: dejad de especular que si pudiera un post con las especulaciones a favor y en contra de AMD o Nvidia que se han escrito aquí en los últimos dos años y lo que finalmente ha ocurrido realmente…

      • Juan Ulises Barba Andrade

        memoria DDR3 ? .-. no se donde leiste ese rumor pero es completamente absurdo

      • Pancho Nopalero

        La 780ti esta capada wey, ahora la 970 rinde mas, no hay mas!!

  • Ricardo

    “la competencia de AMD hará imposible que los de verde puedan vender una
    gráfica de consumidor basada en el chip GP100 a un precio que ronde los
    650 dólares.”

    XD
    Pero si AMD ni siquiera ha presentado nada. Primero veamos que presentan y luego hablamos.