GeForce GTX580: Baja su precio para igualarse a las Radeon HD7950

Escrito por Rodrigo Alonso

 

Para allanar el camino a la llegada de las próximas NVIDIA GeForce GTX680 (que comenzarán a llegar en pequeñas cantidades a finales de este mismo mes), NVIDIA está reduciendo los precios de sus GeForce GTX580 de manera sustancial.

Como decíamos, las GTX680 comenzarán a llegar en pequeñas cantidades a finales de este mes, y se espera que comience su lanzamiento en masa durante el mes de Abril. Mientras tanto, NVIDIA quiere dar salida a sus GeForce GTX580, tarjetas gráficas todavía muy válidas y que han sido el buque insignia de la marca durante el año 2011.

NVIDIA bajará el precio de sus tarjetas gráficas basadas en el chip GF-110 y comenzarán a un precio de 339.8 euros (de acuerdo con agregadores de mercado como Geizhals.at). El nuevo precio hará que las GeForce GTX580 de 1.5Gb de memoria se sitúen en un precio por debajo de las actuales AMD Radeon HD 7950, siendo todavía más potentes que éstas, por lo que se sitúan en una gran relación calidad-precio. Las variantes GeForce GTX580 de 3Gb de memoria tendrán un precio similar a las Radeon HD 7950, pero como hemos dicho antes, con un rendimiento superior. Mientras tanto, las NVIDIA GeForce GTX570 bajan su precio hasta los 249 euros.

Podéis encontrar nuestro completo análisis sobre una de estas NVIDIA GeForce GTX580 en el siguiente enlace: MSI N580GTX Lightning.

Fuente de la noticia: TechPowerUp.

Continúa leyendo
  • Esto es una buena noticia; es posible que me plantee cambiar mi crossfire de 2 Radeon 6870 por una GTX580…

    • Y tanto que lo es, yo estoy esperando a las Kepler e Ivy Bridge a ver que tal salen para jubilar ya el E6550 ^^

    • victor

      Como es que quieres hacer tal cambio? Tienes unas gráficas muy buenas!

      • Lo son, y de hecho con una GTX580 perdería un poco de rendimiento. Pero es por comodidad, gano espacio, temperaturas, quebraderos de cabeza con drivers, etc.

        • victor

          Y si te compras por ejemplo una 7870? valen bastante menos y el rendimiento esta muy bien!

  • Draca

    339.8 euros la GTX 580…¿dónde? No la encuentro en ningún sitio a ese precio , las encuentro a partir de 379€ (pccomponentes)

    • Supongo que habrá que esperar un poco a que actualicen precios en España…

  • Eloy

    Las serie 600 la han cagado con la nueva arquitectura, el procesado de double precision, para crunchear en DistrGen Boinc, es muyyy nefasto, y una GTX680 compite con la GTX560 pelada sin Ti ni Oc. una desilusion, y posteriormente un aumento de ventas con las ATI 7950

  • Eloy

    or poner una nota aclaratoria;

    Kepler (Serie 600 y Titan) es una
    evolución directa de Fermi (Series 400 y 500) pero tiene unos cambios
    sustanciales sobretodo en el manejo interno de los trabajos en la GPU,
    la organización de CUDA Cores y Frecuencias, que puede que sea lo que
    os esta confundiendo un poco.

    Hace tiempo que en otro foro hice
    un análisis sobre la arquitectura, que si me permitís adjuntare a
    continuación, tal vez os sirva para aclararos un poco 😉

    Cualquier
    duda que tengáis sobre hardware, sobretodo en tema de CPUs y GPUs,
    podéis preguntarme, no me dedico profesionalmente, pero es un tema que
    le tengo mucho pasión y llevo bastantes años dedicándoselos y me
    desenvuelvo bastante bien, de hecho se podría decir que mi pasión por el
    hardware me llevo a BOINC y viceversa jeje…

    —————————————————-

    La
    arquitectura Kepler es el sucesor natural de la variante Fermi
    GF104/GF114, una variante que se focaliza más en gráficos que en
    computación, es decir, para gamers.

    A alto nivel, un núcleo de
    Kepler (a los que nVidia llama SMXs), es significativamente más grande
    que los de GF104/GF114 (llamados por nVidia SMs). Cada núcleo de Kepler
    puede ejecutar 192 FMAs (Fused Multiply-Adds) de precisión simple por
    ciclo vs los 48 de GF104. GK104 equipa 8 de estos núcleos.

    Núcleo (SM) de GF104/114 “Fermi”
    -32 unidades CUDA, repartidas entre 2 pipelines
    -16 unidades CUDA con capacidad FP64 (precisión doble)
    -16 Unidades Load/Store
    -16 Unidades de funciones especiales de Interpolación
    -16 Unidades de funciones especiales (sin, cos, exp, tan…)
    -8 Unidades de textura

    Núcleo (SMX) de GK104 “Kepler”
    -192 unidades CUDA, repartidas entre 6 pipelines
    -8 unidades CUDA con capacidad FP64 (precisión doble)
    -32 Unidades load/store, repartidas entre 2 pipelines
    -32 Unidades de funciones especiales de interpolación, repartidas entre 2 pipelines
    -32 Unidades de funciones especiales, repartidas entre 2 pipelines
    -16 unidades de textura, repartidas entre 2 pipelines

    En
    el aspecto de la jerarquía de memoria GK104 decrementa la capacidad de
    la cache y la memoria compartida en un 25 % sin embargo la capacidad de
    los bancos de registros se incrementa en un 50 % por lo que compensa en
    cuanto a balance para gráficos.

    Otro cambio importante en lo que
    ha memoria se refiere, es en el ancho de banda de la memoria compartida
    y la cache de datos en que decrementa a 0.33B/FLOP con accesos de 32
    bits, la mitad de GF104, pero hasta 3 veces inferior que GF100/GF110.
    Pero porque hacer esto, porque hacer un downgrade respecto a la
    generación anterior? La respuesta, un producto enfocado a gráficos, no
    computación.

    En generaciones anteriores, nVidia usaba el mismo
    ASIC tanto para computación como para gráficos, sin embargo, actualmente
    no se puede optimizar para ambos a la vez, normalmente si intentas
    optimizar para uno, pierdes para el otro. Por ejemplo cuando se procesan
    gráficos, las tareas gráficas, están diseñadas para trabajar como
    largos pedazos de datos independientes, sean datos de pixeles, vértices o
    geometría, no se requiere de una comunicación intensiva entre cada SMX y
    casi todos los datos permanecen en los bancos de registros privados de
    cada SMX, sin embargo para las cargas de trabajo de propósito general
    (tareas científicas o de ingeniería) se basan en el comparto de datos.
    Por lo tanto, si para los gráficos, no es tan importante ese comparto de
    datos, reducimos el ancho de banda y ahorramos complejidad en el chip y
    por tanto valioso espacio en el silicio. Nvidia comenzó a divergir sus
    productos en dos líneas desde la segunda generación de Fermi los
    variantes de GF104/114 para gráficos y los variantes de GF100/110 para
    multipropósito: gráficos y computación, focalizando más en este último.

    Otro
    cambio arquitectural que beneficia a gráficos es el scheduling
    (repartir y organizar las instrucciones a lo largo de todos los SMXs del
    chip). El compilador JIT (Just in Time) en los drivers, es ahora el
    encargado del scheduling de las instrucciones que se pueden ejecutar sin
    ninguna dependencia en los registros. En Fermi, el scheduling y el
    análisis de si las instrucciones contienen dependencias, es decir que no
    puedas adelantar la ejecución de una operación, porque necesitas el
    resultado de otra antes (C=B+A seguido de B=D*E, por ejemplo), se
    realizaba por hardware y ahora en GK104 se realiza por software, por lo
    que consigues eliminar una importante parte de lógica de control y por
    tanto volviendo a eliminar complejidad y espacio en el silicio sin
    perder mucha ventaja puesto que las cargas gráficas son más predictivas
    que las de computación y por tanto fáciles de compilar. GK104 aun así,
    sigue utilizando algoritmos de marcador (scoreboarding) para las
    instrucciones con mayor latencia como por ejemplo los accesos a memoria.

    Otro
    gran cambio y que a muchos a sorprendido es el clocking en Kepler.
    Desde G80, nVidia a usado un diseño de dos dominios de clock en el chip.
    Estaba el “graphics clock” que gestionaba el hardware de función fija
    como los ROPs, la cache L2, schedulers o unidades de textura que se
    movía entre los 600 y 800 MHz y después el “hot clock” que gestionaba
    los núcleos (unidades CUDA, unidades load/store y unidades de funciones
    especiales) y que funcionaba al doble de la frecuencia del “graphics
    clock” es decir si el “graphics clock” era de 800 MHz el “hot clock” en
    los SMs era de 1600 MHz.

    En Kepler se elimina el “hot clock” y
    se mueve a un solo dominio de clocking para todo el GPU. Reducir la
    frecuencia, directamente reduce la energía necesaria para el alto
    clocking de todos esos elementos y de la lógica que antes era necesaria
    para sincronizar los diferentes elementos, que antes funcionaban a
    diferentes frecuencias, además al no existir ahora frecuencias tan
    altas, también permite que la GPU se manufacture enteramente con
    transistores más eficientes, densos y con menos leakage (corrientes de
    fuga). Algún día comentare sobre los procesos de manufactura en la
    industria del semiconductor.

    Con
    toda la lógica simplificada, eliminada y el paso de proceso de
    manufactura de 40 a 28 nm cada núcleo de GK104 puede contener más
    unidades de ejecución y así compensar la pérdida del “hot clock” en
    GK104 se cuadruplica la cantidad de shaders (de 512 a 1536) respecto a
    GF110. No solo eso, si no que ahora tiene 4 “warp schedulers” en vez de 2
    capaces de enviar 2 instrucciones por ciclo cada uno y el banco de
    registros se ha doblado de 32K entradas a 64K entradas.

    Sin
    embargo, que tenga 4 veces más hardware de ejecución, no significa que
    se cuadruplique el rendimiento vs. la anterior generación, recuerden que
    hemos perdido el hot clock, puesto que la mitad de esas unidades sirven
    para compensar la pérdida del hot clock.

    Otro innovación, es que
    Kepler es la primera GPU de nVidia en incluir escalado dinámico de
    voltaje y frecuencia (DVFS), aproximaciones similares a las CPUs Sandy
    Bridge de Intel y Llano de AMD. El consumo de la GPU es medido
    directamente por los VRMs del PCB de la GPU, el driver es el responsable
    de seleccionar la frecuencia y el voltaje, basándose en el consumo y la
    temperatura como parámetros limite que pueden ser modificados por el
    usuario.

    La
    frecuencia base de la GTX 680 es de 1006 MHz. Con DVFS puede
    incrementar la frecuencia base en incrementos de 13 MHz hasta 1110 MHz.

    En
    cuanto a mejoras específicas para gráficos, podemos encontrar que los
    Polymorph Engine (unidades encargadas principalmente de la geometría y
    el teselado) se han mantenido a 1 por cada SMX, aún habiendo
    cuadruplicado el hardware de ejecución, sin embargo, este Polymorph
    Engine es mejorado respecto al de la versión de Fermi y ahora puede
    procesar los polígonos en la mitad de tiempo. La cantidad de motores de
    rasterización también se han doblado respecto a la generación anterior.
    Los ROPs (Raster Operation Units) se mantienen en el mismo número, sin
    embargo se ha mejorado ligeramente su eficiencia en compresión y
    combinación de polígonos. Estos ROPs permiten un ancho de bus de memoria
    de 256 bits y una cache L2 de 512KB.

    El controlador de memoria de Kepler puede funcionar a un 50 % más de velocidad.

    En
    cuanto a rendimiento en gráficos logra situarse muy cerca de la
    solución de mayor potencia single GPU de AMD de la serie 7000, y en
    muchos casos superandola.
    Sin embargo en computación pierde mucho,
    situándose incluso por debajo de la solución de nVidia de la generación
    pasada, la GTX 580.
    Y por ultimo en consumo y temperaturas, también logra posicionarse muy bien entre su predecesor y sus competidores.

    En
    definitiva nVidia, a construido una arquitectura extremadamente
    eficiente y que elimina muchos de los errores de Fermi, con lo cual
    podría decirse que en esta generación ha ganado en muchos aspectos.

    En
    resumen, es una arquitectura que esta más focalizada y optimizada para
    gráficos que es el principal consumidor que va a tener la gama GeForce,
    es una forma de proteger su Gama Tesla de computación, como ya hicieron
    al principio de esta capando la precisión doble (FP64) en las GeForce
    (Bussines is Bussines). El hecho de perder el Hot Clock, hace que se
    requieran el doble de CUDA Cores para equiparar a una Fermi, y el hecho
    de perder cierto scheduling por hardware, también hace que en teoría
    esta GPU sea más dependiente de la CPU que Fermi, al tener esta que
    realizar cierto trabajo con el driver, cuando antes se realizaba
    internamente en la GPU.

    P.D: Porque se me descolocan todas las imágenes y me queda feo : (