AMD Radeon RX Vega 64, análisis completo y comparativa

Escrito por Rodrigo Alonso

Por fin están aquí. Las AMD Radeon RX Vega se lanzan hoy oficialmente como las gráficas más potentes de AMD, y no solo las más potentes sino las que más cargadas vienen de nuevas tecnologías. Pensadas para competir con la gama alta de gráficas de NVIDIA, en el día de hoy os presentamos nuestro análisis del modelo más potente de los dos que lanza ahora la compañía, la Radeon RX Vega 64.

Dado que el otro día ya os mostramos el unboxing de la Radeon RX Vega 64, éste análisis lo vamos a orientar de una manera diferente, presentándoos y contándooslo todo sobre la nueva arquitectura que estrena AMD, y por supuesto mostrándoos los datos de rendimiento, que seguramente sea lo que estáis esperando. Recordad en primer lugar que estamos ante una tarjeta gráfica cuyo precio recomendado de venta es de 499 dólares (el modelo analizado), siendo de 399 dólares el precio del modelo Vega 56, por lo que compite en el mismo segmento que las GTX 1080 normales de NVIDIA. AMD venderá más adelante el modelo con refrigeración líquida a un precio de 599 dólares, y tendrá diferentes packs con placas y procesadores Ryzen que anunciarán más adelante.

En nuestro análisis os vamos a mostrar por fin los datos de rendimiento, y os vamos a explicar a fondo todas las nuevas tecnologías que ésta nueva arquitectura de AMD trae consigo, que no son pocas. Como siempre, esperamos que nuestro análisis os guste y que os resulte de utilidad. Para leer el análisis completo, solo tenéis que hacer clic en el siguiente enlace:

AMD Radeon RX Vega 64

Continúa leyendo
  • Pichula

    Bluff de web

  • Anonymus

    Curioso que seas los únicos que hablan en positivo de esta gráfica.
    Podría poner los enlaces, pero si haceis una busqueda rápida en google tendreis decenas de ejemplos.

    • Dreadnought

      Nosotros somos responsables de nuestros análisis y de nuestros resultados. Loque hagan los demás con los suyos, es cosa suya y no nos preocupa lo más mínimo.

      • Anonymus

        Si los análisis están muy bien, y los resultados son los que son.
        El trabajo que os habeis pegado es innegable.
        Son las conclusiones las que le quitan independencia a la review.

        • Torpedo

          Además habláis también de la ventaja de los packs AMD, España no se encuentra entre los países en los q la gente se podrá beneficiar de esos packs, así que el que espere un descuento aquí para un ryzen lo tiene complicado. Entiendo que AMD os ceda material para review y que no estéis en posición de hablar muy mal ya que no os lo cederán más, pero tampoco es cuestión de poner por las nubes a estos dos tostadores que han sacado al mercado. Los test son los que son y dejan ver que son gráficas que llegan 15 meses tarde y más caras aún, y del consumo ni hablamos.

        • Felipe

          No lo prodría haber dicho mejor.

    • Parece ser que soy de los pocos que han visto el potencial de ésta gráfica de cara a futuro, con drivers pulidos y juegos optimizados, y cuando las tiendas dejen de especular con los precios por culpa del minado. Así lo he hecho ver en la conclusión, ni más ni menos.

      • Anonymus

        @ManOwaRFreaK:disqus la gráfica tiene muchas características que bien implementadas en los motores gráficos sacarán un rendimiento extra.

        La cuestión es que no sabemos si se implementarán o no, hace cosa de dos años la gente se rasgaba las vestiduras hablando de los async shaders, y recuerdo oir hablar a un ceo de nvidia respecto a la serie maxwell y decía “de momento no lo necesitamos”.

        Y con esto vuelvo a referirme a lo mismo que le comentaba a @disqus_RttKAJGPBN:disqus , no entiendo como la valoración puede ser tan positiva teniendo en cuenta su rendimiento/consumo y su precio, que para ser lo último que han sacado a la palestra, hay productos similares que llevan un año en el mercado.

        • Tienes razón en el sentido de que está compitiendo con gráficas de hace un año. Pero hay que tener en cuenta el paso de gigante que AMD ha dado con respecto a su generación pasada. Personalmente, en mis análisis no solo valoro la potencia bruta que tiene algo, sino todo: desde si es bonita hasta si hace ruido, pasando lógicamente por el rendimiento y por los pluses que aporta.

  • Bluatsauger Dmp

    A ver si te haces con una vega 56 y sacas otra gran review como la que has echo hoy,buen trabajo,un saludo de un lector tuyo,je je je

    • Dreadnought

      Eso estamos intentando, pero depende de cuándo nos la quiera ceder AMD

  • Torpedo

    Un 9 jajajajaja, vamos hombre un poco de seriedad, una grafica que sale mas de un año despues q la competencia y solo consigue igualarla (a las 1080ti ni se acerca) y encima mas caras y de consumo mejor ni hablamos.

    • kuruta

      cuando salgan los drivers y se hallan pulido vemos 🙂

      • Torpedo

        Si si, cuando los pulan allá por el 2018 estaran las nuevas Nvidia, asi q tu si quieres compra y espera q pulan, q pulan….XDDD

  • Dreadnought

    Yo no entiendo dónde veis el problema. Sí, la gráfica consume bastante. Y sí, todos os habíais hecho muchas ilusiones. Pero AMD nuca dijo que iba a poder batir a la 1080 Ti, verdad?? No, AMD iba tras las GTX 1070 y 1080 y a ambas las bate. Y eso que hablamos de unos driver que están más verdes que un espárrago triguero. O ya no recordáis lo que sucedió con las Radeon R9 390X cuando salieron?? Mismo “problema”. Qué sucedió pasado un tiempo?? Que se comían a las GTX 980 con patatas. Con AMD hay que saber jugar al juego de los drivers

    • fulanodetal

      Si, las bate pero consumiendo mas que ellas, a pesar de tener ya 1 año y medio de ventaja frante a Nvidia.

    • javron

      Ni para que te molestas en explicar si es el mismo tipo en diferentes perfiles de usuario con poca actividad reciente, en resumen es un multicuentas que ya conozco bien.

    • Anonymus

      @disqus_RttKAJGPBN:disqus Como es posible que no veas el problema que el resto si ve.
      Si los comentarios vienen a ser los mismos en todas partes.
      1- Llegan a pelear con gráficas que han salido en Mayo/Junio del 2016.
      2- El consumo en este caso de la Vega 64 es muy elevado teniendo en cuenta su rendimiento.
      3- El precio, si bien acaban de ser listadas, la RX Vega 64 de Sapphire aparece por 615€ https://www.pccomponentes.com/sapphire-radeon-rx-vega-64-8gb-hbm2

      Podemos estar deacuerdo en el resto, tiene un buen rendimiento, cuando aparezcan las series custom solucionaran el problema de temperatura/ruido,
      y con el tiempo ganarán en rendimiento, peeeeero, si llegas un año tarde, por mucho que optimices tu rendimiento con drivers, por mucho que la gente optimice sus motores gráficos para tier_2 de dx12….
      Has llegado tarde.

      P.D Puntos como los que pone en el artículo como pros:
      Consumo relativamente contenido.
      Precio (499 dólares que seguramente se conviertan en 499 euros).

      Ya parecen de cachondeo,

      • Dreadnought

        Claro que veo lo que me estás diciendo, pero será quizás porque ya conozco a Radeon desde hace bastante tiempo que no me preocupa mucho el tema del consumo comparado con Nvidia. Quitando las GTX 480 y 580, Nvidia siempre ha destacado por tener consumos más comedidos. Mientras que Radeon ha sido siempre de consumos mucho más altos. Pero es que en este caso, con el Chill activado, el consumo es bastante bueno. Si no lo activas, claro que es elevado, pero con él activado, el consumo es francamente bueno. O me vas a decir que bajar 100 W de consumo solo por activar un control sin pérdida apreciable de potencia no lo consideras un triunfo??

        En cuanto al precio… está más o menos al que están las Geforce GTX 1080 ahora mismo si miramos los modelos más bajos de la gama. Y recordad que en el análisis la comparamos con una Geforce GTX 1080 con overclock alto.

        • Anonymus

          Tu y yo sabemos que el modo Chill, lo activas en juegos que podrías jugar con la gráfica integrada de Intel y te sobraría chicha.
          Yo la 64 no se la recomendaría a nadie, a no ser que sea muy fan de la marca o que tenga un monitor freesync y quiera lo máximo.
          La 56… pinta mejor, si el precio es competitivo.

          • Dreadnought

            Yo tampoco recomendaría la 64. Y no es que la considere mala gráfica, pero creo que el punto dulce es la Vega 56. Por tener menor consumo, menor sonoridad y menor precio pero, aun así, tener un rendimiento bastante cercano a la 1080.
            Y sobre el Chill, en la review sale que se ha probado con el Battlefield 1 y con el Doom… Intenta mover esos con la gráfica integrada XDDDDDDDDDDDDDDDD. A medida que pasen los meses se incorporarán más juegos a sus perfiles.
            Y en cuanto al consumo, el de la 56 no es malo en absoluto. Sí, estoy de acuerdo en que no es el de la GTX 1080, pero son solo 237 W. Que no está tan mal, en realidad

          • Anonymus

            @disqus_RttKAJGPBN:disqus Me estás diciendo que en el BF1 habeis activado el Chill y os ha dado que consume 100W menos que con el desactivado? O te has marcado solo una sobrada para salir del paso.

            Yo no digo que sea mala gráfica, en realidad rinde muy bien, pero habiendo en el mercado otras con rendimiento similar, esta como lanzamiento recién llegado sabe a café aguado.

          • Dreadnought

            Yo no tengo ninguna necesidad de “marcarme sobradas” como dices tu. La review es de mi compañero Rodrigo, pero si el dice que esos son sus datos con el Chill activado, esos son. Porque, si ahora empiezas a dudar de la honestidad de nuestros datos, cuando precisamente eso es algo que ha caracterizado a HZ desde que la comencé hace 10 años, apaga y vámonos

          • Anonymus

            Perdón si he ofendido, no dudo de la honestidad del articulo, a lo que me refiero es que es una exposición (solo la del modo chill),
            tan superficial que es ficil saber lo que este modo realmente ahorra respecto al consumo total.

            El consumo del que habla el artículo es del equipo entero.
            Si usamos un equipo cualquiera, y limitamos el número de fps a los hz del monitor, el consumo del equipo baja bastante, y no solo el de la gráfica, el del procesador también.

            Es a eso a lo que me refería.
            Habría que hacer un análisis en profundidad de cual es la diferencia de consumo de la gráfica únicamente, y cual es la diferencia entre el modo chill y fijar el número de fps en los hz del monitor.

          • alex

            e visto que edición rinden un monto,hay se ve los Tflops

    • Rafael

      Gana a la GTX 1080 … en algún juego optimizado para AMD.

    • Rafael
      • Dreadnought

        Pero pon también en los que gana, hombre. No solo uno en el que pierde. Y eso que pierde en bastantes, las cosas como son. Pero la realidad es que pierde por muy poco, y ese muy poco desaparecerá en cuanto se empiecen a afinar los drivers. Algo que ya no va a suceder con las GTX 1080, a las que ya poco se les puede sacar extra

        • kuruta

          exacto , va a superar a la 1080 y la va a pisar en algunos casos a la 1080ti

        • Rafael

          Pues decir que gana de forma absoluta, es incorrecto. Porque hay muchos juegos en los que no alcanza a la GTX 1080 de hace un año y medio.

          • Dreadnought

            Una cosa: AMD no fija el precio de venta de sus componentes. De eso se encargan los distribuidores en función de la demanda de éstos. Así que cabrearte con AMD por los precios que tienen las tiendas es absurdo. Tu ya sabes el precio al que debieran salir esas gráficas. Todo lo que veas por encima es el +21% de IVA… más lo que le quiera meter de extra el distribuidor porque hay mucha demanda y poca oferta. Así es como funciona el libre mercado

          • fulanodetal

            Mercado libre? Mercado especulativo diria yo, venga dilo que nadie te a pegar por decir y aceptar la verdad, estan especulando con las graficas de AMD, no me vengas con tonterías de mercado libre.

          • Dreadnought

            La economía de mercado es la que es. Y sí, se presta bastante a la especulación. Pero reitero que AMD dice el precio recomendado de venta pero son los distribuidores los que acaban fijando el PVP. O acaso ya os habéis olvidado de los precios de salida al mercado de las GTX 1070 y 1080?? Cuando había 1080s que costaban 900 €??

          • Rafael

            AMD fija la base del precio o MSRP. Mira, no voy a discutir. Si tú estás contento con como funciona el mercado y la incompetencia de AMD : Enhorabuena. Si estás contento de poder comprarte un producto nuevo que rinde igual que la competencia de hace 1 año y medio (de media) al mismo precio : Enhorabuena.
            Me gustaría verlo como tú. Pero no puedo. Pienso que están engañando al consumidor.
            No voy en contra de AMD, sino en contra de los monopolios. La única razón por la que AMD ha puesto 499$ a su gráfica, es porque la competencia, una gráfica de rendimiento similar, la tiene a ese precio. Si pudiera AMD, la cobraría más alto, pero no se la compraría nadie, porque una cosa es ser fan, y otra tonto.

            Las que hay, van a venderse a cualquier precio, para minar, básicamente. Y en Septiembre/Octubre, cuando haya un mínimo de stock, bajará de precio porque si no, no se venderán.
            AMD está en los últimos meses, intentando sacar el máximo de dinero, sin ofrecer buenos productos. No puedes sacar un producto de rendimiento igual al de la competencia, que tiene el mercado copado y ponerle el mismo precio.

            Hoy los precios de AMD son muy altos. Inpendientemente del sobrecoste que pueda darse por la minería. Lo mismo da comprarse una tarjeta nVidia que una equivalente AMD.

          • Dreadnought

            Yo de lo que estoy contento es que por fin haya algo de competencia en el sector de las GTX 1070 / 1080. Que por fin un usuario pueda elegir aquello que más le pueda convenir por el precio. Cosa que hasta no hace nada de tiempo era imposible porque, o comprabas Nvidia o comprabas Nvidia.
            Y dado los datos de minado que ya hemos conocido y el gasto de energía de estas tarjetas, no creo que se vayan a vender tan bien como los modelos ya existentes. Al menos no hasta que les cambien las Bios para que consuman sensiblemente menos

          • Rafael

            Por cierto el precio MSRP que han puesto, es temporal, luego será 100$ más caro. O sea la Vega 64 son 600$ y 700$ el de refrigeración líquida. En Euros será más.
            Que hagan lo que quieran. Pero yo a esto no lo llamo competencia. Es lo más parecido a un pacto de precios.
            Por ejemplo:

            http://anterior.eldigitalcastillalamancha.es/articulo_economia.asp?idarticulo=206491&idfirma=&lugar=&ant=
            Otras dos multinacionales multadas por pactar precios

          • Marco Antonio

            Me da gracia que le dan el mismo valor con memorias gddr5 con las hbm que ya es otra tecnologia

        • Rafael
          • fulanodetal

            Vega mas cara ? Jajajaja impresionante, solo les falta sacar otro vídeo de The Fixer diciendo que es mas potente y barata jajajaaj

          • Marco Antonio

            La compwtencia es la memoria hbm

          • alexgamer

            y la estan comparando con una grafica que salio hace 1 año y medio jejejejejeje pobre amderos no se puede defender lo indefendible mas cara ,mas consumo ,mas temperaturas uuuummmm

      • fulanodetal

        Yo lo que quiero ver es un benchmark con rl Assassins creed unity a 4k ultra , eso si que seria decisivo.

      • lastraman

        les esta haciendo un cuello de botella importane, hicieron esta review con un i5 WTFFFFFFFFFF

    • Marco Antonio

      Tanto es el hipe que otra web chapucera x su mismo nombre que lo es le dedico dos post uno de fracazo “epico” y de absurda entonces es donde vemos que el hype , el amarillismo se plama su verdadera cara

    • lordhm

      Más que el rendimiento bruto, el problema es el desempeño por watt, en donde la Vega 64 es un completo fracaso… Rinde un pelo más que la 1080 consumiendo un 60% más.

      Mira las review de techpowerup, guru3D o elchapuzasinformatico por si no queda claro. Éstas tarjetas llegaron bastante tarde y no pueden superar a la competencia en eficiencia, eso es lo terrible, ya que sin mirar el consumo rinden bien.

      • Dreadnought

        No voy a negarlo porque es verdad. Pero, reitero: Yo me alegro porque haya competencia en un sector en el que solo había un monopolio. Porque ahora tienes la opción de comprar AMD (si por algún motivo ves que te puede compensar) o Nvidia.
        Y sí, yo también hubiera deseado que Vega hubiera sido un Ryzen de gráficas y hubiera puesto contra las cuerdas a Nvidia. Pero me conformo con que vuelva la competencia al mercado de gráficas de gama alta, que realmente lo necesitaba

    • lastraman

      estas equivocado, te quedaste con esta review sola, hicieron este review con un i5, no seas malo. esta grafica al igual que la 1080 dan muchisimos mas cuadros con una cpu mejor y no de juguete como esta. las 1080 andan mas y consumen el 50% de esta, encima salieron 15 meses antes, quien puede esperar esta grafica?????. vamos a la verdad, ademas las 1080 andan mas yo tuve dos y te puedo asegurar que los cuadros me daban muchisimos mas que los que dan en esta review debido a la cpu, un cuello brutal hace.

  • fulanodetal

    es una evolucion nada mas, el problema esque lo anunciaron como una reVolucion, cosa que no es.
    512 TB de memoria y aun no llega a la 1080 Ti

  • uhh hoyen lamodernidadlosniños

    Lo sabia P*TOS
    desde el 2013 Predije……
    Tmb predije que esta generacion son Muy prepotentes
    AMD Tiene que mejoran su arquitectura o no ganan a las NVIDIA
    tmb dije en el 2015 con las Memorias HBM

  • Felipe

    Ufff que mal me huele el analisis , lo del consumo parece una broma para gente que no tiene ni idea de lo que lee.

  • fulanodetal

    Siempre han existido 2 tipos de gráficas, el primer tipo son las que te compras casi de salida porque tienen el doble de rendimiento y la mitad de consumo que la que ya tienes y seria de subnormales no comprarsela, y el segundo tipo las qué te compras cuando no consiguer mover un Game Of The Year a 1080p en calidad baja a 60 fps contantes y sin gatillazos.

    La Vega aspriraba a ser las del primer tipo, ya tenia el dinero preparado y hasta me compre un monitor Freesync hace solo 2 meses para Vega.

    Pero AMD se ha dormido en los laureles con Ryzen y me han fastidiado bien, para que voy a pillarme una Vega teniendo ya una R9 290, si huebieran sacado una Vega con potencia de 1080Ti y consumo de 180 watt entonces si, pero para mi saltar de R9 290 a Vegamo no supone um salto sustancial ni en potencia y en consumo.

    Asi que me esperare a la Gtx 2080 que sale en febrero si o si.

    • Dreadnought

      Para qué, dices?? Pues si tenemos en cuenta que tu gráfica consume más que la Vega y rinde bastante menos, ahí tienes tu respuesta

    • Dreadnought

      Que por cierto, tu gráfica consume solamente 381 W y, al menos el diseño de referencia, solo hacía 55 dBA de ruido. Y Vega ni por asomo consume eso

      • fulanodetal

        381 W? Jajajaajjja deja me mentir, no vamos a comprar vega, 1 Pci 8 pin son 150, 2 son 300 watt + 75 watt del slot Pci, asi que en teoría elevando el limite de consumo podria llegar como maximo en teoria a 375 watt, dw donde sacas lo de 381? De la manga?

        • Dreadnought

          Me enerva bastante que me llamen mentiroso, así que aquí te dejo ésto:

          http://www.anandtech.com/bench/product/1068

          A diferencia de otros, yo intento contrastar mis datos. Sí, he visto reviews donde le dan hasta 320 W de consumo, pero en todas tiene más de 300 W.

          Si no eres capaz de debatir sin insultar, te quedan dos telediarios en esta página

          • fulanodetal

            jajajajaajj asumelo has quedado retratado con lo de os 381 Watt, y como no te gusta me sales con amenazas, rectificar es de sabios.

          • fulanodetal

            “Load Power Consumption – Crysis 3
            Total System Power Consumption in Watts (Lower is Better)381”

            JAJAJAJAAJJAAJ se refieren a todo el PC, TOTAL SYSTEM CONSUNMTION, deberias haber pensado por logica y sentido comun que una grafrica con conectonres de 8 Pin no puede llegar a consumir mas de 375 Watt, pero tu llevas años en el hardware asi que seguro que lo sabias y te haces el loco para que me compre VEga, que no tio que no, me voy a esperar a la GTX 2080, y me arrepiento de habverme comprado monitor freesync en vez de GSync.

          • ¿En serio estáis discutiendo por 6 vatios de diferencia entre consumo teórico y consumo real?

            A ver una cosilla… si tú tienes un procesador que consume, según el documento técnico, 90 vatios, ¿en la medición va a dar 90 vatios exactos? Jamás de los jamases. Siempre, SIEMPRE hay una variación. Ese procesador probablemente consumirá +-10%, es decir, entre 81 y 99 vatios.

            Por favor, un poco de cabeza.

          • Anonymus
  • crap¡

    La vega va a superar en 3 meses a la 1080gtx, en cuanto saquen las versiones de los ensambladores y toquen el software,SI O SI.Lo que me tira para atras,es el consumo.Es que en España la electricidad es cara ,muy muy cara.
    EN cuanto a que nvidia saque una 2080gtx para el año….¡o no¡,ni falta le hace.Sigue teniendo el top con la gtx1080 Ti….no creo que se den mucha prisa.Ya que seria otra tarjeta para entorno profesional(¿mineria quizas?,no creo, ya que sacó un modelo especializado,hace poco.),Quizas para jugadores a 4K en 60 fps o mas, pero seria marginal este ultimo tipo de usuario.¿cuanta gente juega a 2K ahora?pues casi nadie,y a 4 K 30fps, un 0% o 2% según datos de steam……¡asiqueeee,no lo veo¡¡¡

    • crap¡

      Quien no juegue a como mínimo a 2K, puede ahorrarse tranquilamente comprar una vega o una 1080,es tirar el dinero…o tener perceptiva de futuro,según se mire.

    • fulanodetal

      Si, en 3 meses va a superar a la Titan Xp y reducir su consumo a 150, tu sigue soñando.

      • crap¡

        El consumo no va bajar, yo no he dicho que baya a disminuir.Pero superara en bescmark a la 1080gtx en 2 K y $K,aunque esto se a irelevante….¡al costar lo mismo que una 1080¡

  • Nacho

    Hay algo más que tener en cuenta , la estabilidad de las Radeon deja en feo quienes quieren presumir todavia de lo que es capaz la 1070-1080.

    Si no he leido mal , la ventana de fps mínimo y máximo (oscilación) en las Radeon 56/64 debe de ser inferior que lo que tiene Nvidia para ofrecer ,es decir, Vega es mejor producto que la 1070 y 1080 en todo lo que se refiere a la experiencia de juego , potencia y estabilidad, incluyendo para el uso de monitores Freesync 144 hz.

    Respecto a la importancia de esto, la diferencia se hace más notable a más resolución, 4K previsiblemente, de ahí que Nvidia no solo tuvo que recurrir a la mejora de ram de la 1080 11 Gb….. y sigue siendo insuficiente…. de la misma manera que la 1060 padece el mismo problema frente a la RX580 en 1440p.

    Logicamente ha tenido una parte de sacrificio en la eficiencia/consumo, pero los resultados son los que son, la RX580 deja muy en feo la 1060 en 1440P , y nos encontramos ante lo mismo con las Radeon Vega 56 y 64.

    El punto de ver como la 1070 cae frente a Radeon 56, y la 1080 con toda su gloria, ofreciendo peor experiencia de juego 4K frente a Radeon 64…. es lo esperado.

    Como bien indican entre los comentarios,mientras la 1070-1080 están a su límite de optimización con los drivers, Vega estará una buena temporada mejorando en todo incluido la eficiencia….

  • fulanodetal

    El buque insignia de AMD, la VEGA 64, no compite con la 1080, sino con la 980Ti de hace 3 años, esa es la verdad, ya que sus consumos y potencia son similares. bueno apuesto a que teraflos aparte, en la practica, la 980 Ti es mas potente.

  • lastraman

    La verdad que no iba a comentar absolutamente nada, ya que hace años que ni me asomo por aqui, pero me vi en la obligacion de comenta. Un review de estos esta pésimamente mal y encima sin ningún tapujo de vergüenza alguna, compararon la gráfica de amd solo en dx12, ni siquiera compararon el consumo frente a otras gráficas de nvidia ya que esta cosa de amd consume a la par y mas que una 1080ti, quedando un 50% mas arriba en consumo que la 1080, otra cosa curiosa es que no hablen del ruido de la gráfica como se debiera, ya que es insoportable, tampoco entiendo NI VOY A ENTENDER COMO UNA GRÁFICA DE ESTAS LA MONTARON CON UN i5 WTFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF el cuello de botella que esta generando es del tamaño de el gran cañón, no tiene sentido alguno, lo cual me di cuenta al arrojar esos supuestos resultados los que los pude mas o menos entender al emplear dicha cpu, algo que no se comprende ya que unas gráficas de esas EN LA VIDA SE PODRÍA MONTAR CON UN I5, por favor. tuve 2 gráficas 1080ti y te podría jurar y apostar mi vida que vehia un 20% mas de cuadros que los que muestran aquí, no se comprende, por eso al ver esta review tuve la obligación de hacer mis descargos.
    Saludos.
    No se esconde el consumo de esta cosa con limitar los cuadros a la actualización del monitor, ya que el que tiene esta gráfica lógicamente no es para montarla en full hd, NI TAMPOCO CON UN i5, es la misma comparativa.
    PD. LLEGANDO 15 MESES MAS TARDE.FRACASO TOTAL
    Me olvidaba, de precios ni hablemos, sale mas cara que una 1080 custom
    https://www.amazon.com/Sapphire-Radeon-TRIPLE-Graphics-21275-02-20G/dp/B074HCCWW9/ref=sr_1_2?ie=UTF8&qid=1502938121&sr=8-2&keywords=radeon+vega+64
    https://www.amazon.com/Gigabyte-GV-RXVEGA64-8GD-B-Radeon-Graphic-Cards/dp/B074N1JN4F/ref=sr_1_5?ie=UTF8&qid=1502938121&sr=8-5&keywords=radeon+vega+64
    https://www.amazon.com/EVGA-GeForce-Support-Graphics-08G-P4-6286-KR/dp/B01GAI64GO/ref=sr_1_3?ie=UTF8&qid=1502938154&sr=8-3&keywords=NVIDIA+GTX+1080
    https://www.amazon.com/Gigabyte-GeForce-GV-N1080G1-GAMING-8GD-Graphics/dp/B01GJEE9BG/ref=sr_1_5?ie=UTF8&qid=1502938154&sr=8-5&keywords=NVIDIA+GTX+1080