Las nuevas Radeon RX Vega consumirán más de 300 W

Escrito por Juan Diego de Usera

Parece ser que con las próximas tarjetas gráficas Radeon RX Vega va a haber que desempolvar las antiguas fuente de alta potencia. Así parece desprenderse de las declaraciones de un representante de una marca encargada de fabricarlas. Y es que, al parecer, Vega podría acabar consumiendo más que las actuales TITAN Xp, lo que no es muy halagüeño.

AMD Radeon ya presentó su nueva tarjeta gráfica RX Vega Frontier Edition hace poco más de un mes. Y, aunque las especificaciones sobre el papel eran interesantes, no era la gráfica que todos los jugadores estaban esperando. No, la Frontier Edition es un modelo que va más orientado hacia el mercado profesional. El de los famosos Prosumers.

Al poco de este lanzamiento, Raja Koduri confirmaba que el modelo destinado a los entusiastas, llegaría en Agosto. Más o menos cuando se celebra el evento SIGGRAPH 2017.Esperemos que entre esas dos fechas comiencen a salir a la venta las primeras unidades de las Frontier Edition. Porque, sinceramente, no soy nada fan de los lanzamientos sobre el papel sin hardware que testear.

Que el consumo de las RX Vega sea alto nos importará según su rendimiento

Las declaraciones del supuesto representante de MSI han sido hechas en un foro holandés. En ellas, lo que se da a entender es que la versión refrigerada por aire de la gráfica consumiría 300 W. Mientras que la versión con refrigeración líquida consumiría 375 W. Si tenemos en cuenta que la Nvidia TITAN Xp consume 275 W, hablamos de entre 25 y 100 W extra.

Ahora bien, ¿es esto realmente importante? Todo dependerá del rendimiento que sean capaces de entregar. Si su rendimiento es ligeramente inferior o igual al de la tarjeta de Nvidia, no creo que haya  muchas quejas. Ahora bien, si el rendimiento es el de una Geforce GTX 1080, creo que la gente se quejará. Y bastante. Y, de hecho, creo que lo harían con bastante razón, dado el enorme retraso con el que van a salir al mercado. Si encima lo hacen con un consumo tan alto, sería untar con sal la herida. Y eso siempre escuece.

Quizás nos hayamos acostumbrado a que las nuevas tarjetas de AMD Radeon tengan unos consumos mucho más moderados últimamente. Pero no hace mucho tiempo, consumos similares eran los habituales en su gama alta. Consumos que hacían necesarias las fuentes de 1 kW a la hora de montar configuraciones en CrossFire. Parecía que el salto al nodo de 14 nm había desterrado para siempre esos días. Pero habíamos cantado victoria antes de tiempo, está claro.

Continúa leyendo
  • kratos

    hombre si la 580 se va a los 180w ¿Que ibamos a esperar de Vega que tiene el doble de CU?

    GCN tiene sus cosas buenas y malas, el consumo es una de las malas.

    • III-Ari-III

      Igual recordemos que variará enormemente si tenemos algún tipo de sincronía vertical activada.. por ejemplo yo con mi radeon 470 que supuestamente consume cerca de 140w.. nunca toqué ese techo por tener siempre la v-sync activa (imprescindible para mi en los juegos) y con la placa laburando para generar solo 60 fps, el consumo nunca sube de 90 watts.

      • BakaBat

        ¿Y si tienes un monitor de 144fps?

        • Friszze

          Los monitores profesionales vienen con freesync

          • BakaBat

            El Freesync no influye en que si tienes 144Hz en tu monitor, la tarjeta tenga que hacer mucho más trabajo que con el monitor de 60Hz que tiene III-Ari-III. Es una buena recomendación la que hace, pero insisto en que con un monitor de más frecuencia esa solución no sirve ya que la 470 seguramente esté casi siempre al 100% jugando en FHD ultra, al tirar muchos más FPS incluso con el VSYNC activado.

          • Friszze

            si te compras un monitor de 144hz tenes dinero para comprarte una 1070 o 1080. preferiria tener un monitor de tubo y tener la 470 xD

          • III-Ari-III

            Igual el lo dice por las vega, solo tomó mi ejemplo para demostrar su punto que es válido si, pero bueno, el ámbito de 144hz es un nicho de por sí.. así que no muchos verán ese caso.

          • III-Ari-III

            Tampoco es tanto consumo.. ni en esta ni en vega.. esta dentro de lo “normal” digamos.

  • III-Ari-III

    Pues yo creo que varios se cansaron de esperar.. y se terminaron comprando una 1070 1080 o mandaron un crossfire de 480s o 580s jaja.

  • Porta

    En la noticia holandesa, se refieren al tdp, el tdp de una Nvidia 1080 gtx ti es de 250w y el tdp de vega Frontier es de 300w, creo que está noticia está muy exagerada

    • kratos

      El problema de AMD siempre son los picos, mira las R9 390X con TDP de 300W y picos de consumo de 350W o más…

  • Pepitopalotes
  • Ó.M.

    Muy interesante que la persona que se pronuncie sea de MKT. Es como si un ingeniero de MSI nos cuenta que la campaña de MKT de AMD en medios masivos para anunciar sus nuevas zapatillas despilfarra el dinero o, al contrario parecen tacañear. Ok, pero: tú realmente sabes algo de esto? Y qué demonios haces en MKT?

    Por otra parte: Los consumos / rendimiento obtenidos estarán por ver. El dato de que puede llegar a consumir X watios en sí mismo puede ser leído como bueno y como malo a la vez. Todo depende de lo que pretendas. Estoy seguro que los mineros celebrarán lo que un gamer señalará como inadecuado y viceversa.

    Como se ha visto con TR y EPYC, AMD está tratando de competir con sus rivales ofreciendo soluciones más polivalntes, productos que luchan con más de uno de la competencia que actualmente tiene diferentes gamas, diferenciadas, con especificaciones y precios escalados.

    Así pues, cuidado, porque tal vez los que tienen precisamente estas 2 patas en gamas diferentes de sus productos, incluso recientemente han lanzado gamas ‘especialmente para mineros’, son los que han leído a la perfección la jugada. Evidentemente cuando eres el lídeer, te interesa tener gamas separadas, no hacer producto polivalente. Obligar a comprar este, o el otro… ó los 2.

    Y la competencia como te hará más daño, es haciendo lo que ha hecho AMD. Lo hemos visto con TR y el movimiento de Intel con los I9 y la bajada de precio de los nuevos Xeones y veremos qué hace nVidia con sus GPUS, de momento es muy muy pronto para ver el impacto y cuánto les rascan (si es que les llegan a rascar algo), pero seguro que preparan las contingencias necesarias en función de las diferentes recepciones por paerte de los usuarios. Que no os quede la menor duda.

    Así pues… si la GPU es capaz de consumir una cifra abultadísima, pensar que es ineficiente y necesitaría ese poder para hacer el equivalente de uno de los escenarios donde compite con otros y ya, así de simple, es como inaceptable. No estamos en un punto de la historia en esta industria que justifique pensar cosas tan llanas.

    Sobre todo cuando cada vez más y más usuarios lo que quieren es consumir lo justo o lo mínimo para obtener el rendimiento que quieren o con el que se dan por satisfechos y lo que quedara por delante, para el que ande en esa guerra.