Análisis de rendimiento gráfico en Battlefield Hardline

Escrito por Rodrigo Alonso

A pesar de los problemas encontrados en el DRM de Battlefield Hardline a la hora de hacer cambios de hardware en nuestro equipo, finalmente hemos podido realizar pruebas suficientes como para mostraros nuestro particular análisis de rendimiento gráfico en el último juego lanzado por EA. Así pues, a continuación podréis ver, como hemos realizado en otros juegos anteriormente, un análisis de rendimiento gráfico de Battlefield Hardline utilizando varias tarjetas gráficas para que veáis qué tal funciona dependiendo de la configuración del sistema.

Todas las pruebas las hemos realizado en el mismo equipo, cambiando únicamente la tarjeta gráfica y lógicamente los drivers en consonancia con la marca de ésta. Así pues, hemos empleado los drivers Catalyst Omega con las gráficas de AMD y los Forceware 347.88 con las gráficas de NVIDIA. El sistemas operativo empleado en todos los casos ha sido Windows 8.1 x64 con todas las actualizaciones instaladas, y el hardware empleado para las pruebas ha sido el siguiente:

Las tarjetas gráficas empleadas en nuestras pruebas han sido las siguientes:

Para testear Battlefield Hardline, en todos los casos hemos jugado el primer capítulo del modo Campaña completo, en resolución Full HD y con todos los ajustes gráficos al máximo (Ultra), en pantalla completa y con la sincronización vertical deshabilitada. Lo podéis ver en la siguiente captura de pantalla.

BFH Settings

Nota: La API gráfica empleada ha sido DirectX 11 en todos los casos. No se ha utilizado Mantle.

Resultados de rendimiento gráfico en Battlefield Hardline.

Los resultados obtenidos han sido medidos con la utilidad benchmarking de FRAPS, y reflejan los FPS (frames por segundo) medios, máximos y mínimos en el juego.

BFH Gráfica

Hay que destacar que en un juego como Battlefield Hardline, en cuanto los FPS bajan de 40 la experiencia de juego es realmente mala, por lo que debemos de ser bastante exigentes en este sentido y esperar que nuestra gráfica sea capaz de darnos estos 40 FPS de media como mínimo para una experiencia de juego satisfactoria. También reseñamos que hay una diferencia abismal de rendimiento cuando estamos en escenas exteriores y cuando estamos dentro de un edificio, denotando que el juego está bastante mal optimizado en este sentido.

Conclusión

A pesar de haber utilizado DirectX 11 y no Mantle para testear Battlefield Hardline, la Radeon R9 290X de 4 GB se ha mostrado como la top 1 de entre las gráficas que tenemos en nuestro laboratorio (sentimos que la gráfica NVIDIA más potente a nuestro alcance sea una GTX 970, pero es lo que hay. No obstante es la que compite en precio con la R9 290X a día de hoy así que la comparativa es justa). Además habrá que esperar porque muy probablemente AMD lance drivers “Game Ready” optimizados para Battlefield Hardline, al igual que hizo NVIDIA.

 

Continúa leyendo
  • fulanodetal

    290X mas potente que 970GTX, radeon is gaming.

    • Dnuke

      ¿Por cuanto?¿3 cuadros?¿Para una tarjeta que consume y calienta un montón?

      • EpsylonRad

        seguimos con las mismas pelotudeces? No calienta si no es la referencia y al consumo déjalo a los servidores.
        Aca el tema es que siendo un año y medio mas vieja esta a la cabeza en varios juegos, y Nvidia va a terminar en el olvido con la primera r300″que aparezca en el mercado….
        Y no estan utilizando Mantle para la prueba….

        • Nota: En la prueba del artículo era la R9 290X de referencia de AMD vs la GTX970 OC de MSI con el disipador Twin Frozr V.

          • fulanodetal

            Joder, entonces si cojemos una GTX970 sin overclock, se quedaría incluso por debajo de una R9 285, o en su caso, una 290X overclockeada estaría por encima de la 980GTX

          • lastraman

            para poder usar la 290x de referencia tuvistes seguro que ponerte algodon en los oidos por el ruido a la turbina y subirla manualmente ya que si la dejas como viene en el driver se underclockea, tuve una y no es buena en ese sentido y esa fue la solucion para que ande. saludos

          • EpsylonRad

            Y asi y todo le pasa el trapo a una 970 Twin Frozr V

        • kibo

          Tu no has jugado a un mismo juego con las dos, o no sabes lo que son las físicas, mientras AMD no tenga algo que se aproxime a las Physx de nvidia, por mucho Mantle que utilice lo demás solo son cifras, es como comparar algo con antialialiasing y sin, cuando has provado las físicas de nvidia sabes que la potencia ya da igual, tu lo que quieres es que el juego se vea bien

          • EpsylonRad

            No, lamento profundamente decepcionarte, la he jugado con las dos graficas al máximo, el 290 se la come viva y las físicas de las que hablas, son puro chamuyo Nvidiero.

            Además el juego no utiliza Mantle.

        • lastraman

          como sabrás este juego es una basura, muy malo y criticado por todos lados su mala optimización y bajo rendimiento, a la prueba esta, observa las mínimas, es espantoso en verdad y es una risa y una patada en el cu… a nosotros los usuarios. No justifico a nvidia, pero ya sabemos que te guste o no la 970 bajo full hd lidera en el 90% de los juegos, ya se hizo en su momento ya se probo y no tiene vuelta de hoja, aquí hablamos solo de battelfield hardline, el cual es un AUTENTICA BASURAAAAAAAAAAAA, ni siquiera digno de absolutamente nada, ni es ningún referente ni de amd ni de nvidia, ande mas en la que ande.saludos
          PD. esta la 980 tambien, aunque se salga de presupuesto, pero vale lo mismo que la vapor 290x de 8 gigas de vram. hablando fuera del precio, que para algunos se justifica pero unos dolares cag..dos no hace la diferencia, la 980 lidera te guste o no. vamos a ver que tiene amd para competir con la 980, ME IMAGINO QUE NO SERA UNA 290X CON LIQUIDO? por favor, no me vengan con esa basura, ya que si como es logico, digamos que lo que consume no importa, no PUEDES COMPARAR UNA GRAFICA QUE CONSUMA 280X CONTRA OTRA QUE CONSUME 170 y anden a las patadas.si meten una 290x tiene que ser oceada, si o si, de lo contrario no habria diferencia y si ocean ese chips si o si tiene que venir liquido, y eso aumentaria aun mas el consumo y seria una tomadura de pelo aunque valga 2 euros.
          PD. la 970 ocea como los dioses, llega a hacer 1500mhz de core y 8000 las memorias, no creo que supere eso una 290x. saludos

          • Xfce

            En el 90% de los juegos?. Nah. Además a 1440p y 4K la 970 pierde en el 90% de los juegos 😀
            http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/7.html

            Fijate de vuelta los precios, porque la Vapor-X de 8GB vale al menos 100 dólares menos que cualquier 980.

            A estas alturas ya debes saber que no necesitas agua, la 290X Lightning anda más fresca que algunas 980…

            El IPC de Maxwell es basura, a 1.2Ghz la 290X seguro logra el mismo rendimiento que un OC de 1.5Ghz o más en la 970, y las mejores 290X pueden llegar hasta 1.25-1.28Ghz en aire…

            La 980 es una gráfica de juguete, tanto en especificaciones como en rendimiento, la Titan X lo demuestra muy bien, y la 390X lo va a confirmar. Pagar 550 dólares por esa cosa es una joda.

          • lastraman

            la mas barata que encontre en amazon, mira o que vale. 500 dolares http://www.amazon.com/Sapphire-VAPOR-X-PCI-Express-Graphics-11226-11-40G/dp/B00P9RDI9Y/ref=sr_1_1?ie=UTF8&qid=1427687556&sr=8-1&keywords=r9+290x+vapor+x+8gb

            http://www.amazon.com/Zotac-GeForce-DisplayPort-Graphics-ZT-90204-10P/dp/B00NYQPOEE/ref=sr_1_10?s=pc&ie=UTF8&qid=1427687618&sr=1-10&keywords=gtx+980

            aqui tienes la 980 por 23.99 dolares mas que esa vapor. hablas por hablar, nada mas, ya los que te conocemos sabemos de que lado estas, informate antes de menconar algo por favor, ahora no me digas que te quedas con la basura de la vapor porque soy capaz de irme volando hacia ahi, jajajajajajajaja.
            PD. otra cosa, todo depende amigo de lo que signifiquen 550dolares para cada uno, para mi, 550 dolares son solo 550 dolares, asique no me vengas como si ese dinero fuese un lingote de oro que apenas son 550 dolares, que de hecho estas equivocado, es 500 de la vappor contra 523 de la 980. o sea 23 dolares mas. nada mas. saludos

          • Xfce

            Que mal buscas entonces:
            http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Order=BESTMATCH&Description=290x+8gb&N=-1&isNodeId=1
            Me equivoqué, no es 100 dólares más barata que las 980, es 80 dólares…

            Si porque vos sos tan objetivo… No me hagas reir 😀

            Jajaja, a estas alturas no me quedo con ninguna de las 2, y de tener que elegir si o si una gráfica ahora, voy por la Vapor-X de 4GB o la Lightning.

            A mi me gusta gastar, pero gastar bien gastado, no es porquerías como la 980. El año pasado con 550 dólares te comprabas la segunda mejor mono GPU del mercado, un flagship con 2816 cores, 512-bit bus, y un die de 438mm2. Este juguete de menos de 2300 cores, 400mm2 y bus patético en cuestión de meses cuando AMD saque lo suyo (y Nvidia también) va a pasar del puesto 2 al cuarto o quinto, y cuando mucho va a valer 400 dólares. Así que buena suerte gastando 550 en algo que no los vale, y ya que estás en eso comprate monitor G-sunk y un Iphone ^^

      • Anónimo

        Totalmente de acuerdo, tiene una ventaja muy pequeña frente a un consumo brutal.
        Al final lo que te ahorras en el coste de la tarjeta lo terminas pagando en el consumo de la factura eléctrica.

        Aquí tenéis lo que consume.
        http://hardzone.es/app/uploads/2015/03/094647oxe1kwxenbrpsjbk.jpg
        Salu2.

        • Armagg3don

          Pero recuerda que el consumo ahora no importa para los amd-lovers.
          Que diferencia cuando le echaban pestes a Fermi.

      • gmk120

        Y que cuesta unos 50 euros menos.
        Y lo de consumir, hechale un vistazo a lo que consumen las gráficas de AMD y NVIDIA en plena carga, por que mas de 25W de diferencia dudo que veas, ademas de que las únicas que tienen problemas de temperatura son las tarjetas de referencia.

  • Letal

    y a donde fue a parar el poder de la 970? jaja justo ahora que las r9 290x bajaron considerablemente de precio en mi pais aprovechare para cambiar mi 270x

    • Dnuke

      Pues, la 970 consume menos, y tiene muchos menos recursos, que le pise los talones a la 290x teniendo la 970 esta muchos mas recursos es bastante bueno.

      • EpsylonRad

        Recursos las pelotas, no es culpa nuestra el fiasco Maxwell. Compras AMD y compras futuro, el 290x es un 33% mas rápido que el gtx980 en firestrike directx12.

        • lastraman

          jaaaaaaaaaaaaaaaajajajajajajajaja, esperate a que nvidia meta los drivers y me cuentas, jajajajajajaja. espero que juegues a 3d marck toda tu vida, jajajajajajajajaja.
          ademas si las amd son tan buenas para los bench, DE CAJON QUE VA A LIDERAR UNA AMD, SI ES ASI COMO LO DICES, vamos haber quien lidera en ese bench en unos dias. jajajajaja

          • Xfce

            Drivers?. Mantle los va a aplastar a esos drivers.

          • Juan Ulises Barba Andrade

            y que chistoso que en dirext12 la 290x le gane a la titan x http://www.omicrono.com/2015/03/diferencia-entre-directx-12-y-directx-11/

          • Dnuke

            1.- Y dale con los drawcalls, los cuales no simbolizan mucho en juegos ya que, mas que ilustrar el rendimiento del GPU, ilustran que tan capaz es el CPU de enviar órdenes al GPU para que este dibuje mallas simples (y me imagino yo que sabes que el esfuerzo que hace el GPU es proporcional a la complejidad de la malla que le mandes a dibujar).

            2.- La razón de que AMD saque un 33% mas drawcalls que Nvidia en DX11 en esa prueba es que el controlador de AMD tiene mas funciones implementadas a nivel físico, pero aún así, esos 300.000 drawcalls extra no reflejan el rendimiento real de la tarjeta ya que en esa prueba se toma que cada drawcall es para dibujar un objeto con muy pocos vértices, cosa que en los juegos solo se produce cuando se quieren dibujar partículas, las cuales por lo general se mandan a dibujar todas juntas en un batch ya que tienen el mismo material.

            3.- En DX12 son 13474728 llamadas de dibujo de la configuración con 290x contra 13419183 llamadas de la configuración con la Titan X (diferencia: 0,41% a favor de la 290x), no veo cual es el supuesto 33% mas a favor de la 290x.

          • EpsylonRad

            Me parece una mariconada de tu parte que vengas a hablar siempre del Rendimiento Firestrike Extreme, uno de los más utilizados, y decir que ahora no sirve porque AMD esta a la cabeza, cuando te has mofado siempre que has podido (cuando Nvidia esta a la cabeza)

          • lastraman

            no puedo creer que alguien con un poco de conocimiento como tu digas esa mariconada que repite y repite todo el mundo y creas que nvidia se va a quedar cruzada de brazos. Vas a haber dentro de unos dias que esto va a cambiar radicalmente, date cuenta. no seas hipocrita. No repitas como loro lo que lees, que sabes que esto va a ser unos dias. este panorama va a cambiar, y asi como te dije que la titan x y la 980ti van a andar a las patadas con la 390x que yaaaaaaaaaaaa lo vas a poder comprobar, esta diferencia de este bench va a dejar de existir en unos pocos dias. no seas cerrado y te la comas doblada con la primer propaganda que ves compañero,

      • mrtrololol

        es verdad que tiene menos recursos y consume menos, todo gracias a su reducidad memoria de 3,5 gb LOL

      • Letal

        Lo lamento man pero aunque todo el mundo dice que consumen mas no lo veo reflejado en la factura de la luz ni siquiera por centavos. En mi caso teniendo en cuenta eso y viendo que una r9 290x iguala o supera a una 970 que vale bastante menos mi eleccion es obvia

  • EpsylonRad

    AMD y el mundo real….
    El 290 en f1 2014 con todo al ultra 1080p tira 104 FPS de media con un core i7-960 y W 8.1.

    • lastraman

      te fijaste cuanto tira el Mario Bros de Snes, el emulador? por dios compañero, no puedo creer que menciones ese juego que no existe, prueba un juego que pida mas recursos por dios no esa cosa que probaste. jajajajaja. instala crysis 3, Far cry 4, o alguno de esos y cuéntame.

      • EpsylonRad

        Lo que importa en un juego, es que como entorno, sirve para evaluar dos hardware distintos, con la misma herramienta objetiva.

        Como ves, aunque digas lo que quieras del juego, el 290 le pasa el trapo al 970 tanto en 1080p como en 4K.

        • lastraman

          una 780ti grafica de hace el tiempo que quieras le sigue pasando el trapito a una 290x y mas aun una 290, saludos

  • lolMD

    Comparan un juego PRO AMD y se les moja el culo de emoción por la supuesta superioridad de AMD, vamos a comparar AC Unity entonces ? y nos dejamos de tonterías, al final por mas que los fanboys rojos tiren y tiren el mercado de GPUs habla por si solo, la gente no es tonta.

  • cristianer

    Tenía planeado comprar una 970 pero después del fiasco 3.5 gb mejor espero por las R9 3xx. Y si cuestan caras voy por una 290x.

    • Armagg3don

      Te gustan los refritos??

      • cristianer

        Me encantan, siempre que sean mejores. Sino no. Pero estoy buscando una placa para 3-4 años y con 3.5gb me quedo corto.

        • Armagg3don

          No te preocupes que para dentro de 3-4 años hasta 4gb se quedaran cortos.
          Si buscas no upgradear a tan largo plazo, te sugiero vayas por la Titan X 😉

      • gmk120

        Buen intento de justificar un timo en toda regla.

  • Kibo

    Coincido plenamente, a la hora de comparar POTENCIA/PRECIO AMD gana, “el problema” es que es como comparar un coche chino de 200cv con un Mercedes de 170cv. Nvidia gracias a su tecnología de motor grafico de efectos “Physx” deja a AMD muy atras a la altura de disfrutar jugando, las explosiones, el fuego, las físicas en general se ven muchisimo mejor, mas bonitas. Es más no entiendo como AMD sabiendo que sus gráficas aun siendo más potentes y económicas no pueden competir con Nvidia a nivel Gaming por culpa de esto, no se ponen las pilas con su motor de físicas y le meten mas I+D a eso, por que por mucha API Mantle que utilice u potencia bruta que genere, se sigue biendo mejor en medium con nvidia que en ultra con AMD, ya no digamos a igual.

    • kibo

      Viendo ; ) perdon por las faltas, es lo que tiene escribir por el movil mientras andas.

  • Eliminados dos comentarios por faltas de respeto. Mantengamos el hilo en un tono amable, por favor.

  • julio medero

    el dia que sepan usar sus gráficas no se habla mas de nvidia