DICE publica sus propios números acerca del rendimiento de Mantle

Escrito por Rodrigo Alonso

Hoy parece “el día AMD” pero es que no es para menos. Como publicamos esta mañana, DICE ya ha lanzado el parche para Battlefield 4 que habilita la API Mantle, y no han perdido el tiempo para publicar sus propios resultados de rendimiento obtenidos en su laboratorio. Se entiende que los datos de rendimiento que han mostrado han sido obtenidos en sus propias pruebas internas antes de lanzar el parche, por supuesto.

Los resultados que os vamos a mostrar a continuación representan la diferencia de rendimiento entre utilizar Battlefield 4 con la API Mantle o con DirectX 11.1. DICE ha probado el juego en tres escenarios de Gaming: básico, medio y entusiasta. Destacar que el escenario básico cuenta con una APU AMD A10-7850K con su gráfica AMD Radeon R7 integrada (512 stream processors, 720 MHz GPU clock), es decir, es un escenario donde el juego está limitado tanto por CPU como por GPU, y tal y como hemos explicado esta misma tarde es donde más efecto debería tener Mantle en la mejora de rendimiento. A una resolución de 1280 x 720, DICE obtuvo unos resultados un 14% mejores con la API Mantle.

127a

En cuanto al escenario medio, en DICE han empleado un procesador AMD FX-8350 (cuyo rendimiento en juegos es similar al de un Core i5-3570K) con una tarjeta gráfica AMD Radeon HD 7970. Con una resolución Full HD (1920 x 1080) 1xMSAA y los gráficos en Ultra, DICE ha obtenido una mejora de rendimiento de un 26%, lo cual ya es muy, muy notable (de 53 a 67 FPS).

127b

Por último, la configuración entusiasta, consistente en un procesador Core i7-3960X y dos AMD Radeon R9 290X en CrossFire. Con una resolución Full HD (1920 x 1080), 4xMSAA y los gráficos en Ultra, el incremento de rendimiento ha sido de nada más y nada menos que un 58% de diferencia en favor de Mantle (¡¡de 78 a 116 FPS!!).

127c

Como véis, un incremento de rendimiento notable, incluso superior al 45% prometido en primera instancia en la configuración entusiasta. Por nuestra parte, en cuanto tengamos disponibles todos los materiales necesarios os presentaremos nuestro propio análisis en nuestro banco de pruebas con una Radeon R9 290X.

Continúa leyendo
  • lastraman

    Rodrigo Alonso, realmente no entiendo nada, tengo una gtx titan y esa parte la manejo a mas de 95 cuadros en ultra antialias x4 a una resolucion de full hd, pues cuando activo el sli veo una media de mas de 160 cuadros, realmente no entiendo nada, tengo un 4930k a 4.6 ghz, y si esos resultados son ciertos son una basura el rendimiento, cuando quieras te mando fotos con una y con 2 titanes con fraps opciones y veas la media de fotogramas para que veas que no estoy mintiendo. REALMENTE NO ENTIENDO NADA.

    • José

      Simplemente que la misma configuración de PC rinde bastante mejor con la API Mantle en vez de usar DirectX 11.1

      • Eso es.

      • lastraman

        si claro, entiendo, pero no es que la r9290x andaba mas que la titan? y bajo mantle estoy viendo configuraciones en crosfire de r9290x rindiendo un 20% mas que 1 titan. puesto que al activar sli tengo una MEDIA de 160 fotogramas, ya que baja a 130 y sube a 215 cuadros. Me entiendes? saludos y gracias

    • Tienes un intel i7 de la serie Extreme y una GTX Titan. Tú no cuentas xD

      No, en serio, los números son para esas configuraciones específicas. Está claro que cada ordenador es un mundo y las combinaciones de hardware son casi ilimitadas. Aparte los datos mostrados son la media, no en un momento en concreto.

      • lastraman

        gracias por la explicacion. saludos
        PD. tengo 2 titanes en sli, pero siempre ando con una sola, pues con los juegos que hay hoy dia estoy bastante bien con una sola, solo en crysis 3 he activado las 2. saludos.

        • Víctor

          Regalame la otra! Bueno mejor no que se dispara la factura de la luz xD

          • lastraman

            jajajajaja, en verdad, la titan consume menos que la 290x, sino fijate, el consumo no es problema. saludos

          • Víctor

            Es verdad, no es tanto el consumo como lo han tenido otras gráficas a lo largo de la historia. En realidad es bastante contenido para la potencia que tiene.

      • lastraman

        realmente si estuviera en españa iria al lugar donde estas y te brindaria mis 2 titan, para que hicieras tu propio analisis en configuracion simple y dual, realmente me encantaria, nos separan solo unos miles de km, sino juro lo haria. saludos

  • Dani el Grande

    Entonces… la mayor mejora de rendimiento es en las configuraciones altas?

    • Nox Ater

      En eso yo tengo una ligera duda… En la configuracion media se utilizo una tarjeta HD7970 lo que significa que tiene tecnologia GNC pero si se hubiera utilizado su equivalente en la nueva serie de AMD con GNC 2.0 quiero pensar que habra un mayor aumento de rendimiento.

      O me equivoco???

      • Rod Charles Jr

        Diría que podría cambiar la cosa usando una r9 290 o r9 290x que son realmente tecnología nueva!! Toda la otra gama de “R” son en realidad tarjetas renombradas de la serie HD 7000, por lo que me da a pensar que no habría realmente una diferencia entre una 7970 y una R8 280x…son muy parejas

        • lastraman

          lo que realmente no entiendo amigo Rod Charles Jr es que si el verdadero rendimiento de esta api lo da la r9290x, pues que quieres que te diga, no tiene sentido, ya que la mayoria no tiene esa tarjeta, pues el el tope de gama del momento de amd y el que tiene para comprar una r9290x no le interesa esta api, ya que si quieres mas rendimientos optas por otra grafica o cross o sli, ya que en tarjetas de gama media y baja esta api es infimo lo que rinde, o sea que esta hecho para el hardware medio y bajo, o para el high tope de gama? no entiendo en verdad esa teoria, ya que deberia de ser un recurso para el que no tiene tanto dinero y no para el que tiene mucho que pueda acceder a una r9290x. Me entiendes lo que digo? saludos

          • Rod Charles Jr

            Yo lo que veo es que esto recién está naciendo, y que tiene mucho tiempo para mejorar, pero en algún momento había que lanzarlo para darle entrada y seriedad para que de acá en mas los usuarios empiecen a tener mas en cuenta las tarjetas AMD y a la vez esto haga que los desarrolladores utilicen mantle! Hay que ver esto como una mejora GRATIS! realmente gratis, según las diferentes configuraciones podrá ser mayor o menor, pero es gratis! Es como la mejora que brinda windows 8 a las APU, no es extrema pero es gratis!
            Ta, si tenés la plata para despilfarrar´en lo ultra potente, metés todo adentro de un gabinete con algún driver, instalás el juego y jugás!! sin importarte mantle o lo que sea!! sin embargo si no te sobra el dinero, cualquier aumento es bienvenido, cualquier optimización que le de un segundo aire al hardware viejo o gama media es bienvenido…y ojo…de a poco van a ir apareciendo nuevos estándares de resolución y si bien el poder de hardware existe ya, la optimización va a ser la protagonista!

          • lastraman

            ok, te entiendo que recien nace esto, se agradece la respuesta, pero no se si me entendiste, la mejora real es hoy dia para las tarjetas tope de gama y no para las media o chicas, si bien mejoran, pero ni cerca de llegar al porcentaje de las tope de gama, y no digo que tengas dinero para despilfarrar, lo digo porque a una r9290x no le vas a meter un pentium 4, a eso me referia, simplemente pense que podria ser al reves, ya que amd siempre piensa en el usuario medio me dio por pensar que su estrategia para mantle iba a ser la misma que ha hecho todo este tiempo. saludos.

          • kiko

            Todavía faltan cosas por pulir, es beta. Algo que no he visto acá es que por ahora Mantle solo funciona en las 290x, 290, 260x (hd 7790 con oc) y las igpu de Kaveri (en esencia las gpus e igpus GCN1.1).
            Y donde se ve mas aumento no es con las r9 290 en si, es cuando se usan con cpus de gama media (osea que no se olvidan del usuario medio), porque si usan un i7-E+r9 290x no vas a tener un gran salto con Mantle (poco menos de un 10% con respecto a DirectX).
            http://static.betazeta.com/www.chw.net/up/2014/01/14.1-mantle-1080P.jpg

          • lastraman

            gracias amigo. saludos

          • juangose610

            Mantle esta diseñado para eliminar el cuello de botella creado por la CPU, explicado de forma fácil.

            Cuanto mayor diferencia de potencia exista entre GPU y CPU mayor será la mejora, imagino que los core 2 quad por ejemplo pueden tener una segunda juventud xD.

          • Dani el Grande

            Lo que te puedes ahorrar en CPU con Mantle lo puedes retroinvertir en mejorar la GPU y conseguir mas gráficos que Mantle por sí solo

      • kiko

        Como ya dijo Rod, las 280x son refritos de la hd 7970 ghz y no existe tal GCN 2.0, las Hawaii y las igpu de Kaveri son GCN 1.1.

  • Cusa123

    Me gustaria que la gente de Hardzone.es hiciera un par de aclaraciones con respecto a Amd. Primero esto esta enfocado al sector de juegos, en mi experiencia con amd son 2. – 1) en juegos increibles sin tener ni una queja. 2) sector de trabajo o representacion 3d es calamitoso por no decir que esta a punto de ser destruido. no sirve de nada no hay ningun motor de render que funcione cycles, octane render vray arion…… y la lista continua.

    Es por esto que amd nunca podria sacarle ventaja a nvidia lo dijo porque tengo una 7870. y un fx8 asi que no piensen que este sector es pequeño es todo lo contrario es gigante para dar ejemplos de que se usa graficas y representaciones 3d: arquitectura, diseño de interiores, ingenieria, ingenieria civil, biotecnologia, animaciones 3d, lo usan en estudios 3d, ect. Es un sector al cual una gasta para tener un beneficio amd solo sirve para jugar, en el foro de amd un usuario que trabaja con 3d, se paso de una 7970 a salir a comprar 2 nvidias 770 para representacion 3d ese usuario como otros tantos ganan dinero en 3d y lo invierten en nuevas graficas. Asi que si estas pensando en comprarte una amd piensalo 2 o 3 veces antes.

    • No entiendo qué aclaración quieres que haga. Sí es cierto que AMD parece estar enfocándose al sector Gaming, no en vano sus gráficas Radeon están dando unos resultados increíbles y aunque no lo sé a ciencia cierta, creo que es la mayor fuente de ingresos de la compañía, por lo que sería normal que se enfocaran en este sector.

      • Rod Charles Jr

        Iba a hacer un comentario del estilo! Si tanto sirve Nvidia para lo profesional, bien por nvidia! Y de última existe el sector profesional de las tarjetas gráfica que no son justamente para jugar…

    • sinoesnvidianomola

      Por eso el Mac PRO monta 2 firepro…. claro…

    • Nox Ater

      Entiendo que quizas la gama de tarjetas graficas de AMD para gaming no sirvan para otra mas que para eso… jugar (basandome en lo que dices). Pero no creo que AMD no haga tarjetas para lo que tu necesitas… si no entonces preguntale a APPLE por que puso graficas FirePro de AMD en sus ultimas Mac Pro…

      • lastraman

        facil respuesta amigo, si montan 2 nvidia tesla K40 que es el tope de nvidia 12 gb, cada una tendrias un precio de 10500 dolares, si diez mil quinientos dolares SOLO EN LAS 2 TARJETAS, observa Amazon, http://www.amazon.com/900-22081-0040-000-Tesla-K40-Passive-Computing/dp/B00GPAWTE4/ref=sr_1_15?s=pc&ie=UTF8&qid=1391183815&sr=1-15&keywords=nvidia+tesla+k20x cuanto tendria que sair esa maquina? Obvio que es lo mas potente del mundo en ese ambito OBIO y no hay duda, dime cuanto valdria?. Es logico que por mas que apple tenga dinero para sus componentes, regateo en esto. jajajaja, y aprovechen, ya que quedan solo 9 en stock, jajaja. saludos.
        PD. si apple no le importaa el dinero y iria al tope de rendimiento pondrian estas de nvidia, pero como les queda muy grande para ellos, optaron por unas. fijate la mac de apple vale 4000 dolares, y las dos firepro d700 es lo mismo que las W8000 que salen 1308 dolares en amazon. a cuanto crees que puedan vender con NVIDIA si una sola tesla vale mas que la maquina entera de apple, si le meten dos y encima lo demas sale una casa amueblada con piscina, jajajajajaja. saludos

        • Nox Ater

          Lo dudo… APPLE no es alguien que se fije en el precio de sus productos… Quizas no fuera la que promocionaran pero al menos para gente exigente darian la opcion de incluirlas a la hora de decidir el hadware de tu maquina… Despues de todo lo que importa en estas mac es precisamente los graficos (no encontre Benchmarcks de la Tesla K40 pero a la K20c le gana por hasta 10 veces y por cierto las graficas que lleva las Mac Pro como siempre que es algo para APPLE son exclusivas)

          • lastraman

            exactamente, por eso es la comparativa de la d700 es la w8000 y lo que salen, no digo que sea mala maquina, pero la tesla k40 es la mejor en el mundo hasta el momento y vale un platal.
            De todas maneras tampoco veo quizas en mi entender una buena cpu esos xeon que nombran, preferiria un 4930k o en e mejor de los casos un 4960x, que tambien la maquina se dispararia aun mas en el precio. Solamente opino, tu que opinas?. y en cuanto a la memoria ram, la verdad que lo que te puedo decir son mis experiencias, pues una ram de 1333 mhz vs 2400 o 3000 mhz para juegos hoy en dia no tienen ni mierda de cambio, es exactalemte lo mismo, los juegos andan igualito. Al momento no he visto cambio alguno ni de una pizca en comparaciones de ram en juegos, claro. Saludos.
            PD de la misma manera opino, ¿para que carajo usa tanto la play ddr5, y van a salir nuevas ram para ordenadores, ddr4, si hoy con ddr3 no notamos diferencia alguna en casi todas las aplicaciones, y ni menos que ameriten el cambio de ddr?.

          • Nox Ater

            Ammm yo revise reviews de benchmarkcs hechos a la mac pro con la tarjeta D700, como repito ojala alguien sacara un review de la tarjeta K40 para ver cual es su verdadero potencial (todos sabemos que muchas veces los numeros y especificaciones nos pueden engañar). En cuanto al procesador el i7 EE que mencionas es mas barato que el Xeon de 12 cores que tienen como tope… No tengo experiencia con los procesadores para servidores asi que no sabria decirte. En cuanto a los Procesadores pienso que eligieron los Xeon por el cache L3. La memoria RAM al menos he leido por ahi que si hay diferencia/mejoria entre mas alta sea su velocidad de reloj aunque por lo que se es minima y no causa gran diferencia (5-6 fps). En cuanto a la RAM de la PS4 yo tomaria en cuenta que la DDR4 aun sale y que la memoria GDDR5 se supone que tiene una capacidad de transferencia mas alta q e la DDR3 y que segun Sony la PS4 trae soporte para hUMA

          • lastraman

            estaria bueno ver el verdadero rendimiento de los ddr, y tampoco tengo experiencia en servidores, solamente pense que podria ser mejor el 4960x, pues vale mas de 1000 dolares, mas 2000 y algo de las tarjeras y la ram estarian pasando los 4000 dolares, pero quizas como compran en grandes cantidades deben de salir menos dinero. En un futuro me gustaria ver la verdadera potencia de la ddr5, hoy es nula, ya que la diferencia entre ps4 y xboxone no la da los ddr5, sino cpugpu. vamos a ver. saudos.

  • Federico Atencio

    q grande amd buen trabajo ahora a esperar el driver