Vídeo: Jugando al Battlefield 4 con el BRIX Pro (segunda parte)

Escrito por Rodrigo Alonso
Sistemas completos

Esta semana os mostramos en primera instancia un vídeo donde se mostraba el Gigabyte BRIX Pro moviendo Battlefield 4, y dada la controversia que esto al parecer generó, Gigabyte posteriormente publicó algunas aclaraciones. Dada la cantidad de comentarios y preguntas relacionadas con ésto, la marca ha decidido publicar una segunda parte donde muestran más tiempo de juego y explican muchas de las dudas planteadas por los usuarios.

El último video publicado por Gigabyte España ha despertado numerosos comentarios y consultas sobre la capacidad del BRIX Pro (GB-BXi5-4670R) jugando al Battlefield 4. Es lógico que al usuario le cueste entender cómo un mini PC con gráfica integrada pueda tirar de un juego de última generación. Por esta razón, Dani DaCoSa publica un segundo vídeo, enseñando más tiempo de juego y respondiendo con claridad y transparencia las dudas planteadas.

Aquí lo tenéis:

A partir de aquí que cada cual saque sus propias conclusiones; nosotros ya hemos sacado las nuestras, y es que si el BRIX Pro es capaz de ejecutar Battlefield 4 en Full HD y con calidad Ultra a 15-20 FPS (que no es jugable, evidentemente), podrá proporcionar una experiencia satisfactoria con detalles gráficos medios, o bien en resolución HD (720p).

Continúa leyendo
  • Rod Charles Jr

    Se ve que son bastante pelotudos los de gigabyte!! Con esto lo único que hicieron es demostrar lo basura que son los gráficos intel y quedar pegados!!! debieron tirarse a menos para mostrar resultados por encima de los 30fps! Partiendo de la base de que nadie compra este cosito para jugar serieamente, podrían haber configurado la resolución a 720p como decís Rodrigo, y bajar un poco los gráficos y mostrar una experiencia de juego satisfactoria!

    • lastraman

      Una pregunta amiso, que realmente me tiene intrigado, ¿A cuantos fotogramas corre el battlefield 4 en ultra, sin antialias como esta mierdita de gigabite, en la mejor apu de amd y cuanto vale? simplemente para saber y comparar la experiencia de amd en este sector que anda muy bien vs intel que recien esta empezando con basuras en graficos en este ambito.
      saludos.
      pd. mi pregunta es a fines comparativos y dejando de lado lo que prefiere uno u otro.

      • Rod Charles Jr

        Me sumo a tu petición! a ver que tanto mas puede dar la apu A10 7850k……igual tenémos que entender que para jugar en ultra a full hd, seguramente no se compre ni un apu ni el aparatito este de gigabyte!

        • lastraman

          jajajaja. vamos a investigar que tal.
          saludos

          • EpsylonRad

            Investigue…

      • EpsylonRad

        Intel no esta recién empezando…

        Intel tiene ya como 4 generaciones de gráficos integrados que son una mierda desde el primero hasta el ultimo.

        Y eso que la R significa que ese procesador de mierda de la brix viene soldado a la placa base y por ende que tiene los gráficos Iris Pro con memoria dedicada aparte….

        Ahí tienes los análisis de Battlefield 4 con el Apu Kaveri que le rompe el culo esa mierda de Intel…
        10 o 12 frames más que hacen que el juego sea jugable con un Apu que cuesta la mitad o la cuarta parte que el Intel…

        http://wccftech.com/amd-kaveri-apu-a107850k-gaming-general-performance-unveiled-mantle-45-faster-directx/

        PD: Ni creas por tu gusto que me he olvidado de lo que pusiste sobre la Titan Black he estado ocupado con el laburo pero ya te la voy a mandar…

        http://www.youtube.com/watch?v=dAa6e5Pr6GI

        • Rancid

          De mí parte que he probado los IGP de Intel si bien no compiten con las APU en lo más mínimo, Intel en 3 años a venido brincando, porque si pones los IGP HD3000 vs HD4600 son incomparables, sacando un buen punto de lo que está haciendo Intel en gráficos por primera vez no vienen tan mal, no es secreto para nadie que AMD tiene mucha más experiencia en ese campo, es diferente como pasa en los CPU’s, pero por ejemplo con unos HD4600 en un i5 4430 podes jugar BF4 a 1080 todo en low sin AA a 25-30fps, tampoco podríamos esperar en 3 años el rendimiento de una GTX650/HD7750 porque eso ni AMD No lo tiene , el 7850k apenas sirve para jugar a 1080p sobre 30fps, ahora si te digo si en 10 años intel se estanca con sus IGP’s a la basura, solo que los han implementado de forma extraña en CPU’s como los Core i7 que no tienen ningun sentido por lo menos para mí.

          • Rod Charles Jr

            Casi que no tienen ningún sentido tampoco para los i5 puros(o sea para pc de escritorio), porque quien compra un i5 así jamás vaya a usar su igp seguramente porque sería un desperdicio…

          • Rancid

            También , igual por precio no te niego que por ejemplo si alguien planean jugar con IGP’s es más atractivo el 7850K que un i5-4430, pero deberían de venir en los i3 nada más que son los que compiten en potencia de CPU , igual conosco casos de personas que usan el Quick Sync Video para conversiones y es bastante rápido y el consumo total del CPU es bajo para ese fin.

            http://www. intel .la/content/www/xl/es/architecture-and-technology/quick-sync-video/quick-sync-video-general.html

        • lastraman

          Jajajajajajajajaja. Me gusta eso amigo. Jajaja. Espero q me contestes Porq creo q eso no lo vas a encontrar por ningun lado. Jajaja. Ojito donde miras la titan black anda igual y mas q la 780ti. Y la 780ti le come la cola y todo lo demas a la r9290x. Asiq espero q busques bien amigo q me vas a mandar. Jajajaja. Saludos.
          Pd. Olvidate del mantle q a pesar de todo no creas q le gaaaane con varias aaaaa. Porq no es asi. Ni el mantle las salva. Jajaja. No te enojes. Estoy embromando. Pero la ti esta clavado q anda mas q la r9290x. Saludos

  • Azteka

    No es por defender a Intel ni mucho menos pero en el análisis del A10-7850K, de esta misma página, se puede ver que mueve el Battlefield 4 a 39 FPS (1080) pero con gráficos automáticos que, en la mayoría de los casos, eran medios o bajos.

    http://hardzone.es/amd-kaveri-a10-7850k/

    Si al BRIX PRO le bajan los gráficos probablemente se acerque bastante a esos 39 FPS, así que no veo por qué tanta crítica con respecto al rendimiento, el precio ya es otra cosa…

    • Rod Charles Jr

      Si pero cuando @Rodrigo Alonso hizo ese buen review, la api mantle no había sido lanzada y se uso el juego bajo directx…en el especial caso de battlefield 4 hoy por hoy rinde mas que eso con mantle….

      • Azteka

        Pero Mantle no está implementada en todos los juegos así que, en principio, no veo bien hacer esa comparación.

        Por cierto, en cuanto a CPU, ¿cuál sería mejor?.

        Un saludo, gracias.

        • Rod Charles Jr

          En cpu es claro que es mejor el i5, sin dudas! pero si mantle existe, se debe usar, de última bien por los usuarios que tienen un apu y se ven beneficiados por mantle…por el momento está presente solo en este juego…y las comparaciones que aquí surgieron son a raíz de este juego y del experimento de gigabyte con este juego….es como pedir que si se compara un i7 con cualquier otro procesador, pidas que se deshabilite los hyperthreads del i7 porque es un procesador caro y no todos los procesadores tienen esta tecnología!!
          Cuando se compara de la forma que sea, se pone todo lo que hay sobre la mesa, y en este caso, mantle existe y favorece a amd

          • Rancid

            Yo aún espero que Mantle salga de esa BETA , porque ese “Bug” de neblina que supuestamente van a reparar deja mucho que pensar si ves, la diferencia gráfica con DirectX11 se podría decir que el beneficio en FPS sería por eso, porque hay imagenes bien claras, donde se ve que con Mantle los detalles a distancia no se ven están cubiertos por una estela blanca.

          • lastraman

            En varios sitios observe ese downgrade de la imagen en comparacion cob direct 11. Tienes razon. Espero q mabtle no sea un recorte semiautomatico de las propiedades del juego de lo xobtrario seria un fraude. Saludos

          • Rancid

            Yo espero a Thief que vendra con Mantle ya de forma nativa y no parchado como BF4 a ver que tal, porque en BF4 si me deja mis dudas en cuanto a esos gráficos que no detallan bien la lejanía, que podría ser los que está dando esa ventaja de FPS o algo relacionado a esto, pero también sabemos que aún está en fase inicial, el problema esque muchos lo ven ya como un Win definitivo y sacan conclusiones apresuradas obviando esos detalles.

            Por ejemplo este video –> http://www.youtube.com/watch?feature=player_embedded&v=FRqnwvpeIfI

            Se logra apreciar bastante lo que te digo, no lo hago en modo de criticar, ni tirar basura porque si Mantle se convierte en un exito no dudaría en comprar una AMD que de hecho ya he tenido muchas.

          • lastraman

            amigo, ahora que veo la imagen claramente tiene menos detalle, es como si le hubiesen bajado los recursos, por favor, no estoy en contra de mantle, es mas me guistaria comprarme un par de r9290x y tirarlas en croos, esta muuy bueno y me gusta y el rendimiento es obvio que lo esta, pero seamos honestos, este video hasta muestra downgrade. Por favor, le faltan cosas detalles a la imagen del mantle, lo estoy observando y no puedo creer que nadie lo vea.
            En verdad no estoy en contra de amd, me gusta en verdad y se estan esforzando para ser los Nº1 indiscutible, pero que la imagen tiene menos detalle que en direct x es un hecho y nadie lo puede negar.
            saludos

          • Rancid

            Es a lo que voy , por lo menos para mí no tendría ningun sentido jugar en una API que me haga perder calidad gráfica, aún así tenga otras cualidades como quitar la CPU dependencia, realmente hablar de esto no es tirar basura, porque es algo que está y no se debe de obviar, porque si Mantle se queda así no tiene ninguna gracia, que en DirectX tengas mejores gráficos.

          • lastraman

            prefiero la calidad de imagen antes de 10 cuadros mas, si es asi, ahora, ese tema me parece que se deberia de solucionar, ya que mucha gente ve el rendimiento pero no evalua la perdida de calidad de imagen, y es algo que esta y punto. tendrian que solucionarlo, vamos a ver el thief como anda. de todas maneras me parece que thief no va a ser nada impresionante en graficos, mantle va a estar al pedo, ya que lo deberias de mover con cualquier tarjetita.

          • Rancid

            Mira estás:

            DirectX: http://i7.photobucket.com/albums/y284/umrcity/Direct1.png

            Mantle: http://i7.photobucket.com/albums/y284/umrcity/Mantle1.png

            A mí me deja impresionado es mucho lo que no se ve con Mantle, como dice Kiko StarSwarm no tiene ese problema, porque es un juego desarrollado desde cero con Mantle y BF4 fue parchado, por eso Thief debería de revelarnos lo que de verdad va a ser Mantle y dar un empuje SUPER EXTRA a la hora de decidir entre nvidia y AMD

          • kiko

            Star Swarm no es un juego xD, es un benchmark que usa el motor gráfico Nitrous del estudio Oxide Games.

          • Rancid

            jaja yo pense que era como un alpha de un juego xD

          • lastraman

            ufaaaaaaaaaaa, la diferencia es notoria, es impresionante, en la de abajo no se ve nada. Esperemos se solucione, y si, esperamos thief. a ver que resultados da.

          • kiko

            10 cuadros?. En los escenarios mas limitados por CPU Mantle sube mucho mas que 10 cuadros…

          • Rancid

            Si , lo que se logro ver con el 7850k + 290X fueron como 30 jaja, por eso digo si Mantle se afina y se empieza a poner en los juegos como una API extra todos vamos APU + GPU AMD jaja.

          • kiko

            APU+GPU? xD. Eso va a ser bueno cuando se pueda usar la IGPU del APU como co-procesador de físicas y efectos hasta entonces sera siempre mas barato y mejor un CPU.
            Donde Nvidia la implemente, no veo ninguna razón por la cual deba seguir habiendo juegos para DirectX, jajaja. Y donde SteamOS mejore, vamos a poder eliminar a Microsoft por completo.
            http://cdn3.wccftech.com/wp-content/uploads/2014/01/AMD-Catalyst-13.35-Kaveri-Co-Processor.jpg

          • Rancid

            El problema esque esto es una pelea, aunque Mantle por ahora solo está en BF4 y no al 100% pulido , ya Nvidia se empieza a mover y quien sabe con que va a salir, porque bien saben que tienen un publico que agrada de sus productos pero si AMD logra algo como lo que mencionas por lo menos el 95% de ese publico los va a dejar solo los Ultra Fanaticos no se pasarían jaja y también a Intel le sirve seguir teniendo sus CPU’s en la cima del rendimineto en juegos, porque a como se ve mantle ya con un APU Quad Core de 130$ o un Athlon II X4 de 90$ jaja, en mí caso sería perfecto, porque yo tengo un i5 2500K@4.6GHz que me gusta como rinde en juegos pero para el resto que hago es un desperdicio y si un CPU de 90$ me viene a dar el mismo rendimiento sin palabras.

          • lastraman

            amigo, no va a ser tan asi, yo con mantle he visto esas apu funcionando, eso no va a ser asi, las apu el lo livianito vuelan es cierto pero donde el juego que estes ejecutando, ej. crysis 3, la apu donde la cpu tenga que trabajar de verdad pega unos bajones de fotogramas que ni te cuento, yo mismo lo he visto, en juegos que hagan uso de cpu mueren. Lo vi con mis prpios ojos, juegos pasilleros van bien, pero juegos que demanden cpu se mueren de verdad, tu i5 anda mucho mas. Eso no va a existir por mas mantle que haya, siempre y cuando esto no sea un recorte, esto del mantle que esta por verse, hasta ahora parece recorte, y en verdad, uno no solo tiene un pc para solo jugar, ¿no te gusta abrir una aplicacion o lo que sea que demande cpu y tengas el poder? ami si, pues para eso son las cpu de verdad. desde la velocidad de abrir un video, cargar un programa, convertir mkv, etc. eso es la potencia que no solo esta en juegos, esta latente siempre, saber que tienes poder y no solo optimizacion para jugar. Pues yo lo veo por ese lado, quizas la apu y la misma gpu que yo ande mas que mi cpu, pero tengo una buena cpu y tiene power y eso es lo que me gusta por eso hay tantos componentes divinos para elegir y armarte una pc, va en partes en gustos, y armonia en los componentes, es como si tuviera un croos de r9290x o 2 titan como tengo y encaje una apu, POR DIOS NI LOCO, es lo que valen las cajas de las gpu, jajaja. Me entendiste? no es solo por eso sino por todos estos factores, te aclaro que es mi punto de vista, hay mucha gente que va a discrepar conmigo, pero esta bien, no todos somos iguales.saludos. y lo de los 10 cuadros fue solo con la apu sin gpu dedicada. saludos

          • Rancid

            Lo que dices es cierto , pero lo que ofrece AMD con Mantle es precisamente eso, que no sea necesario un CPU potente, pero quien sabe aún el futuro de Mantle es incierto.

            Lo que me referi a mí caso esque lo más pesado que hago en mi PC es jugar xD

          • lastraman

            y esta bien. aprecio tu interes.

          • lastraman

            y tu crees que Microsoft se van a quedar de brasos cruzados? no lo creo, no van a querer perder publico y algo van a hacer. Opino yo.

          • kiko

            Con esta no van a poder hacer la movida que hicieron con Netscape, y en mi opinión DirectX no tiene arreglo, pueden hacer que funcione algo mejor, pero todavía tenes el problema del altísimo overhead.

          • lastraman

            si, pero esto que voy a decir es muy personal, yo si tengo una r9290x por lo menos pongo un 4770k, por lo menos, si tengo 700 dolares para una terjeta obligatoriamente tengo 500 para una cpu, me entiendes? no voy a formar una pc con ese dinero y meter una apu o cpu de 150dolares, xdxdxd. jajaja. saludos

          • kiko

            500 para el CPU?. Yo mas que un i5 para gaming no compro, sea la gráfica que sea. Ahora, si tuviera plata para dilapidar, seguro voy a tener la tentación de comprar un Haswell-E xD.
            Hoy, el CPU de mi elección es el FX 8320.

          • lastraman

            Amigo, tengo una experiencia del dia de hoy con mi hermano en mi casa, obiamente de hardware, ¿queres que te la cuente? Pues fuera de todos los bench que pululan en internet, hoy mismo en mi casa, desde las 14 hasta las 17 que me tuve que venir a laburar nos sacamos una duda ambos, ¿hasta cuando es tan importante una buena cpu? quieres que te lo cuente?, tal cual amigo, yo no dialogo mentiras. tampoco quiero aburrirte.

          • kiko

            “¿hasta cuando es tan importante una buena cpu? “.

            Tengo la respuesta:
            http://www.youtube.com/watch?v=qIT9uLDjZcg&index=4&list=LLCt1r675ShaMXitrfyPkETA

          • lastraman

            si amigo, pero te cuento que dos cpu analizamos, quieres? Y NO ES NINGUN BENCH DE INTERNET, A MI NO ME PAGO NADIE NI INTEL NI AMD NI NVIDIA.si estas interesado te explico, sino no. ok? y esta todo bien

          • Rancid

            Para una sola GPU, un i5 o FX anda bien , pero si ya quieres SLI/TRI/QUAD pondría un i7 , cualquiera que tenga dinero para un CF 290X o SLI 780ti podra comprar un i7 y si es un Quad toca el S2011 con un Six.

          • lastraman

            a eso iba con kiko. quieres que te cuente que probe hoy en cuanto a cpu?

          • Rancid

            ¿Que?

          • lastraman

            resulta que hoy nos queriamos mi hermano mas que yo, sacar la duda hasta cuanto incide una cpu en la misma grafica.

            Pues nuestro banco de prueba fue el siguiente.
            primero 1 titan y luego en configuraciones sli.
            maquinas, la mia, 4930k a 4.7, ram coorsair dominator platinum 2400 mhz 32 gigas, madre asus ROG, rampage maximun formula IV black edition x79, sonido asus phoeus ventilacion cpu radiador termaltake water xtreme 2.0. solido ocz agiliti4.
            La de mi hermano, asus rog maximun formula VI extreme serie Z, cpu 8350 4.6 cool master v8gt, ram muskin 2133mhz, 16 gigas. y gabinetes no vienen al caso ni fuentes, pues fuentes buenas corsario y antel platinum de 1000w.
            La prueba fue tirando crysis 3 welcome to the jungle, la primer parte, tiramos fraps 300 segundos.
            Obviamente arramcamos fraps con el intel, 1 titan.
            Tratamos de estresar la cpu, o sea en la parte que la torreta te apunta anduvimos corriendo permanente de arriba para abajo esquivando las bombas, arrojando escombros con las explosiones permanente los 300 segundos. O sea estresaaaaaado a fulllllllllllllll.

            Los resultados. con una sola titan

            amd – min 24, max 76 , avg 40.
            intel. min 34, max. 76, avg 50.
            sli titan.
            amd, min 30, max 89,

            intel, min 60, max 138.
            todas las configuracones en muy alto y antialias txaax2. sincronia vertical of.
            conclusiones.
            Para configuraciones una sola grafica, tarjetas de potencia, amd se revolvio en la maxima de los fotogramas igual que intel, costando 350% menos, ya que si miramos al cielo no hay accion, pero a la hora del palo baja salado salado. de todas maneras la diferencia de dinero es muy buena tambien.precio rendimiento esta impecable. bajo un 33 % nada mas y en estres total, ya que no jugamos asi, fue solo para probar.
            Para configuraciones sli, yaaaaaaaaaaaa por un intel, el cuello de botella de las dos graficas hicieron injugable con esos resultados el juego, bajando demasiado los fotogramas a la hora de procesar toda la potencia de las tarjetas. los sistemas eran win 8.1 originales los dos funcionando a la perfeccion, drivers actualizados y sin ningun tipo de problemas, juegos originales por origins y todo en perfecto estado.

            Realmente no es un bench como el que hace nuestro amigo rodrigo alinso, jajaja claro que no, esto fue puramente casero, jajajaja. pero estas son las diferencias a la hora de procesar 3 gpu.

            espero haya gustado y espero no formar discusion, ya que realmente me gista intel pero esta prueba fue a fin de probar y ver resultados sin favorecer a ninguna de las marcas, amd demostro precio rendimiento algo fenomenal, pero le falta, le falta potencia a esos cores para poder llegar a intel.
            saludos.
            espero no aburrirlos

          • Rancid

            Para nadie es un secreto que los FX no andan bien en MultiGPU y menos dos TITAN jaja, pero en este caso se comparo un CPU Entusiasta con uno Gama-Media , para mí un i5 y FX8XXX son Gama-Media.

            Sería interesante ver como anda un i7 Quad vs un Six.

          • lastraman

            jajaja. estaria bueno ver eso si, pero en realidad amd el 8350 es tope de gama no hay mejor, y encima a 4.6, vs caso lo mejor de intel. ya se que la diferencia precoi es enorme, pero es lo que comparamos y quizas si amd tuviera un mejor micro estaria ese micro en lugar de 8350, de todas maneras el 8350 para lo que vale es una naaaaaaaaaaaaaaaveeeeeeeeeeee.

          • Rancid

            Y esque no es solo el CPU , si no que comparar el X79 con el 990FX es otro punto, el X79 es bestial mientras el 990FX es un 790FX refrescado tiene ya sus años , pero sin lugar a duda el FX8320 para mí es un CPU interesante, si uno tiene un presupuesto ajustado y quiere una buena GPU y ahorrar en CPU el FX8320 es la opción.

          • lastraman

            EXACTO. eso es lo que quiero decir. exacto. muuuuuuy interesante.muy buena opcion 8320. y en cuanto al x79, si, tienes razon es bueno, pero era una duda que teniamos y nos la sacamos, realmente cuando empezamos me habia cagado un poco, pues decia por dentro mio,(si este loco me gana me corto los huevos) jajajajajaja. pero en fin, el precio tambien lo dice.
            l

          • Rancid

            Hay mucho review casero donde probaban los FX vs i5 en Multigpu y ya perdian, ahora contra ese 4930K no tiene por donde y más si agregas una tercera o cuarta jaja.

          • lastraman

            jajaja. tienez razon. jaja. saludos. pero la diferencia de precio es aun mayor q de rendimiento, pero dos titan es un desperdicio con esa cpu, a eso voy, pero mato. jaja

          • German Bustos

            fx 9590

          • lastraman

            amigo, el 9590 es un 8350 con oc de fabrica, es mas, a veces clock por clock no me preguntes porque, el 8350 anda mas que el 9590. Ese micro que me dices es tope de gama de amd en precio, pues en rendimiento no. Y vale unos cobres mas. Yo personalmente me quedo o con el 8350 sin dudas o con el t1100 luego de lo que vi.

          • German Bustos

            hay alguna posibilidad que subas las capturas del bench que hiciste comparando el i7 con el fx?

          • lastraman

            Jaja. Amigo fue hace dias y lo unico q me queda es la hija donde estan anotados los fotogramas. Es real y lo unico q me queda a parte de esa hoja son las impresiones de mi hermano al ver los rendimientos. Aparte fue para solo nosotros esa prueba, pero te voy a complacer y en breve voy a hacer otro con varios no solo con crysis 3 y voy a tomar todo y te las subo. Saludos

          • German Bustos

            te amaría mucho de una forma no gay si pudieras hacerlo…

          • Rod Charles Jr

            APLAUSOS! EXCELENTE EXPERIENCIA! ME ENCANTÓ REALMENTE….TODO ESTE TIPO DE PRUEBAS QUE HAGAS TE AGRADECERÍA LAS COMPARTAS COMO HAS HECHO AHORA!

          • lastraman

            aprecio tu respuesta, gracias, y todo lo que haga lo voy a dialogar con ustedes. saludos y gracias

          • kiko

            Un i7 es la misma cosa que un i5 para juegos, para un tri y quad el i7 hexa empieza a ganar fuerza. Para una configuración de 2 GPUs de alta gama un i5 se las arregla.

          • Rancid

            Yo si he visto que un i7 mantiene mejores mínimos un CF/SLI Grande 780Ti/290X , pero todo es gracias a los 2MB extra de cache no creo que sea por el HT jaja.

          • kiko

            Que tan mejores los mínimos?. En cuantos y cuales juegos?. Si no son tan superiores un overclock soluciona el problema.

          • lastraman

            amigo, eso mismo comente a Rencid recien, espero que no moleste lo que comente, ya que fue real y verdadero y objetivamente.

          • kiko

            Fijate que estamos hablando de I7 común vs I5.

          • lastraman

            2 tarjetas quice decir y no 3 como puse sin querer.
            Ya lo se amigo pero es lo que tenia, no tenia un i7 comun o i5 comun sino lo hubiera hecho.
            De todas maneras tuve un 3770k con las titan y anda muy parecido al 8350 casi igual si no me equivoco por lo menos en crysis 3, el 3770 me hacia cuello de botella tambien. la diferencia la hace el 4930k. pues el 3770k anda muy igual al 8350 oceados 4.6 ambos

          • Rancid

            En los reviews se ve, los i7 siempre dan mejores mínimos por lo menos en el 90% de los juegos

          • lastraman

            ojo porque quizas te puedes llegar a dar una sorpresa, el 8350 a 4.6 esta a la par que el 3770k a 4.6, muy cabeza cabeza, ahora hay algo que no me van a creer, hemos hecho miles de bench y el que anduvo que no lo podia creer lo que andaba de espectaculaaaaaaar el t1100 tuban, jajaja, me dejo asombrado ese micro, inclusive tuve un 8150 a 4.5 y al t1100 a 4.2 andaba mas que el 8150 en juegos, medal of honor, crysis 2, jajaja, me dejo de cara ese micro. me mato ese micro en verdad. jajaja

          • Rancid

            yo tuve el 1055T a 4GHz y no lo cambiaba por un Zambezi jajaja, más bien tengo conocidos que pasaron de Thuban a Zambezi y fue decepcionante, antes de que saliera BF3 compre el 2500K y creo que no lo voy a cambiar mientras use single GPU este año y el otro talvez.

          • lastraman

            si, tienes razon en cuanto a zambezi, y si, el 2500k no lo cambiaria por nada, jajaja. es excelente cpu y ocea como loco, jajaja.

          • Rod Charles Jr

            Mi phenom 1090 a 4,0 es un cañon realmente…ES PA METER UN BOCADILLO JAJAJA, PERO SI A MISMA FRECUENCIA EL PHENOM DA MAS QUE EL FX, Y EQUIPARA EN LA MAYORÍA DE LOS CASOS LOS 8 CORES

          • lastraman

            exacto amigo, es una maaaaaquinaaaaaaa, yo quede de cara cuando lo vi, jajajajaja

          • Rod Charles Jr

            quien tiene el phenom 1100 vos o tu hermano?

          • lastraman

            mi hermano, y quedamos asombrados, en el dia de hoy al ver resultados ya vendio a un amigo el 8350 con la rog y tomo su viejo phenon t1100, pues le vendio el 8350 y la rog al mismo que le habia vendido el t1100 y se lo tomo con una plaquita asus para sli o cross. La semana que viene la vamos a armar y vamos a probar la misma configuracion con el t1100 oceado a 4.2 con 1 y 2 titan en crysis 3, si nos da tiempo vamos a probar grid 2, tomb raiders y battlefield 4. y vamos a ver como tira esa maquinita. Lo comente porque me acorde de cuando lo teniamos que estaba con un sli de 560 de msi las twin forzz, volaba ese micro, pues teniamos un i7 920 y andaba a las peleas e inclusive, no me vas a creer, pero en crysis 2 me gano a un 2600k a 4.95, y el t1100 a 4.2. Te JURO QUE GANO. por 4 fotogramas pero gano

          • Rod Charles Jr

            jajaja y tu hermano se va a quedar con el phenom o va a armarse un equipo mas nuevo y potente?

          • lastraman

            se va a quedar con la placa q yo le regale, la q tenia el 4930k, la msi gd45plus y le va a meter un 4820k, no llega al 4930k, y va a hacer un puente con el t1100 mientras junta unos pesos y luego si, compra el 4820k y monta el x79, asi le queda para el six core de intel mas adelante obvio, pero lo vamos a probar a fuuul a ese micro y te voy a pasar review y ya vas a ver lo que rinde. No se queda atras.

          • Rod Charles Jr

            Lo voy a estar esperando!!!! jeje linda maquinola va a armar entonces!!!

          • lastraman

            Lo vamos a levantar hasta que salga humo, jajaja, de todas maneras el t1100 me acuerdo que oceaba impecable y las temperaturas nunca fueron demadiado altas, lo teniamos con un h50 de corsario, y los temp a 4.2 no me acuerdo bien pero nunca dieron problema y tiraba impresionante. Ya vamos a charlas de ese micro cuando haga las pruebas, jajaja.
            Saludos y te dejo que mi mujer me esta rompiendo las pelotas que paso en el foro y quiere mirar una peli.
            jajaja. saludos.

          • Rod Charles Jr

            jajajajajajajja atienda atienda!!! saludos colega

          • Rancid

            Esque entiende yo no me refiero a eso en este momento jaja, si no que si de verdad Mantle llega a ser algo a futuro y es verdad todo lo que dice un APU o un CPU cualquiera sea Intel o AMD barato va a funcionar sin problemas, en este momento lo que dices es correcto es ilógico quien pondría un Athlon II X4 con una 290X o 780ti xD

          • lastraman

            claro.

          • lastraman

            no digo 10 cuadros con una r9290x, sino solo con la apu, no me entendieron. la apu sola. realmente el que tiene una r9290x no creo que tenga una apu para correr juegos. XD jajaja

          • kiko

            “Espero q mabtle no sea un recorte semiautomatico de las propiedades del juego de lo xobtrario seria un fraude”.

            No lo es. Saludos.

          • lastraman

            eso espero, pero la calidad de la imagen no es la misma y es un hecho. saludos

          • kiko

            Vos mismo lo dijiste, es un bug. Y a ese vos mismo digiste, debería agregar a Johan Andersson de DICE xD.

            “…la diferencia gráfica con DirectX11 se podría decir que el beneficio en FPS sería por eso”. Aquel que dice eso no sabe como Mantle funciona. Hasta he escuchado a mi youtuber favorito decir “lo que hace Mantle es eliminar el overhead en el CPU”, y no es eso tampoco…

            Mantle hace que el motor gráfico del juego hable directamente con la GPU, en lugar de pasar por las capas que pone DirectX en medio, osea que eso de “eliminar el overhead en el CPU” es un efecto secundario de esa optimización.

            Con eso no estoy diciendo ni asegurando de que los frames van a permanecer igual después de que el bug se arregle, podrían caer, pero aun así seguirán superiores (muy superiores en los casos de CPUs baratos) que usando DirectX, eso si lo puedo asegurar. Hay que tomar StarSwarm como ejemplo, ese benchmark no tiene problemas, y con Mantle se obtienen mejores resultados que con DirectX. Eso si, Star Swarm esta diseñada desde 0 para sacarle provecho, mientras que BF4 esta parcheado (como vos mismo dijiste abajo).

            http://scr3.golem.de/screenshots/1401/Mantle-API-Test/thumb620/02-star-swarm-chart.png

            Esto fue hecho con un i7 3770k, 16gb de RAM, una Radeon 290x y por supuesto, Windows 8.1, con los detalles al máximo.

          • Rancid

            Vi a algunos decir en foros , que los “Bajonazos” de FPS se les habían quitado con Mantle, pero el downgrade gráfico Bug o no con respecto a DirectX está ahí y es lo que crea dudas, pero bueno esperando a Thief a ver que pasa, porque AMD desde que dijo en Twitter que iban a solucionar ese “BUG” no han hecho nada y fue ya hace rato y les debería de preocupar por esto lo vienen anunciando desde hace mucho y no se puede quedar así.

          • lastraman

            estoy de acuerdo.

          • kiko

            La situación es compleja, ni siquiera el juego en si esta del todo arreglado jajaja.

          • lastraman

            Si. Usando mantle claro amigo. Pero no solo vamos a comparar battlefield. Sino el 3 q no tiene mantle. El thief q tiene mantle y los otros mil millones de juegos q no lo tienen y otros miles q no los van a tener. La comparative con mantle está buena. De todas maneras ni va a ser un disparate la diferencia con una apu. Pero los millones q no lo tienen estaria bueno hacerla a la comparativa. A eso creo q seria justo.

        • kiko

          Pero Intel tiene la ventaja de tener el CPU mas potente, a tal punto de que en juegos como Skyrim, usando la IGPU Intel sacaba mas frames con la patética hd4600, que Richland…

          Una comparación “justa” seria IGPU vs IGPU, mismo CPU y misma API, osea eliminar todas las variables. Pero todos sabemos que eso no se puede hacer.

          Saludos.

      • lastraman

        y eso que te comente del t1100 que me dio una paliza a un 2600k te juego que no lo ves en ningun bench ni review ni nada, no porque no le conviene a nadie ni menos a intel que un t1100 le dio una paliza a un 2600k, ni le sirve a nadie ver lo que anda este micro, taas que no es caro, vuela, y mi 2600k estaba muy bien osceado con prime 95 los temp me acuerdo clarito no pasaban los 88 grados.

        • Rod Charles Jr

          Realmente increible! mirá para hacer unas pruebazas con el i7 de Rodrigo Alonso que es justamente el 2600k…ni que hablar que en los bench que se pueden ver el phenom siempre está muy por detrás!!!

          • lastraman

            si, eso es cierto, pero es puro marcketing amigo, ese proce de amd me atrevo a decir que es una de las mejores piezas que jamas ha creado, mira que hay muchos bench que como sabras favorecen a determinadas marcas y no son ni mieerda objetivos en los micros, te lo digo posta, me gano en el medal of honor warfigthers y en crysis 2. es mas, en la pantalla cuando recien empieza el crysis 2 la del submarino yaaaa iba a 5 cuadros mas que el 2600k. No hay que hacerle caso a mucho bench, en el bench edmarck en la parte xtreme la titan anda mas que la r9290x, pero sabemos que la 290x anda mas que la titan en juegos, es puro marcketin por eso probamos nosotros y nos encontramos con una realidad muy diferente de la que leemos amigo, es cierto.

          • Rancid

            yo con el 2500k a 4.5Ghz vs el 1055T a 4Ghz que tuve el único juego que probe con los dos y una HD6970 fue BF3 y en los avg andaban iguales pero en los mínimos, si ves en la mision donde se viene un gran temblor y luego otra donde te vienen a rescartar en un avion y todo explota mientras corres al avion, con el Phenom tuve 24fps mínimos y con el i5 32fps y lo pase 2 veces con cada CPU , pero depende del juego , la verdad otros no probe , pero por ejemplo entre un Phenom X6 vs un i7 860 que tuve también no había diferencia , lo único en lo que destacaba el i7 es por ejemplo si le ponías ITB a máximo podías seguir abriendo otras aplicaciones sin problemas , mientras el Phenom II X6 se pegaba bastante, pero lo que era Gaming no vi diferencias por allá principios del 2011 , quien sabe hoy día lastima ya no tengo ningun CPU de esos.

          • lastraman

            jaja, muy buena experiencia, pero no te olvides que el 2500k ina a 4.5 y el t1055 a 4. Es muy poca diferencia pero lo es, de todas maneras el i5 en juegos anda mas que el i7, tu micro vueeeeeeeeela para juegos y en la mayoria de los juegos gana al 2600k es un hecho recontra probado, me paso con el 3570k al 3770k, andaba mas el i5 como siempre. Pero esta experiencia que tuvimos con el t1100 es verdadera y ya la vamos a probad de nuevo y estare pasando resultados en breve. saludos

          • Rancid

            y yo pensando en venderlo para comprar un 2700k usado xD

            Si AMD no saca nada de aquí a que salga broadwell seguramente me comprare uno pero bueno salen hasta el otro año ya serían 3 con el i5 hora de jubilación xD

          • Rod Charles Jr

            No jubile ese i5 hasta que le salgan chispas y pida la extremauncion.

          • Rancid

            No se como me vaya a seducir broadwell jaja, porque desde que lo compre en AMD salio Vishera y bueno no es upgrade y luego ivy y haswell no tienen sentido, el monstruo consumidor golpea la puerta quiere salir jajajajaja.

          • lastraman

            3dmarck quice decir, la pelea del robot.

  • Peroperoperopero… ¡¿Qué habéis hecho?! 91 comentarios… mira que dais trabajo a los moderadores! xD

    • lastraman

      jajajajajajajajajaja.gracias amigo. compartimos gracias a ti.
      saludos