Infografía: el futuro de la informática según AMD

Escrito por Rodrigo Alonso

AMD tiene muy claro que el futuro de la informática está en los procesadores que combinan CPU y GPU en un solo chip, es decir, las APUs, y lo muestra en forma de infografía comparando la evolución de éstas con los chips de la competencia. Una vez más vemos una comparativa AMD vs Intel aunque en esta ocasión sin cifras ni rendimiento de por medio.

Un dato es innegable, y es que en esta evolución de las APUs, AMD está tomando ventaja ya que cada vez más porcentaje de sus chips está ocupado para la GPU, y no en vano llevan tiempo desarrollando tecnologías de memoria unificada para CPU y GPU y, de esa manera, mejorar el rendimiento entre ambas y por ende del sistema completo. En esta infografía veremos reflejado este dato, donde allá por 2011 Intel lanzó Sandy Bridge, una arquitectura que contaba con un 17% aproximadamente del chip dedicado a la gráfica integrada, mientras que la arquitectura homónima de AMD de aquella época, Llano, ya contaba con un 37% del chip dedicado para la GPU.

apu_infographic_full-with-codenames

Estemos o no de acuerdo con la visión de AMD, enfocada en hacer ver que las APUs son mejores para todo tipo de usos como indican en la infografía, lo que sí es cierto es que la compañía lleva ya tres años enfocándose precisamente en esto, y según pintan las cosas, parece que de momento no le va nada mal.

Continúa leyendo
  • lastraman

    La vision esta buena. Pero fuese mejor la cosa si dedicamos asi como la gpu de las apu una gpu de verdad via pciexprees como una r9290x o una titan para citar ejemplos. No se. Esta bueno. De todas maneras creo que las gpu tienen muchisimos nucleos como para poder optimizar. lo veria como una opcion muy futuro e impresionante. Pero esto si no mal recuerdo lo habia oido muchisimo tiempo atras. No se de quien pero esto era la meta hace tiempo y creo q fue de amd. De todas maneras la competebcia esta latente. Ya que si bien no tienen gpu en intel q valga la pena, ya la tienen. Estaria bueno ver y esperar q pasa.

  • jesus

    la funcion de las apus es sin duda un buen invento… pero no se puede comparar el rendimiento de un apu con el de una grafica y una cpu individual… no hay color, pero para un usuario que quiera un odenador asequible y con buen rendimiento las apus va genial… espero que amd no abandone la linea de procesadores fx de escritorio..

    • Charles Dexter Ward

      Estas equivocado, un GPU de propósito general es algo que muchas empresas han buscado desde hace tiempo, sony con el procesador cell, intel con larrabee, amd con los APU precisamente por el poder de cómputo que tienen los GPU’s, el problema con el cell de sony es que era una arquitectura “nueva” y no se le dio continuidad, larrabee tuvo un poder por debajo de lo esperado. AMD se ha retrasado y no ha estado a la altura de lo que quiere hacer (y de lo que ha prometido), pero cuando se logren hacer indiferente el computo ya sea en gpu o cpu, es cuando de verdad se podrá ver todo el potencial de la tecnología que AMD llama “APU”, los renders que se hacían en granjas de servidores y tomaban horas/días se podrán hacer en PC’s de sobremesa, la mejor prueba de que un APU es mejor que lo mismo pero por separado sería que comparases el rendimiento de un kaveri por ejemplo con y sin gráfica dedicada y usaras una gráfica dedicada comparable a la que tiene on-die, verías que el desempeño de la gráfica on-die sería mejor pese a que posiblemente la dedicada sea ligeramente mas poderosa en papel. Quizá lo mas difícil para AMD es que se cambie el modelo de desarrollo de software para efectivamente hacer las descargas a los “compute shaders”, pues esto ultimo NO le conviene a empresas como intel pues sus procesadores tendrían resultados suboptimos. Pero definitivamente los “APU” no son mala idea, solo son un enfoque distinto para llegar a un GPGPU sin dejar de lado el soporte a la arquitectura X86.

      • EpsylonRad

        Pues yo ya no tengo que emitir tal vez, nunca más una opinión sobre este tema luego de semejante respuesta…

  • smohking

    Lo que veo con las APU es que la gente con procesadores no muy viejos, no tienen mucha mejora de rendimiento, ahora los juegos piden mas grafica y realmente se quedan un poco pobres para jugar las APU en general.
    La gente prefiere elegir una buena grafica y ya.. tambien hay que decir que cuando salgan las nuevas ddr4 y los cpu sean mas potentes la cosa puede cambiar y la gente vaya a lo clasico de cpu + gpu dedicado, ahora lo sigo diciendo son equipos “validos” para jugar o usuario medio, pero que en poco tiempo se quedaran obsoletos. No como los equipos que hemos tenido la mayoria que pueden durar 8/10 años.. tiempo al tiempo
    solo hay que ver la mejora entre versiones de los ultimos procesadores, un 5/10 % “de nada”, en cada nueva version.

    • Rod Charles Jr

      Pero, si empiezan a aparecer apus, con chip gráfico integrado cercano a la gama alta y la parte de cpu aumenta su rendimiento, mas el hecho de que trabajan juntos y las optimizaciones que se vienen sucediendo, pueden llegar a aumentar su espacio en el mercado…yo aún soy mas amigo de cpu mas gpu por separados por una cuestion de claro mejor rendimiento y por “friki”….pero nunca se sabe!

      • lastraman

        Amigo que apu conoces que se acerque a gama media en gpu? La apu de la ps4 es la mejor apu que conozco y va a demorar un poco para que amd la saque a la venta en pastilla, ¿y mira lo que son?, las consolas dan asco, la potencia es muy baja y estamos frente a la mejor apu jamas creada. Juegos a 720p, si llegan a 1080p 30 cuadros, y muchisimos esas resoluciones personalizadas 900p 798p y esas basuras y a 30 cuadros y cuando te dicen 60 fotogramas en realidad son bajadas a 35 y la mayor parte dej juego a 35, 40 y en el mejor de los casos 50 cuando no hay nada en pantalla.
        Tengo las dos ps4 y xboxone y realmente al unico juego que le doy gas a a la killer, 720p 60 cuadros, y a veces cuando gestionas el ultra combo se resiente la maquina y pega pequeños tirones, y asi te puedo seguir contando todas las basuras de la nueva generacion, battlefield 4 bajones impresionantes en modo campaña y ni hablar del online, siempre y cuando puedas jugar y no cuelgue. el Gosth de CoD en ps4 parece de xbox360 a mejor resolucion, filtro anisotopico al raz de tus pies, se forma todas las sombras al lado del personaje, Ryse son of rome, pega caidas de 15 y 18 CUADROS y a 900p. Creo que con esto digo todo lo que son capaces esas apu y PARA COLMO DE MALES, jajaja optimizado para una consola y no un pc, por mas que sea pc sabemos que no optimizan igual manera sino que para consolas se optimiza mejor que un pc o lo que sea.
        saludos amigo y vas a preguntar, para que las compraste? las compre por los exclusivos de cada una, son los mejores. imaginate un good of war en ps4 un gears of wars xboxone. por eso.

        • kiko

          No generalices, la Xbone es la única que mueve los juegos a 720p y 792p, etc y eso es porque Microsoft escatimo al ponerle una GPU equivalente a la 7790 y encima corriendo con memorias DDR3 a 2133mhz, mientras que la PS4 tiene actualmente una gpu equivalente a la 7850 (con los shaders bloqueados seria una 7870) corriendo con GDDR5 a 5500mhz.
          La diferencia es abismal, y encima la PS4 es mas barata…

          • lastraman

            amigo, las tengo a las 2, es ooobvio que la ps4 es mejor a nivel hardware, no se discute, pero son pesimamente impotentes a esta altura, y muchos juegos en ps4 son escalados, nativos 900p y cuando ves un juego a 1080p en ps4 son a 30 cuadros, ej. todos, pues si lo ponen a 60 oscilan lamentablemente estos cuadros hasta que bajan a la mitad.
            MAL MAL MAL MAL, estamos ante una nex gen de consolas, EL PISO DEBERIAN DE SER 1080P Y 60 CUADROS, ni menos ni mas, estamos viendo juegos iguales que la anterior generacion.
            No me interesa lo que valgan, porque estamos hablando de potencia, y la potencia se fue al carajo cuando las hicieron regaladas de baratas, por esos estan desfasadas en esta generacion, la pc las come una de gama media solamente.
            Ese es mi punto de vista, tengo pc, y a estas alturas se lo que es rendimiento, potencia, fotogramas y resoloucion, antialising etc etc etc, no soy experto pero lo veo y estoy acostumbrado al igual que tu, nos damos cuenta los usuarios de pc de esas cosas y saltan a la vista.
            saludos.

          • kiko

            Muchos juegos?. Hasta ahora el único que corre a 900p en la PS4 es BF4, y tiene sentido porque el multiplayer es muy CPU demandante, y el de la PS4 es muy flojo.
            Mira esto:
            http://www.egamers.com/ps4-xbox-one/noticias/thief-correra-1080p-en-ps4-y-900p-en-xbox-one-8922
            A que te referís con juegos iguales?. puede ser BF4, pero es porque ya BF3 tenia muy buenos gráficos, y COD Ghost que fue un desastre, pero en los demás no concuerdo.
            El piso debería ser 1080p y 60 frames+ buena cantidad de filtros, porque no hacemos nada con 1080p 60fps+low settings (prefiero 900p o incluso menos, pero en ultra), pero vale 400 dolares así que no hay que pedir demasiado.

          • lastraman

            jaja, ya lo se lo que valen, pero me referia a ultra 1080po 60 cuadros minimo. a eso me referian, que valgan lo que valgan no es mi problema, potencia deberia de estar. a eso me refiero. los comparo con pc al maximo.
            Realmente

        • Rod Charles Jr

          Te iba a hacer un comentario parecido al de @disqus_dYiRTYwARl:disqus, o sea no tengo ni idea como andan las consolas ya que no me interesan!! pero una cosa es bien clara…yo hablé de apus a futuro…pero si hablamos de la apu mas potente(no a la venta), es la de la play 4….no se como anda la play 4, pero al gpu de esa apu es entre una 7850 y una 7870….y por experiencia te digo…en juegos nuevos mi 7850 con oc de fábrica mas un oc “dañino” jeje mio que le agrego rinde como bestia!!! full hd 1080p en una tele de 40′ tirando 95 fps en formula 1 2013 por ejemplo sin bajar de 70fps….golpeando suave con el phenom x6 oceado a 4,0 SUPER FLUIDO HERMANO…..a lo que voy…yo no se como anda la play 4.. pero esa apu puesta en una computadora con esa gpu integrada te aseguro que puede dar que hablar!!!! CLARO OBVIO! QUIZAS LAS MEMOS DDR3 PUEDAN SER UN LIMITANTE AL DÍA DE HOY…YA QUE LAS GRÁFICAS VIENEN CON DDR5 A MUY ALTA VELOCIDAD!

          • lastraman

            sai pero no te olvides que ni ahiiiiiiiiiiiii ocean las consolas, es mas les suben 50 mhz y la torran a la ps4, no te olvides. pero realmente no son buenas maquinas, por lo menos por ahora no han demostrado absolutamente nada, un ejemplo el battlefield 4 esta re recortado, lo juego en un samsung es8000 de 65 pulgadas y mira que los 900p se nota un poco en los fondo la falta de antialising y los 1080p. el call of duty ghost el recorte que tiene el juego es bestial, antialising, texturas borrosisimas filtro anisotopico, que no se porque carajo lo recortan ya que como sabemos en pc no pesa absolutamente nada x16, tiene tirones bajadas de fotogramas visibles, pensar que lo juego en pc con una sola gpu, no tengo ni siquiera que activas las 2 en ultra, txaax4 en antialias y elm efecto del pelo del perro que esta alucinante, una media de 85 cuadros en full hd, ¿conocias la tecnologia del pelo de nvidia que esta presente en call of duty? esta re buena, se activa solo en win 8.1, esta alucinante, el perro parece real y sumado a las antialias txaa es geniaaaaaaaalllllllllll, diferencia abismaaaaaaaaaaaal con la consola. De todas maneras creo que no es gpu sino cpu, pues esta 1.6 a 1.8 modo turbo por mas 8 cores que sean, estan re re re cortos en cpu, es obvio, para ahorrar consumo y calor, pero en verdad, lo unico que verdaderamente me gusto fue el tomb raiders definitive edition, tiene tree pass aunque en menor cantidad que pc pero tiene y se maneja full hd, los fotogramas 60 son una gracia, oues anda a 60 cuando no hay nada en pantalla, apenas hay accion y baja hasta 35, 38 cuadros, pero esta bueno, tiene extras que la pc no tiene, pero la realidad de las 2 versiones es que por mas que cambie la cara de lara, el juego se nota que es mas liviano, pues sacaron tanto detalle y bajaron texturas, por eso lo hicieron asi, lo vi como excusa eso de remodelar a lara y otras cosas en el escenario para asi bajar los requerimientos y tener mas margen para trabajar en consolas, sabemos que los detalles pesan, por eso creo que fue asi, pero lo que me llevaron a comprarlas fueron los exclusivos, killzone esta bueno, y la killer me encanta, no es graficamente nada jajaja pero me encanta, por ese juego compre la consola, el forza es hooorrible, me quedo con el de xbox360, arboles 2d, full hd pelado que pareciera 720p de tanto pixel, y este es una simple introduccion de lo que creo dan las consolas. espero no aburrirte.
            saludos.
            PD, no es todo negativo, sale 300 dolares en eeuu y 500 la xbox. son mas que baratas. no podemos pedir mucho mas.

          • Rancid

            Cuanto OC saca tú HD7850 ???

          • Rod Charles Jr

            1200mhz….a temperaturas super controladas

          • Rancid

            Buen Chip jaja , la mía no pasaba de 1160Mhz , pero me daba miedo porque era de referencia y llegaba a 75° con el FAN en 100% , pero ya a 1150Mhz rendía más o igual que una HD7870, para mí fue lo mejor que saco AMD en las HD7000

          • Rod Charles Jr

            Ahh es un cañon! mi modelo de msi con doble ventilador y unos pipes en el disipador hace un muy buen trabajo! Hasta la memoria se la llevo como a 1500mhz…(stock viene a 1200), llego a 190gb de ancho de banda o mas! por ahora me viene dando un gran resultado…

          • Rancid

            Siempre pense eso, que mí limitante era el disipador, de todas formas cuando la compre todas costaban arriba de 200$ y la que me traje de amazon estaba en 180$ jaja muy buen precio y que temps te da a 1200/1500Mhz con tu temperatura ambiente ??? Pregunto para saber si vale reemplazarle el cooler stock y meter uno custom porque por ahí anda aún la HD7850.

          • Rod Charles Jr

            Haciendo unos test de stress mira las capturas, con el ventilador de la gráfica corriendo al 62%…en estos momentos no estoy usando un buen monitor porque la tengo en un lugar provisorio! pero el test muestra la gráfica entre un 99% y 98% de carga…nada mal! las temps te las muestra el programa de stress…unos nada despreciables 46º…

          • Rancid

            Increible esas temps jaja, sería interesante ponerle un cooler custom porque a 1.2Ghz debería de rendir un poco más que la HD7870 Normal , Gracias por la info!!

          • Rod Charles Jr

            La verdad es que están muy bien! en pleno verano sin el aire prendido mi casa hierve! realmente arríba de 35º(estos días ya están mas frescos)…jugando con el ventilador al 50%, nunca vi temperaturas exageradas! Anda muy bien el disipador…quizás son un tanto cruel las frecuencias que le hago tirar jeje pero bue….

          • Rancid

            Con esas temps no sufre mucho, solo tendrías que revisar si tu tarjeta trae disipadas las Memorias si no, no le haría mucho OC en la RAM, 1300Mhz máximo igual no ganas mucho como con el Core, recuerdo que algunas HIS ICEQ llegaban a 1220Mhz jaja unas bestias.

    • kiko

      5/10% aplica a Piledriver, Ivy y Haswell, en Kaveri el aumento es mayor a eso (hasta un 25% de mejora y 10% mas IPC sobre Trinity -A10 7850k a 3.7ghz vs A10 5800k a 3.8ghz-), aunque muchos benchmarks (entre ellos Cinebench) no lo muestran -.-

  • kiko

    No me convence demasiado un CPU en el rinconsito del die manejando sin cuellos tanto poder de GPU (integrada+discreta). Ya veremos que nos depara el futuro.

  • Juan Cruz Coronel

    Edición de video ? Es broma? En potencia de computo (renders, video, etc) son la mitad de potentes que un PhenomII 965.
    Me parece un excelente producto pero seamos realistas.