NVIDIA muestra su tecnología G-Sync con el juego Starcraft

Escrito por Rodrigo Alonso

NVIDIA presentó recientemente su nueva tecnología G-Syncmediante la cual se evitan los odiosos efectos de stuttering y tearing en los monitores, mejorando la sensación de juego (recordad que ya os explicamos en qué consiste y cómo funciona G-Sync). Ahora, NVIDIA ha aprovechado el evento de Blizzard, empresa creadora de World of Warcraft y Starcraft entre otros juegos, la BlizzCon, para hacer una demostración pública y dar una explicación detallada de cómo funciona G-Sync con el juego de Blizzard Starcraft.

En esta BlizzCon, NVIDIA estuvo presente y configuró un monitor Asus VG248QE con tecnología G-Sync para demostrara a los presentes las diferencias entre utilizar su nueva tecnología y no hacerlo. Los resultados fueron bastante notables, y podéis comprobarlo por vosotros mismos en el siguiente vídeo:

NVIDIA confirmó también que va a ofrecer un kit “do it yourself” de G-Sync, de momento exclusivo para el monitor Asus VG248QE, un monitor de indudable gama alta que funciona a una frecuencia de actualización máxima de nada menos que 144 Hz. El proceso de actualización del monitor requiere unos 30 minutos de tiempo y un destornillador de estrella normal. Lo que no ha confirmado NVIDIA es la disponibilidad de este módulo G-Sync ni el precio al que se venderá.

Fuente: Legitreviews.

Continúa leyendo
  • que lo disfrute benny hill

    Osea que al principio se hablaba de una actualización y ahora es un aparato aparte.
    Lo más lógico y normal en esta vida, es sacar el producto para todos los monitores y así nvidia conseguiría más cuota de mercado frente a su competencia directa, AMD.
    Es exclusivo de asus, esto no quiere decir que todo los usuarios se lo vayan a comprar. Y sigo dudando de la noticia, porque un monitor asus de 120hz, 144hz suelen costar 250 y 420 euros, + el aparatito de nvidia a cuantos nos sale el monitor??.

    • asgfasg21

      Yo tengo uno de 144hz y va que flipas

  • EpsylonRad

    Que opinas @RodrigoAlonso?

    Vale la pena cambiar el monitor y pagar esos Euros por G-sync?

    Y aparte te dejo una nota que leí hoy… puede ser un rumor simplemente o tal vez no.-

    http://wccftech.com/gtx-780-ti-sale-allegedly-suspended-china-design-flaw-gpu-death/

    • Rod Charles Jr

      Notición!!! como me revienta que saquen a la venta productos “supuestamente super testeados”, y luego resulten ser defectuosos o presentar fallas inconcebibles para el precio en que se venden o rendir mucho menos de lo que prometían!! FAILS FAILS Y MAS FAILS!!! Explota la gpu!!! no es cualquier fallita!! y pone en peligro el resto de los componentes y la integridad del propietario en caso de que al explotar se derive en fuego!!!
      Por otro lado…me preocupan las r9 290 x y no x jaja con sus tremendas temperaturas!!! acaso, el gk110 nunca estubo pronto para manifestarse entero, totalmente completo??? y por eso las anteriores venían con parte del gk110 limitado?? y como último manoton de esta arquitectura y la presión de amd lanzaron esta basura defectuosa??? y que pasara lo que pasara….los perjudicados??? los mismos de siempre…los que no esperan ni siquiera un mes luego del lanzamiento para corroborar que el producto salió bueno, y que efectivamente no hay testimonios de fallas o problemas!!!

      • EpsylonRad

        Bueno, según lo que yo se, es un “rumor” pero viste como es esto…

        Respecto del 290X y el 290, no me preocupó nunca lo de la temperatura puesto que como he dicho en varias oportunidades, tengo un EN9800GT Ultimate y funciona a 105 desde siempre.
        En fin, eso de las temperaturas y el ruido, pienso, con una versión personalizada, desaparecerán y quien sabe si no habrá encima más poder para extraer de Hawaii XT.
        Lo que esta semana me dejó con el rabo entre las piernas honestamente fue ese posible lanzamiento a futuro de un ROG Ares III con dos Hawaii XT…

        Quien sabe amigo, hablando de hardware, las cosas pueden salir mal…
        Recuerdo las fallas de 3960X siendo de INTEL o de los Bulldozer tan criticados…

        Nvidia quería tomar partido de la temperatura de las R9 de AMD, y en un par de días les sale este rumor que de ser cierto, es un tiro por la culata….

        Jajajjaa veremos que pasa en estos días….
        Pero mi decisión fue tomada ya hace un par de meses, sin lugar a dudas voy a por el 290X en su versión Vapor-X Toxic Direct CUII o la que mejor funcione…

        Aunque que bonito sería un solo, uno solito unito chiquitito ARES III. No compre tal vez nunca más un acelerador de gráficos… jajajja

        • Rod Charles Jr

          105ºC??? que saladera!!! mi 9600gt no llega a esas temperaturas ni a full!!!!

          Voy a hacer una réplica de tu última apreciación ” No compre tal vez nunca más un acelerador de gráficos… jajajja” y de un comentarío tuyo que acabo de ver de hace 2 días “si llegan a hacer un ROG Ares III esa sin lugar a dudas sería, LA GRAFICA DEFINITIVA”

          Me parece un tanto apresurado y descabellado tu comentario! jeje ambos conocemos como funciona esto, y claramente vamos a coincidir que esa tarjeta va a estar tremenda, con solo pensarla se me cae la baba!!! sin embargo en el mercado de la informática seguramente hubo momentos varios donde mas de uno se pensó que había llegado el punto final, el techo(llamale cuando de un núcleo se paso a los doble núcleos o cuando se corroboró que una ssd era muchísimo mas ligera que un disco duro o cuando salio la primera tele o monitor lcd planito planito jeje etc) sin embargo todo siguió, mejoro, avanzo y aquellos topes no fueron mas que solo metas!!!

          Yo volando un poco me imagino una grafica por venir con 3 o 4 procesadores gráficos acoplados en una misma plaquita…o en unos años nos riamos del mediocre rendimiento de una 290x porque existen unas bestias 10 veces mas potentes….
          es una mediocre deducción a la que llego con solo mirar el pasado reciente!!!

    • Opino que si tienes una tarjeta gráfica de gama alta no necesitas G-Sync para nada. Yo tengo una GTX770 OC y juego a todo al máximo en Full HD sin parones.

      Ahora, para gente que tenga gráficas de gama media quizás… aunque el dinero que invertirían en G-Sync podrían invertirlo en una gráfica mejor.

      Es mi opinión xD

      Por otro lado, lo de la GTX780 Ti ya lo había visto, lo tengo preparado para publicarlo mañana 🙂

      • EpsylonRad

        Gracias por tu opinión y tu respuesta, aunque no siempre coincidimos, en esta si. Puesto que tienes más al alcance la tecnología de la que hablamos, que yo, seguiré tu consejo.

        Saludos

        • Tengo nula relación con NVIDIA, jajaja. Si tengo una GTX770 es porque me surgió la oportunidad de cambiarla por mi gráfica antigua + algo de dinero. Si en su día hubiera tenido que comprarme una gráfica, seguramente tendría en mi poder una Radeon HD 7970.

  • Robert Muñoz

    es un buen avance pero dudo que en futuro cercano no este en todos los monitores para cualquier gpu AMD, NVIDIA o INTEL porque los fabricantes quieren bender monitores no solo a los que tengan gpu NVIDIA

    • Rod Charles Jr

      El es Bender

      • Juan Cruz Coronel

        jjajjjajaja