La memoria GDDR6: ¿culpable de las muertes de las NVIDIA RTX?

Escrito por Javier (Javisoft) López

Hace apenas una semana avisábamos de las repentinas muertes que estaban sufriendo muchas GPU de la serie RTX de NVIDIA. No es algo ni mucho menos normal, sobre todo teniendo poco más de un mes de vida. El problema se ha extendido a las tres gráficas que NVIDIA tiene en el mercado y hoy sabemos algo más sobre el problema y sus posibles causas: ¿es la GDDR6 la culpable?

NVIDIA habla de un problema no generalizado y Micron no se pronuncia

RTX 2080 Ti

Cuando una GPU se rompe el usuario necesita buscar culpables, sobre todo si no ha habido mala praxis por su parte. Pero si encima la tarjeta en cuestión supera por mucho el SMI en un país como el nuestro, puede ser que el enfado sea monumental.

Donde algunos medios han apuntado a un problema de NVIDIA nosotros vamos a dirigir dicho problema a unos datos que llevamos recopilando durante el fin de semana y que sin culpar directamente a nadie, vamos a exponer como posible causa de los males que asolan a las RTX de NVIDIA.

En los foros de NVIDIA y en Reddit muchos han sido los usuarios que estaban reportando fallos de lo más variopinto, pero todos parecían tener un eje común.

Fallos como el que vais a ver en el vídeo de abajo se han sumado a pantallas en negro, reinicios esporádicos, mayor número de artifacts etc …

Por lo que según nuestra experiencia en overclock, dicho tipo de fallos es muy común cuando la memoria de la tarjeta gráfica termina fallando, sea por velocidad o temperatura.

Pero ¿qué hay de cierto en esto? Bueno, para hacer una correcta recapitulación de los datos hemos de discernir con que hardware estamos tratando.

En el caso de toda la serie RTX de NVIDIA el fabricante para todos los AIB o Founders Edition es Micron. Su GDDR6 pasa por tres modelos distintos que comparten muchas similitudes y pocas diferencias, entre ellas la capacidad de sus módulos.

Las similitudes vienen desde el voltaje, pasando por la velocidad o su pinout. En las RTX 2080 Ti la versión de los módulos instalados pasa por el modelo 8RA77 D9WCW (8PA77 en otros modelos), mientras que para las RTX 2080 y RTX 2070 el modelo es la variante 80A77 D9WCW, ambos modelos figuran como MT61K256M32 según la propia Micron.

Si nos vamos a sus datasheet encontramos cosas muy interesantes:

Micron GDDR6 Specs

Desde su VDD de 1.35 voltios hasta su VPP de 1.8v pasando por lo que realmente nos interesa, on-chip temperatura sensor with read-out y temperature sensor controlled self refresh rate para terminar en su Tc desde 0ºC hasta +95ºC.

Muchos de estos datos ya los conocíamos, pero el parámetro que entra en debate es la temperatura. ¿Acaso las GDDR6 son capaces de llegar a esta temperatura en una tarjeta gráfica de NVIDIA? Bueno, veámoslo:

En el caso del vídeo en concreto hablamos de una MSI RTX 2080 Ti Gaming X Trio, un modelo custom muy bien refrigerado y que cuenta con midplate exclusivo para las VRAM GDDR6 y además el apoyo del backplate para refrigerarlas por la parte trasera del PCB, tal y como podemos ver en estas imágenes:

El problema no ha sido detectado como tal hasta ahora debido a que la mayoría de tarjetas se prueban con su configuración por defecto, es decir, si incluye backplate se testea con este, como por otra parte es lógico.

Esto evidencia problemas ocultos que el backplate esconde, como se puede ver en la siguiente captura térmica:

MSI-RTX-2080-Ti-Gaming-X-Trio-FLIR

Los backplates ocultan el problema

Así, se aprecia como el punto de medición 4 alcanza los 75,5 ºC que es justo la zona de mayor temperatura disponible ya que centra una de las filas de VRAM y justo al lado tenemos a las fases y VRM:

front

En este caso el diseño de MSI ha priorizado separar lo máximo posible las VRAM de las fases y VRM, pero este diseño no es lo común actualmente, ya sea en otras tarjetas custom como en el PCB de referencia como se muestra justo debajo.

front (1)

En cambio si nos fijamos en el diseño de las tarjetas homólogas Pascal encontramos una sutil diferencia:

pcb_analysis

Si miramos la MSI GTX 1080 Ti Gaming X Trio vemos que la distancia es aun mayor y además un detalle marca la diferencia.

En la columna derecha de las GDDR5X el módulo que falta para cumplimentar los 12 GB de las Titan está estratégicamente colocado en todos los modelos GTX 1080 Ti para evitar aumentar el calor y permitir una mejor disipación.

front (2)

Mientras que como hemos visto en la serie RTX dicho módulo “vacío” se encuentra en la parte inferior de las tarjetas, junto al PCIe.

Esto es un “problema” de diseño de NVIDIA, ya que los fabricantes por norma general no alteran ni la orientación del die ni la disposición de buses o líneas de interconexión con la VRAM, es un diseño cerrado por así decirlo que NVIDIA impone.

Pero entonces ¿qué se puede hacer ante esto?

Lo principal en este tipo de casos es escoger bien a la hora de comprar nuestro modelo, más que nunca la refrigeración cuenta a la hora de alargar o mantener la vida de nuestra GPU.

Pero para los que ya posean alguna de las tres variantes de la serie RTX, existe por lo menos una solución paliativa a corto plazo. Muchos usuarios que han experimentado problemas de los arriba mencionados han afirmado que bajando los clocks de la VRAM manualmente entre 50 y 100 MHz han conseguido evitar los problemas y poder jugar sin artifacts, pantallas en negro o reinicios.

Esto tiene sentido desde el punto de vista de la temperatura, bajar clocks sin duda influye directamente en un menor estrés, consumo y por ende menores grados centígrados en las VRAM.

Fuente > Techpowerup, Guru3D, Techpowerup, Techpowerup

Continúa leyendo
  • K3lu4

    Entonces como es que las 2070 y 2080 no presentan esos fallos?

    • pepito delospalotes

      Pues si es por temperatura el problema, un núcleo más chico como el de la 2070 y 2080 genera menos calor, lo que afecta menos a las memorias que están más cerca.

    • Javisoft

      También hay casos de 2080 y algunas 2070 llevando menos tiempo en el mercado están en el camino.

      Solo hay que meterse en los foros de NVIDIA y mirar las ramas abiertas con dichos problemas, el tema es que irán a más si esto termina por confirmarse.

      Un saludo!!

    • Maximiliano Ricardo Elias

      No por nada AMD opto por memorias HBM

  • Viciao

    Muy bien explicado, pero falta decir que ésto pasa en gráficas de 1300€, cuando gráficas 4 veces más baratas puedes jugar a lo mismo y sin tantos problemas.
    Mis felicitaciones a Nvidia, cada día me alegro más de no comprar nada de esa compañía.

    • Javisoft

      Seamos honestos, podrás jugar a lo mismo pero no con los mismos settings y a los mismos FPS.

      Sobre NVIDIA, es más un problema de Micron y de los AIB que de NVIDIA, si bien estos podrían haber seguido el esquema del pinout vacío de las Pascal para mejorar aunque sea un par de grados la temperatura total en la zona más caliente de las tarjetas.

      Un saludo !!

      • Viciao

        Claro que no, pero para 1080p 60fps en ultra de sobra, si te gusta jugar puedes jugar sin problemas, otra cosa es que seas un gamer que esos son otro mundo donde interesa más las lucecitas RGB que otra cosa.

        • Javisoft

          No se trata de ser o no ser, pero muchos ya pasamos hace mas de 10 años del 1080p y ahora no nos mueven del 21:9 o 4k.

          No hace falta menospreciar porque tengamos o dejemos de tener, o porque nos guste la máxima calidad o experiencia disponible.

          PD: el rgb no aumenta el rendimiento XD.

          • Viciao

            Bien por ti, pero para disfrutar un juego no se necesita tanto, para alimentar el ego si, pues para llevar más de 10 años sin 1080p habrás tenido que dejarte un pastizal, porque en cosa de 4 o más lo del 2k ni se oía en juegos ya que las consolas como mucho iban a 720p.
            Sigo pensando lo mismo, si te gustan los juegos no necesitas dejarte tanto dinero en un componente del PC.
            PD: Pues debe subir el rendimiento el RGB, porque con más de 25 años jugando a videojuegos en los últimos la moda “gamer” es moda RGB, si es “gamer” lleva RGB y un aumento del precio porque sí, porque sí y porque lo pagan esos “gamers”, pues para vosotros “gamers” que por culpa de esa gentuza tenemos componentes que valen lo mismo que un PC gama media, normal, sin luces ni mierdas de esas que solo valen para gastar más.

          • Javisoft

            Siguiendo tu lógica y argumento lo mejor que puedes hacer es comprar una consola, total, disfrutas los juegos igual y no alimentas tu ego.

            No quiero caer en la falacia del poner etiquetas, pero tus argumentos no son tales y da la sensación de que eres el típico frustrado común que tiene que buscar excusas por no poder permitirse o por no querer entrar en el juego de las compañías de hardware, para o por tener unos componentes mejores.

            Dicho de otro modo, aparentas ser un clon mas del típico hater y así no se puede dialogar, lo cual es una pena, ya que yo con mi pasta (o cualquiera vaya) hago lo que me da la real gana y tu no puedes ni tienes derecho a criticarlo.

            Suerte con esa actitud por aquí.

          • Viciao

            Las etiquetas les molesta a quienes viven de ellas, no son escusas, toda mi vida jugando siempre he sido un viciao, nunca un “gamer” eso se lo han puesto ahora porque suena muy “cool”, no he dicho que tu lo seas, digo que es la moda actual.
            Perfectamente podría permitirme un SLI de 2080TI, pero para tirar el dinero prefiero invertir en otras cosas, tengo consolas a parte de PCs, llevo una vida en el mundo y he visto como de tener una tope de gama por 300€ a tener una tope de gama por 1300€, lo que no he visto es una mejora gráfica que me diga que ese aumento de 1000€ está justificado.
            Por cierto tanto escribir para luego no decir nada, vamos que en cuanto viene alguien con dos dedos de frente que ha visto un aumento del 400% en el precio de las tarjetas gráficas en poco más de 10 años, pues mira, que sepa mi sueldo ni se ha multiplicado tanto, pero los beneficios de esas compañías de hardware si, que cosas…

          • Javisoft

            Cumples palabra por palabra lo que he dicho.

            No tiene sentido la conversación, suerte y un abrazo.

          • Viciao

            Te quedas sin argumentos? que mala suerte… Nada a seguir buscando alguien que me convezca de que gastarme 1300€ en una tarjeta gráfica para jugar está más que bien y es lo óptimo…

          • Miguel Angel

            Te molesta no poder tener un top de gama veo. Si no necesitas jugar a 2k o 4k ¿por qué estas llorando tanto por los precios?, compra según tus necesidades. Para que quieres un SLI de 2080ti si luego juegas a 1080p 60hz, es como comprarte un gt3 de circuito y usarlo en carretera (?). ¿Suena absurdo no ? Pues esto lo mismo, la tecnología va evolucionando y el mercado evoluciona con ella, las necesidades de la gente cambian también. Es muy sencillo, solo tienes que probar la diferencia entre 1080p (60hz – 144hz – 240hz) 2k y 4k con un equipo que de la talla en cada una de ellas y un monitor capacitado para cada resolución, etc.. Te puedo asegurar que en cada una puedes notar una experiencia de juego totalmente diferente, pero claro PRIMERO tienes que probarlo. Jugar a videojuegos es un hobby, un hobby muy caro el cual siempre necesitas hacer inversiones constates para ir adaptando tu pc a juegos futuros si no puedes permitírtelo simplemente juega en consola y se acabaron los problemas para ti, no mas berrinches porque no entiendes o porque no puedes , te gastas 5xx€ en una consola y a jugar tranquilo, total las consolas tampoco tienen tan malos gráficos. Pd: El rgb no aumenta mucho el precio, el problema es la palabra “gamer”, manipulación e ignorancia.

          • Viciao

            Que gracia me haces lumbreras, sigue comiendo palos de entre piernas, vas a venir a dar lecciones de como pagar la vida a accionistas.

          • Miguel Angel

            Yo no doy lecciones a nadie te digo lo que hay. Aburre ver gente como tu llorando por precios y diciendo que pueden comprarse 5000 rtx 2080ti cuando realmente no pueden. Ser “gamer” no es para todos…. Por cierto no se en que parte de mi comentario has leído algo de dar alguna lección de algo para decir semejante estupidez (vas a venir a dar lecciones de como pagar la vida a accionistas.) me importa mas bien poco lo que seas, simplemente te digo lo que hay. Ni tampoco se en que momento te he faltado al respeto (Que gracia me haces lumbreras, sigue comiendo palos de entre piernas) eso demuestra lo amargado que estas en la vida y la poca educación que te han dado tus padres, como comentas en comentarios mas antiguos (llevo una vida en el mundo) supongo que seras una persona “adulta” lo cual no lo demuestras en tus comentarios vulgares, mas bien pareces un niño cabreado porque sus padres no le compran lo que quiere. Un saludo compañero, que te vaya bien en la vida.

          • Viciao, siento decirte que Javisoft tiene razón, y el que no tiene argumentos, eres vos :/

  • Anonimo mosqueao

    Me uno a la opinion de Viciao, muy bien explicado, pero aparte de reducir la velocidad (mhz) y frecuencia de la memoria, el otro valor que afecta tanto o mas a las temperaturas es el voltaje. Seguramente vayan altas de voltaje, y si reduces el voltaje ajustando a la velocidad, se le rebajaria bastante temperatura. Y si encima, ademas, reduces la frecuencia de las memorias, se podria reducir incluso aun mas el voltaje, reduciendo aun mas si cabe la temperatura.

    • Javisoft

      El voltaje de las VRAM no se puede ajustar, concretamente, no se ha podido ajustar jamás, así que no podemos aplicar dicha correción y por eso no se ha nombrado en el artículo.

      Un saludo !!

  • terminat2

    Que cagada y encima a precio de oro.