NVIDIA se enfrenta a Intel y la acusa de hacer trampas y falsear datos

Escrito por Rodrigo Alonso
Tarjetas Gráficas

Si normalmente estamos acostumbrados a ver “disputas” entre NVIDIA y AMD o AMD e Intel, en éste caso nos toca ver algo que al menos es poco convencional. NVIDIA ha acusado a Intel de hacer trampas y falsear las gráficas de rendimiento que presentaron en el ISC 2016, donde las tarjetas aceleradoras Xeon Phi (Knights Landing) salían mejor paradas que las gráficas Maxwell de NVIDIA.

El tema es el siguiente: Intel realiza su presentación habitual en el evento ISC 2016, y muestra una presentación con una serie de diapositivas enseñando los datos habituales. En varias de éstas diapositivas se mostraban datos de rendimiento teórico de las tarjetas aceleradoras Xeon Phi “Knights Landing”, incluyendo gráficas comparativas de éstas con las GPUs NVIDIA Maxwell de anterior generación. Concretamente, según Intel, para cálculo de redes neuronales (en otras palabras, deep learning) los aceleradores Xeon Phi proporcionan 2.3 veces el rendimiento y una escalabilidad un 38% superior a las gráficas Maxwell.

Xeon Phi

Claro, con el fuerte enfoque que NVIDIA está dando en los últimos tres años al desarrollo de deep learning, la compañía se ha sentido ofendida y ha saltado al quite para acusar a Intel de mentir y negar los datos proporcionados por el gigante del silicio.

Concretamente, NVIDIA ha argumentado que Intel ha empleado la “técnica clásica” (palabras literales) de utilizar benchmarks antiguos para sus pruebas. Los de verde afirman que si Intel hubiera utilizado la última versión del mismo benchmark empleado para tomar los datos de rendimiento de redes neuronales (llamado Caffe AlexNet), las mismas GPUs Maxwell habrían obtenido un resultado un 30% superior a los productos de Intel.

caffe_dnn_low-high-624x323

Además, claro está, NVIDIA ha dejado bien claro que Intel ha tratado de engañar a la gente comparando su nueva generación de aceleradores gráficos con la pasada generación de NVIDIA, y que si hubieran utilizado la generación actual (Pascal), habrían obtenido fácilmente un resultado un 90% superior al de los aceleradores Xeon Phi de Intel.

Intel Xeon Phi

Pero esto no termina ahí, pues NVIDIA ha querido meter el dedo en la llaga y ha dejado ver que Intel ha comparado la potencia de 32 de sus nuevas tarjetas aceleradoras de última generación ante servidores de hace cuatro años que utilizaban GPUs KVIDIA Kepler, de hace dos generaciones (usadas en el super ordenador Titan de ORNL). Pascal es capaz de escalar hasta 128 GPUs gracias a NVLink, proporcionando la solución de deep learning más potente que se puede comprar a día de hoy.

NVIDIA NVLink

Personalmente, no sé si los datos que proporcionan una y otra compañía son más o menos exactos, pero lo que sí es cierto y le doy la razón a NVIDIA es que Intel no ha jugado limpio comparando sus últimos productos con los penúltimos de NVIDIA, y utilizando la versión del benchmark que les favorece a ellos y no la última disponible.

Continúa leyendo
  • EpsylonRad

    Bueno, ladron que roba a ladron tiene 100 años de perdón.
    Que pasa con Nvidia y sus comparativas Pascal en DX11??? Compran sitios web que venden la potencia de “pascal” en Dx11 pero de DX12 NADA.-

    Y no es acaso la misma situación que la prueba de Intel con un Benchmark viejo para mostrar la diferencia?

    Vamos, que Nvidia no es ningún Manso para acollarar un Chucaro.

    • Amd

      No, no es la misma situación.
      Intel ha comparado la potencia de 32 de sus nuevas tarjetas aceleradoras de última generación ante servidores de hace cuatro años que utilizaban GPUs KVIDIA Kepler, de hace dos generaciones.

      • Hachazos

        Es cierto, está descompensado. No me parece justo.

    • Kibocop

      Si, esa es la putada de las RX480 8gb seguramente en dx12 vallan mejor que la 1060 6gb, aunque en España las RX Custom están más caras que las Nvidia, el problema es que los juegos tardan en desarrollarse años y la mayoría de juegos que están saliendo nuevos o por salir aún están desarrollados más para dx11 que para dx12, creo que dentro de un año a dos dx12 estará en su punto óptimo, vamos cuando asome dx13 y entonces Nvidia sacara gráficas optimizadas para eso

      • EpsylonRad

        La mayoría de los juegos están saliendo con parches para Dx12 e Incluso algunos no tan nuevos… Porque?
        Porque tienes un aumento directo en rendimiento solamente con ese parche.
        Definitivamente considero que es al revés, los desarrolladores tienen en cuenta que Dx11 todavía tiene muchas graficas funcionales y por eso los nuevos juegos de Dx12 todavía se desarrollan en Dx11.
        El tema acá es que es innegable la ganancia que te proporciona Dx12 en un juego respecto de Dx11.

        Así, es que aquel que maneja Dx12 mejor (AMD) esta vendiendo gráficas como pan caliente.

        Y de Dx13, pues yo espero estar vivo, pero calculo que eso será allá por el 2023 si es que no más.

        • Amd

          No siempre el uso de dx12 supone un mejor rendimiento en el apartado gráfico.
          Respecto al uso de los cores del micro si.
          Sobre todo en aquellos casos en los que el micro supone un cuello de botella.

  • UnoQueVa

    Lo gracioso de todo esto es que Nvidia pertenece a Intel jajaja

    • Juan Ulises Barba Andrade

      a que te refieres? o.O

    • Qué tontería.

  • Mario85

    Intel sigue haciendo lo mismo, falseando datos, todos lo hacen pero Intel es el campeón en esto, recuerdo dos situaciones en particular, el tratar de convencer a la gente en una conferencia de prensa que sus tarjetas gráficas integradas podían correr un videojuego de carreras mostrando un vídeo (quedaron en ridículo cuando el video empezó a correr por segunda vez por accidente) y un intento de engaño al mostrar el SDP en lugar del TDP de sus procesadores Ivy Bridge.

    Les dejó los links si lo quieren checar, nada mas corrijan los espacios entre el punto y el “com”:
    youtube. com/watch?v=TAGrPyMKA_k
    http://www.anandtech. com/show/6655/intel-brings-core-down-to-7w-introduces-a-new-power-rating-to-get-there-yseries-skus-demystified

    • Kibocop

      Si, lo de las integradas de Intel clama al cielo

  • javron

    Curioso, me gustaría ver a quien le daría su pulgar el multin-cuentas baneado, de que color se tornaría su corazoncillo de pollo “verdi-azul” ¿verde o azul?

  • Kibocop

    Mi Ferrari del 2016 es mejor que tú porche del año 1980 y corre más al mismo precio.

    • afafaf

      Será más rápido pero tú no lleva acento.

      • kibocop

        jajaja mi auto-corrector de 2016 funciona peor que tú autocorrectivo ; )