Hyper-Threading en Core i7, ¿ayuda o lastre?

Escrito por Matías Varea
Generales
5

Intel rescata del olvido su tecnología Hyper-Threading, adaptada a los tiempos que corren para no ser el fiasco anterior en los tiempos del Pentium 4. ¿Realmente lo han conseguido o es simple marketing? Los chicos de VR-Zone se han puesto manos a la obra.

Un poco de historia.

Antes de nada explicaré brevemente en qué consiste esta tecnología, para los que se hayan incorporado recientemente al mundo del Hardware y desconozcan su función y orígenes.

El Hyper-Threading fue una tecnología lanzada por Intel y que implementó en algunos núcleos de sus Pentium 4 (Northwood, Prescott, Cedar Mill, Prestonia, Gallatin, etc), denominados P4 HT para el gran público.

Es una instrucción del procesador, por la cual 1 núcleo tiene 2 hilos de operación paralelos (en un sistema operativo que lo soporte), es decir, hacer creer al sistema que tenemos 2 procesadores en vez de 1 y agilizar las operaciones.

En teoría la idea era buena, ya que que se reducían los ciclos de reloj vacíos (sin ejecutar ninguna operación) y se ganaba rendimiento al mantener el procesador más operativo. La realidad fue bien distinta, ya que el aumento de rendimiento era pequeño, en torno al 5% en la mayoría de aplicaciones, en alguna hasta un 20% y en otras hasta se perdía rendimiento.

Algunos de vosotros recordaréis como lo desactivábamos para poder hacer overclocking tranquilamente, jeje.

 

Situación actual:

Intel ha vuelto a implementar el HT en los Core i7, y como veremos a continuación, con resultados dispares según el artículo de VR-Zone:

El aumento en 3DMark Vantage tes de CPU es muy notable, 34.1%, también mejora bastante el resultado en Cinebench R10, 16.6%. La parte negativa viene con los juegos, Crysis Warhead y Far Cry 2 ven reducidos sus FPS en un 0.7% y 5% respectivamente.

Podéis ver los benchs detallados en la página original.

Fuente: VR-Zone

Continúa leyendo
  • inigoml

    La información no es del todo correcta…

    El P4 tenía 3 cauces de ejecución de instrucciones (pipelines). Un pipeline es como una “línea de montaje” de coches, donde en cada “puesto” se realiza una operación sencilla. Muchas operaciones sencillas completan una más larga.

    La arquitectura HT lo que hacía era aprovechar los “puestos” que quedaban libres de cada una de las “lineas de montaje” para simular un segundo procesador, y a decir verdad es muy común que queden muchos “puestos” libres cuando se ejecuta un programa, especialmente porque a la hora de realizar operaciones de entrada/salida quedan muchos momentos en blanco.

    Si bien es cierto que en determinadas aplicaciones muy muy intensivas en uso de CPU (caso de algunos juegos) donde además la aplicación no se había optimizado para ejecución paralela había una ligera pérdida de rendimiento, en general para la mayor parte de aplicaciones de propósito general o aplicaciones de uso empresarial la ganancia era importante y además a coste cero.

    El retorno de esta arquitectura incorporada a procesadores multinucleo no deja de ser una buena noticia… si los compiladores están preparados para optimizar el código para hacer uso de ella, por supuesto.

  • Me parece muy correcta la comparación que haces del pipeline, jeje.

    La explicación como ya dije es breve sin etrar en detalles, pero si los quieres:

    El P4 no tiene 3 cauces de ejecución propiamente dicho, tiene 1 que es el pipeline de 20 etapas en los northwood y 31 en los Prescott y Cedar Mill, que se puede dividir en 3 partes.

    La arquitectura (o microarquitectura) de la que hablamos es la NetBurst, y el HT lo que hace en realidad es rellenar el pipe si hay posibilidad de ello, con lo que se agiliza la ejecución eliminando momentos en blanco como bien dices.

    La mejora de rendimiento era evidente con los micros de 20 etapas, aunque no en todos los escenarios ni tanto como Intel decía, y bastante menos en los de 31 etapas, ya que lógicamente al aumentar tanto el pipe el rendimiento por ciclo de reloj era menor que el de sus hermanos de 20, hecho que se maquilló aumentando la frecuencia (mhz), pero como se veía venir tenía un límite (impuesto por la cantidad brutal de calor para la poca frecuencia aumentada, no era un aumento lineal).

    Estoy totalmente de acuerdo contigo en que el balón está en el tejado del Software, pero creo que Intel trabajará (o pagará directamente) para que se haga uso de ello.

  • inigoml

    Al hilo de este post, hay un excelente artículo fresquito de esta mañana en Anandtech…

    http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3448&p=8

    Parece que los beneficios son obvios, aunque no precisamente para los juegos. 😉

  • Muy buen artículo, lo había leído.

    La ganancia, en términos generales, no es abrumadora, aunque en tratamiento de video, renderizado y tareas multimedia es muy pronunciada.

    En juegos no, jeje, y como comenta el autor se debe en gran parte al recorte de caché L2, 256KB por núcleo, a diferencia de la anterior 6MB para cada 2 núcleos. Más rápida, eso sí, pero mucho menor, teniendo que usar la L3 o la memoria RAM.

    Tiene razón el autor cuando dice que parece un micro más diseñado para servidores, tengo la misma impresión.

  • Esto como todo depende de si los juegos han sido, ya no sólo optimizados para multi-core, si no para la arquitectura Nehalem.

    Salu2

  • Pingback: Intel Core i7 aparece en su versión retail | Hard Zone : Hardware, Reviews, Noticias, Tutoriales, Foros de ayuda()