Intel prevé la posibilidad de código malicioso para la computación GPGPU

Escrito por Matías Varea

Intel piensa que la inminente computación de propósito general en las tarjetas gráficas (GPGPU, General Purpose Graphics Processing Unit) puede traer problemas tales como virus y código malicioso dado el gran nivel de potencia que obtendrían las gráficas en comparación con los procesadores.

La mayor diferencia existente entre una CPU (procesador) y una GPU (núcleo de la gráfica) es el paralelismo de la GPU, que le permite realizar tareas de una forma mucho más rápida. Ahora que estamos entrando en la era de la computación GPGPU, donde las tarjetas gráficas cobrarán más protagonismo con respecto a los procesadores, Intel ve la posibilidad de que llegue código malicioso, que por ejemplo encontraría más facilidad para desencriptar claves en este nuevo medio.

Es por esto que Intel ya trabaja en mejorar la seguridad de su nuevo proyecto, procesador con gráfica integrada en el mismo, Larrabee. Las soluciones las está buscando a niveles de API y drivers.

Recientemente NVIDIA comunicó que sus nuevas gráficas GT300 (Fermi)son capaces de ejecutar de forma nativa C++ o Fortran (entre otros), lo que puede abrir una puerta para los hackers imaginativos. Por contra, Larrabee es compatible con x86 (al igual que los procesadores de Intel y AMD), lo que le situaría en la misma situación de riesgo que a los procesadores actuales.

 

Una mente mal pensada alegaría que estas declaraciones de Intel se deben a que su Larrabee todavía tardará en llegar al mercado, mientras que NVIDIA está próxima a lanzar su nueva generación de gráficas (con CUDA y ejecución nativa de C++ y otros lenguajes) y que AMD está impulsando el uso de OpenCL (el estándar de código abierto para la computación en paralelo de gráficas o procesadores).

 

Fuente: Xbit-Labs

Continúa leyendo
  • chinatown

    Si empezamos a decir semejantes tonterías… en fin… entonces tampoco se debería haber inventado la lanza en la prehistoria, porque además de servir para cazar (y alimentarse) también servía para matarnos los unos a los otros… en fin… que siga el progreso que todo progreso tiene sus pros y sus contras, depende del uso y las intenciones de cada uno… luego los demás ya iremos protegiéndonos… Yo creo que a Intel le pica que saquen proc. gráficos más potentes (en principio) que sus CPU’s.

  • ezmac

    ah porque los señores de Intel nos van a salvar de esos peligros con obligarnos a usar sus cutres graficas que nos van a forzar a usar con su nueva gama….. zapatero, a tus zapatos…. te estas
    metiendo en camisas de 11 varas y mientras otros te hacen la cama

  • Arashi

    mmm..noto algo…ah si! es miedo por parte de intel 😛

  • Pingback: Blog de Hardware » Blog Archive » Intel prevé la posibilidad de código malicioso para la computación …()

  • acb

    Mi tostadora esta infectada por codigo malicioso por que siempre se me queman las tostadas. (Caso verídico, mulinex hizo un mal diseño mecanicamente y electrónicamente mediocre)

    Ahora los virus tendrán mucha mas potencia de conputacion, nos calcularan la FFT de nuestros datos.

    Cuanta paranoia

  • Intel ¿Tienes miedo a nVidia? porque eso parece.

    Salu2

  • Sam

    si esas ondas son puras habladas de intel ya que al final es el miedo que le tiene a Nvidia los apoyo mucha!!!

  • Maroto

    Intel ¿Tienes envidia a nVidia? porque eso parece.

    Salu2

  • bk00

    cuantas tonterias decis, intel no ha dicho ninguna mentira. La diferencia entre una GPU y una CPU es la arquitectura, GPU es simd (una instruccion multiples datos) y una CPU suele ser SISD (una instrucion sobre un dato). Son arquitecturas totalmente distintas, al punto que las SIMD no son de proposito general y solo son usadas para ciertas tareas donde se deba aplicar una instrucción sobre un conjunto grande de datos, por ejemplo una imagen. Las CPU son SISD porque esta arquitectura da un uso mas general. Es decir se puede usar para muchas mas cosas que una SIMD.

    Intel no teme a las GPU, porque no pueden sustyituir a un CPU, pero si ayudarle. El problema es que metes un punto mas de ejecución (aparentemente independiente) en el que se puede ejecutar código sobre el que no se tenga control. Cuanta mas complejidad metes en un sistema mas puntos de fallo introduces.

    Yo esto lo veo como un aviso. Una aviso que hasta ahora no se habia tenido en cuenta….

  • Deu

    Jajaja, que cagones los de Intel…

  • ezmac

    y para remediarlo usamos las gráficas prehistóricas que primero esta obligando a comprar al mismo tiempo que sus procesadores, y que en la próxima generación estará implantando en el mismo trozo de silcio: estos son lentejas, si quieres las tomas y si no las dejas…. pues v ha ser sin mi !!!