La Inteligencia Artificial, según Linus Torvalds

Escrito por Rodrigo Alonso
Internet
2

No es la primera vez que en esta web hablamos de la Inteligencia Artificial. Ya en el pasado, personalidades como Stephen Hawking o Elon Musk entre otros han advertido de los peligros de no mantener controlada muy de cerca esta tecnología. Sin embargo, el polémico Linus Torvalds (creador de Linux) se ha reído abiertamente de estas declaraciones, frivolizando sobre el “miedo” de que un día las máquinas se revelen contra la humanidad.

Es obvio que existen muchas formas de pensar con respecto a la Inteligencia Artificial, y no porque alguien formule una teoría al respecto debe ser necesariamente correcta. Sin embargo, las posibilidades teóricas existen y están ahí, y como dijo el gran Neil deGrasse Tyson, “lo bueno de la ciencia es que siempre es cierta, sea quiera creer o no”.

Dicho esto vamos a poneros en antecedentes. Hace poco, el científico británico Stephen Hawking dijo que “el futuro de la humanidad es una carrera entre el poder de la tecnología y la sabiduría con la que la utilizamos” […] “en algún momento, dentro de los próximos 100 años, los ordenadores superarán a los seres humanos gracias a la Inteligencia Artificial, y cuando esto suceda debemos asegurarnos de que compartimos objetivos e ideas similares”.

Inteligencia Artificial

La visión de Torvalds con respecto a la Inteligencia Artificial

En los foros de Slashdot, Linus Torvalds explicó cuál es su postura en torno a los sistemas de Inteligencia Artificial. El considerado “padre de Linux” dijo que no existirá un Skynet, refiriéndose con esto a que no habrá una Inteligencia Artificial unificada y omnipotente, sino que existirán desarrollos concretos para ciertas áreas específicas como por ejemplo la conducción, reconocimiento de patrones, etc.

Según Torvalds, si bien la Inteligencia Artificial llegará a tener una especie de red neuronal, ésta no será confiable en sentido de programación, sino que necesitará un grado de entrenamiento para que pueda aprender. Esto, claro, hace que la IA sea complicada de producir, y estará limitada por las redes neuronales artificiales que se hagan para ella, limitada siempre por su tamaño, conexiones y potencia del hardware empleado.

Dicho esto, Torvalds comenzó con el “show”, diciendo cosas como que no cree muy factible que vayamos a tener una crisis existencial porque nustro lavavajillas discute con nosotros sobre la filosofía de Sartre.

La Singularidad

También se refirió a la Singularidad como un concepto de ciencia-ficción, expresando lo siguiente:

“Sí, es ciencia-ficción, y además de la mala en mi opinión. ¿Crecimiento exponencial sin fin? ¿Pero qué tipo de drogas consume esta gente?”

Nos mojamos: ésta es nuestra opinión

Creemos que el señor Torvalds tiene cierto grado de razón en el sentido de que la Inteligencia Artificial está limitada por el hardware. Es decir, podría llegar un punto en el que es capaz de aprender y almacenar conocimientos, pero siempre estará limitada por las “redes neuronales” que el ser humano le haya “instalado”, así como por su capacidad de almacenamiento y su capacidad de proceso, que al fin y al cabo es hardware.

Sin embargo, también nos preguntamos si llegados a cierto punto de evolución de esta tecnología, qué le impediría a la Inteligencia Artificial aprender cómo ampliarse a sí misma, de la misma manera que nosotros ampliamos nuestro ordenador instalando mayor cantidad de RAM o más discos duros.

Dejando esto de lado, pasamos a hablar sobre la Singularidad. Nuestra opinión es que el señor Torvalds se equivoca completamente; repetimos lo que comentamos en la introducción: lo bueno de la ciencia es que siempre es cierta, se quiera creer o no. Y las matemáticas son exactas, de eso no cabe duda.

Continúa leyendo
  • nem

    hace unos dias lo comente esto en muycomputer cuando tenian una noticia sobre el estreno de Terminator Genesis en españa

    Aca me voy a explayar un poco con una historia, y por que me parece bastante interesante las posibilidades de la inteligencia artificial.

    Ayer estaba viendo ALIEN el 8o pasajero en mi computadora y en 1080 y estaba obesrvando como han evolucionado las peliculas de ciencia ficcion , pero tambien en algun momento me di cuenta que si le pones atencion a la trama te percatas que tiene algo de sentido.

    En una escena X despues de destruir el androide lo vuelven a reanimar para preguntarle como destruir al Alien

    pregunta replay (cigurney weaver)

    cual era tu mision?

    androide responde:

    llevar a la tierra a la creatura todo lo demas no importa prioridad numero 1

    replay:
    Como la mataremos?

    androide
    no podran destruirlo su ostilidad solo se compara con su perfeccion, es una criatura perfecta no entienden contra que se enfrentan es un organismo perfecto su perfeccion solo se compara con su hostilidad

    pregunta la otra protagonista
    Tu la admiraz?

    reponde el androide

    admiro su perfeccion es indestructible no esta cegada por la “conciencia” el “remordimiento” ni la “ilusion de la moralidad” no tienen posibilidades de sobrevivir etc etc

    Conclusion :

    Es dificil no darse cuenta que en la peli la criatura es bastante inteligente solo ver la capacidad cerebral que tiene por el tamaño del craneo se deduce que principalmente su arma es su inteligencia y como dice el androide es una criatura mas evolucionada casi perfecta y en igual nivel tambie es su hostilidad, en la naturaleza no existen leyes y solo se cumple la ley del mas fuerte “la ley de la selva”, a lo que voy es que me puse a pensar que esta historia si la trasladas a una inteligencia artificial podria ser algo muy parecido al Alien, una IA podria facilmente en un corto plazo de tiempo superar la capacidad de evolucionar del ser humano superando su inteligencia y en ese determinado momento se convierte en un ser mas fuerte la cuestion es si esta inteligencia es capaz de aprender lo que dice el androide tener conciencia remordimiento moralidad , si no lo aprende seria un ser mas fuerte y la presa quien seria..?

    Tambien he visto que steven hawkins lo ha mencionado varias veces las inteligencias artificiales son un peligro para la vida humana

    Aca les dejo un intereante link nVIDIA contruyendo SKY NET ..o algo parecido
    http://wccftech.com/article/nvidia-demo-skynet-gtc-2014-neural-net-based-machine-learning-intelligence/

  • nem

    y hasta ahora la unica IA que no se ha vuelto loca ha sido JARVIS… :/