La Inteligencia Artificial, según Linus Torvalds

La Inteligencia Artificial, según Linus Torvalds

Rodrigo Alonso

No es la primera vez que en esta web hablamos de la Inteligencia Artificial. Ya en el pasado, personalidades como Stephen Hawking o Elon Musk entre otros han advertido de los peligros de no mantener controlada muy de cerca esta tecnología. Sin embargo, el polémico Linus Torvalds (creador de Linux) se ha reído abiertamente de estas declaraciones, frivolizando sobre el “miedo” de que un día las máquinas se revelen contra la humanidad.

Es obvio que existen muchas formas de pensar con respecto a la Inteligencia Artificial, y no porque alguien formule una teoría al respecto debe ser necesariamente correcta. Sin embargo, las posibilidades teóricas existen y están ahí, y como dijo el gran Neil deGrasse Tyson, “lo bueno de la ciencia es que siempre es cierta, sea quiera creer o no”.

Dicho esto vamos a poneros en antecedentes. Hace poco, el científico británico Stephen Hawking dijo que “el futuro de la humanidad es una carrera entre el poder de la tecnología y la sabiduría con la que la utilizamos” […] “en algún momento, dentro de los próximos 100 años, los ordenadores superarán a los seres humanos gracias a la Inteligencia Artificial, y cuando esto suceda debemos asegurarnos de que compartimos objetivos e ideas similares”.

Inteligencia Artificial

La visión de Torvalds con respecto a la Inteligencia Artificial

En los foros de Slashdot, Linus Torvalds explicó cuál es su postura en torno a los sistemas de Inteligencia Artificial. El considerado “padre de Linux” dijo que no existirá un Skynet, refiriéndose con esto a que no habrá una Inteligencia Artificial unificada y omnipotente, sino que existirán desarrollos concretos para ciertas áreas específicas como por ejemplo la conducción, reconocimiento de patrones, etc.

Según Torvalds, si bien la Inteligencia Artificial llegará a tener una especie de red neuronal, ésta no será confiable en sentido de programación, sino que necesitará un grado de entrenamiento para que pueda aprender. Esto, claro, hace que la IA sea complicada de producir, y estará limitada por las redes neuronales artificiales que se hagan para ella, limitada siempre por su tamaño, conexiones y potencia del hardware empleado.

Dicho esto, Torvalds comenzó con el “show”, diciendo cosas como que no cree muy factible que vayamos a tener una crisis existencial porque nustro lavavajillas discute con nosotros sobre la filosofía de Sartre.

La Singularidad

También se refirió a la Singularidad como un concepto de ciencia-ficción, expresando lo siguiente:

“Sí, es ciencia-ficción, y además de la mala en mi opinión. ¿Crecimiento exponencial sin fin? ¿Pero qué tipo de drogas consume esta gente?”

Nos mojamos: ésta es nuestra opinión

Creemos que el señor Torvalds tiene cierto grado de razón en el sentido de que la Inteligencia Artificial está limitada por el hardware. Es decir, podría llegar un punto en el que es capaz de aprender y almacenar conocimientos, pero siempre estará limitada por las “redes neuronales” que el ser humano le haya “instalado”, así como por su capacidad de almacenamiento y su capacidad de proceso, que al fin y al cabo es hardware.

Sin embargo, también nos preguntamos si llegados a cierto punto de evolución de esta tecnología, qué le impediría a la Inteligencia Artificial aprender cómo ampliarse a sí misma, de la misma manera que nosotros ampliamos nuestro ordenador instalando mayor cantidad de RAM o más discos duros.

Dejando esto de lado, pasamos a hablar sobre la Singularidad. Nuestra opinión es que el señor Torvalds se equivoca completamente; repetimos lo que comentamos en la introducción: lo bueno de la ciencia es que siempre es cierta, se quiera creer o no. Y las matemáticas son exactas, de eso no cabe duda.