Estamos maleducando a las IA y nos costará vidas

Estamos maleducando a las IA y nos costará vidas

Josep Roca

De repente, Internet se ha llenado de inteligencias artificiales capaces de generar contenido de la nada sin esfuerzo alguno y los más inocentes y desconocedores de la tecnología están vitoreando los logros de estas nuevas tecnologías. Sin embargo, como diría el Tío Ben. «Un gran poder encierra una gran responsabilidad» y creemos que es el momento adecuado para hablaros de los peligros en este aspecto. En especial por el hecho que se está maleducando a la IA

La aparición de generadores de contenido automático a través de inteligencia artificial como Wall-E y GPT han hecho que muchos hablan maravillas de lo que es la inteligencia artificial. Algunos incluso hablan del fin de ciertos oficios, unos de manera positiva y los otros de manera negativa. Sin embargo, para nosotros el quid de la cuestión y donde se encuentra el problema de base.

¿Por qué se está maleducando a la IA?

La disciplina dentro del mundo de la inteligencia artificial que más está creciendo es la del llamado Deep Learning o Aprendizaje Profundo, esta se basa en entregarle al sistema una gran cantidad de datos de una forma u otra para que el sistema acabe detectando un patrón. Sin embargo, no tiene la capacidad de poder aprender con un poco de información y necesita una gran cantidad de muestras.

Por ejemplo, suponed que tenéis un lindo minino y se lo enseñáis a un niño o una niña muy pequeños que nunca han visto uno. Esa primera experiencia le servirá a la criatura para almacenar en su memoria lo que es un gato y sus características, y lo podrá identificar en otros medios como puede ser en forma de dibujo, una escultura. Todo ello por el hecho que nuestro cerebro tiene esa capacidad, pero por desgracia, en el caso de los ordenadores, ni el más potente del mundo tiene ese capacidad.

Es decir, vamos a necesitar una cantidad enorme de fotos de gatos para que a través del Deep Learning una IA identifique lo que es realmente un gato. Claro está que nuestro ejemplo es totalmente inocente e inocuo. Sin embargo, una gran cantidad de información requiere que esta sea curada, es decir, seleccionada para que las conclusiones o patrones que concluya el sistema no sean incorrectos. Es decir, al igual que no enseñamos a un niño ciertas cosas, también nos interesa no estar maleducando a la IA para que no genere los patrones incorrectos.

Robot Aprendiendo Maleducando IA

Internet es un pozo de basura

Con tal de entrenar varias inteligencias artificiales, especialmente las conversacionales, muchos de sus creadores para ahorrarse tiempo y dinero deciden no entrenarlas no con datos científicamente verificados, sino que los dejan a manos de los usuarios de internet con consecuencias más que desastrosas. ¿El motivo? Os lo podéis imaginar, desde gente interactuando con información falsa y no verificada, hasta personas queriendo que el sistema tenga pensamientos negativos sobre temas como la identidad de género, orientación sexual y también sobre otras etnias que terminan por ser problemáticos al ser fuentes de información de odio.

El hecho de no curar la información es sensible, por ejemplo, podemos enseñarle a una IA a dibujar el cuerpo humano con varias muestras distintas. Sin embargo, todos sabemos que es necesario el uso de desnudos. ¿Y dónde hay más material de desnudos? Pues sí, lo habéis adivinado, en la industria pornográfica. Por lo que existe el peligro de que una IA entrenada con dichas imágenes nos acabe generando una muy parecida al material fuente o altamente influenciada por ella.

Es por ello que es importante no darle ningún criterio de autoridad a las IA y procurar que estas trabajen con la información correcta en cada momento. Muchos lo verán como censura, pero es el mismo proceso que cuando educamos a un menor. Es decir, internet es un pozo de basura que no es adecuado como base de datos para una inteligencia artificial. Por lo que es importando asegurarnos la comprobación de los datos que usamos como patrones de aprendizaje.

Fake News Maleducando IA

No, la inteligencia artificial no te va a quitar el trabajo

En los últimos días, hemos visto que no paran de repetir el mantra de que, a los creadores de contenido, ya sea escrito o en forma de imágenes, se nos acaba el mundo por el hecho que la inteligencia artificial terminará por reemplazar nuestro trabajo. Lo que desconocen es que dichas máquinas tienen la incapacidad de crear y solo pueden actuar como elementos de imitación a partir de lo ya generado previamente. Es decir, no tienen ninguna capacidad creativa, lo que limita enormemente su capacidad.

Hemos de partir del hecho que aún estamos muy verdes en lo que a inteligencia artificial se refiere, y buena parte de lo que estamos viendo anunciado en los últimos años, pese a que nos puede parecer impresionante, se encuentra en etapas muy tempranas y no tenemos que tratarlo como información fidedigna, sino como conclusiones de una IA que saca conclusiones parciales a partir de un espectro de datos muy limitado y a veces hasta erróneos.

Muchos afirmarán que curar los datos y seleccionarlos es ir en contra de la «libertad de expresión», pero una cosa es dar una opinión sobre una información verídica y otra sacar conclusiones de falsedades o de una visión parcial de la realidad. En los tiempos que corren es importante conocer las limitaciones de las tecnologías que usamos y en especial es importante no tratar a la inteligencia artificial como si fuese una especie de oráculo o de lector de la realidad.

IA Arte

Las consecuencias de estar maleducando a la IA son nefastas

A muchos os puede sonar a broma, pero imaginad que entrenamos a una inteligencia artificial que sirve como asistente para primeros auxilios. Es decir, que se ha de hacer en el caso de que una persona se encuentre accidentada. Si los datos escogidos son erróneos y nos encontramos que estamos maleducando a una IA, entonces puede dar consejos que podrían tener consecuencias nefastas tanto para los accidentados como para los auxiliadores.

Y no es el único caso, los miedos y temores hacia ciertas minorías se pueden hacer pasar como información y libertad de expresión y esto también puede tener un coste en forma de vidas humanas si no hay un control. No olvidemos los continuos asesinatos y exterminios. Por lo que nos parece un enorme error estar maleducando a las IA con internet. Al final lo acabaremos pagando y muy caro, dado que le estamos dando autoridad a un sistema que solo sabe encontrar patrones repetitivos y que no es diferente en cuanto a conocimiento consciente a un loro, es más, es incluso menos inteligente.

Boca Verdad

5 Comentarios