El boom de la inteligencia artificial ha provocado una fascinación alrededor de la misma, de repente muchos le ven aplicaciones potenciales enormes, mientras que otros le tienen pavor. Si bien os solemos hablar de las bondades de la misma desde nuestros artículos, no podemos olvidarnos que no todo es bueno y que hay cierto nivel de peligro en esta nueva tecnología. Pero, ¿es un peligro la IA para las personas?
Recientemente en Italia se ha prohibido el uso de ChatGPT por el pánico que supone que reemplace a ciertos trabajos. Sin embargo, estas decisiones legales no son otra cosa que producto de no entender cómo funciona una tecnología y de exagerar por completo sus capacidades, o más bien de que vivimos en unos tiempos donde la velocidad a la que nos llega la información hace que no lleguemos a contrastarla, siendo la punta de lanza de las fake news y no un problema de la propia IA.
¿Por qué la IA es un peligro potencial para las personas?
Olvidaos de Skynet o de Matrix, eso no son más que fantasías humanas donde conceptos racistas se trasladan de la especie humana a otra. Al fin y al cabo no son más que versiones alternativas a la invasión alienígena y todo ello forma parte a día de la fantasía, por lo que es importante poner los pies en el suelo. Hemos de partir de que el peligro de la IA es a su vez su mayor virtud, ya que no deja de ser un conjunto de programas que aprenden sobre sí mismos a medida que van recibiendo nuevos datos de referencia con los que aprender.
Y es precisamente ahí de donde vienen los problemas, en concreto en cuatro puntos que son importantes, pero que dependen en primera instancia de quienes introducen los datos de los que la IA va a aprender. Es decir, somos los seres humanos los que vamos a manipular la potencial conclusión final. Si uno cambia las premisas, entonces lo hará la conclusión. Si yo las manipulo para sacar un resultado concreto, entonces la salida de información no será válida.
En otras palabras, el ser verificador de información será un trabajo con mucho futuro y que requerirá un perfil profesional concreto y muy estricto si no queremos que los peligros de la IA afloren.
Discriminación
Uno de los problemas principales de la IA es que no puede diferenciar si los datos son discriminativos hacia un género, etnia y orientación sexual. Estas desigualdades, independientemente del sentido en el que hablemos, pueden llevar a cabo decisiones totalmente nefastas que pueden llevar a la discriminación de ciertos grupos.
Privacidad
Dado que para hacer funciona una IA se necesitan grandes cantidades de datos, buena parte de los que comprometen la privacidad de las personas se acaban usando para ello. En especial por parte de grandes empresas con grandes volúmenes de clientes, buscadores de internet, redes sociales y hasta el gobierno de tu nación. ¿El problema? Que esto supone medidas de protección adicionales para proteger dicha información, algo que muchas veces, por desgracia, no ocurre.
Otro problema es que las propias empresas envíen textos para documentar mejor nuevos productos o para sacar variaciones de diseños. Esto le ha ocurrido recientemente a Samsung, que se ha encontrado con que su departamento de semiconductores ha usado ChatGPT para sacar mejores textos para documentar sus productos y le ha dado la opción de usar información confidencial
Criminalidad
La IA puede dar soluciones a actos contra las personas muy graves, como por ejemplo dar una ruta ideal para una persona a la fuga o cómo esconder un cadáver después de un asesinato. El gran problema es que pese a que entiende el lenguaje natural, en cierta medida existe la capacidad de confundir a la IA manipulando el lenguaje de entrada y que muestre una solución para un acto despreciable.
Manipulación del mercado
Muchas personas le preguntan a la IA qué producto comprar, como no lo puede testear ella misma, pues, mira todos los sitios web dónde hablan del producto. Y no solo lugares donde hacen reviews profesionalmente hablando, sino también la enorme cantidad que se encuentran en las tiendas. Sí bien las plataformas de compra pueden limitar los comentarios a los que tienen el producto, la propia empresa puede comprar unas pocas unidades de vuelta con tal de poder escribir análisis falsos a favor o hacerlo en contra de la competencia.