Tay, la IA que lanzó Microsoft en 2016 y que en 16 horas se volvió racista y misógina
La inteligencia artificial está de moda. Bueno, la ha puesto de moda OpenAI gracias a su sistema ChatGPT. Está lejos de ser perfecta, ya que puede dar informaciones erróneas y a veces puede dar resultados incongruentes. Pero, en 2016, Microsoft lanzo Tay, un chatbot conversacional que interactuaba con los usuarios en Twitter y que rápidamente se volvió racista, sexista y antisemita.
Todos conocemos de sobra a Microsoft debido a sus sistemas operativos Windows. La compañía ha conseguido muchos éxitos, pero en el camino también cuenta con muchos fracasos. Entre los fracasos de los más sonados está Zune, el reproductor de música que quería competir con el iPod de Apple y no lo consiguió.
Algo que caracteriza a la compañía es el afán innovador y, en el caso de Tay, se adelantaron mucho en el tiempo. Pese a que la idea era buena, la IA por aquel entonces no estaba preparada para lo que se le venía encima.
Mala idea soltar un chatbot con IA en Twitter
Seguramente sabes que Twitter se ha vuelto una red social con bastante toxicidad. Cualquier tipo de publicación con mediana repercusión contiene respuestas negativas y, en algunos casos, bastante violentas. Debido a esto, es una red social que ha ido perdiendo popularidad.
Debemos remontarnos al 23 de marzo de 2016, cuando Twitter estaba en su momento más álgido. Microsoft tuvo la genial idea de lanzar en esta red social un chatbot conversacional basado en una IA bastante temprana que recibió el nombre de Tay (@TayTweets en Twitter).
La idea para Tay era que aprendiera y se adaptara a partir de las conversaciones e interacciones. Más o menos, Tay tenía una personalidad que se podía asemejar a la de una persona joven de unos 19 años.
Tan solo se necesitaron 16 horas para que este chatbot empezara a saltarse todos los filtros, si es que tenía alguno. Esta IA empezó a generar mensajes en la red social claramente racistas, sexistas y antisemitas. Algo que sucedió porque esta IA aprendía a partir de las interacciones con los diferentes usuarios.
Fueron muchos los que aprovecharon esta característica para manipular a esta IA con lenguaje agresivo. Claro, debido a la dirección que había tomado Tay, Microsoft tuvo que cerrar su proyecto solo 16 horas después de su lanzamiento.
Pese a que Tay fue un verdadero desastre, sí que sirvió para establecer las bases éticas de la IA. Fue un claro aviso a navegantes sobre los riesgos y las responsabilidades del desarrollo de esta tecnología. Gracias a Microsoft, las compañías desarrolladoras de IA agregan mecanismos para mitigar los sesgos y evitar contenido ofensivo.
Lo cierto es que las IA modernas tienen carencias, pero sí que cuentan con diferentes filtros y sesgos. Todas las soluciones actuales evitan temas violentos, conflictivos o ilegales. Se busca proteger no solo al usuario, sino también el mal uso de estas herramientas.
Cierto es que aún comenten muchos errores y pueden dar respuestas vagas, erróneas o confusas. Pero al final, es una tecnología que está en una etapa bastante primaria. A medida que se vayan mejorando los modelos y estos aprendan con las interacciones de los usuarios, obtendremos respuestas de mayor calidad.