Muchas veces os hemos hablado en esta web, como aficionados a la ciencia eso sí, de la inteligencia artificial y más concretamente de su aplicación en robots. Éstos “seres” que hasta hace nada eran de ciencia-ficción ya son una realidad, entes a los que se les puede dar órdenes y las obedecen. Sin embargo las cosas están cambiando, pues la inteligencia artificial de los robots ahora es capaz de interpretar órdenes y negarse a cumplirlas si éstas implican sufrir daño, por ejemplo.
Un grupo de investigadores de la universidad de Tufts y del Human-Robot Interaction Lab están desarrollando sistemas de inteligencia artificial para robots que los dotan de la posibilidad de decidir si obedecen una orden o no dependiendo de las circunstancias. En el vídeo que vais a poder ver a continuación, el humano le ordena al robot que se siente y se levante, y éste obedece sin problema; no obstante, cuando le insta a caminar hacia el borde de la mesa el robot contesta que no puede hacerlo pues si lo hace se caerá. Sin embargo, cuando el humano le dice que él lo cogerá, el robot finalmente obedece.
Esta condición da que pensar. Si el humano coge al robot (como hace en el vídeo) éste “confiará” en que la próxima vez volverán a rescatarlo. Sin embargo de no hacerlo, la próxima vez el robot se negará en rotundo, pues podría resultar dañado como consecuencia de caerse al suelo.
¿Qué significa esto? Que la inteligencia artificial de los robots ya es capaz de comprender las consecuenias de una orden: si ando hasta el final de la mesa, me caeré al sueño y podría resultar dañado. Es inevitable pensar que el no obedecer de forma incuestionable a una orden irá en contra de las leyes básicas de la robótica establecidas por Asimov. Sin embargo, en este caso el robot ha sido programado con otras leyes diferentes, establecidas por Gordon Briggs y Matthias Scheutz, permitiendo a los robots tener la capacidad de decidir si rechazar o no una orden dependiendo de las consecuencias.
Éstas reglas son:
- Conocimiento: ¿Sé cómo hacer X?
- Capacidad: ¿Puedo hacer X? ¿Soy normalmente capaz de llevar a cabo la tarea?
- Prioridad: ¿Soy capaz de hacer X en este mismo momento?
- Papel social y obligación: ¿Estoy obligado a hacer X teniendo en cuenta mi posición social?
- Permisibilidad normativa: ¿Viola alguna norma el hacer X?
Estas cinco reglas permiten a los robots valorar la orden recibida y decidir si la llevan o no a cabo, pudiendo incluso argumentar el por qué no la llevan a cabo en el caso de rechazarla. El ejemplo lo habéis visto en el vídeo: el robot rechaza la orden de caminar hacia el borde de la mesa en primera instancia pues se caería.
Éste “experimento” es sin duda llamativo, y nos hace plantearnos si deberíamos o no programar a los robots de manera que cumplan a rajatabla las leyes de la robótica de Asimov o si por el contrario debemos dotarles de la capacidad de rechazar una orden teniendo en cuenta sus posibles consecuencias. Desde luego tema para debate hay.