Curiosidad: Así avanza la inteligencia artificial de los robots

Escrito por Rodrigo Alonso
Gadgets
4

Muchas veces os hemos hablado en esta web, como aficionados a la ciencia eso sí, de la inteligencia artificial y más concretamente de su aplicación en robots. Éstos “seres” que hasta hace nada eran de ciencia-ficción ya son una realidad, entes a los que se les puede dar órdenes y las obedecen. Sin embargo las cosas están cambiando, pues la inteligencia artificial de los robots ahora es capaz de interpretar órdenes y negarse a cumplirlas si éstas implican sufrir daño, por ejemplo.

Un grupo de investigadores de la universidad de Tufts y del Human-Robot Interaction Lab están desarrollando sistemas de inteligencia artificial para robots que los dotan de la posibilidad de decidir si obedecen una orden o no dependiendo de las circunstancias. En el vídeo que vais a poder ver a continuación, el humano le ordena al robot que se siente y se levante, y éste obedece sin problema; no obstante, cuando le insta a caminar hacia el borde de la mesa el robot contesta que no puede hacerlo pues si lo hace se caerá. Sin embargo, cuando el humano le dice que él lo cogerá, el robot finalmente obedece.

Esta condición da que pensar. Si el humano coge al robot (como hace en el vídeo) éste “confiará” en que la próxima vez volverán a rescatarlo. Sin embargo de no hacerlo, la próxima vez el robot se negará en rotundo, pues podría resultar dañado como consecuencia de caerse al suelo.

¿Qué significa esto? Que la inteligencia artificial de los robots ya es capaz de comprender las consecuenias de una orden: si ando hasta el final de la mesa, me caeré al sueño y podría resultar dañado. Es inevitable pensar que el no obedecer de forma incuestionable a una orden irá en contra de las leyes básicas de la robótica establecidas por Asimov. Sin embargo, en este caso el robot ha sido programado con otras leyes diferentes, establecidas por Gordon Briggs y Matthias Scheutz, permitiendo a los robots tener la capacidad de decidir si rechazar o no una orden dependiendo de las consecuencias.

Éstas reglas son:

  • Conocimiento: ¿Sé cómo hacer X?
  • Capacidad: ¿Puedo hacer X? ¿Soy normalmente capaz de llevar a cabo la tarea?
  • Prioridad: ¿Soy capaz de hacer X en este mismo momento?
  • Papel social y obligación: ¿Estoy obligado a hacer X teniendo en cuenta mi posición social?
  • Permisibilidad normativa: ¿Viola alguna norma el hacer X?

Estas cinco reglas permiten a los robots valorar la orden recibida y decidir si la llevan o no a cabo, pudiendo incluso argumentar el por qué no la llevan a cabo en el caso de rechazarla. El ejemplo lo habéis visto en el vídeo: el robot rechaza la orden de caminar hacia el borde de la mesa en primera instancia pues se caería.

Éste “experimento” es sin duda llamativo, y nos hace plantearnos si deberíamos o no programar a los robots de manera que cumplan a rajatabla las leyes de la robótica de Asimov o si por el contrario debemos dotarles de la capacidad de rechazar una orden teniendo en cuenta sus posibles consecuencias. Desde luego tema para debate hay.

Vía | IEEE Spectrum

Continúa leyendo
  • No_flan

    Hombre es curioso como el robot analiza lo que se le dice pero las leyes que le pusieron están lejos de ser como las de Asimov

    • Molina15

      Precisamente de eso trata el articulo, de que incorpora unas leyes diferentes que le permiten tomar decisiones. Con las leyes de Asimov eso no es así, solo podría negarse si sus actos dañaran algún humano o pusieran en peligro su integridad de forma inútil. (Si ponen en riesgo su integridad pero porque con ello pueden ayudar o salvar a un humano deben obedecer)

  • fulanodetal

    Cualquier principiante en programacion puede meter esas instrucciones en el codigo de la supuesta “IA”. Se puede hacer a base de “if” y “then”

    • MELERIX

      es lo mismo que hacen las especies al aprender, “if” y “else”, y que luego utilizan de acuerdo a sus sentidos como: olfato, gusto, tacto, visión, audición, lo cual en maquinas puede ser reemplazado por sensores para lo mismo, entonces las maquinas serán capaces de interactuar con su inteligencia mediante su programación y en base a sus sentidos mediante sensores.

      el siguiente paso, es que las maquinas sean capaces de programarse así mismas de acuerdo a lo que van aprendiendo con sus sensores, de la misma forma que nosotros aprendemos conocimiento respecto a lo que vamos descubriendo con nuestros sentidos y lo almacenamos, esto es equivalente a lo que se conoce como experiencia.