Cuando la Inteligencia Artificial se vuelve loca y trata de matarte

Escrito por Juan Diego de Usera

¿Qué sucede cuando la Inteligencia Artificial que se supone que tiene que ayudar a curarte, se vuelve loca y trata en realidad de matarte? Éste suceso ha ocurrido en un hospital de Dinamarca cuando uno de los nuevos sistemas Watson de IBM se equivocó por completo en los tratamientos para los enfermos y sugirió otros que los hubieran matado.

No sé vosotros, pero a mi todo el tema de la Inteligencia Artificial es algo que me pone bastante nervioso. Quizás haya visto demasiadas veces las películas de Terminator o de Matrix. O quizás crea que debe de existir un límite para que dejemos de creernos dios. Y mira que soy de los primeros que pueden ver las innegables ventajas que puede traer ésta a la sociedad. Aunque también puedo ver sus desventajas.

Por ejemplo, que un médico se equivoque en un tratamiento es algo realmente nefasto. Pero ¿qué sucede si quien se equivoca es una máquina? Se supone que las máquinas no deberían de cometer errores. Aunque estando programadas por humanos, siempre puede darse algún tipo de error en su programación. El problema es que este tipo de errores, podrían llegar a matarte sin que tu lo supieras. Habiendo confiado en el diagnóstico de una máquina que se presupone no es tan propensa a dichos errores.

El Hospital Nacional de Dinamarca ha aprendido que la Inteligencia Artificial no es tan infalible como parece

En el Hospital Nacional de Dinamarca se está llevando a cabo desde hace un tiempo un experimento con la Inteligencia Artificial Watson, desarrollada por IBM. Dicha IA sugiere tratamientos para los pacientes en función del historial médico del mismo, a parte de contrastar sus datos con una inmensa base de datos de estudios científicos disponibles de manera on line.

Lo que los médicos han descubierto es que a esta IA no se le puede dejar sola. Al menos en lo que respecta al área de las enfermedades de tipo canceroso. Dado que de una muestra de 31 enfermos, mientras que para las dos terceras partes, Watson recomendó el tratamiento correcto… para la última parte, se recomendaba una medicación que habría acabado matando al paciente. No hablo de que se equivocara en un tratamiento. Hablo de equivocarse en 10 tratamientos. Ese es un margen de error que no es aceptable cuando hablamos de la vida de las personas.

Está claro que la IA nos facilita y facilitará la vida. Pero también es verdad que ésta está todavía demasiado verde como para que enga algún tipo de preponderancia en nuestra sociedad actual. Aunque al ritmo que avanza este campo, no sé yo qué va a suceder.

Continúa leyendo
  • FranCañon

    LA IA jamas se equivocan, eso es así.Los que se equivocan son las personas que fabrican la IA.Aunque en este caso, la IA esta claro que no disponía de información suficiente para hacer un diagnostico con un % superior.
    la IA, de momento no reconocen emociones humanas complejas,(ni siquiera imagenes de objetos) ni lo lo que ellas significan o pueden llegar interpretar.Incluso entre humanos a veces nos resulta difícil interpretar las emociones de los demás, sobre todo si son de culturas diferentes.El tono de voz, las posturas gestuales, las posición e cuerpo, todo eso es información muy importante, que las personas ofrecen unas a otras de forma inconscientemente, pero el problema es que es información visual y auditiva
    -del lenguaje oral-, y la especialidad de las IA actuales son los analisis de metadatos ESCRITOS.

    En resumen, que las IAs aun están muy verdes en comparación a una mente humana.

  • luismg

    Yo creo que el ibm watson for oncology es un avance dela humanidad, pronto habrá más productos como éste que salvarán vidas, da igual donde estés y lo bueno o malo que sea tu doctor, el diagnóstico lo clavaran.

  • Rafael

    Es un experimento, no han declarado que sea un producto comercial finalizado dispuesto a competir con médicos reales.