Un informe elaborado por Google sobre medicina e inteligencia artificial (IA) muestra el trabajo del gigante tecnológico que hizo que un chatbot —IA de diálogo— se pusiera a responder preguntas médicas simples.

Cuando los doctores estudiaron y juzgaron sus respuestas, dio que el 92,6% de estas eran correctas, cuando al las respuestas dadas por otros médicos dieron un resultado de 92,9%, según informó en su cuenta de Twitter Ethan Mollick, profesor de innovación y startups de la Escuela Wharton de la Universidad de Pennsylvania, citando el paper de los investigadores.

Los médicos también calificaron la probablilidad y el alcance del daño que se produjo al dar las respuestas incorrectas. Al ver esto, “el porcentaje de consejos dañinos del chatbot (conocido con el nombre de Med-PaLM) se calificó esencialmente igual que el porcentaje de consejos potencialmente dañinos proporcionados por otros médicos reales”, indicó el experto.

“Además, para ser claros, hay muchas advertencias en el documento, y el sistema no está ni cerca de reemplazar a los médicos. Pero la tasa de mejora es rápida y existe un gran potencial para que la IA trabaje con los médicos para mejorar sus propios diagnósticos”, sostuvo.

Doctors also rated the likelihood and extent of the harm that came from giving the wrong answers.

The percentage of harmful advice from the trained chatbot (Med-PaLM) was essentially rated the same as the percentage of potentially harmful advice provided by other real doctors! pic.twitter.com/3UQNfSHhvv

— Ethan Mollick (@emollick) January 3, 2023

Also, to be clear, there are lots of caveats in the paper, and the system is nowhere close to replacing doctors.

But the rate of improvement is fast, and there is a lot of potential for AI to work with doctors to improve their own diagnoses. https://t.co/FmhwcJV5he

— Ethan Mollick (@emollick) January 3, 2023