Uno de los debates en torno a ChatGPT es su papel en la medicina. Ahora, un experimento con profesionales médicos ha constatado que esta inteligencia artificial supera a los profesionales a la hora de proporcionar respuestas empáticas y de alta calidad a las preguntas por escrito de sus pacientes.

Aunque la inteligencia artificial (IA) no sustituirá al médico, un artículo de Jama Internal Medicine sugiere que el trabajo conjunto de los profesionales con tecnologías como ChatGPT puede “revolucionar la medicina”, señala la Universidad de California en San Diego, responsable del estudio.

Dirigido por John W. Ayers, el estudio comparó las respuestas escritas que médicos y ChatGPT dieron a preguntas de pacientes. Según los resultados, el grupo de profesionales que las evaluó prefirió las respuestas de la IA el 79 % de las veces, y calificó estas como de mayor calidad y más empáticas.

(Vea tambiénPacientes reclaman por demoras de las EPS en la entrega de medicamentos y autorizaciones).

El equipo se propuso averiguar si ChatGPT puede responder con precisión a las preguntas que los pacientes envían a sus médicos.

Lee También

En caso afirmativo, dicen los investigadores, los modelos de IA podrían integrarse en los sistemas sanitarios para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes, sobre todo después de la pandemia de la COVID-19 con la que se aceleró la asistencia virtual, y aliviar así la carga cada vez mayor que soportan los facultativos.

Para obtener una muestra amplia y diversa de preguntas y respuestas de médicos que no contuvieran información personal identificable, el equipo recurrió a AskDocs de la plataforma de foros Reddit.

En esta los usuarios publican preguntas a las que responden profesionales sanitarios verificados. Aunque cualquiera puede responder a una cuestión, los moderadores verifican las credenciales de los profesionales y las respuestas muestran el nivel de credenciales del encuestado, explica un comunicado de la universidad.

El equipo seleccionó al azar 195 intercambios de AskDocs en los que un médico verificado respondía a una pregunta pública. Proporcionó la pregunta original a ChatGPT y le pidió que redactara una respuesta.

Un grupo de tres profesionales sanitarios evaluó cada pregunta y las respuestas correspondientes, sin saber si esta procedía de un médico o de ChatGPT. Compararon las respuestas en función de “la calidad de la información y la empatía”, y señalaron cuál preferían.

El panel de evaluadores prefirió las respuestas de ChatGPT a las de los médicos en un 79% de las ocasiones, concluyó el estudio hecho en Estados Unidos.