Presenta:

La inteligencia artificial demuestra su potencial y ya supera a los médicos

Según científicos de la revista JAMA Internal Medicine, ChatGPT obtuvo una calificación más alta en calidad y empatía en consejos médicos que verdaderos profesionales de la salud.
Foto: Shutterstock
Foto: Shutterstock

La inteligencia artificial sigue avanzando en diversos campos, y en la medicina parece estar encontrando un espacio prometedor. Un estudio publicado en la revista JAMA Internal Medicine indica que ChatGPT, un modelo de lenguaje de IA, tiene un mejor "trato de cabecera" que algunos médicos, al menos en cuanto a calidad y empatía de sus consejos escritos.

Los autores del estudio destacan que los asistentes de IA pueden tener un papel importante en la medicina, al ayudar a redactar comunicaciones entre médicos y pacientes. El Dr. John Ayers, de la Universidad de California en San Diego, afirmó que "las oportunidades para mejorar la atención médica con IA son enormes". Sin embargo, otros expertos han advertido sobre la delegación de responsabilidad clínica a un chatbot como ChatGPT, que tiene una tendencia a producir "hechos" que no son ciertos.

El estudio, publicado en la revista JAMA Internal Medicine, se basó en datos de AskDocs, un foro en Reddit donde los miembros publican preguntas médicas y son respondidas por profesionales de la salud verificados. El equipo seleccionó aleatoriamente 195 intercambios en AskDocs donde un médico verificado respondió a una pregunta pública. Luego, se presentaron las preguntas originales al modelo de lenguaje de IA, ChatGPT, y se le pidió que respondiera. Un panel de tres profesionales de la salud con licencia evaluó las respuestas por su calidad y empatía, sin saber si provenían de un médico humano o de ChatGPT.

 ChatGPT obtuvo una calificación más alta en calidad y empatía en consejos médicos que verdaderos profesionales de la salud

El estudio demostró que el panel de tres profesionales de la salud con licencia prefirió las respuestas de ChatGPT a las proporcionadas por humanos el 79% de las veces. Además, el 79% de las respuestas de ChatGPT se calificaron como de buena o muy buena calidad, en comparación con el 22% de las respuestas de los médicos. El 45% de las respuestas de ChatGPT se calificaron como empáticas o muy empáticas, en comparación con solo el 5% de las respuestas de los médicos.

El Dr. Christopher Longhurst, de UC San Diego Health, dijo que "herramientas como ChatGPT pueden redactar de manera eficiente consejos médicos personalizados y de alta calidad para que los revisen los médicos". Agregó que su institución está comenzando a utilizar este proceso.

Aunque los resultados del estudio son prometedores, algunos expertos han advertido sobre los riesgos de confiar en los modelos de lenguaje para obtener información fáctica. ChatGPT, al estar optimizado para ser amable y dar respuestas más largas y conversacionales, puede no siempre ser una fuente confiable de información médica.

El profesor James Davenport, de la Universidad de Bath, comentó que el estudio no indica que ChatGPT pueda reemplazar a los médicos, pero pide más investigación sobre cómo esta IA puede ayudar a los profesionales médicos. El potencial de la inteligencia artificial para mejorar la atención médica sigue siendo enorme, pero es importante explorar con precaución su uso en la práctica clínica.