ChatGPT puede seguir dando información médica, pero no reemplaza a los médicos
OpenAI actualizó sus políticas de uso para aclarar que ChatGPT puede ofrecer información sobre salud, pero no emitir diagnósticos ni brindar asesoramiento médico personalizado.
Es mentira que ChatGPT dejará de dar información médica.
ADSLZoneEl asistente de inteligencia artificial ChatGPT puede seguir respondiendo preguntas sobre salud, aunque bajo nuevas reglas que limitan su alcance. Según OpenAI, la plataforma “nunca fue un sustituto del consejo profesional médico”, pero continúa siendo útil para comprender términos, tratamientos o síntomas generales.
Claridad en las nuevas políticas de OpenAI
Las actualizaciones en las políticas de uso, publicadas el 29 de octubre, establecen que los usuarios no deben acudir a los servicios de OpenAI “para recibir asesoramiento que requiera una licencia profesional, como el médico o legal, sin la intervención de un experto calificado”. Esto implica que el chatbot no puede diagnosticar ni recomendar tratamientos específicos, aunque sí puede ofrecer información general.
ChatGPT: el chatbot continúa dando información médica pero con precaución.
Un portavoz de la empresa explicó a Business Insider que “no se trata de un cambio nuevo”, sino de una aclaración: “ChatGPT seguirá siendo un gran recurso para entender información legal y de salud”.
Las modificaciones generaron confusión en redes sociales, luego de que el sitio de predicciones Kalshi publicara que OpenAI dejaría de ofrecer consejos médicos. La publicación fue eliminada tras la aclaración de Karan Singhal, responsable del área de investigación en salud de OpenAI, quien afirmó en X que “el comportamiento del modelo no cambió”.
Un uso cada vez más común de la IA en temas de salud
Según una encuesta de KFF de 2024, uno de cada seis usuarios consulta a ChatGPT al menos una vez por mes para obtener orientación médica. Muchos lo usan para preparar visitas al médico, interpretar análisis clínicos o comprender síntomas, aunque el sistema siempre aclara que sus respuestas son informativas.
La preocupación del ámbito de la salud por el uso de bots para diagnóstico.
Para ilustrarlo, Business Insider contó que al preguntarle sobre un resfrío, el asistente no diagnosticó ni recetó medicamentos, pero sí recomendó descanso, hidratación y el uso de analgésicos de venta libre. Sin embargo, cuando el usuario dijo que no podía mover el rostro, el sistema respondió que debía llamar a emergencias por posible accidente cerebrovascular o parálisis de Bell.
Riesgos y límites del asesoramiento automático
El uso de la IA para fines médicos ha generado debate, especialmente tras casos en los que los consejos fueron inapropiados o peligrosos. En agosto, Annals of Internal Medicine informó que un usuario sufrió una reacción grave tras seguir una sugerencia errónea del chatbot sobre el consumo de sodio bromuro.
Por eso, OpenAI ajustó sus protocolos y advirtió que sus herramientas no deben emplearse para automatizar decisiones críticas sin supervisión humana, especialmente en medicina.