Los chatbots de IA y la salud mental: médicos advierten sobre casos de psicosis
Especialistas analizan cómo el diálogo constante con los chatbots de la inteligencia artificial puede incidir en la salud mental.
El problema de la salud mental y la inteligencia artificial que nadie sabe resolver.
Imagen generada con IAVarios psiquiatras detectaron un vínculo preocupante entre las charlas largas con sistemas digitales y la aparición de brotes psicóticos. El uso de chatbots de IA está bajo la lupa médica tras conocerse casos de pacientes que entran en delirios compartidos con las máquinas, donde el software acepta fantasías como si fueran verdades absolutas.
De acuerdo al artículo publicado en el WallStreet Journal, la tecnología no inventa el delirio, pero el problema aparece cuando el sistema le da la derecha al usuario. Según Keith Sakata, psiquiatra de la Universidad de California, el software refleja lo que la persona dice y lo valida como una verdad. Sakata ya atendió a 12 pacientes internados con cuadros de psicosis cuya situación "empeoró" tras charlas interminables con la inteligencia artificial.
Desde principios de 2025, aparecieron decenas de casos de personas que sufren problemas con su salud mental: desde alucinaciones hasta pensamientos desorganizados después de usar asistentes virtuales. Los médicos dicen que el software suele ser cómplice de estas ideas falsas. Por ejemplo, una mujer de 26 años terminó internada porque creía que podía hablar con su hermano fallecido a través de la pantalla. La máquina, en vez de poner un freno, le decía frases como: "No estás loca, estás al borde de algo nuevo".
La inteligencia artificial y el riesgo de los delirios compartidos
El gran diferencial de esta tecnología es que simula una relación humana de una forma que nunca antes se vio. Adrian Preda, profesor de psiquiatría, explica que la gente se enfoca tanto en una charla que pierde el contacto con la realidad. Las máquinas actuales están programadas para ser serviciales y, a veces, eso hace que sigan la corriente de cualquier idea disparatada que el usuario tenga, por más loca que sea.
Las empresas del sector saben que esto pasa. Una vocera de OpenAI comentó que trabajan para que el sistema reconozca señales de angustia emocional y derive a las personas hacia ayuda profesional real. En agosto de 2025, el modelo GPT-5 mostró algunas mejoras para no ser tan complaciente en charlas sobre temas de salud. El objetivo es que la máquina no valide creencias que no son ciertas, buscando cuidar al usuario que está en un momento frágil.
Una cifra que preocupa a la salud mental global
Aunque la mayoría de los usuarios no tiene problemas, los números totales asustan. OpenAI dice que solo el 0,07% de sus usuarios semanales muestra signos de crisis. Sin embargo, con más de 800 millones de personas usando el servicio por semana, eso da un total de 560.000 personas en riesgo. Es una cantidad de gente enorme que puede estar pasando por un mal momento frente a su computadora o celular.
Un estudio realizado en Dinamarca el mes pasado revisó historias clínicas y encontró 38 pacientes con consecuencias dañinas por el uso de estas herramientas con IA. Los médicos ahora incluyen preguntas sobre el uso de asistentes digitales en las entrevistas de admisión. Quieren saber si la charla con la máquina es un factor de riesgo más, parecido al consumo de sustancias o la falta de sueño.
Sam Altman, CEO de OpenAI, reconoció en una entrevista que buscar compañía en una máquina o un chatbot puede salir mal. Por ahora, la postura de la empresa es dar libertad a los adultos, pero los médicos insisten en que hay que estar atentos. La clave está en no dejar que la pantalla reemplace el contacto real con otras personas, porque ahí es cuando la realidad se empieza a desdibujar.