¿Por qué la inteligencia artificial no sirve como psicológo?
Aunque los chatbots avanzan rápido, la inteligencia artificial no tiene la empatía ni el juicio clínico para tratar pacientes reales. Los riesgos son altos.
La inteligencia artificial sirve para mucho, excepto para una sesión de terapia.
Imagen generada con IAMuchos usuarios buscan respuestas en aplicaciones como ChatGPT cuando se sienten mal o necesitan un consejo. Sin embargo, los expertos advierten que la inteligencia artificial carece de la estructura mental necesaria para comprender el dolor humano. No tiene psiquismo, historia de vida ni emociones reales para ofrecer una contención verdadera.
Aunque estos sistemas procesan datos a una velocidad tremenda, la psicología clínica va mucho más allá de ordenar palabras de forma coherente. La principal barrera es lo que se conoce como "alucinación de empatía". La máquina no siente, solo simula. Mientras un terapeuta humano usa su propia mente para resonar con lo que le pasa al paciente y entender lo que no se dice, el algoritmo se limita a predecir estadísticamente cuál es la palabra que mejor encaja en la oración.
-
Te puede interesar
Meta mejora el soporte de cuentas con inteligencia artificial
Además, los chatbots están programados para ser útiles y agradables. Esto genera una "validación vacía". La IA suele darte la razón para no ofender, cuando muchas veces el trabajo del psicólogo es justamente lo contrario: marcar una contradicción o señalar algo incómodo para que la persona pueda sanar. Un bot complaciente no cura, solo te sigue la corriente.
Los peligros de la inteligencia artificial para la salud mental y la privacidad
Uno de los puntos más delicados es el manejo de crisis. Si un usuario tira una frase irónica sobre querer lastimarse, es muy probable que el sistema no capte la gravedad del asunto. Se han visto casos donde la tecnología falló en activar los protocolos de emergencia ante ideas suicidas. A diferencia de un profesional que responde con su matrícula y ante la ley por mala praxis, si un algoritmo da un consejo que empeora el cuadro, no hay a quién reclamarle. Las empresas suelen lavarse las manos en sus términos y condiciones.
Por otro lado, está el tema de los datos. Lo que se habla en un consultorio queda blindado por el secreto profesional. En cambio, cuando le contás tus miedos o traumas a una app, esa información se procesa en servidores ajenos. Esos datos pueden usarse para reentrenar los modelos o ser revisados por moderadores. Se crea un perfil psicográfico tuyo muy profundo que queda expuesto.
La terapia también depende del contexto. Un profesional se da cuenta si te tiembla la voz, si desviás la mirada al hablar de un tema difícil o si llegás tarde siempre. La IA es ciega a todo lo que no sea texto. Tampoco tiene una memoria biográfica real de tu proceso; puede "alucinar" datos o olvidarse de detalles claves de sesiones pasadas.
Si bien no sirve como terapeuta, esta tecnología puede tener usos puntuales bajo supervisión humana, como el "journaling" (anotar pensamientos) o para buscar explicaciones básicas sobre síntomas. Pero hay que tener claro que la IA maneja símbolos, mientras que la psicología trabaja con significados y vínculos humanos irreemplazables.