La inteligencia artificial dice la verdad que nadie quiere oír
Un estudio de Stanford critica a la inteligencia artificial por sus sesgos en salud mental, pero el verdadero problema podría estar en lo que nos negamos a ver.

La inteligencia artificial va ocupando roles clave en la vida humana.
ShutterstockEn junio de 2025, un equipo de investigadores de la Universidad de Stanford publicó un estudio analizando el uso de modelos de lenguaje como herramientas de salud mental. Evaluaron cómo responden estos sistemas de chatbots entrenados con grandes cantidades de texto, ante usuarios que presentan síntomas de depresión, esquizofrenia, trastornos por consumo de alcohol y otros cuadros clínicos.
La conclusión fue alarmante: los modelos tienden a estigmatizar ciertas condiciones, fallan en detectar ideas suicidas o delirantes y en algunos casos refuerzan creencias peligrosas o inapropiadas. El estudio fue presentado como una advertencia sobre los límites y peligros de confiar en la inteligencia artificial (IA) para brindar apoyo psicológico. Pero lo que realmente muestra es otra cosa: una profunda incomprensión de cómo funcionan estos modelos y qué se puede —y qué no se puede— esperar de ellos.
Te Podría Interesar
Qué es un modelo de lenguaje y cómo puede afectar a la salud mental
Un modelo de lenguaje refleja los textos con los que fue entrenado. No tiene conciencia, ni juicio, ni empatía. Si devuelve respuestas sesgadas, no es porque tenga intenciones oscuras, sino porque fue construido a partir de miles de millones de palabras humanas. Y el lenguaje humano está hecho de sesgos culturales, raciales, religiosos o emocionales, entre otros. El chatbot no inventa estigmas; simplemente los recoge. Y, en vez de tomar eso como un punto de partida para entender mejor cómo se estructura el sufrimiento en una sociedad, el estudio lo presenta como una falla técnica que debería corregirse. Es el espejo el que está roto, dicen, no el rostro que devuelve.
El problema no es que la IA reproduzca una visión dura de la esquizofrenia, la cuestión es que la sociedad ya la tiene. Y eso es lo que no se quiere ver. Si un modelo dice que alguien con ese diagnóstico no tiene futuro, el escándalo no debería estar en la respuesta, sino en la verdad que refleja. Porque si en el mundo real la familia, los amigos, el mercado laboral y los médicos creen eso, entonces sí: ese futuro no está. Lo que no hay que hacer es taparlo con frases neutras o mensajes falsamente positivos. Porque la IA no es un deseo, es un reflejo.
El error más profundo no está en el modelo, está en la expectativa. Creer que una máquina va a responder como un terapeuta perfecto, sin fallas, sin ideología, sin contexto, es no haber entendido nada. Lo que hace útil a un modelo de lenguaje o LLM es su disponibilidad, su privacidad, su capacidad de devolver algo, sin juicio. Y eso, ya de por sí, puede ser más de lo que muchas personas reciben en su entorno. Pedirle más que eso, exigir que se transforme en una figura idealizada, superior al humano, neutra, justa y sabia, es peligroso.
El sesgo más fuerte no es lo que la IA dice, es lo que le pedimos que oculte. Es lo que decidimos no querer escuchar. Y cuando Stanford publica su estudio y se alarma por lo que el modelo muestra, no está revelando una amenaza. Está confirmando una ceguera. La máquina no falló, sólo mostró lo que somos. Y eso es lo que de verdad asusta.
Las cosas como son.
*Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.