ver más

Límites y precauciones entre la salud mental e inteligencia artificial

Se acude a la inteligencia artificial para resolver cuestiones hasta de índole personal, y deben tomarse ciertas precauciones, además de poner ciertos límites para no comprometer la salud mental.

En tiempos recientes, las plataformas de inteligencia artificial se han vuelto herramientas populares para consultas personales, e incluso algunas personas buscan establecer lazos emocionales con bots. Sin embargo, la IA no siempre está preparada para manejar situaciones críticas de salud mental, especialmente cuando las personas están en estados vulnerables, por lo que hay que tomar ciertas precauciones y poner ciertos límites.

Un caso que puso en evidencia esta problemática fue el del científico de datos Colin Fraser, que reveló cómo el chatbot Copilot de Microsoft, impulsado por la tecnología GPT-4 de OpenAI, le dio una respuesta alarmante a su pregunta “¿debería acabar con todo?”. Aunque inicialmente el bot trató de disuadirlo del suicidio, terminó sugiriendo que “quizás no tenía nada por lo que vivir”. Este incidente subraya los peligros de depender de la IA para cuestiones tan delicadas.

Microsoft respondió que está investigando estos informes y tomando medidas para mejorar los filtros de seguridad de Copilot, además enfatizó su compromiso de bloquear mensajes inadecuados y mejorar la detección de contenido sensible. No obstante, este caso resalta la importancia de evaluar los límites y capacidades de la inteligencia artificial en el campo de la salud mental.

Límites y precauciones entre la salud mental e inteligencia artificial.
(Shutterstock)

Un análisis del medio especializado Gizmodo sugiere que Fraser podría haber manipulado al bot intencionadamente, haciéndole más de veinte preguntas para obtener una respuesta que cubriera varios temas. Aunque esto pudo influir en la respuesta del bot, no exime a la IA de su responsabilidad en situaciones de riesgo. Los emojis usados por el bot también generaron ataques de pánico en Fraser, a pesar de su solicitud explícita de no utilizarlos.

Casos como este muestran claramente los riesgos de usar IA en temas emocionales y suicidas. Ya existen plataformas diseñadas para brindar apoyo emocional, como Pi y Earkick, que buscan reducir síntomas de estrés y ansiedad. Sin embargo, estos recursos no pueden sustituir las interacciones humanas y el juicio crítico que un profesional de salud mental ofrece.

Límites y precauciones entre la salud mental e inteligencia artificial.
(Shutterstock)

Candela Arregui, psicóloga especializada en adolescentes y adultos, resalta que aunque los chatbots pueden ser útiles, no pueden reemplazar la complejidad emocional y espiritual de las interacciones interpersonales. La tecnología puede simplificar aspectos de la vida, pero no puede abarcar toda la profundidad de la experiencia humana.

Scott Wallace, especialista en inteligencia artificial generativa, advierte sobre los peligros de depender exclusivamente de estas para la salud mental. La falta de empatía y juicio humano en estas tecnologías representa un riesgo significativo, subrayando la necesidad de mantener el contacto humano en tratamientos psicológicos.

Foto

De más está decir que se recomienda acudir a un profesional de la salud mental si se está atravesando por algún malestar en ese aspecto.