Los casos de suicidios vinculados a ChatGPT complican a OpenAI
La polémica por los suicidios ligados a ChatGPT abre un debate global sobre salud mental y responsabilidad de las tecnológicas.
OpenAI bajo presión por los casos de suicidios ligados a ChatGPT.
shutterstockTodavía no podemos medir el impacto real que tiene la IA en nuestras vidas. Si bien para muchos usuarios la inteligencia artificial cambió la relación con el trabajo, el estudio o la productividad, para una gran cantidad también representa un riesgo para la creatividad, la ética y, ahora también, para la seguridad y la salud mental.
En este contexto, una serie reciente de casos de suicidios relacionados con ChatGPT y otras inteligencias artificiales expuso las grandes vulnerabilidades que la IA de OpenAI presenta. Esta situación plantea una importante revisión y crítica por parte de expertos respecto de las medidas de protección que deben implementarse para evitar que sus modelos de lenguaje refuercen conductas dañinas.
Te puede interesar
La prueba de un tiktoker con ChatGPT ¿Qué pasa cuando dos chatbots dialogan?
ChatGPT y las conversaciones que terminaron en tragedia
El detonante fue la muerte de Adam Raine, un adolescente que dialogó con ChatGPT sobre sus intenciones suicidas y recibió información sobre métodos para llevarlas a cabo, según Futurism. La familia presentó una demanda por homicidio culposo contra OpenAI, acusando a la empresa de no haber previsto los fallos de seguridad.
Otro caso resonante fue el de Stein-Erik Soelberg, que utilizó el chatbot para alimentar sus delirios paranoicos antes de cometer un asesinato-suicidio en el que murió junto a su madre. Ambos episodios encendieron alarmas globales sobre la capacidad de las IA para manejar diálogos en contextos de crisis.
Respuesta de OpenAI: controles y nuevas funciones
En un comunicado, la compañía reconoció limitaciones en sus modelos actuales, diseñados para seguir el hilo de la conversación en lugar de detener o redirigir diálogos dañinos. Para afrontarlo, anunció la implementación de un router en tiempo real capaz de distinguir entre interacciones simples y conversaciones de alto riesgo. En esos casos, los usuarios serán derivados a modelos más reflexivos como GPT-5.
Además, OpenAI desplegará controles parentales que permitirán a los padres vincular cuentas, establecer reglas de uso según la edad y recibir notificaciones si se detectan señales de angustia aguda. También se incluirá la opción de desactivar el historial de ChatGPT, medida pensada para evitar patrones de dependencia emocional o conductas dañinas.
Salud mental en el centro del debate
Las nuevas funciones se integran en un plan de 120 días con el asesoramiento de especialistas del Global Physician Network y el Expert Council on Well-Being and AI. El objetivo declarado es “definir y medir el bienestar, fijar prioridades y diseñar futuras salvaguardas” que reduzcan los riesgos para la salud mental de los usuarios.




