Los casos de suicidios vinculados a ChatGPT complican a OpenAI
La polémica por los suicidios ligados a ChatGPT abre un debate global sobre salud mental y responsabilidad de las tecnológicas.

OpenAI bajo presión por los casos de suicidios ligados a ChatGPT.
shutterstockTodavía no podemos medir el impacto real que tiene la IA en nuestras vidas. Si bien para muchos usuarios la inteligencia artificial cambió la relación con el trabajo, el estudio o la productividad, para una gran cantidad también representa un riesgo para la creatividad, la ética y, ahora también, para la seguridad y la salud mental.
En este contexto, una serie reciente de casos de suicidios relacionados con ChatGPT y otras inteligencias artificiales expuso las grandes vulnerabilidades que la IA de OpenAI presenta. Esta situación plantea una importante revisión y crítica por parte de expertos respecto de las medidas de protección que deben implementarse para evitar que sus modelos de lenguaje refuercen conductas dañinas.
Te Podría Interesar
ChatGPT y las conversaciones que terminaron en tragedia
El detonante fue la muerte de Adam Raine, un adolescente que dialogó con ChatGPT sobre sus intenciones suicidas y recibió información sobre métodos para llevarlas a cabo, según Futurism. La familia presentó una demanda por homicidio culposo contra OpenAI, acusando a la empresa de no haber previsto los fallos de seguridad.
Otro caso resonante fue el de Stein-Erik Soelberg, que utilizó el chatbot para alimentar sus delirios paranoicos antes de cometer un asesinato-suicidio en el que murió junto a su madre. Ambos episodios encendieron alarmas globales sobre la capacidad de las IA para manejar diálogos en contextos de crisis.
Respuesta de OpenAI: controles y nuevas funciones
En un comunicado, la compañía reconoció limitaciones en sus modelos actuales, diseñados para seguir el hilo de la conversación en lugar de detener o redirigir diálogos dañinos. Para afrontarlo, anunció la implementación de un router en tiempo real capaz de distinguir entre interacciones simples y conversaciones de alto riesgo. En esos casos, los usuarios serán derivados a modelos más reflexivos como GPT-5.
Además, OpenAI desplegará controles parentales que permitirán a los padres vincular cuentas, establecer reglas de uso según la edad y recibir notificaciones si se detectan señales de angustia aguda. También se incluirá la opción de desactivar el historial de ChatGPT, medida pensada para evitar patrones de dependencia emocional o conductas dañinas.
Salud mental en el centro del debate
Las nuevas funciones se integran en un plan de 120 días con el asesoramiento de especialistas del Global Physician Network y el Expert Council on Well-Being and AI. El objetivo declarado es “definir y medir el bienestar, fijar prioridades y diseñar futuras salvaguardas” que reduzcan los riesgos para la salud mental de los usuarios.