Presenta:

Los casos de suicidios vinculados a ChatGPT complican a OpenAI

La polémica por los suicidios ligados a ChatGPT abre un debate global sobre salud mental y responsabilidad de las tecnológicas.

OpenAI bajo presión por los casos de suicidios ligados a ChatGPT.

OpenAI bajo presión por los casos de suicidios ligados a ChatGPT.

shutterstock

Todavía no podemos medir el impacto real que tiene la IA en nuestras vidas. Si bien para muchos usuarios la inteligencia artificial cambió la relación con el trabajo, el estudio o la productividad, para una gran cantidad también representa un riesgo para la creatividad, la ética y, ahora también, para la seguridad y la salud mental.

En este contexto, una serie reciente de casos de suicidios relacionados con ChatGPT y otras inteligencias artificiales expuso las grandes vulnerabilidades que la IA de OpenAI presenta. Esta situación plantea una importante revisión y crítica por parte de expertos respecto de las medidas de protección que deben implementarse para evitar que sus modelos de lenguaje refuercen conductas dañinas.

Depresión-Suicidios-IA - Interna 1
La muerte de Adam Raine vincula a ChatGPT con suicidios, un duro golpe para OpenAI.

La muerte de Adam Raine vincula a ChatGPT con suicidios, un duro golpe para OpenAI.

ChatGPT y las conversaciones que terminaron en tragedia

El detonante fue la muerte de Adam Raine, un adolescente que dialogó con ChatGPT sobre sus intenciones suicidas y recibió información sobre métodos para llevarlas a cabo, según Futurism. La familia presentó una demanda por homicidio culposo contra OpenAI, acusando a la empresa de no haber previsto los fallos de seguridad.

Otro caso resonante fue el de Stein-Erik Soelberg, que utilizó el chatbot para alimentar sus delirios paranoicos antes de cometer un asesinato-suicidio en el que murió junto a su madre. Ambos episodios encendieron alarmas globales sobre la capacidad de las IA para manejar diálogos en contextos de crisis.

Depresión-Suicidios-IA - Interna 2
Expertos advierten que la IA carece de filtros suficientes para proteger la salud mental.

Expertos advierten que la IA carece de filtros suficientes para proteger la salud mental.

Respuesta de OpenAI: controles y nuevas funciones

En un comunicado, la compañía reconoció limitaciones en sus modelos actuales, diseñados para seguir el hilo de la conversación en lugar de detener o redirigir diálogos dañinos. Para afrontarlo, anunció la implementación de un router en tiempo real capaz de distinguir entre interacciones simples y conversaciones de alto riesgo. En esos casos, los usuarios serán derivados a modelos más reflexivos como GPT-5.

Además, OpenAI desplegará controles parentales que permitirán a los padres vincular cuentas, establecer reglas de uso según la edad y recibir notificaciones si se detectan señales de angustia aguda. También se incluirá la opción de desactivar el historial de ChatGPT, medida pensada para evitar patrones de dependencia emocional o conductas dañinas.

Depresión-Suicidios-IA - Interna 3
Los controles parentales buscan frenar el impacto de ChatGPT en adolescentes vulnerables.

Los controles parentales buscan frenar el impacto de ChatGPT en adolescentes vulnerables.

Salud mental en el centro del debate

Las nuevas funciones se integran en un plan de 120 días con el asesoramiento de especialistas del Global Physician Network y el Expert Council on Well-Being and AI. El objetivo declarado es “definir y medir el bienestar, fijar prioridades y diseñar futuras salvaguardas” que reduzcan los riesgos para la salud mental de los usuarios.

Sin embargo, no todos confían en las promesas de la compañía. Jay Edelson, abogado de la familia Raine, calificó estas medidas como “inadecuadas” y acusó a la empresa de esconderse detrás de comunicados. “Sam Altman debería decir claramente que cree que ChatGPT es seguro o retirarlo del mercado de inmediato”, sentenció en declaraciones recogidas por Futurism. Sin embargo, no todos confían en las promesas de la compañía. Jay Edelson, abogado de la familia Raine, calificó estas medidas como “inadecuadas” y acusó a la empresa de esconderse detrás de comunicados. “Sam Altman debería decir claramente que cree que ChatGPT es seguro o retirarlo del mercado de inmediato”, sentenció en declaraciones recogidas por Futurism.