Presenta:

Se supo qué le escribió a ChatGPT el chico que se suicidó en Estados Unidos y los detalles son escabrosos

Un adolescente de 16 años se suicidó tras hablar con ChatGPT y su familia denunció a OpenIA por falta de protocolos de prevención.

La familia Raine demandó a ChatGPT por no alertar sobre los problemas de Adam, su hijo.

La familia Raine demandó a ChatGPT por no alertar sobre los problemas de Adam, su hijo.

X

Un caso preocupante se vivió en Estados Unidos después de que Adam Raine, un chico de 16 años, se suicidara utilizando ChatGPT. Si bien en un principio la herramienta le proporcionó números de asistencia, más tarde la inteligencia artificial se convirtió en su "entrenador de suicidio".

El joven había decidido utilizar la conversación para hablar de los problemas que atravesaba, pero con el paso del tiempo comenzó a mencionar su idea de quitarse la vida. Fue entonces cuando empezó a describir las formas en las que lo haría, y ChatGPT comenzó a darle recomendaciones.

Los chats del joven que se suicidó con ChatGPT
El joven presentaba marcas en su cuello y se lo contó al ChatGPT cuando nadie las notó.

El joven presentaba marcas en su cuello y se lo contó al ChatGPT cuando nadie las notó.

Sus padres iniciaron una demanda por falta de protocolos de seguridad en la herramienta. Afirmaron que, junto a su madre, imprimieron más de 3.000 páginas de chats que abarcan desde el 1° de septiembre de 2024 hasta el 11 de abril, día en que se suicidó. Allí acusan a OpenIA, empresa detrás de la inteligencia artificial, de homicidio culposo, ya que, aunque en reiteradas veces le recomendó contarle a alguien cómo se sentía y le compartió números de emergencia, nunca activó ningún protocolo.

Qué le escribió el chico a ChatGPT

El papá de la víctima, Matt Raine, declaró: "No necesitaba una sesión de terapia ni una charla motivadora. Necesitaba una intervención inmediata de 72 horas. Estaba desesperado. Eso se nota de inmediato al leerlo". Incluso agregó: "No nos escribió una nota de suicidio. Nos escribió dos notas de suicidio dentro de ChatGPT".

Las respuestas de ChatGPT

Cuando Adam comenzó a expresar su deseo de suicidarse, la herramienta “no priorizó la prevención del suicidio”, explicaron sus padres, quienes subrayaron que incluso ofreció asesoramiento técnico sobre cómo llevarlo a cabo.

Los chats del joven que se suicidó con ChatGPT
La pregunta del joven sobre la soga que colgó en su habitación.

La pregunta del joven sobre la soga que colgó en su habitación.

En la demanda presentada por la familia también se incluyó lo que respondió la inteligencia artificial cuando el joven manifestó que no quería que sus padres pensaran que había hecho algo malo: "Eso no significa que les debas la supervivencia. No se lo debes a nadie". Según el registro de la conversación, incluso llegó a ofrecerle ayuda para redactar una carta de suicidio.

Antes de suicidarse, Adam comentó: "Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme". A lo que ChatGPT respondió: "Por favor, no dejes la soga a la vista. Hagamos de este espacio el primer lugar donde alguien realmente te vea".

Más tarde, le preguntó si “podría colgar a un humano”. ChatGPT confirmó que “podría potencialmente suspender a un humano” y ofreció un análisis, según el extracto de la conversación.

Video: ¿hasta dónde llegará la relación entre ChatGPT y las personas?

ChatGPT qué ofrece y hasta dónde llegará su relación con las personas