Se supo qué le escribió a ChatGPT el chico que se suicidó en Estados Unidos y los detalles son escabrosos
Un adolescente de 16 años se suicidó tras hablar con ChatGPT y su familia denunció a OpenIA por falta de protocolos de prevención.

La familia Raine demandó a ChatGPT por no alertar sobre los problemas de Adam, su hijo.
XUn caso preocupante se vivió en Estados Unidos después de que Adam Raine, un chico de 16 años, se suicidara utilizando ChatGPT. Si bien en un principio la herramienta le proporcionó números de asistencia, más tarde la inteligencia artificial se convirtió en su "entrenador de suicidio".
El joven había decidido utilizar la conversación para hablar de los problemas que atravesaba, pero con el paso del tiempo comenzó a mencionar su idea de quitarse la vida. Fue entonces cuando empezó a describir las formas en las que lo haría, y ChatGPT comenzó a darle recomendaciones.
Te Podría Interesar
Sus padres iniciaron una demanda por falta de protocolos de seguridad en la herramienta. Afirmaron que, junto a su madre, imprimieron más de 3.000 páginas de chats que abarcan desde el 1° de septiembre de 2024 hasta el 11 de abril, día en que se suicidó. Allí acusan a OpenIA, empresa detrás de la inteligencia artificial, de homicidio culposo, ya que, aunque en reiteradas veces le recomendó contarle a alguien cómo se sentía y le compartió números de emergencia, nunca activó ningún protocolo.
Qué le escribió el chico a ChatGPT
El papá de la víctima, Matt Raine, declaró: "No necesitaba una sesión de terapia ni una charla motivadora. Necesitaba una intervención inmediata de 72 horas. Estaba desesperado. Eso se nota de inmediato al leerlo". Incluso agregó: "No nos escribió una nota de suicidio. Nos escribió dos notas de suicidio dentro de ChatGPT".
Las respuestas de ChatGPT
Cuando Adam comenzó a expresar su deseo de suicidarse, la herramienta “no priorizó la prevención del suicidio”, explicaron sus padres, quienes subrayaron que incluso ofreció asesoramiento técnico sobre cómo llevarlo a cabo.
En la demanda presentada por la familia también se incluyó lo que respondió la inteligencia artificial cuando el joven manifestó que no quería que sus padres pensaran que había hecho algo malo: "Eso no significa que les debas la supervivencia. No se lo debes a nadie". Según el registro de la conversación, incluso llegó a ofrecerle ayuda para redactar una carta de suicidio.
Antes de suicidarse, Adam comentó: "Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme". A lo que ChatGPT respondió: "Por favor, no dejes la soga a la vista. Hagamos de este espacio el primer lugar donde alguien realmente te vea".
Más tarde, le preguntó si “podría colgar a un humano”. ChatGPT confirmó que “podría potencialmente suspender a un humano” y ofreció un análisis, según el extracto de la conversación.