Denunciaron a ChatGPT por el suicidio de un chico de 16 años y el caso es estremecedor
Los padres acusan a la empresa inventora de ChatGPT de no activar protocolos de seguridad después de que su hijo lo utilizará para buscar formas de suicidarse.

La familia denuncia a la empresa detrás de ChatGPT por no alertar a las autoridades.
El hecho ocurrió en Estados Unidos, donde un joven de 16 años decidió suicidarse. Después de revisar su teléfono, los padres descubrieron que su hijo usaba ChatGPT como asistencia para hablar de sus problemas, hasta que finalmente comenzó a sugerir métodos de suicidio.
Según comentaron los padres, Matt y Maria Raine, al principio el chico utilizaba la inteligencia artificial como un sustituto de la compañía humana para expresar las dificultades que atravesaba. Sin embargo, luego comenzó a hablarle sobre suicidarse y, en esa conversación, puede observarse cómo el chat pasó de escucharlo a darle métodos para quitarse la vida.
Te Podría Interesar
La denuncia de la familia a ChatGPT
A partir de esta demanda, la familia denunció a OpenAI, la empresa detrás de ChatGPT, acusándola de homicidio culposo, defectos de diseño y omisión de advertir sobre los riesgos asociados al uso del chat.
Los padres señalaron que en ningún momento la inteligencia artificial decidió finalizar la conversación ni activó un protocolo de seguridad ante los comentarios del joven de 16 años. Incluso, cuando él preguntaba si los métodos que pensaba utilizar serían efectivos, la inteligencia artificial le sugería otros. Además, dejó dos cartas de suicidio escritas en la conversación.
Junto a la indemnización que solicita la familia Raine por la muerte de su hijo, buscan que este caso siente un precedente para que, en el futuro, se activen protocolos de seguridad que alerten a las autoridades y eviten que algo así vuelva a ocurrir. Ya que si bien le sugirió números de emergencia, nunca emitió ningún alerta.