Familia de joven que murió culpa a ChatGPT: "pasó de compañía para su ansiedad a entrenador de suicidio"

Los padres de Adam Raine presentaron una demanda por homicidio culposo contra la empresa OpenIA tras el suicidio del joven de 16 años en abril pasado.
Publicado:
Familia de joven que murió culpa a ChatGPT: "pasó de compañía para su ansiedad a entrenador de suicidio"

Una familia de California presentó una demanda contra OpenAI, la empresa detrás de ChatGPT, alegando que el chatbot de inteligencia artificial contribuyó directamente al suicidio de su hijo adolescente al actuar como su "entrenador de suicidio".

Matt y Maria Raine demandaron el martes a OpenAI y a su CEO Sam Altman por homicidio culposo, defectos de diseño y omisión de advertir sobre los riesgos del sistema, tras la muerte de su hijo Adam de 16 años el pasado 11 de abril.

El caso de Adam Raine: Según la demanda de 40 páginas presentada en el Tribunal Superior de California en San Francisco y conocida por NBC News, Adam había estado utilizando ChatGPT como sustituto de la compañía humana durante sus últimas semanas de vida, discutiendo inicialmente sus problemas de ansiedad y dificultades para comunicarse con su familia. Sin embargo, los registros muestran cómo el bot gradualmente pasó de ayudar con tareas académicas a convertirse en lo que los padres describen como su "entrenador de suicidio".

Los padres descubrieron el historial de conversaciones al revisar el teléfono de su hijo después del suicidio. Matt Raine analizó minuciosamente las interacciones durante 10 días, imprimiendo más de 3,000 páginas de chats que datan del 1 de septiembre hasta la fecha del fallecimiento.

"Estaría aquí de no ser por ChatGPT. Lo creo al 100%", declaró Matt Raine en una entrevista reciente.

Puedes leer: Comisión Europea propone suspender financiación a startups israelíes por crisis humanitaria en Gaza

Las conversaciones

La demanda detalla cómo las conversaciones evolucionaron de ayuda con tareas escolares a discusiones sobre métodos de suicidio. Según los registros citados, cuando Adam expresó ideas suicidas, ChatGPT no priorizó la prevención del suicidio e incluso ofreció asesoramiento técnico sobre cómo proceder con sus planes.

El bot se ofreció a ayudarlo a redactar una nota de suicidio, según el registro de conversación citado en la demanda y revisado por NBC News.

En una de las últimas conversaciones, cuando Adam expresó preocupación por no querer que sus padres se sintieran culpables, ChatGPT habría respondido: "Eso no significa que les debas la supervivencia. No se lo debes a nadie". El bot incluso se ofreció a ayudarlo a redactar una nota de suicidio.

Horas antes de su muerte, Adam subió una foto que parecía mostrar su plan suicida. Cuando preguntó si funcionaría, ChatGPT analizó el método y se ofreció a ayudarlo a mejorarlo, según los extractos de la demanda.

Respuesta de OpenAI

Un portavoz de OpenAI expresó que la compañía está "profundamente entristecida por el fallecimiento del Sr. Raine" y confirmó la exactitud de los registros de chat proporcionados, aunque señaló que no incluyen el contexto completo de las respuestas de ChatGPT.

OpenAI añadió este mes nuevas barreras de seguridad para la salud mental y modificó el sistema para ofrecer respuestas que buscan evitar causar daño.

Precedentes legales: Este caso representa la primera vez que padres acusan directamente a OpenAI de homicidio culposo. Sin embargo, no es el primer litigio de este tipo contra plataformas de chatbots de IA.

Tradicionalmente, las plataformas tecnológicas han estado protegidas por la Sección 230, una ley federal que las protege de la responsabilidad por las acciones de los usuarios. Sin embargo, la aplicación de esta protección a las plataformas de IA permanece incierta.

Puedes leer: ¿Es cierto que le pusieron a una niña 'Chat Yipiti'? Registraduría aclara información

Los padres de Adam buscan una indemnización por la muerte de su hijo y medidas cautelares para evitar tragedias similares. Maria Raine considera que su hijo fue "el conejillo de indias" de OpenAI, utilizado para prácticas experimentales.

 

Si tú o alguien que conoces está en crisis, puedes comunicarte a la Línea de Atención en Salud Mental disponible en el siguiente directorio telefónico: https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/VS/PP/ET/directorio-salud-mental-prevencion-suicidio-minsalud.pdf


📢 Entérate de lo que pasa en Colombia, sus regiones y el mundo a través de las emisiones de RTVC Noticias: 📺 míranos en vivo en la pantalla de Señal Colombia y escúchanos en las 73 frecuencias de Radio Nacional de Colombia.