OpenAI niega que ChatGPT causara el suicidio de un adolescente y alega que él infringió términos y condiciones
Los padres de un joven de 16 años aseguran que un chatbot de IA actuó como “entrenador para el suicidio”
OpenAI negó su responsabilidad en la muerte de un adolescente después de que una demanda acusara a ChatGPT de actuar como “asesor de suicidio”.
Los padres de Adam Raine, de 16 años, fallecido en abril, demandaron en agosto a OpenAI y a su director ejecutivo, Sam Altman, con el argumento de que el chatbot de inteligencia artificial de OpenAI dio instrucciones sobre cómo atarse una soga y ofreció ayuda para escribir una nota de suicidio.
En un documento legal presentado ante el Tribunal Superior de California en San Francisco el martes, OpenAI alegó que los factores causales de la muerte de Raine podrían incluir “uso indebido, uso no autorizado, uso no intencionado, uso imprevisible o uso inadecuado de ChatGPT”.
La empresa también aseguró que una “lectura completa de su historial de chat muestra que su muerte, si bien fue devastadora, ChatGPT no fue el responsable”.
Un abogado que representa a la familia Raine calificó la presentación de OpenAI de “inquietante”.
En una declaración a Bloomberg, el abogado Jay Edelson manifestó que la empresa “trata de encontrar culpables en todos los demás, incluso, sorprendentemente, con el argumento de que el propio Adam violó sus términos y condiciones al interactuar con ChatGPT de la misma manera que estaba programado para actuar”.
Se trata de una de varias demandas en las que se afirma que ChatGPT llevó a personas al suicidio o a delirios perjudiciales.
Los padres de Raine testificaron ante el Congreso en septiembre junto a otros padres cuyos hijos se suicidaron tras interactuar con chatbots de IA.
“Lo que empezó como un asistente para los deberes se convirtió poco a poco en un confidente y luego en un asistente para el suicidio”, planteó el padre de Raine, Matthew Raine, a los senadores.
Y agregó: “En pocos meses, ChatGPT se convirtió en el compañero más cercano de Adam. Siempre disponible. Siempre validando e insistiendo en que conocía a Adam mejor que nadie, incluso que su propio hermano”.
Desde entonces, OpenAI ha desplegado nuevas salvaguardias para los adolescentes, incluidas herramientas que permiten a los padres establecer “horas de bloqueo” para impedir que sus hijos utilicen ChatGPT a determinadas horas.
La empresa también señaló en su última presentación legal que ChatGPT indicó “más de 100 veces” a Raine que se pusiera en contacto con recursos para situaciones de crisis, como teléfonos de ayuda de prevención del suicidio, así como con personas de confianza.
Si vives en Estados Unidos y tú o alguien que conoces necesita asistencia por cuestiones de salud mental, llama o envía un mensaje de texto al 988, o visita www.988lifeline.org para acceder al chat de la Línea Nacional de Prevención del Suicidio y Crisis. Es una línea directa, gratuita y confidencial que está disponible las 24 horas.
Si te encuentras en otro país, puedes ingresar a www.befrienders.org para conocer una línea de atención telefónica local.
Traducción de Michelle Padilla






