Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

ChatGPT añade alertas para personas que sufran de emergencias de salud mental

Una nueva función de seguridad llamada “Contacto de confianza” surge en medio de la creciente preocupación de que la IA pueda empujar a las personas hacia la manía y la psicosis

El logotipo del chatbot de inteligencia artificial ChatGPT, de OpenAI, fotografiado en Mulhouse, al este de Francia, el 11 de febrero de 2025
El logotipo del chatbot de inteligencia artificial ChatGPT, de OpenAI, fotografiado en Mulhouse, al este de Francia, el 11 de febrero de 2025 (AFP via Getty Images)
Read in English

OpenAI ha lanzado una nueva función de seguridad que enviará alertas a amigos o familiares cuando un usuario de ChatGPT esté sufriendo una emergencia de salud mental.

La función de Contacto de confianza, que se activa de forma voluntaria, permite a los usuarios designar a alguien para que sea notificado si comienzan a hablar de autolesiones o suicidio con el chatbot de inteligencia artificial.

La nueva actualización surge ante la creciente preocupación por las herramientas de inteligencia artificial como ChatGPT, que podrían llevar a las personas a la manía, la psicosis y la muerte.

OpenAI reveló el año pasado que el 0,07 % de los usuarios habituales de ChatGPT presentaban signos de “emergencias de salud mental relacionadas con psicosis o manía”.

Con alrededor de 900 millones de usuarios activos semanales, eso equivale a más de medio millón de personas.

Otro 0,15 % de los usuarios, es decir, 1,3 millones de personas, manifestaron, según los informes, riesgo de autolesionarse o suicidarse.

La última función utiliza los sistemas de monitorización automatizados de ChatGPT para detectar problemas graves de seguridad relacionados con el comportamiento del usuario.

Posteriormente, un equipo especialmente capacitado revisa el historial de chat para determinar si un contacto de confianza debería comunicarse con la persona.

“La ciencia psicológica demuestra de forma consistente que la conexión social es un poderoso factor protector, especialmente durante períodos de angustia emocional”, afirmó Arthur Evans, director ejecutivo de la Asociación Estadounidense de Psicología.

“Ayudar a las personas a identificar con antelación a una persona de confianza, respetando al mismo tiempo su capacidad de elección y su autonomía, puede facilitarles el acceso a ayuda real cuando más la necesitan”, explicó.

La función de Contactos de confianza se basa en los controles de seguridad existentes, que incluyen proporcionar información sobre líneas de ayuda locales cuando se cree que un usuario de ChatGPT está sufriendo una crisis.

“Una de las mayores promesas de la IA es que puede ayudar a fomentar una conexión auténtica entre humanos y la seguridad psicológica”, dijo Munmun De Choudhury, profesora de Computación Interactiva en Georgia Tech y miembro del Consejo de Expertos en Bienestar e IA.

“Me anima la función de Contactos de Confianza de ChatGPT, que supone un paso adelante en el empoderamiento humano, especialmente en momentos de vulnerabilidad”, añadió.

NOTA DEL EDITOR: este artículo trata sobre el suicidio. Si usted o alguien que conoce necesita ayuda, puede comunicarse con la línea nacional de ayuda para casos de suicidio y crisis en EE. UU. llamando o enviando un mensaje de texto al 988.

Traducción de Sara Pignatiello

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in