Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Hombre termina en el hospital tras preguntar a ChatGPT cómo reemplazar la sal en su dieta

El hombre llevaba tres meses reemplazando el cloruro de sodio, o sal de mesa, por bromuro de sodio tras consultar a ChatGPT

Rachel Dobkin
en Nueva York
Jueves, 07 de agosto de 2025 16:47 EDT
OpenAI lanza GPT-5, su primera actualización del modelo ChatGPT en años
Read in English

Un hombre de 60 años terminó en el hospital tras preguntar a ChatGPT cómo eliminar el cloruro de sodio de su dieta.

A medida que los seres humanos interactúan cada vez más con la inteligencia artificial, siguen surgiendo historias de cómo una conversación con un chatbot puede resultar peligrosa y, en ocasiones, fatal.

Si bien parte de la atención se ha centrado en la salud mental y las preocupaciones en torno a que los chatbots no estén equipados para tratar este tipo de dificultades, también existen implicaciones para la salud física de las personas.

Se suele aconsejar que no hay que buscar tus síntomas en Google, ya que las recomendaciones médicas debe darlas un profesional de la salud que conozca tu historia clínica y pueda examinarte propiamente.

Según un nuevo caso publicado en la revista del Colegio Estadounidense de Médicos el martes, debemos tener cuidado si tenemos pensado hacer preguntas sobre salud a un chatbot.

Un hombre de 60 años terminó en el hospital tras preguntar a ChatGPT cómo eliminar la sal de su dieta
Un hombre de 60 años terminó en el hospital tras preguntar a ChatGPT cómo eliminar la sal de su dieta (Kirill Kudryavtsev/AFP via Getty Images)

El informe analizaba el caso de un hombre que contrajo bromismo tras pedir consejos a ChatGPT sobre su alimentación.

El bromismo, o intoxicación por bromuro, era una enfermedad muy conocida a principios de la década de 1990, pero ahora es menos frecuente. En aquella época, las sales de bromuro se encontraban en muchos medicamentos de venta libre para tratar el insomnio, la histeria y la ansiedad. Ingerir demasiado bromuro puede causar síntomas neuropsiquiátricos y dermatológicos.

El hombre de este caso no tenía antecedentes psiquiátricos ni médicos, pero durante las primeras 24 horas de hospitalización manifestó un aumento de la paranoia y alucinaciones auditivas y visuales.

“Se lo notaba muy sediento pero paranoico con el agua que le ofrecían”, rezaba el informe del caso.

El hombre fue tratado con fluidos y electrolitos y lograron estabilizarlo clínicamente, por lo que pudieron ingresarlo en la unidad psiquiátrica del hospital.

A medida que su estado mejoraba, pudo compartir algunos síntomas que había notado, como la aparición de acné en el rostro y angiomas en cereza, los cuales eran un indicio mayor de que padecía bromismo.

También manifestó que llevaba tres meses reemplazando el cloruro de sodio, o sal de mesa, por bromuro de sodio, tras leer sobre los efectos negativos de la sal en la salud.

“Inspirado por sus estudios previos de nutrición en la universidad, decidió llevar a cabo un experimento personal para eliminar el cloruro [de sodio] de su alimentación”, explica el informe del caso.

El hombre llevaba tres meses reemplazando el cloruro de sodio, o sal de mesa, por bromuro de sodio
El hombre llevaba tres meses reemplazando el cloruro de sodio, o sal de mesa, por bromuro de sodio (PA Archive)

Había sustituido la sal de mesa por “bromuro de sodio que consiguió en Internet luego de consultar con ChatGPT; en donde había leído que el cloruro puede reemplazarse por el bromuro, aunque probablemente con otros fines, como la limpieza”.

El hombre pasó tres semanas en el hospital hasta que logró recuperarse lo suficiente para recibir el alta.

“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de discutir los resultados de manera crítica y, en última instancia, alimentar la difusión de información errónea”, advierten los autores del informe.

Open AI, desarrollador de ChatGPT, admite en sus Condiciones de uso que los resultados del chatbot “pueden no ser siempre exactos”.

“No debe confiar en los Resultados de nuestros Servicios como única fuente de información veraz o real, ni como sustituto del asesoramiento profesional”, informan las Condiciones de uso.

Las Condiciones de servicio de la empresa también lo indican en forma explícita: “Nuestros Servicios no están pensados para su uso en el diagnóstico o tratamiento de ninguna condición de salud”.

Traducción de Martina Telo

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in