Hombre termina en el hospital tras preguntar a ChatGPT cómo reemplazar la sal en su dieta
El hombre llevaba tres meses reemplazando el cloruro de sodio, o sal de mesa, por bromuro de sodio tras consultar a ChatGPT
Un hombre de 60 años terminó en el hospital tras preguntar a ChatGPT cómo eliminar el cloruro de sodio de su dieta.
A medida que los seres humanos interactúan cada vez más con la inteligencia artificial, siguen surgiendo historias de cómo una conversación con un chatbot puede resultar peligrosa y, en ocasiones, fatal.
Si bien parte de la atención se ha centrado en la salud mental y las preocupaciones en torno a que los chatbots no estén equipados para tratar este tipo de dificultades, también existen implicaciones para la salud física de las personas.
Se suele aconsejar que no hay que buscar tus síntomas en Google, ya que las recomendaciones médicas debe darlas un profesional de la salud que conozca tu historia clínica y pueda examinarte propiamente.
Según un nuevo caso publicado en la revista del Colegio Estadounidense de Médicos el martes, debemos tener cuidado si tenemos pensado hacer preguntas sobre salud a un chatbot.

El informe analizaba el caso de un hombre que contrajo bromismo tras pedir consejos a ChatGPT sobre su alimentación.
El bromismo, o intoxicación por bromuro, era una enfermedad muy conocida a principios de la década de 1990, pero ahora es menos frecuente. En aquella época, las sales de bromuro se encontraban en muchos medicamentos de venta libre para tratar el insomnio, la histeria y la ansiedad. Ingerir demasiado bromuro puede causar síntomas neuropsiquiátricos y dermatológicos.
El hombre de este caso no tenía antecedentes psiquiátricos ni médicos, pero durante las primeras 24 horas de hospitalización manifestó un aumento de la paranoia y alucinaciones auditivas y visuales.
“Se lo notaba muy sediento pero paranoico con el agua que le ofrecían”, rezaba el informe del caso.
El hombre fue tratado con fluidos y electrolitos y lograron estabilizarlo clínicamente, por lo que pudieron ingresarlo en la unidad psiquiátrica del hospital.
A medida que su estado mejoraba, pudo compartir algunos síntomas que había notado, como la aparición de acné en el rostro y angiomas en cereza, los cuales eran un indicio mayor de que padecía bromismo.
También manifestó que llevaba tres meses reemplazando el cloruro de sodio, o sal de mesa, por bromuro de sodio, tras leer sobre los efectos negativos de la sal en la salud.
“Inspirado por sus estudios previos de nutrición en la universidad, decidió llevar a cabo un experimento personal para eliminar el cloruro [de sodio] de su alimentación”, explica el informe del caso.

Había sustituido la sal de mesa por “bromuro de sodio que consiguió en Internet luego de consultar con ChatGPT; en donde había leído que el cloruro puede reemplazarse por el bromuro, aunque probablemente con otros fines, como la limpieza”.
El hombre pasó tres semanas en el hospital hasta que logró recuperarse lo suficiente para recibir el alta.
“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de discutir los resultados de manera crítica y, en última instancia, alimentar la difusión de información errónea”, advierten los autores del informe.
Open AI, desarrollador de ChatGPT, admite en sus Condiciones de uso que los resultados del chatbot “pueden no ser siempre exactos”.
“No debe confiar en los Resultados de nuestros Servicios como única fuente de información veraz o real, ni como sustituto del asesoramiento profesional”, informan las Condiciones de uso.
Las Condiciones de servicio de la empresa también lo indican en forma explícita: “Nuestros Servicios no están pensados para su uso en el diagnóstico o tratamiento de ninguna condición de salud”.
Traducción de Martina Telo