Lo que conviene saber antes de pedir consejos de salud a un chatbot de IA

Ahora que cientos de millones de personas recurren a chatbots para solicitarles consejos, era cuestión de tiempo antes de que las empresas tecnológicas comenzaran a ofrecer programas diseñados específicamente para responder preguntas de salud.
En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que la empresa dice que puede analizar los historiales médicos de los usuarios, las apps de bienestar y los datos de los dispositivos portátiles para responder a preguntas médicas y de salud. Actualmente hay una lista de espera para obtener el programa. Anthropic, una empresa rival de inteligencia artificial, ofrece funciones similares para algunos usuarios de su chatbot Claude.
Ambas compañías advierten que sus programas, conocidos como modelo de lenguaje grande (LLM, por sus siglas en inglés), no son un substituto para la atención profesional y no deben utilizarse para diagnosticar afecciones médicas. Más bien, mantienen que sus chatbots pueden resumir y explicar resultados de pruebas complejas, ayudar a prepararse para una visita al médico o analizar tendencias de salud importantes ocultas en los historiales médicos y las mediciones de las aplicaciones.
A continuación se presentan algunos aspectos a tomar en cuenta antes de hablar con un chatbot sobre su salud:
Los chatbots pueden ofrecer información más personalizada que una búsqueda en Google
Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los consideran una mejora con respecto al statu quo.
Las plataformas de IA no son perfectas —en ocasiones dan malos consejos o alucinan (generan resultados engañosos o los inventan)—, pero la información que producen tiene más probabilidades de ser personalizada y específica que la que los pacientes podrían encontrar en una búsqueda en Google.
“La alternativa suele ser la nada, o que el paciente improvise sobre la marcha”, dijo el doctor Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Así que yo creo que si usted utiliza estas herramientas de forma responsable, me parece que puede obtener información útil”.
Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico.
Incluso si usted no le da acceso a la IA a su información médica, Wachter y otros recomiendan proporcionar a los chatbots la mayor cantidad posible de detalles para mejorar las respuestas.
Si presenta síntomas preocupantes, evite la IA
Wachter y otros también enfatizan que hay situaciones en las que las personas deberían evitar utilizar un chatbot y, en su lugar, buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso podrían ser un indicio de una emergencia médica.
Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA con “un cierto grado de escepticismo saludable”, expuso el doctor Lloyd Minor de la Universidad de Stanford.
“Si se trata de una decisión médica importante, o incluso de una decisión menor sobre su salud, usted nunca debería apoyarse únicamente en lo que obtiene de un modelo de lenguaje grande”, agregó Minor, quien es decano de la facultad de Medicina de Stanford.
Tome en cuenta su privacidad antes de subir datos de salud
Muchos de los beneficios que ofrecen los chatbots de IA se deben a que los usuarios les comparten información médica personal. Sin embargo, es importante tener en cuenta que cualquier información compartida con una empresa de IA no está protegida por la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA, por sus siglas en inglés) de Estados Unidos, que suele regir la información médica confidencial.
La HIPAA permite multas e incluso penas de prisión para médicos, hospitales, aseguradoras u otros servicios de salud que divulguen historiales médicos. No obstante, la ley no es aplicable a las empresas que programan chatbots.
“Cuando alguien sube su historial médico en un modelo de lenguaje grande, eso es muy diferente a entregárselo a un médico nuevo”, apuntó Minor. “Los consumidores necesitan comprender que son estándares de privacidad completamente diferentes”.
Tanto OpenAI como Anthropic manifiestan que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben aceptar compartir su información y pueden desconectarse en cualquier momento.
Las pruebas muestran que los chatbots pueden presentar dificultades
A pesar del entusiasmo en torno a la IA, las pruebas independientes de la tecnología se encuentran en sus primeras etapas. Estudios preliminares sugieren que programas como ChatGPT pueden aprobar exámenes médicos de alto nivel, pero a menudo presentan dificultades cuando interactúan con humanos.
Un estudio reciente con 1.300 participantes, realizado por la Universidad de Oxford, reveló que quienes usaban chatbots de IA para investigar afecciones hipotéticas no tomaban mejores decisiones que quienes realizaban búsquedas en línea o utilizaban su propio criterio.
Los chatbots de IA a los que se les presentaron escenarios médicos de forma exhaustiva y por escrito identificaron correctamente la afección subyacente el 95% de las veces.
“Ese no fue el problema”, dijo Adam Mahdi, el autor principal, del Oxford Internet Institute. “El punto donde las cosas se vinieron abajo fue durante la interacción con los participantes reales”.
Mahdi y su equipo encontraron varios problemas de comunicación. A menudo, los usuarios no proporcionaban a los chatbots la información necesaria para identificar correctamente el problema de salud. Por el contrario, con frecuencia los sistemas de IA respondieron con una combinación de información buena y mala, y los usuarios tuvieron dificultades para distinguir entre ambas.
El estudio, realizado en 2024, no utilizó las versiones más recientes de chatbots, incluidas nuevas ofertas como ChatGPT Health.
Una segunda opinión de IA puede ser útil
La capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área en la que Wachter ve margen de mejoría.
“Creo que es entonces cuando esto mejorará realmente, cuando las herramientas se vuelvan un poco más clínicas en su forma de interactuar con los pacientes”, señaló Wachter.
Por ahora, una forma de sentirse más confiado con la información que recibe es consultar a varios chatbots, algo similar a obtener una segunda opinión de otro médico.
“A veces introduzco información en ChatGPT e información en Gemini”, narró Wachter, en referencia a la herramienta de inteligencia artificial de Google. “Y cuando ambos coinciden, me siento un poco más seguro de que esa es la respuesta correcta”.
——-
El Departamento de Salud y Ciencia de The Associated Press recibe apoyo del Departamento de Educación Científica del Instituto Médico Howard Hughes y de la Fundación Robert Wood Johnson. La AP es la única responsable de todo el contenido.






Bookmark popover
Removed from bookmarks