Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

¿Son efectivos los chatbots de IA para dar consejos de salud? Lo que debes saber

Compañías advierten que sus programas no son un sustituto para la atención profesional

OpenAI planea lanzar su altavoz con inteligencia artificial en 2027

Con millones de personas ya recurriendo a los chatbots para obtener consejos, era previsible que las empresas tecnológicas comenzaran a ofrecer programas diseñados específicamente para responder preguntas de salud.

En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar historiales médicos, aplicaciones de bienestar y datos de dispositivos portátiles para abordar consultas de salud. Actualmente, existe una lista de espera para acceder al programa. Por su parte, Anthropic, una empresa rival de inteligencia artificial, ofrece funciones similares para algunos usuarios de su chatbot Claude.

Ambas compañías advierten que sus programas, conocidos como modelos de lenguaje grandes (LLM), no son un sustituto para la atención profesional y no deben utilizarse para diagnosticar afecciones médicas.

Más bien, sostienen que sus chatbots pueden resumir y explicar resultados de pruebas complejas, ayudar a preparar una visita al médico o analizar tendencias de salud importantes ocultas en los historiales médicos y las mediciones de las aplicaciones.

En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot
En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot (OpenAI vía AP))

A continuación se presentan algunos aspectos a tomar en cuenta antes de hablar con un chatbot sobre su salud:

Los chatbots pueden ofrecer información más personalizada que una búsqueda en Google

Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los consideran una mejora con respecto al statu quo.

Las plataformas de IA no son perfectas —en ocasiones dan malos consejos o alucinan (generan resultados engañosos o los inventan)—, pero la información que producen tiene más probabilidades de ser personalizada y específica que la que los pacientes podrían encontrar en una búsqueda en Google.

“La alternativa suele ser la nada, o que el paciente improvise sobre la marcha”, dijo el doctor Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Así que yo creo que si usted utiliza estas herramientas de forma responsable, me parece que puede obtener información útil”.

Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico.

Incluso si usted no le da acceso a la IA a su información médica, Wachter y otros recomiendan proporcionar a los chatbots la mayor cantidad posible de detalles para mejorar las respuestas.

Si presenta síntomas preocupantes, evite la IA

Wachter y otros también enfatizan que hay situaciones en las que las personas deberían evitar utilizar un chatbot y, en su lugar, buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso podrían ser un indicio de una emergencia médica.

Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA con “un cierto grado de escepticismo saludable”, expuso el doctor Lloyd Minor de la Universidad de Stanford.

“Si se trata de una decisión médica importante, o incluso de una decisión menor sobre su salud, usted nunca debería apoyarse únicamente en lo que obtiene de un modelo de lenguaje grande”, agregó Minor, quien es decano de la facultad de Medicina de Stanford.

Tome en cuenta su privacidad antes de subir datos de salud

Muchos de los beneficios que ofrecen los chatbots de IA se deben a que los usuarios les comparten información médica personal. Sin embargo, es importante tener en cuenta que cualquier información compartida con una empresa de IA no está protegida por la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA, por sus siglas en inglés) de Estados Unidos, que suele regir la información médica confidencial.

La HIPAA permite multas e incluso penas de prisión para médicos, hospitales, aseguradoras u otros servicios de salud que divulguen historiales médicos. No obstante, la ley no es aplicable a las empresas que programan chatbots.

“Cuando alguien sube su historial médico en un modelo de lenguaje grande, eso es muy diferente a entregárselo a un médico nuevo”, apuntó Minor. “Los consumidores necesitan comprender que son estándares de privacidad completamente diferentes”.

Tanto OpenAI como Anthropic manifiestan que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben aceptar compartir su información y pueden desconectarse en cualquier momento.

Las pruebas muestran que los chatbots pueden presentar dificultades

A pesar del entusiasmo en torno a la IA, las pruebas independientes de la tecnología se encuentran en sus primeras etapas. Estudios preliminares sugieren que programas como ChatGPT pueden aprobar exámenes médicos de alto nivel, pero a menudo presentan dificultades cuando interactúan con humanos.

Un estudio reciente con 1.300 participantes, realizado por la Universidad de Oxford, reveló que quienes usaban chatbots de IA para investigar afecciones hipotéticas no tomaban mejores decisiones que quienes realizaban búsquedas en línea o utilizaban su propio criterio.

Los chatbots de IA a los que se les presentaron escenarios médicos de forma exhaustiva y por escrito identificaron correctamente la afección subyacente el 95% de las veces.

“Ese no fue el problema”, dijo Adam Mahdi, el autor principal, del Oxford Internet Institute. “El punto donde las cosas se vinieron abajo fue durante la interacción con los participantes reales”.

Mahdi y su equipo encontraron varios problemas de comunicación. A menudo, los usuarios no proporcionaban a los chatbots la información necesaria para identificar correctamente el problema de salud. Por el contrario, con frecuencia los sistemas de IA respondieron con una combinación de información buena y mala, y los usuarios tuvieron dificultades para distinguir entre ambas.

El estudio, realizado en 2024, no utilizó las versiones más recientes de chatbots, incluidas nuevas ofertas como ChatGPT Health.

Una segunda opinión de IA puede ser útil

La capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área en la que Wachter ve margen de mejoría.

“Creo que es entonces cuando esto mejorará realmente, cuando las herramientas se vuelvan un poco más clínicas en su forma de interactuar con los pacientes”, señaló Wachter.

Por ahora, una forma de sentirse más confiado con la información que recibe es consultar a varios chatbots, algo similar a obtener una segunda opinión de otro médico.

“A veces introduzco información en ChatGPT e información en Gemini”, narró Wachter, en referencia a la herramienta de inteligencia artificial de Google. “Y cuando ambos coinciden, me siento un poco más seguro de que esa es la respuesta correcta”.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in