"Una respuesta segura no es lo mismo que una respuesta correcta". Pregunté a expertos médicos si se debería utilizar ChatGPT para obtener consejos sobre salud, y sus respuestas me sorprendieron
La IA está cambiando la forma en que las personas buscan información sobre salud, pero es fácil pasar por alto los riesgos
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
Cada vez más personas recurren a ChatGPT y otras herramientas de IA para obtener consejos sobre salud. Las utilizan para interpretar los síntomas, descifrar cartas médicas, comprender diagnósticos, buscar tranquilidad antes de las citas y preparar preguntas para los médicos.
Este cambio no es sorprendente. La gente siempre ha buscado información sobre salud en Internet, pero las herramientas de IA son diferentes. Son conversacionales, personalizadas, siempre están disponibles y, a menudo, sus respuestas suenan seguras. Muchos de los mismos factores que impulsan el interés por la IA para la terapia están ahora determinando cómo la gente la utiliza para la salud.
Pero su uso en el ámbito de la salud conlleva riesgos reales. Hablé con expertos en salud sobre cómo la gente utiliza las herramientas de IA, en qué casos pueden ser realmente útiles y en qué casos pueden crear confusión, falsas garantías o incluso daños.
¿Cómo se utiliza la IA en el ámbito de la salud?
Los proveedores de servicios de salud deben asumir ahora que cualquier paciente que atiendan puede haber consultado ya a ChatGPT antes de acudir a la consulta.
Jennifer Hinkel, consultora de salud y presidenta de Signa Sciences.
"El uso de la IA es omnipresente", afirma Jennifer Hinkel, consultora sanitaria y presidenta de Signa Sciences. "Los profesionales sanitarios deben asumir ahora que cualquier paciente que atiendan puede haber consultado ya a ChatGPT antes de acudir a la consulta, y que volverá a consultarlo después de marcharse".
He visto muchas afirmaciones de que ChatGPT es ahora el primer recurso al que se acude para preguntas sobre salud, pero ¿qué es lo que la gente pregunta realmente? "Vemos que los pacientes lo utilizan principalmente para preguntas sobre sus medicamentos, síntomas y para leer sobre sus diagnósticos", afirma Ranya Habash, doctora en medicina y directora médica de Helfie AI.
Es cierto que la gente siempre ha utilizado Internet para buscar consejos sobre salud y ha buscado sus síntomas en Google. Pero con la IA, las cosas son diferentes. Los pacientes utilizan ChatGPT en gran medida como una versión más conversacional de Google. "ChatGPT resulta más personal porque responde con patrones de lenguaje natural", afirma Habash. "Suena como un amigo y transmite confianza".
Es fácil entender por qué una herramienta como ChatGPT resulta tan atractiva. Suena amigable, se basa en una gran cantidad de información y es muy accesible. Muchas personas ya la utilizan para el trabajo, la planificación y el asesoramiento personal, por lo que hacer algunas preguntas relacionadas con la salud puede parecer una extensión natural de cómo la utilizan a diario, en lugar de una decisión deliberada de adoptar una nueva aplicación o plataforma de salud.
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
¿Dónde la IA puede ayudar realmente?
"Es realmente valioso que los pacientes puedan mantener lo que parece una conversación privada sobre cuestiones de salud con una máquina que ha sido programada para ser "útil" y mostrar "atención"", afirma Hinkel.
También cree que hay algo reconfortante en tener acceso constante a la información. "Ya sea a las dos de la madrugada o entre las nueve de la mañana y las cinco de la tarde, la gente puede obtener respuestas", me dice. "Sabemos que los resultados de salud son mejores cuando los pacientes están informados y comprometidos con su salud, por lo que si ChatGPT les ayuda a conseguirlo, lo considero un impacto positivo".
Ambos expertos coincidieron en que, si se utilizan con cuidado, herramientas como ChatGPT pueden ayudar a las personas a sentirse más informadas y comprometidas con su propia salud. "En la mayoría de los casos, que los pacientes dispongan de más información es útil y va en consonancia con la mejora de los resultados de salud", afirma Hinkel. "Cuando los pacientes comprenden mejor su salud, son más capaces de adoptar comportamientos que les ayudan a mantenerse sanos".
Hablé con varias personas que utilizan habitualmente herramientas de IA para obtener consejos sobre salud y se hicieron eco de esta opinión. Sophie (cuyo nombre ha sido cambiado aquí) me contó que ha confiado en ChatGPT durante el inicio de su embarazo, especialmente después de una ecografía estresante a la que acudió sola.
"Subir mis notas y obtener explicaciones sobre todo fue muy útil y tranquilizador", afirmó. "En ese momento no comprendí realmente lo que me decían los médicos. Lo que me ha ayudado ha sido el marco emocional posterior". También comentó que había recurrido a ChatGPT para las citas de seguimiento, lo que le proporcionó orientación sobre qué esperar y qué información importante debía comunicar.
Habash está de acuerdo en que esta función de "traductor" es donde la IA destaca. "Puede convertir la jerga médica en lenguaje sencillo", afirma. "Eso ayuda a los pacientes y también a los médicos. Queremos asegurarnos de que nuestros pacientes comprendan bien sus afecciones".
Los daños que preocupan a los expertos
No estamos democratizando la información si solo las personas que saben cómo preguntar obtienen respuestas completas.
Jennifer Hinkel, consultora de salud y presidenta de Signa Sciences.
Las mismas características que hacen que las herramientas de IA sean atractivas, como la confianza, la fluidez y la seguridad, son también las que pueden entrañar algunos peligros.
«Veo algunos riesgos importantes», me dice Hinkel. El primero es que la calidad de la información depende en gran medida de cómo se formulen las preguntas. «La exhaustividad de la información está relacionada con la sofisticación de la pregunta», explica. «No estamos democratizando la información si solo las personas que saben cómo preguntar obtienen respuestas completas».
La idea de que se necesita una pregunta adecuada para obtener una respuesta útil surge una y otra vez con la IA. He visto a los llamados expertos en IA culpar a los usuarios por los malos resultados, argumentando que su estrategia de preguntas no es lo suficientemente buena, a menudo mientras intentan vender un curso o un marco para solucionarlo. Pero eso pasa por alto el verdadero problema. No lo veo como un fallo del usuario, sino como un desajuste entre cómo se nos vende la IA y cómo funciona realmente. Las herramientas de IA se venden como sistemas en los que "se puede preguntar cualquier cosa", sin mencionar las mejores prácticas a la hora de formular preguntas en el momento del registro, por lo que no tiene mucho sentido culpar a las personas por no conocer unas reglas que nunca se les han enseñado.
El segundo riesgo es más sencillo. Sabemos que las herramientas de IA se equivocan. A veces, mucho. Eso puede deberse a fuentes mal atribuidas, información desactualizada o alucinaciones, que es cuando un sistema presenta con seguridad información que no es cierta.
Esto puede ocurrir en todo tipo de contextos. Pero lo específico de la salud es que, aunque una IA puede recopilar grandes cantidades de información, no es un médico y no puede realizar un diagnóstico significativo.
Claire (cuyo nombre ha sido cambiado) me contó que notó un bulto en la nariz y, mientras esperaba para ver al dermatólogo, subió una foto a ChatGPT para preguntar qué podía ser. «Me dijo que era cáncer de piel o algo inofensivo», cuenta. «Lo cual no me sirvió de mucha ayuda».
"Cuando le pregunté: "¿crees que podría ser solo una verruga?", me respondió: "sí, podría ser una verruga". Así que ChatGPT no se ganó ningún punto como médico en ese caso", me cuenta.
Sabemos que el hecho de que ChatGPT esté de acuerdo con todo lo que le dice el usuario es un problema. Pero puede tener consecuencias más graves cuando se trata de la salud mental y física.
"Los consejos de la IA suenan amigables y seguros. Eso es una bendición y una maldición", dice Habash. "Una respuesta segura no es lo mismo que una respuesta correcta, y eso puede retrasar la atención médica".
Cuando se trata de diagnósticos, el contexto es importante, y es algo de lo que la IA a menudo carece. Esto se debe, en parte, a que un usuario no puede proporcionar de forma realista todos los detalles que un médico tendría en cuenta y, en parte, a que una IA no tiene un proceso de diagnóstico ni experiencia clínica vivida para saber qué señales son las más importantes.
"Los mismos síntomas pueden significar cosas muy diferentes dependiendo de la edad, el sexo y los factores de riesgo", explica Hinkel. "Pero la IA no conoce el riesgo subyacente a menos que sepa quién está preguntando".
Habash añade que los médicos integran los matices de forma instintiva. "El dolor torácico, los signos de accidente cerebrovascular, el dolor relacionado con el embarazo... todo ello depende del contexto, el examen y las mediciones. Una simple conversación no puede captar todo eso".
Ambos expertos expresaron su preocupación por la alfabetización sanitaria y la equidad. "Una menor alfabetización sanitaria probablemente te dará respuestas más superficiales", afirma Hinkel. "Aquellos que ya comprenden su afección y saben qué preguntar pueden beneficiarse. Los que están realmente confundidos pueden quedarse atrás". Eso crea una división preocupante si las herramientas de IA se posicionan como un atajo para acceder a una mejor atención médica.
Habash también señaló la ansiedad y las enfermedades crónicas como factores de riesgo. "Las personas con afecciones superpuestas y múltiples medicamentos corren más riesgo con los consejos genéricos. Una respuesta segura puede parecer más definitiva de lo que es".
Qué hay que tener en cuenta si se utiliza la IA para la salud
Los expertos sugieren tratar la IA como una herramienta de apoyo, no como un sustituto, y ser consciente de cómo se utiliza.
Comprender cómo funcionan
No es necesario saber mucho. Solo que la IA a menudo suena segura (incluso cuando no lo es) y se basa en grandes cantidades de información. Hinkel afirma que es importante ser consciente de que herramientas como ChatGPT suelen ofrecer información basada en la frecuencia. "Si algo aparece a menudo en los datos de entrenamiento, puede que aparezca en los primeros puestos", advierte, "incluso si es incorrecto".
Compruebe si hay consejos obsoletos.
Del mismo modo, es útil recordar que las herramientas de IA aprenden a partir de información que puede ser muy antigua. A menudo también hay puntos de corte en los datos de entrenamiento, lo que significa que incluso parte de la información más reciente que tiene puede ser de hace unos meses y puede que ya no refleje los estándares de atención actuales. "La puntualidad es importante en materia de salud", afirma Hinkel.
Haga mejores preguntas, pero manténgase alerta
Proporcionar más detalles en sus indicaciones iniciales puede ayudar, pero ni siquiera los trucos de las indicaciones son una red de seguridad. "Verifique todo", dice Hinkel.
Tenga en cuenta la privacidad
No sabemos con absoluta certeza cómo las empresas de IA están utilizando actualmente sus datos o cómo podrían utilizarlos en el futuro. Pero vale la pena detenerse a pensar si se siente cómodo compartiendo información muy sensible sobre su salud.
Utiliza la IA para tareas de menor riesgo.
Habash recomienda utilizar herramientas de IA para obtener consejos sobre dieta, ejercicio, alivio del estrés y comprensión de pruebas o medicamentos, pero no para cambios en el diagnóstico o el tratamiento.
Presta atención a tu cuerpo.
Y lo más importante, no antepongas los consejos de ChatGPT a tu propio instinto. "Si un síntoma es repentino, grave o empeora, es tu cuerpo el que te está diciendo que busques ayuda", afirma Habash.
Becca is a contributor to TechRadar, a freelance journalist and author. She’s been writing about consumer tech and popular science for more than ten years, covering all kinds of topics, including why robots have eyes and whether we’ll experience the overview effect one day. She’s particularly interested in VR/AR, wearables, digital health, space tech and chatting to experts and academics about the future. She’s contributed to TechRadar, T3, Wired, New Scientist, The Guardian, Inverse and many more. Her first book, Screen Time, came out in January 2021 with Bonnier Books. She loves science-fiction, brutalist architecture, and spending too much time floating through space in virtual reality.
- Antonio QuijanoEditor
