¿Puede ChatGPT sustituir realmente a un terapeuta? Hemos hablado con expertos en salud mental para averiguarlo
La terapia por IA está de moda, pero ¿puede ChatGPT ayudar realmente a tu salud mental?

ChatGPT puede ser un corrector de exámenes, un agente de viajes, un asistente de codificación, un compañero de lluvia de ideas, un tutor, un creador de recetas, un orientador profesional, un traductor de idiomas, un planificador de ejercicios... y, cada vez más, un terapeuta.
Puede parecer sorprendente al principio, pero tiene sentido. La terapia es cara, las esperas largas, y ChatGPT ofrece respuestas instantáneas y sin juicios. Pero, ¿ayuda realmente? ¿Y es seguro? Hemos hablado con expertos para averiguarlo.
Por qué la gente utiliza ChatGPT como terapia
Ya existen herramientas dedicadas a la terapia de IA como Woebot y Wysa, pero muchas personas recurren a ChatGPT para obtener apoyo de forma orgánica, sin buscar una aplicación de salud mental, sino simplemente chateando.
Para algunos, empieza como una conversación casual y poco a poco se convierte en un apoyo emocional más profundo. Muchas personas han empezado a confiar en ChatGPT como confidente, entrenador o incluso sustituto de la terapia.
Los profesionales de la salud mental reconocen su atractivo. «Las herramientas de IA pueden ofrecer indicaciones para escribir un diario y orientación emocional, que pueden ser puntos de partida útiles y reducir el estigma en torno a la búsqueda de apoyo», afirma Joel Frank, psicólogo clínico que dirige Duality Psychological Services.
Por encima de todo, la IA es accesible y anónima, cualidades que la hacen especialmente atractiva para cualquiera que haya dudado en abrirse a un terapeuta, o a cualquiera, en el pasado.
«Cada vez es más frecuente que las personas den el paso inicial hacia el apoyo a la salud mental a través de la IA en lugar de un terapeuta humano», afirma Elreacy Dock, tanatóloga, educadora certificada en duelo y consultora de salud conductual.
Obtenga información, inspiración y ofertas diarias en su bandeja de entrada
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
Cómo puede ayudar la terapia por IA y dónde funciona mejor
Una de las mayores ventajas de la terapia de IA es la disponibilidad. Los chatbots como ChatGPT son accesibles 24/7, proporcionando apoyo siempre que alguien lo necesite.
Otra gran ventaja es la naturaleza libre de juicios de las interacciones de la IA. Algunas personas se sienten más cómodas abriéndose a un chatbot porque tienen menos miedo de lo que un terapeuta de la vida real pueda pensar de ellas.
Y lo que es más importante, la terapia con IA es accesible y barata. Muchos de nosotros sabemos muy bien que la terapia tradicional puede ser cara y conlleva largos tiempos de espera, o ambas cosas, lo que hace cada vez más difícil acceder a la ayuda en salud mental. La IA, en cambio, ofrece conversaciones inmediatas y sin coste alguno.
La investigación ha empezado a destacar la eficacia de la terapia con IA, sobre todo en enfoques estructurados como la terapia cognitivo-conductual (TCC), que sigue técnicas claras y bien establecidas. «Las herramientas de terapia de IA pueden ayudar a los usuarios a realizar ejercicios de atención plena y estrategias de afrontamiento», afirma Frank.
Un estudio de 2024 con 3.477 participantes descubrió que la terapia con chatbot de IA tenía un impacto positivo en la depresión y la ansiedad tras solo ocho semanas de tratamiento. Del mismo modo, una revisión y metaanálisis de 35 estudios de 2023 reveló que las herramientas basadas en IA -denominadas agentes conversacionales (AC) en el estudio- reducían significativamente los síntomas de depresión y angustia.
Las primeras pruebas son prometedoras, pero los investigadores subrayan la necesidad de realizar más estudios para comprender mejor los resultados a largo plazo y garantizar la integración segura de los chatbots en la atención a la salud mental. Porque, aunque está claro que hay potencial, sigue habiendo grandes preocupaciones.
Los riesgos y limitaciones de la terapia ChatGPT
Una de las mayores limitaciones es que la IA carece de los conocimientos, la experiencia y la formación de un terapeuta real. Además, carece de inteligencia emocional, es decir, de la capacidad de escuchar, empatizar y responder de forma profundamente humana. Un terapeuta puede reconocer señales emocionales sutiles, ajustar su enfoque en tiempo real y construir una relación terapéutica genuina, que son esenciales para un tratamiento eficaz de la salud mental.
«Comprender un modelo terapéutico y aplicarlo son dos cosas distintas», afirma Becky DeGrosse, terapeuta de Counseling Wise. DeGrosse experimentó con la formación de ChatGPT para emular a Dick Schwartz, el fundador de la terapia de Sistemas Familiares Internos (IFS), y aunque algunas respuestas fueron sorprendentemente perspicaces, en última instancia la experiencia le pareció deficiente.
«La terapia IFS requiere que el terapeuta sintonice profundamente con lo que ocurre en el sistema interno del cliente», explica. «La eficacia de la terapia depende de la capacidad del terapeuta para leer las señales corporales y aportar una presencia genuina, para que el cliente no esté solo en su viaje de curación. La IA, a pesar de sus capacidades, carece de este elemento humano esencial».
Esto tiene sentido. ChatGPT se entrena con grandes cantidades de datos de texto y se le pueden dar instrucciones para que asuma distintos papeles, pero no piensa, siente ni entiende como un ser humano. Genera respuestas basadas en patrones de datos, no en la experiencia personal, las emociones o los años de formación profesional.
Esta falta de comprensión más profunda puede acarrear varios problemas. Como la salud mental es un tema muy delicado, las respuestas de un chatbot a veces pueden ser más perjudiciales que beneficiosas. La IA tiende a reflejar las emociones del usuario en lugar de cuestionar patrones de pensamiento poco útiles. Para alguien que lucha con problemas como la duda o la depresión, esto puede reforzar el pensamiento negativo en lugar de proporcionar nuevas perspectivas.
Otro problema importante es la desinformación. La IA puede «alucinar», lo que significa que puede generar información falsa o engañosa. En una situación de crisis, esto podría ser peligroso. Aunque no se conocen casos en los que ChatGPT haya causado daños directos en un contexto de salud mental, sí se ha informado de chatbots de carácter impulsados por IA implicados en muertes por suicidio. Aunque estos casos son diferentes, ponen de relieve la necesidad de ser precavidos a la hora de confiar en herramientas de IA para cualquier tipo de apoyo emocional.
La privacidad es otro motivo de preocupación. Los terapeutas siguen estrictas directrices éticas, incluidas normas de confidencialidad diseñadas para proteger a los clientes. La IA no lo hace. Los chatbots de IA pueden almacenar, analizar o incluso transmitir datos de los usuarios, lo que plantea importantes riesgos para la privacidad. «Los usuarios deben ser conscientes de la cantidad de información personal y sensible que comparten», advierte Elreacy Dock.
La IA como herramienta útil, no como sustituto
Las conversaciones sobre salud mental son complejas. Cada persona tiene necesidades, retos y barreras diferentes para acceder a la atención. Teniendo esto en cuenta, sería simplificar demasiado decir que todas las terapias de IA son malas.
Después de todo, parece que algunas personas le encuentran valor. Mientras investigábamos para este artículo, encontramos innumerables relatos personales de personas que utilizan con regularidad chatbots -a menudo ChatGPT- para hablar de sus problemas. Las herramientas de IA específicas para terapias también están en auge, lo que indica una creciente demanda de ayuda digital para la salud mental.
Pero los expertos sugieren que debemos cambiar de mentalidad. En lugar de ver la IA como un sustituto de la terapia, puede ser más útil verla como una herramienta complementaria.
«Creo que el papel más valioso de la IA en la terapia es como herramienta para ayudarnos a asociarnos con nuestra propia capacidad terapéutica, lo que algunos llaman 'sabiduría interior' o 'yo superior'», dice Becky DeGrosse. «Pero no podemos ceder las riendas por completo».
Los expertos recomiendan enfocar la terapia de IA como un recurso para la autorreflexión, llevar un diario o aprender sobre conceptos de salud mental, en lugar de utilizarla como sustituto. También sugieren comprobar los hechos, evitar confiar en los chatbots en una crisis y, lo más importante, equilibrar las interacciones de IA con las conexiones humanas del mundo real tanto como sea posible.
«Los chatbots de IA pueden ser útiles», dice Elreacy Dock. «Pero cuando se trata de salud mental, la curación más poderosa todavía ocurre en las relaciones humanas».
Más para ti....
Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?

He probado la nueva herramienta de generación de imágenes AI de Gemini: aquí tienes 5 formas de obtener el mejor arte de la próxima actualización de imágenes integradas de Google Flash 2.0

ChatGPT me echa una mano con mis hijos: aquí hay 5 consejos sobre cómo usar la IA para mantener a los niños entretenidos