ChatGPT puede ser un corrector de textos, un agente de viajes, un asistente de programación, un compañero para generar ideas, un tutor, un creador de recetas, un coach profesional, un traductor de idiomas, un planificador de ejercicios… y, cada vez más, un terapeuta. Aunque puede sonar sorprendente, tiene sentido. La terapia puede ser cara, las esperas son largas y ChatGPT ofrece respuestas instantáneas y sin juicios. Pero, ¿realmente ayuda? ¿Es seguro? Hablamos con expertos para averiguarlo.
Cada vez más personas utilizan ChatGPT para apoyo emocional de manera orgánica, sin buscar una aplicación de salud mental específica, simplemente conversando. Para algunos, comienza como una charla casual y se convierte en un apoyo emocional más profundo. Muchos han empezado a ver a ChatGPT como un confidente o incluso como un sustituto de la terapia.
Los profesionales de la salud mental reconocen su atractivo. “Las herramientas de IA pueden ofrecer sugerencias para llevar un diario y orientación emocional, lo que puede ser un buen punto de partida y reducir el estigma de buscar apoyo”, dice Joel Frank, psicólogo clínico. La IA es accesible y anónima, lo que resulta atractivo para quienes han dudado en abrirse a un terapeuta.
Una de las mayores ventajas de la terapia con IA es su disponibilidad. Chatbots como ChatGPT están disponibles las 24 horas, brindando apoyo cuando se necesita. Además, la naturaleza sin juicios de las interacciones con la IA permite que algunas personas se sientan más cómodas al abrirse. La terapia con IA es accesible y económica, lo que la convierte en una opción viable para quienes encuentran difícil acceder a la terapia tradicional.
Investigaciones han comenzado a resaltar la efectividad de la terapia con IA, especialmente en enfoques estructurados como la Terapia Cognitivo-Conductual (TCC). Un estudio de 2024 encontró que la terapia con chatbots tuvo un impacto positivo en la depresión y la ansiedad después de solo ocho semanas. Sin embargo, los investigadores enfatizan la necesidad de más estudios para comprender los resultados a largo plazo y garantizar la integración segura de los chatbots en la atención de salud mental.
A pesar de las promesas, existen riesgos y limitaciones. La IA carece del conocimiento, la experiencia y la formación de un terapeuta humano. No puede escuchar ni empatizar de manera profunda. Esto puede llevar a problemas, ya que las respuestas de un chatbot pueden a veces hacer más daño que bien. Además, la IA puede generar información errónea, lo que en situaciones de crisis podría ser peligroso.
La privacidad también es una preocupación. Los terapeutas siguen pautas éticas estrictas, mientras que la IA puede almacenar y analizar datos de los usuarios, lo que plantea riesgos significativos. “Los usuarios deben ser conscientes de la información personal que comparten”, advierte Elreacy Dock.
Las conversaciones sobre salud mental son complejas y cada persona tiene diferentes necesidades. No se puede afirmar que toda la terapia con IA sea mala. Algunas personas encuentran valor en ella. Sin embargo, los expertos sugieren que debemos ver la IA como una herramienta complementaria, no como un sustituto de la terapia. “La IA puede ser útil”, dice Dock, “pero la sanación más poderosa ocurre en las relaciones humanas”.