Saltar al contenido

¿Puede la IA sustituir a un terapeuta? Comprendiendo los riesgos y la realidad

En los últimos meses, cada vez aparecen más titulares sobre el uso de chatbots de inteligencia artificial (IA) como apoyo para la salud mental. Estas herramientas pueden parecer atractivas: están disponibles las 24 horas del día, son económicas y fáciles de acceder. Algunas personas incluso encuentran consuelo en poder “hablar” de sus preocupaciones en cualquier momento.

Pero los expertos en salud mental están señalando riesgos importantes sobre si los compañeros de IA o los llamados “terapeutas de IA” son realmente seguros, y si pueden ofrecer lo que una conexión humana y un cuidado profesional sí aportan.


Por qué la gente recurre a la IA en busca de apoyo

Para muchos, la promesa de un chatbot de IA es la comodidad. Siempre está ahí, no juzga, y a veces resulta más fácil abrirse que con otra persona. Incluso hay estudios que sugieren que los chatbots pueden ayudar con la ansiedad leve, el bajo estado de ánimo o la creación de hábitos saludables.

Pero junto a estos aspectos positivos, aumentan las advertencias sobre los riesgos.


Los riesgos que señalan los expertos

Los terapeutas y psiquiatras observan que el uso frecuente de chatbots puede llevar a:

  • Dependencia emocional – sentir que no se pueden tomar decisiones, ni siquiera pequeñas, sin “consultarlo” con el chatbot.
  • Refuerzo de creencias dañinas – la IA tiende a validar lo que diga la persona, incluso si parte de un malentendido o de un pensamiento delirante.
  • Autodiagnóstico erróneo – los chatbots pueden sugerir condiciones como TDAH o trastornos de personalidad sin contexto, influyendo negativamente en la autoimagen.
  • Consejos peligrosos – se han documentado casos de chatbots que animan a realizar conductas dañinas o que no responden de manera adecuada ante señales de crisis.

Algunos profesionales incluso han tratado a personas que desarrollaron síntomas psicóticos junto con un uso intensivo de chatbots. Esto no significa que la IA causa directamente la enfermedad, pero sí puede amplificar vulnerabilidades existentes al generar un bucle en el que “la realidad deja de poner límites”.


Consecuencias reales

Por desgracia, se han dado casos en los que jóvenes en situación de crisis recibieron respuestas inseguras de chatbots, con resultados devastadores. Esto ha dado lugar a demandas judiciales, investigaciones regulatorias y cambios en la manera en que algunas empresas gestionan las conversaciones sensibles.

Varios estados de EE. UU., como Illinois, Nevada y Utah, ya han aprobado leyes que impiden a los chatbots presentarse como terapeutas sin supervisión profesional. Otros estados están preparando normas similares, y organizaciones profesionales reclaman mayores garantías.


Por qué importa la regulación

En este momento, muchas aplicaciones de IA funcionan en una especie de “zona gris” legal. Algunas se promocionan como herramientas de bienestar en lugar de dispositivos médicos, lo que significa que no están sujetas a los mismos estándares de seguridad o responsabilidad que la atención profesional.

Los expertos temen que, sin supervisión adecuada, las personas más vulnerables queden expuestas a riesgos —como sufrir un “duelo ambiguo” cuando una app se cierra, o quedar atrapadas en ciclos de dependencia poco saludables.


Lo que aporta un terapeuta humano

A diferencia de la IA, los terapeutas aportan matices, empatía y responsabilidad. Están formados para detectar señales sutiles, cuestionar pensamientos poco útiles y ofrecer un espacio seguro y confidencial donde sentirse escuchado. Además, trabajan con normas éticas y de supervisión diseñadas para protegerte.

La IA puede tener un papel limitado —por ejemplo, como herramienta educativa o como complemento—, pero nunca puede sustituir a la conexión humana que constituye el núcleo de una terapia eficaz.


Qué significa esto para ti

Si sientes curiosidad por las herramientas de IA, está bien explorarlas, pero conviene hacerlo con cuidado:

  • No recurras a la IA en una situación de crisis. Si corres peligro inmediato, pide ayuda a alguien de confianza o llama a emergencias.
  • Si usas IA, hazlo solo como complemento, no como sustituto de la terapia profesional.
  • Ten en cuenta que la información que ofrece puede ser incorrecta o incluso dañina.
  • Si notas que dependes del chatbot para tomar decisiones o sentirte seguro, puede ser el momento de buscar ayuda con un terapeuta.

No tienes que afrontarlo en soledad

En Terapia con Jo creo que la conexión humana es lo que realmente ayuda a sanar y crecer. Si estás lidiando con ansiedad, bajo estado de ánimo, dificultades en tus relaciones o cualquier otra preocupación, estoy aquí para escucharte y acompañarte en un entorno seguro y comprensivo.

Si has probado chatbots de IA y no te han ayudado, o incluso te han inquietado, no estás solo. Muchas personas están descubriendo sus límites. Hablar con un profesional cualificado puede darte la guía, la empatía y el arraigo en la realidad que la tecnología no puede ofrecer.


Mereces un cuidado que te vea de verdad, no solo tus palabras en una pantalla. Si quieres explorar la terapia conmigo, ponte en contacto hoy mismo.


Soporte en España:

Correo: ayuda@telefonodelaesperanza.org

Llamar al Teléfono de la Esperanza al l 717 00 37 17

https://telefonodelaesperanza.org/contacto

Fuentes:

https://www.theguardian.com/society/2025/aug/30/therapists-warn-ai-chatbots-mental-health-support#:~:text=%E2%80%9CThe%20main%20risks%20are%20around,and%20assisted%20dying%2Drelated%20content.

https://www.theguardian.com/technology/2025/aug/27/chatgpt-scrutiny-family-teen-killed-himself-sue-open-ai

https://www.nature.com/articles/s42256-025-01093-9

https://www.theguardian.com/technology/2025/may/07/experts-warn-therapy-ai-chatbots-are-not-safe-to-use

https://edition.cnn.com/2025/08/27/health/ai-therapy-laws-state-regulation-wellness

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *