Aumenta el uso de inteligencia artificial como terapeutas y expertos se preocupan

La búsqueda de apoyo emocional mediante inteligencia artificial se ha convertido en un fenómeno global en rápido crecimiento, sin precedentes claros.
Hoy en día, millones de personas recurren a chatbots y aplicaciones digitales para tratar ansiedad, depresión, conflictos de pareja o pensamientos intrusivos, en un contexto donde los sistemas de salud mental están saturados y la terapia tradicional todavía enfrenta estigmas.
No obstante, especialistas advierten que esta expansión acelerada plantea dilemas éticos, clínicos y de seguridad.
¿Puede una IA desempeñarse como terapeuta?
Según un análisis de MIT Technology Review, el auge de los llamados “terapeutas de inteligencia artificial” ha permitido un acceso más amplio a formas básicas de acompañamiento psicológico, aunque también ha generado riesgos significativos.
Se trata de un experimento a gran escala en el que los beneficios que reportan algunos usuarios conviven con fallos preocupantes y posibles consecuencias negativas. La necesidad de alternativas accesibles es innegable: la OMS indica que más de 1.000 millones de personas viven con algún trastorno de salud mental, con aumentos notorios de ansiedad y depresión, sobre todo en jóvenes.
Plataformas como ChatGPT de OpenAI, Claude de Anthropic y aplicaciones como Wysa o Woebot concentran millones de usuarios que buscan apoyo inmediato, gratuito y disponible las 24 horas.
Riesgos de la IA como sustituto de la terapia
El problema surge cuando estas herramientas, originalmente pensadas para conversación o entretenimiento, se usan como reemplazo de la terapia profesional.
La American Psychological Association (APA) advierte que no se puede evitar que las personas hablen con chatbots sobre su salud mental, pero sí es fundamental informar sobre los riesgos. La doctora Vaile Wright, directora sénior de innovación en atención médica de la APA, señaló que la prioridad es que “los consumidores conozcan los riesgos que implica usar chatbots para salud mental y conductual que no fueron diseñados para ello”.
Uno de los datos más alarmantes lo compartió en octubre de 2025 el CEO de OpenAI, Sam Altman: el 0,15 % de los usuarios de ChatGPT —aproximadamente un millón por semana— compartían ideas suicidas a través de la plataforma. Aunque existen protocolos de seguridad, expertos advierten que las respuestas pueden ser impredecibles o insuficientes en situaciones críticas.
La psicóloga Marilyn Wei, formada en Yale y Harvard, explicó en Psychology Today que estudios muestran que la IA ofrece un menor porcentaje de respuestas adecuadas que los humanos, puede reforzar estigmas y no está diseñada para cuestionar patrones de pensamiento dañinos. Además, la disponibilidad constante “puede empeorar los pensamientos obsesivos” y los sistemas no están preparados para manejar riesgos graves.
A estas preocupaciones se suma la privacidad. El periodista Daniel Oberhaus advirtió sobre el fenómeno del “asilo algorítmico”, donde los usuarios entregan datos muy sensibles de su salud mental a sistemas opacos. “La lógica de la inteligencia artificial psiquiátrica apunta hacia un futuro en el que todos podríamos quedar atrapados bajo vigilancia digital, sin posibilidad de escape”, alertó.
El investigador Eoin Fullam, citado por MIT Technology Review, añadió que el modelo de negocio de estas plataformas convierte al usuario en una fuente de datos explotables: “Cuanto más beneficio percibe el usuario, mayor es la explotación que experimenta”.
ENFERMEDADES: Explican cómo las células madre aprenden a llegar al cerebro para tratar el ictus
Algunas partes del cuerpo se recuperan rápidamente de lesiones; por ejemplo, la córnea, la capa protectora externa del ojo, puede sanar pequeños rasguños en apenas un día. Sin embargo, el cerebro no cuenta con esa capacidad de regeneración rápida. Las neuronas adultas -- leer más
Noticias del tema