Pros y contras del uso de chatbots con inteligencia artificial para el apoyo emocional

Pros y contras del uso de chatbots con inteligencia artificial para el apoyo emocional
Por: César Augusto GARCÍA AVITIA

En los últimos años, han surgido diversas aplicaciones y plataformas que ofrecen apoyo emocional mediante chatbots impulsados por inteligencia artificial (IA). Estos sistemas están diseñados para simular conversaciones humanas y brindar contención emocional, orientación básica o ejercicios de autorregulación emocional, como respiración consciente o reestructuración de pensamientos negativos. Aunque no sustituyen a un profesional de la salud mental, muchas personas los utilizan como un recurso accesible, rápido y anónimo ante momentos de angustia, ansiedad o soledad.

Algunas de las aplicaciones más conocidas a nivel global son Woebot, Wysa y Replika, y en el mundo de habla hispana encontramos a Yana. Estas herramientas han sido valoradas por su disponibilidad inmediata, funcionamiento 24/7 y por brindar un espacio libre de juicio para expresarse.

Desde la psicología y tomando un enfoque ético, es importante analizar tanto los beneficios como los riesgos de su uso. Entre los principales pros podemos señalar:

  • Accesibilidad: Muchas personas no pueden acceder a atención psicológica por falta de recursos, distancia geográfica o limitaciones de tiempo. Los chatbots pueden ser un primer contacto o una herramienta complementaria.
  • Inmediatez y anonimato: Permiten hablar de emociones sin esperar una cita y sin temor a ser juzgado, lo que puede facilitar la expresión emocional en personas que de otro modo no buscarían ayuda.
  • Promoción del autocuidado: Algunos sistemas guían al usuario con prácticas como mindfulness, registro emocional o técnicas de afrontamiento, lo que puede ser útil para el manejo cotidiano del estrés.

Sin embargo, también hay contras y límites que deben considerarse con atención:

  • No reemplazan la psicoterapia: Aunque pueden ofrecer contención o alivio momentáneo, no están diseñados para realizar intervenciones clínicas profundas ni para abordar problemas de salud mental complejos. Usarlos como único recurso puede retrasar la búsqueda de ayuda profesional.
  • Riesgos éticos y de privacidad: No siempre está claro cómo se almacenan los datos, qué uso se les da o si existen garantías sobre la confidencialidad. Esto puede vulnerar derechos básicos del usuario o usuaria.
  • Interacciones limitadas: Aunque los chatbots han avanzado mucho, siguen careciendo de la empatía real, el juicio clínico y la comprensión contextual que brinda un o una terapeuta. Esto puede generar frustración o respuestas inadecuadas ante situaciones delicadas.

Desde una perspectiva ética, el uso de estos sistemas plantea preguntas importantes: ¿Quién regula estos servicios? ¿Cómo se informa a los usuarios sobre sus límites? ¿Qué pasa si una persona en crisis depende únicamente de un bot?

En conclusión, los chatbots con inteligencia artificial pueden ser una herramienta útil como complemento, pero no deben entenderse como sustitutos del acompañamiento profesional humano. Si bien ofrecen ventajas como accesibilidad y disponibilidad, es fundamental usarlos con conciencia de sus alcances y limitaciones. En situaciones de crisis emocional, síntomas persistentes o malestar significativo, la recomendación sigue siendo acudir con un o una profesional de la salud mental. La tecnología puede ser una aliada, siempre que sea utilizada con responsabilidad.

 

César Augusto García Avitia

Profesor Investigador de Tiempo Completo de la Facultad de Psicología de la Universidad de Colima.
Licenciado en Psicología, Maestro en Psicología Aplicada, Maestro en Bioética y Doctor en Psicología.
Contacto: garciaavitia@ucol.mx