Seleccionar página

Pexels/Liza Verano

Fuente: Pexels/Liza Summer

¿Serán los chatbots de inteligencia artificial los terapeutas del futuro? ChatGPT, un chatbot conversacional generador de texto creado con el poderoso modelo de procesamiento de lenguaje de tercera generación GPT-3 de OpenAI, ha reavivado esta pregunta de hace décadas.

GPT-3, uno de varios modelos de lenguaje, se introdujo en 2020 y sus predecesores años antes. Atrajo una atención más amplia cuando OpenAI lanzó una vista previa pública de ChatGPT como parte de su fase de investigación. GPT-3 es un transformador preentrenado generativo de tercera generación, un modelo de aprendizaje automático de red neuronal entrenado en cantidades masivas de texto conversacional de Internet y refinado con capacitación de revisores humanos.

GPT-3 se ha utilizado de muchas maneras en todas las industrias: para escribir una obra de teatro producida en el Reino Unido, crear un juego de aventuras basado en texto, crear aplicaciones para personas que no codifican o generar correos electrónicos de phishing como parte de un estudio sobre casos de uso dañino. En 2021, un desarrollador de juegos creó un chatbot que emulaba a su difunto prometido hasta que OpenAI cerró el proyecto.

Los chatbots de IA son prometedores para ciertos tipos de terapia que son más estructuradas, concretas y basadas en habilidades (p. ej., terapia cognitiva conductual, terapia conductual dialéctica o asesoramiento en salud).

La investigación ha demostrado que los chatbots pueden enseñar habilidades a las personas y entrenarlas para que dejen de fumar, coman más sano y hagan más ejercicio. Un chatbot SlimMe AI con empatía artificial ayudó a las personas a perder peso. Durante la pandemia de COVID, la Organización Mundial de la Salud desarrolló humanos virtuales y chatbots para ayudar a las personas a dejar de fumar. Muchas empresas han creado chatbots para soporte, incluido Woebot, creado en 2017, basado en la terapia cognitiva conductual. Otros chatbots brindan meditación guiada o monitorean el estado de ánimo.

Sin embargo, ciertos tipos de terapia, como la terapia psicodinámica, relacional o humanista, podrían ser más difíciles de administrar a través de chatbots porque no está claro qué tan efectivas pueden ser estas terapias sin el elemento humano.

Beneficios potenciales para los terapeutas de chatbots

  • Escalabilidad, accesibilidad, asequibilidad. La terapia de chatbot virtual, si se realiza de manera efectiva, podría ayudar a llevar los servicios de salud mental a más personas, en su propio tiempo y en sus propios hogares.
  • Las personas pueden ser menos cohibidas y más comunicativas con un chatbot. Algunos estudios encontraron que las personas pueden sentirse más cómodas al revelar información privada o vergonzosa a los chatbots.
  • Prestación de atención estandarizada, uniforme y rastreable. Los chatbots pueden ofrecer un conjunto de respuestas estandarizado y más predecible, y estas interacciones pueden revisarse y analizarse más adelante.
  • Múltiples modalidades. Los chatbots se pueden entrenar para ofrecer muchos estilos de terapia más allá de lo que podría ofrecer un terapeuta humano individual. Un algoritmo podría ayudar a determinar qué tipo de terapia funcionaría mejor para cada caso.
  • Personalización de la terapia. ChatGPT genera texto conversacional en respuesta a indicaciones de texto y puede recordar indicaciones anteriores, lo que permite convertirse en un terapeuta personalizado.
  • Acceso a amplios recursos de psicoeducación. Los chatbots podrían aprovechar y conectar a los clientes con recursos disponibles digitalmente a gran escala, incluidos sitios web, libros o herramientas en línea.
  • Aumento o colaboración con terapeutas humanos. Los chatbots podrían aumentar la terapia en tiempo real al ofrecer comentarios o sugerencias, como mejorar la empatía.

Posibles limitaciones y desafíos de los terapeutas de chatbots

Los terapeutas de chatbots se enfrentan a barreras que son específicas de la interacción humano-IA.

  • Autenticidad y empatía. ¿Cuáles son las actitudes humanas hacia los chatbots? ¿Serán una barrera para la curación? ¿Extrañará la gente la conexión humana en la terapia? Incluso si los chatbots pudieran ofrecer un lenguaje empático y las palabras correctas, esto por sí solo puede no ser suficiente. Las investigaciones han demostrado que las personas prefieren la interacción humano-humano en ciertas situaciones emocionales, como desahogarse o expresar frustración o enojo. Un estudio de 2021 encontró que las personas se sentían más cómodas con un humano que con un chatbot según cómo se sintieran: cuando las personas estaban enojadas, estaban menos satisfechas con un chatbot.

    Es posible que las personas no se sientan comprendidas o escuchadas cuando saben que no es un ser humano real al final de la conversación. El «ingrediente activo» de la terapia podría basarse en la conexión de humano a humano: un ser humano que da testimonio de las dificultades o el sufrimiento de uno. Es probable que el reemplazo de IA no funcione en todas las situaciones.

  • El tiempo y las interacciones matizadas. Muchos estilos de terapia requieren características más allá de la empatía, incluido un equilibrio oportuno de desafío y apoyo. Los chatbots se limitan a respuestas de texto y no pueden proporcionar expresión a través del contacto visual y el lenguaje corporal. Esto puede ser posible con terapeutas de «humanos virtuales» o «avatares humanos» impulsados ​​por IA, pero se desconoce si los humanos virtuales pueden proporcionar el mismo nivel de comodidad y confianza.
  • Dificultad con la rendición de cuentas y las tasas de retención. Es más probable que las personas se presenten y rindan cuentas a los terapeutas humanos que a los chatbots. La participación del usuario es un gran desafío con las aplicaciones de salud mental. Las estimaciones muestran que solo el 4 % de los usuarios que descargan una aplicación de salud mental continúan usándola después de 15 días, y solo el 3 % continúa después de 30 días. ¿Las personas se presentarán regularmente a su terapeuta de chatbot?
  • Las situaciones complejas y de alto riesgo, como la evaluación del suicidio y la gestión de crisis, se beneficiarían del juicio y la supervisión humanos. En casos de alto riesgo, el aumento de IA con supervisión humana es más seguro que el reemplazo por IA. Hay preguntas éticas y legales abiertas con respecto a la responsabilidad de la IA defectuosa: ¿quién será responsable si un terapeuta de chatbot no evalúa o maneja una crisis urgente de manera adecuada o brinda una orientación incorrecta? ¿Se capacitará la IA para señalar y alertar a los profesionales sobre situaciones con potencial riesgo inminente de daño a sí mismo o a otros?
  • Mayor necesidad de seguridad, privacidad, transparencia y consentimiento informado de los datos de los usuarios. Los datos de salud mental requieren un alto nivel de protección y confidencialidad. Muchas aplicaciones de salud mental no son comunicativas sobre lo que sucede con los datos de los usuarios, incluso cuando los datos se utilizan para la investigación. La transparencia, la seguridad y el consentimiento informado claro serán características clave de cualquier plataforma de chatbot.
  • Sesgo oculto potencial. Es importante estar atento a los sesgos subyacentes en los datos de entrenamiento de estos chatbots y encontrar formas de mitigarlos.

A medida que la interacción humano-IA se convierte en parte de la vida diaria, se necesita más investigación para ver si los terapeutas de chatbot pueden proporcionar una terapia más allá del entrenamiento conductual. Los estudios que comparan humanos versus chatbots en varios estilos de terapia arrojarán luz sobre las posibles ventajas y limitaciones de los terapeutas de chatbots.

Marlynn Wei, MD, PLLC Copyright © 2023. Todos los derechos reservados.

Para encontrar un terapeuta cerca de usted, visite el Directorio de terapias de BlogDePsicología.

Ver más:

Cinco tipos de empatía en el metaverso y los espacios virtuales

¿Puede la colaboración humano-IA mejorar la empatía?

¿Funciona la “empatía digital” en la terapia virtual?

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies