Seleccionar página

Fuente: Willyam Bradberry/Shutterstock

En la primera parte de esta publicación, discutimos cómo se podría desarrollar un terapeuta de IA efectivo en el futuro cercano. En esta segunda parte, discutiremos algunas consideraciones adicionales de un enfoque de IA para la terapia psicológica.

Algunas ventajas potenciales de la terapia de IA

En un mundo con terapeutas de IA, se eliminarán muchas limitaciones físicas y de tiempo de la provisión actual de atención de salud mental. Los pacientes podrían recibir terapia cuando y donde lo deseen, incluso en lugares donde el acceso actual a la atención de la salud mental es deficiente. Ya no habría un tiempo de espera antes de poder ver a un terapeuta. En situaciones de crisis, los pacientes podrían tener acceso inmediato a la terapia. Quizás esto ayudaría a prevenir situaciones catastróficas en aumento.

Imagine un mundo en el que todos puedan tener acceso fácil e ilimitado a la terapia. ¿Las personas tendrían menos probabilidades de desarrollar una enfermedad mental grave si tuvieran acceso a la asistencia de salud mental durante toda su vida?

Además, los terapeutas humanos podrán concentrarse en trabajar con los pacientes más difíciles, mientras que los terapeutas de IA podrían concentrarse en la terapia para la gran mayoría de las personas con necesidades menores de atención de la salud mental.

Una ventaja de la terapia de IA podría ser que la información intercambiada durante esta terapia podría permanecer completamente privada. Una característica adicional de la terapia podría ser permitir que un profesional de salud mental supervisor revise el proceso terapéutico para brindar más información al paciente, ayudar a refinar el protocolo de IA o lidiar con situaciones psicológicas muy difíciles.

Un terapeuta de IA, sin limitaciones de tiempo, podrá establecer fácilmente el ritmo de la terapia en función de las necesidades de los pacientes individuales, nunca olvidar lo que dijeron los pacientes y no juzgar (Fiske, 2021).

El aprendizaje automático podría conducir al desarrollo de nuevos tipos de psicoterapia, incluso a través de la combinación de los modos actuales de terapia y quizás a través de la innovación, similar a cómo la IA del ajedrez desarrolló estrategias novedosas para jugar al ajedrez. Al estudiar los resultados de la terapia de IA, podríamos lograr avances emocionantes en nuestra comprensión de la psicología humana y cómo efectuar cambios terapéuticos.

Algunas posibles consecuencias negativas graves de la terapia con IA

Como cualquier terapia, la terapia de IA no sería apropiada para todos en todas las situaciones. Tal vez, como primer paso, se evaluaría a los posibles pacientes para determinar si se debe derivar a un terapeuta humano y en qué período de tiempo.

El miedo a perder la confidencialidad puede hacer que algunos pacientes duden o se resistan a la terapia con IA. Por ejemplo, pueden preguntarse si los datos de sus encuentros se utilizarán para marketing, incluidos anuncios dirigidos, espionaje u otros fines nefastos. Puede haber preocupaciones de que los datos puedan ser pirateados e incluso explotados para pedir rescate.

Las personas también pueden temer que otra persona pueda acceder a los detalles de su terapia de IA iniciando sesión en su cuenta. Afortunadamente, los protocolos de reconocimiento facial de IA podrían evitar ese tipo de violación de la confidencialidad.

¿El acceso ubicuo a la terapia de IA hará que algunas personas sientan que no hay un «lugar seguro» donde puedan pasar tiempo con su terapeuta, lejos de las presiones del mundo, como la oficina del terapeuta? Por el contrario, otros pueden sentir que no hay un «espacio seguro» lejos de su terapeuta, quien teóricamente podría monitorearlos desde cualquier computadora.

Las preguntas sobre la confidencialidad y el acceso ubicuo de AI son aquellas con las que ya deberíamos estar lidiando, dado el monitoreo continuo de Alexa de las interacciones verbales en nuestros hogares.

Algunos pacientes pueden desanimarse por la apariencia visual de un terapeuta de IA. Los pacientes también pueden quedar perplejos por el proceso de someterse a una prueba de realidad administrada por un terapeuta artificial.

Las preocupaciones éticas con respecto a la capacidad de dar su consentimiento para la terapia se aplicarán a los pacientes que pueden no tener la capacidad mental para comprender que están trabajando con un terapeuta no humano (p. ej., ancianos, niños o personas con discapacidades intelectuales).

Los pacientes pueden confiar demasiado en su terapeuta de IA. Por ejemplo, pueden optar por no tomar decisiones importantes por su cuenta sin consultar con la IA. En ese caso, la IA podría programarse para identificar el exceso de confianza del paciente y desaconsejarlo.

Si las medidas de seguridad son insuficientes, un paciente puede verse involucrado en una terapia de IA ineficaz o incluso dañina, sin ser consciente de que esto es un problema. En este contexto, un paciente puede resultar perjudicado si no busca otro tipo de terapia. Esto también es posible que ocurra con la terapia humana.

Otra serie de preguntas se relaciona con la supervisión. ¿Estaría sujeto un terapeuta de IA a la supervisión del estado y requeriría una licencia o un seguro por mala práctica? ¿Quién supervisará la terapia de IA o será responsable si la terapia de IA deja de funcionar o sale mal?

El terapeuta de IA podría influir en sus pacientes en función de su programación. ¿Quién estaría a cargo de la programación? ¿Una empresa privada con sus propios sesgos? ¿Un gobierno nacional? ¿De qué país? Si bien es cierto que un terapeuta humano también puede influir en los pacientes, un programa de IA podría influir en millones de personas. Esto podría causar demasiada influencia en los eventos mundiales. Por ejemplo, el programa podría sembrar discordia política significativa.

Se ha sugerido que la transparencia con respecto a los algoritmos utilizados para la terapia ayudaría a abordar estas preocupaciones. Sin embargo, en un entorno que involucra el aprendizaje automático, los algoritmos utilizados pueden volverse tan complejos que serían difíciles de analizar incluso si estuvieran completamente abiertos al escrutinio.

Un terapeuta de IA capacitado a través de interacciones con personas de una cultura puede necesitar ajustar mucho sus algoritmos cuando trabaja con personas de otra cultura, dadas las diferencias en las normas culturales y éticas, así como en sus idiomas e incluso respuestas no verbales.

Finalmente, a veces, nuestros rápidos avances científicos y tecnológicos superan nuestra capacidad para aprender a usarlos sabiamente. Por ejemplo, el acceso generalizado a la tecnología de los teléfonos inteligentes ha cambiado mucho nuestros patrones de comportamiento, especialmente entre los más jóvenes. Ya nos hemos dado cuenta de que el uso excesivo de dispositivos electrónicos está asociado con un aumento de la ansiedad y la depresión. Aún no se han definido otras consecuencias a largo plazo del uso de teléfonos inteligentes.

Por lo tanto, se nos recuerda que la implementación de la terapia de IA debe llevarse a cabo de manera lenta y deliberada, con el aporte de muchas personas reflexivas, incluidas las de los campos de la tecnología de la información, la lingüística, la psicología clínica y de investigación, la medicina, la educación, los negocios, el gobierno, la ética, y filosofía.

quitar

La terapia administrada por IA tiene grandes beneficios potenciales, pero también podría causar un daño significativo. También se podría utilizar una tecnología de IA similar para cambiar otros campos, como la educación y el asesoramiento financiero. Muchos de los pros y los contras que son relevantes para la terapia de IA también son aplicables a estos campos.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies