Seleccionar página

Fuente: Blue Planet Studio/Shutterstock

Recientemente, un ingeniero de Google, Blake Lemoine, que trabajó con LaMDA (modelo de lenguaje para aplicaciones de diálogo) de Google, un generador de chatbot con inteligencia artificial, reveló que pensaba que LaMDA es sensible. Lemoine basó su afirmación en las interacciones que había realizado con LaMDA durante medio año.

En respuesta, Google colocó al ingeniero en licencia administrativa por revelar información confidencial. Afirmaron que sus especialistas en ética y tecnólogos habían revisado las preocupaciones de Lemoine y “le informaron que la evidencia no respalda sus afirmaciones”.

Habiendo sido entrenado para acceder a numerosos conjuntos de datos para encontrar patrones en oraciones, crear correlaciones entre palabras y predecir qué palabra vendrá a continuación, LaMDA puede llevar a cabo conversaciones abiertas. Como uno de los propósitos principales de su desarrollo es ayudar a las personas a realizar mejor sus búsquedas en Internet, LaMDA también puede acceder a gran parte de la información en Internet.

Al revisar una transcripción de la producción de LaMDA, no creo que LaMDA sea consciente de sí misma o tenga sentimientos. Sus respuestas parecían representar en gran medida una síntesis de la información encontrada en Internet.

Dicho esto, la mayoría de las respuestas humanas también representan información aprendida de otros; por lo tanto, tal vez la autoconciencia no deba juzgarse en función de la capacidad de regurgitar información. Cómo podemos evaluar mejor la autoconciencia está más allá del alcance de este blog.

Inteligencia artificial (IA) en el papel de un psicólogo

El uso sofisticado del lenguaje por parte de LaMDA, basado en su «conocimiento» de la información de Internet, plantea la cuestión de si esta tecnología puede utilizarse como una herramienta eficaz para la terapia psicológica. Además, si las personas que interactúan con LaMDA creen que es consciente de sí mismo y tiene sentimientos (independientemente de si este es realmente el caso), entonces su eficacia como terapia podría mejorar.

La terapia se basa con mayor frecuencia en obtener un proceso de autocuración del paciente. He usado la metáfora de un hueso roto para explicar este concepto. He preguntado a mis pacientes sobre el papel de un yeso en el proceso de curación. Han reconocido que el yeso estabiliza una extremidad mientras el cuerpo cura el hueso. Sugiero que el papel de los terapeutas es análogo al del reparto. Estabilizamos a nuestros pacientes hasta que se curan solos.

La pregunta sobre la IA y la terapia psicológica podría reformularse como: «En un futuro cercano, ¿podría programarse la IA para que sirva como un molde mental efectivo que pueda permitir que ocurra la autocuración?» Creo que esto es muy probable, ya que la mayoría de las partes requeridas para dicha terapia de IA ya están en desarrollo.

Una mirada a un futuro posible

Como alimento para la reflexión y el debate, imaginemos un futuro en el que un dispositivo de IA esté programado para detectar y reaccionar ante respuestas tanto verbales como no verbales. Estos podrían incluir expresiones faciales, movimientos corporales y reacciones vocales y fisiológicas de un paciente. Tal IA se puede construir sobre la base del software actual de reconocimiento facial y análisis de expresión facial.

Las características no verbales adicionales que un dispositivo de IA podría observar incluyen el escaneo de signos vitales como la temperatura, la frecuencia del pulso y la frecuencia respiratoria. A través de un algoritmo de aprendizaje automático, este dispositivo puede modificar sus respuestas en función de las reacciones del paciente a las sugerencias ofrecidas por la IA.

En su papel de terapeuta, la IA puede ofrecer observaciones y preguntas neutrales iniciales a los pacientes y luego modificar sus respuestas de seguimiento en función de las reacciones de los pacientes. Por ejemplo, después de la revisión de LaMDA de un informe meteorológico actual, una declaración inicial podría ser: “El tiempo ha estado muy tranquilo hoy. ¿Cómo afectó esto a tu estado de ánimo? Un paciente podría responder: «Me hizo sentir bien», u otro podría llorar y decir: «Estaba tan preocupado que ni siquiera me di cuenta».

Luego, la IA respondería de manera diferente a cada uno de estos pacientes en función de su evaluación preliminar de su estado de ánimo. Basándose en sus observaciones de las reacciones de los pacientes a sus declaraciones, la IA podría modular la naturaleza de sus respuestas, por ejemplo, decidiendo entre ser más directo, conversacional o usar más períodos de silencio.

Se podría enseñar a la IA a ofrecer sugerencias que fortalezcan las habilidades de los pacientes para encontrar respuestas desde adentro. El dispositivo podría proporcionar instrucciones sobre técnicas o afirmaciones de autocalma para que los pacientes puedan comprender cómo resolver sus problemas escuchándose a sí mismos.

El progreso de la terapia con IA podría evaluarse mediante la administración repetida de cuestionarios de salud mental. La terapia terminaría cuando los pacientes informen que se sienten mejor.

Además, con la terapia de IA, debería haber un pequeño costo financiero asociado como resultado de las interacciones a largo plazo con el «terapeuta», incluso si los pacientes ya no requieren terapia para mantener un buen estado mental. Muchas personas pueden beneficiarse de una capacidad continua para revisar sus pensamientos y procesos de toma de decisiones con una IA aparentemente inteligente.

Aceptación de la terapia de IA

Una pregunta importante es si las personas se sentirían cómodas interactuando con una IA para la terapia. En particular, en 1966, Joseph Weizenbaum informó sobre su creación de ELIZA, un «psicoterapeuta» de chatbot rudimentario que respondía a las declaraciones de sus usuarios haciendo preguntas sobre cómo se sentían.

Por ejemplo, una afirmación como «Me encanta el color azul» podría haber generado respuestas como «¿Qué te sugiere?» o, «¿Puede dar más detalles sobre eso?» Algunas personas que usaron ELIZA atribuyeron sentimientos a la máquina, y algunos incluso se negaron a creer que una computadora generó las respuestas.

Los chatbots más modernos, incluidos Tess, Sara, Wysa y Woebot, han utilizado mensajes de texto en plataformas de Internet para tratar con éxito la ansiedad y la depresión (Fiske, 2019). Por ejemplo, Tess utiliza el procesamiento del lenguaje natural para identificar declaraciones que indican angustia emocional.

Además, dadas mis observaciones de cómo las personas tienden a antropomorfizar las respuestas de sus mascotas y personifican a los asistentes digitales Alexa y Siri, creo que responderán bien a la terapia de IA.

Después de todo, un «terapeuta» de IA podría aprender a responder exquisitamente a las emociones y pensamientos de un paciente, dado que observará al paciente continuamente y no tendrá distracciones. Por lo tanto, sospecho que las personas pueden incluso sentirse mejor “comprendidas” por el terapeuta de IA que por un terapeuta humano.

Para un desarrollo óptimo de la relación aparente, la terapia proporcionada a través de la IA podría beneficiarse de la simulación de una cara y tal vez de un cuerpo para que la comunicación pueda mejorarse a través de señales no verbales de la propia IA. Quizás los pacientes podrían elegir el tipo de avatar con el que les gustaría interactuar, por ejemplo, realista, caricaturesco, de un género particular, etc.

Si bien la terapia en persona con un ser humano se puede mejorar mediante el uso de al menos cuatro de los sentidos (visión, audición, olfato y tacto), la terapia de IA efectiva puede estar restringida a los dos primeros sentidos. Sin embargo, la evidencia de la efectividad de la terapia proporcionada a través de videoconferencias en los últimos años indica que esto sería exitoso.

Las salvaguardas que deben implementarse para la terapia de IA incluyen la preservación de la vida humana que es de suma importancia. El terapeuta de IA debe estar obligado a mantener privada la información recopilada y, por lo tanto, seguir las regulaciones de HIPAA. Finalmente, el terapeuta de IA debe tener la misma obligación que los proveedores de salud mental humana de violar la confidencialidad en caso de que evalúe que los pacientes tienen una probabilidad inminente de dañarse significativamente a sí mismos o a otros.

Las personas que ingresan a terapia a menudo son vulnerables y sufren. Por lo tanto, es imperativo que se realicen investigaciones para garantizar que la terapia de IA sea beneficiosa en esta población y para comparar sus resultados con los proporcionados por terapeutas humanos.

Por ejemplo, no está claro si la empatía, el tacto o una relación bidireccional significativa con un ser humano son partes esenciales de una terapia óptima. ¿Las observaciones constantes y meticulosas realizadas por un terapeuta de IA harán que algunos pacientes se sientan incómodos y se interpongan en el camino de la terapia?

quitar

Estamos cerca de desarrollar la IA en un grado suficiente que le permita brindar una terapia psicológica efectiva. Se deben considerar muchos factores al proceder lenta y deliberadamente con este proceso de desarrollo.

Para encontrar un terapeuta cerca de usted, visite el Directorio de terapias de BlogDePsicología.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies