Jésica Rodríguez Czaplicki, psicóloga, sobre hacer terapia con chatGPT: "Nos parece preocupante"
Si antes mirábamos en internet qué nos pasaba, ahora consultamos con la IA: “Hemos pasado de utilizar el doctor Google al doctor ChatGPT”
La IA carece de empatía y no es capaz de hacer un diagnóstico completo, al tiempo que abre potenciales riesgos de privacidad
Le digo a ChatGPT, la popular herramienta de inteligencia artificial (IA), que me encuentro triste. "Lamento mucho escuchar que te sientes así. Si te apetece hablar sobre lo que te tiene triste, estoy aquí para escucharte", me dice. Le explico que todos mis problemas vienen del trabajo, así que rápidamente me da una serie de consejos sobre qué debería de confianza, hacer ejercicio y descansar mejor o recurrir a un terapeuta si nada ayuda—, pero me los ha dado en cuestión de segundos.
Mi conversación con la IA ha sido real, aunque mi consulta era una prueba. Investigaba qué ocurre cuando le confías a la inteligencia artificial tus problemas de salud mental.
Hace unos años, la idea parecería digna de una película de ciencia ficción, pero es ya bastante factible. De hecho, uno de los chatbots más populares de entre los que ofrece la plataforma Character.ai se llama Psychologist y está pensado para la terapia, como señalaba hace unas semanas la BBC. Los medios estadounidenses ya habían empezado a alertar a finales de 2024 sobre cómo los bots terapeutas eran cada vez más habituales. Sentarte ante una pantalla a hablar con una IA sobre tu salud mental no es ya una rareza.
La psicóloga sanitaria Jésica Rodríguez Czaplicki, miembro de la Comisión para la Defensa de la Profesión del Colegio Oficial de Psicología de Galicia (COPG), no se ha encontrado todavía a ningún paciente en su consulta que haya recurrido a la IA para hacer terapia. “Que no lo haya vivido, no quiere decir que no sea algo que no esté ocurriendo y de lo que hablamos y que sí nos parece preocupante”, advierte.
Hace ya años que usamos internet para ver qué nos pasa y “casi de diagnóstico”. “Ahora se intenta afinar más usando estos sistemas”, señala.
Por qué usamos la IA
“Hemos pasado de utilizar el doctor Google al doctor ChatGPT”, confirma también Almudena Ruiz, directora del Máster en Inteligencia Artificial e investigadora de la Universidad Internacional de La Rioja (UNIR). “Nos gusta tanto porque buscamos respuestas rápidas”, añade.
Cada vez es más fácil acceder a la IA generativa y “es muy cómodo”. Su modo de uso —como una conversación— no solo nos engancha, sino que va ganando nuestra confianza. “El chat te quita el miedo”, apunta Ruiz. Cuando nos damos cuenta, le hemos contado un montón de cosas, algo en lo que también juega a favor lo que la experta identifica como “la barrera del anonimato”. Sentimos que para la IA somos un internauta cualquiera.
De hecho, una investigación de Tebra en EEUU determinó que una de cada cuatro personas estaría más dispuesta a hablar con un chatbot que a sentarse ante un terapeuta humano (aunque solo un 12% estaría muy conforme con que una IA fuese quien los diagnosticase y solo un 4% lo estaría extremadamente).
Quizás, se siente que es más fácil hablar con una máquina de según qué cosas. Rodríguez Czaplicki recuerda, eso sí, que “los profesionales de la salud mental tampoco juzgamos”. Nunca van a hacer una valoración de juicio sobre la persona que acude a consulta, sino que, “con la información que nos proporcione y aquella que vayamos viendo y recabando, darle las herramientas adecuadas”.
Quizás, esas personas dispuestas a pasar por la consulta de una IA lo hacen por temas económicos y de accesibilidad.
“En nuestro sistema de salud faltan muchos profesionales de psicología”, reivindica Rodríguez Czaplicki. Aunque se habla mucho de salud mental, sigue sin dotarse de los recursos necesarios. “Es urgente reclamar a nuestro sistema de salud que realmente atienda a la salud mental”, indica, algo que llevan reclamando “años”. Aun así, puntualiza, vivimos en una sociedad que “se basa en la inmediatez, en tener respuestas rápidas”, lo que podría explicar también que confiemos en las respuestas que da en segundos un chatbot en vez de buscar un terapeuta.
¿Hemos banalizado también demasiado la salud mental? “En una sociedad en la que proliferan lifecoachs y donde parece que se usan los térmicos emocional, psicológico o afectivo muy a la ligera, podemos pensar que en determinados sectores no se concede el valor real que tiene la salud mental y su adecuado cuidado”, concede. Si necesitamos hacer terapia, debemos buscar un profesional de salud mental, colegiado y con quien nos sintamos cómodos y con confianza, señala Rodríguez Czaplicki. Podemos “preguntar todo lo que se quiera saber” y mejor “huir de todos los discursos con muchas palabras que llaman la atención, pero son vacías”.
Los riesgos de confiar en la IA como doctora
Aun así, preguntarle a la inteligencia artificial qué hacer está lejos de ser una cuestión banal. Rodríguez Czaplicki explica que recurrir a la IA puede tener “consecuencias para la salud mental presente y futura”. “Una IA carece del componente humano que irá más allá de la palabra dicha”, indica. Esto es, no es capaz de procesar todo el lenguaje no verbal y todo aquello que dices sin decir cuando te sientas en la consulta. Por eso, la IA responderá ante lo que le diga el paciente “sin ahondar más” y no tendrá la foto completa. “No sería extraño que errara por completo en el diagnóstico y en las pautas que da”, advierte.
“Aunque su respuesta pueda sonar cargada de amabilidad y cercanía, seguirá faltando el componente afectivo, genuino y de comunicación real que se debe establecer en toda relación entre psicóloga y paciente”, suma la experta. “No hay empatía y podrían crear una falsa sensación de compañía que acabe por agravar aún más la sensación de soledad de muchas personas”, apunta. Esto es un problema especialmente importante en una sociedad en la que la soledad no deseada es un reto cada vez más presente.
Más allá de las cuestiones relacionadas de forma directa con la salud, Ruiz señala “el riesgo de la fiabilidad y de la privacidad de los datos”. La inteligencia artificial elabora sus respuestas en base a los textos que le han servido antes. “No sabemos qué datos ha leído”, añade, y, por tanto, si ha consumido fuentes erróneas o correctas. Un ejemplo perfecto de esto es el error viral que cometió hace unos meses la IA de Google recomendando comer una piedra diaria por sus minerales y vitaminas.
¿Usos positivos de la IA?
Aun así, no todo es malo. Algunos estudios incluso han defendido ya el poder de la IA. Una investigación publicada en la revista especializada PLOS Mental Health ha concluido que la inteligencia artificial daba mejores consejos en terapia de parejas, porque era capaz de contextualizar mejor las respuestas que daba.
Ruiz es experta en inteligencia artificial, así que no peca exactamente de tecnopesimismo. “Yo apuesto por la IA, pero una confiable y segura”, apunta. De hecho, si ya ayuda a encontrar tumores, también puede tener un impacto positivo en salud mental. La especialista cree que “con un uso responsable” puede entrar en consulta para optimizar tratamientos o ayudar con el análisis de la historia clínica o el diagnóstico. Incluso, suma, existen chatbots especializados que se usan en terapia, pero han sido creados de forma específica para ello y cuentan con control de personal sanitario.