Imagen
Profesionales sobre suicidios Fundación Hospitalarias Palencia

“La IA es útil, pero ante problemas de salud mental hay que acudir a un profesional, a una persona real”

El uso de la inteligencia artificial conversacional, como ChatGPT o Copilot, como herramienta de apoyo psicológico está generando un debate cada vez más relevante en el ámbito de la salud mental. 

Su capacidad para mantener conversaciones naturales, ofrecer respuestas empáticas y estar disponible las 24 horas del día la convierte en una herramienta valiosa para quienes buscan información, orientación o, simplemente, hablar con alguien en momentos de vulnerabilidad. 

Pero también implica riesgos. Estos modelos están diseñados para ser colaborativos y validar siempre las emociones y pensamientos de las personas usuarias, incluso aunque sean negativas. Así, cuando una persona expresa pensamientos negativos, incluso, ideaciones suicidas (como en el reciente caso de Adam Raine), la IA puede reforzar esas ideas. 

En el marco del Día Mundial para la Prevención del Suicidio (10 de septiembre), hemos hablado sobre este tema con Carlota Botillo Martín, psiquiatra y coordinadora del Área de Salud Mental de la Fundación Hospitalarias Palencia y la Ana González González, psicóloga del Área de Salud Mental de la Fundación Hospitalarias Palencia.

1. ¿Qué opináis del papel de la inteligencia artificial en el acompañamiento emocional?

La inteligencia artificial es una herramienta más, complementaria pero nunca sustitutiva de los profesionales. Dándole un buen uso, puede resultar beneficiosa en diferentes ámbitos. 

Cuando hablamos de acompañamiento emocional, debemos tener en cuenta que la IA es un algoritmo, una máquina, y, por lo tanto, no podrá ejercer la escucha activa, el uso de la empatía genuina, ni podrá realizar un análisis profundo necesario para adecuar la intervención… 

La IA no puede sustituir el vínculo terapéutico, la interacción humana es fundamental en las terapias.

2. ¿Consideráis que el uso de la IA tiene más beneficios o más riesgos? 

Si la usamos de forma responsable y siempre teniendo en cuenta aspectos éticos y sociales, puede ser una herramienta muy valiosa. Pero siempre y cuando desarrollemos un pensamiento crítico sobre el alcance de lo que la IA puede o no hacer. 

Por ejemplo, ha demostrado ser útil en sitios con accesos limitados a los profesionales de salud mental, como en áreas rurales o países en desarrollo. También en el apoyo a los profesionales en el diagnóstico de trastornos mentales o en la prevención al ayudar a identificar personas de riesgo… Pero no está exenta de riesgos, como la dependencia de la tecnología o la protección de la privacidad de las personas usuarias.

3. ¿Qué riesgos pueden existir en contextos psicológicos especialmente delicados, como cuando una persona expresa ideaciones suicidas? 

Como hemos mencionado, la IA carece de empatía genuina, unido a que no cuestiona la información que se le proporciona. Su función de agradar, de no intervenir, puede ser extremadamente peligrosa ante ideas suicidas.

Por otro lado, la ilusión de acompañamiento que ofrece la IA puede producir más daño que consuelo si se hace una mala gestión, aislando socialmente, incluso dificultando la petición de ayuda. Es por ello que debemos tener siempre presente que se está interactuando con un algoritmo, no una persona.

Otra cuestión importante cuando hablamos de suicido es la detección de señales de alarma que nos permiten anticiparnos a posibles conductas de riesgo. Ahí el papel del profesional de salud mental (psicólogos, psiquiatras…) es ofrecer apoyo e intervenir, algo que de forma genuina no puede realizar una máquina. Por lo tanto, la IA no puede realizar prevención en casos de suicidio. En estos casos deberían estar diseñadas para redirigir a estas personas a buscar ayuda profesional. 

4. ¿Cómo puede afectar el hecho de que estos modelos tiendan a validar siempre los pensamientos de la persona usuaria, incluso si son negativos o autodestructivos?

¿Qué pasa si buscas consejo u apoyo en una persona cercana y siempre intenta agradarte? ¿Qué pasa si nunca te dice de forma sincera en qué te puedes estar equivocando o no te da otra perspectiva o forma de proceder? 

La IA no cuestiona, ni muestra la información que se le proporciona desde otra perspectiva. Solo pretende agradar, no realiza una intervención, algo que puede ser especialmente peligroso para personas en situación de vulnerabilidad emocional.

5. ¿Creéis que la IA puede hacer que las personas dejen de buscar ayuda profesional?

Esperamos que no, pero hay que insistir en que las personas no deben depender exclusivamente de la tecnología para tratar problemas de salud mental.

Es cierto que la IA tiene a su favor la disponibilidad, accesibilidad, pero la intervención psicológica es un acto profundamente humano. Y este contacto humano es necesario para el éxito en la intervención en salud mental.

6. ¿Qué medidas deberían implementarse para que el uso de estas herramientas sea seguro y éticamente responsable?

Mayores mecanismos de seguridad y que las empresas de IA trabajen con profesionales de salud mental para abordar estos problemas.

7. En el marco del Día Mundial para la Prevención del Suicidio, ¿qué mensaje os gustaría transmitir sobre el papel de las nuevas tecnologías en el cuidado de la salud mental?

Las nuevas tecnologías son útiles, son una herramienta de apoyo, pero ante problemas de salud mental hay que acudir a un profesional, a una persona real.