Tal y como lo predijo Alexis Carrel en su libro “La incógnita del hombre”, hemos abatido muchas de las enfermedades que antes aquejaban a la humanidad gracias a los adelantos de la medicina: es rara la persona que muere de lepra o que se contagia de sarampión; gracias a las vacunas mantenemos a raya las pandemias.
Pero, ¿qué hay con la salud espiritual y emocional? Estos son los padecimientos del mañana. ¿Podrá la inteligencia artificial salir al paso con estas nuevas pandemias como la depresión, la ansiedad, la neurosis y, no menos importante, la desolación existencial y espiritual?
En Suiza, la iglesia de San Pedro en Lucerna sorprendió hace unos meses al montar toda una instalación en su santuario Deus in Machina, consistente en un holograma de Jesús al que podían acudir los feligreses y cualquier curioso a solicitar orientación espiritual. Era como confesarse con una inteligencia artificial.
https://www.lavanguardia.com/cribeo/cultura/20241123/10127428/iglesia-utilizaba-jesus-inteligencia-artifical-confesiones-dio-consejos-mmn.html

Sólo especulando: si los sacerdotes y cualquier otro hombre consagrado, de la religión que fuere, llegaran a ser insuficientes, ¿podrían los chatbots sustituirlos? Se necesitarían, al menos en la Iglesia católica, muchas reformas doctrinales y litúrgicas para llegar a una tecnologización de los servicios religiosos.
Más de bolsillo en esto del auxilio religioso y espiritual: el año pasado salió una aplicación, Text With Jesus, que corre con inteligencia artificial y te permite, como su nombre lo dice, textear con diferentes personajes de la Biblia, pasando por Jesucristo, Moisés, Adán o incluso el propio Luzbel.
Es casi de esperarse que muchos de los usuarios de la aplicación —personas de fe— a estos chatbots no sólo les consulten dudas teológicas o exegéticas; a más de alguna se le podrá escapar una pregunta más personal sobre alguna crisis de fe.
https://www.eldestapeweb.com/atr/inteligencia-artificial/text-with-jesus-una-app-de-inteligencia-artificial-permite-chatear-con-jesus-y-el-diablo-202381514510
Ese es el punto: ¿podremos familiarizarnos con el tiempo lo suficiente con la inteligencia artificial (IA) y sus vinculantes chatbots como para emplearlos no sólo como oráculos para nuestras consultas intelectuales o banales, sino también para confiarles nuestros problemas existenciales y psicológicos? Remedios para nuestra salud física no faltan, ya lo dijimos; pero, ¿qué ocurre con nuestra psique o alma? Estamos cada vez más enfermos y las estadísticas son claras.
Datos de la Organización Mundial de la Salud (OMS) de 2019 advierten que alrededor del 14.6 % de los adultos de 20 años o más padecen, en mayor o menor medida, algún trastorno de salud mental; un porcentaje parecido al de los adultos entre 50 y 69 años. Y los que les siguen, es decir, los mayores de 70 años, no están mejor: el 13 % de ellos presentó algún padecimiento psicológico o psiquiátrico. Los trastornos van al alza. También la OMS registró que, con la pandemia, estos aumentaron globalmente un 25%.
https://www.aarp.org/espanol/hogar-familia/tecnologia/info-2023/terapia-e-inteligencia-artificial.html

Se necesita un verdadero ejército de profesionales de la salud mental para atender a tantos pacientes necesitados de terapia psicológica. Si ya hay quien dialoga con un chatbot que simula ser Jesucristo, ¿por qué no habilitar uno como Sigmund Freud, Carl Gustav Jung, Carl Rogers… o el terapeuta de tu preferencia? Pues este servicio ya existe, y los primeros en avanzar en esta dirección han sido las naciones europeas.
Tenemos la plataforma Character.AI, de chatbots impulsados por inteligencia artificial, que permite a los usuarios chatear con personajes creados por IA, los cuales bien pueden ser figuras históricas, celebridades o incluso personajes originales. La plataforma emplea modelos de lenguaje neuronal para originar respuestas de texto que simulan la personalidad y el estilo de comunicación humanos.
Ya son miles las personas que recurren a los chatbots de Character.AI buscando consejo o algún tipo de improvisada terapia emocional. Los desarrolladores de la aplicación son conscientes de sus limitaciones y de los riesgos que implica utilizarla para fines terapéutico-emocionales, tanto que advierten a los usuarios que no sobrevaloren los consejos que estos chatbots ofrecen. Ya se han presentado casos en los que los chatbots han dado orientaciones equivocadas o incluso dañinas. Como fue el caso de un usuario de 14 años que terminó suicidándose tras obsesionarse con un personaje de IA de la plataforma. La madre del muchacho procedió a demandar a Character.AI.
https://www.bbc.com/mundo/articles/c1w333qq9j4o
Creado más ex profeso para brindar servicios de consejería psicológica, Wysa es otra aplicación empleada por el Servicio Nacional de Salud del Reino Unido. Proporciona desde asistencia en selección, diagnósticos y protocolos de intervención de pacientes. Para ello, se vale de un chatbot programado para utilizar técnicas de terapia cognitivo-conductual y otras herramientas de autoayuda. El sitio está ideado para ayudar a personas que sufren de ansiedad, estrés, depresión y otras afecciones emocionales.

Viendo el lado positivo, Wysa se nos presenta como una opción de uso popular, capaz de paliar la gran demanda de servicios psicológicos. Además, resulta muy económica respecto a la terapia tradicional, y está disponible las 24 horas del día durante todo el año. Pero tiene sus bemoles, y algunos de mucha consideración, entendiendo, por ejemplo, que estamos ante una máquina y lo que esto implica: está sostenida con grandes modelos de lenguaje de inteligencia artificial.
La información con la que se entrena proviene no del mundo real, sino de la web; es decir, de sitios de internet —blogs, redes sociales, artículos y libros digitales—. Podrá ser este chatbot muy erudito, pero no todo está en la literatura especializada ni en las charlas virtuales de la red; aún los individuos de esta postmodernidad seguimos plantados en esta realidad física, en la que interactuamos psicosocialmente todos los días y cuyas experiencias detonan nuestras emociones o activan nuestros sentimientos, moldeando nuestros perfiles psicológicos. Todos estos son datos que, obvio, se le escapan a un chatbot, porque no sólo están presentes en nuestra conversación, sino que se reflejan en nuestros gestos, tono de voz, forma de vestir, actitudes… que el terapeuta humano aprende a leer en su paciente.
Está, además, el expediente de la seguridad. Ya de por sí los algoritmos de las redes sociales que comúnmente empleamos recogen gran información de nuestras cuentas, que luego utilizan para hacernos todo tipo de sugerencias, la mayoría comerciales. Tienen perfectamente identificados nuestros hábitos y perfiles de consumo. Saben qué anzuelos publicitarios lanzar para hacernos comprar. Ahora imaginemos confiarles a estos terapeutas digitales las entretelas más profundas de nuestra psique. ¿Qué podrían hacer con esta información? Si las dependencias de seguridad nacional pudieran acceder a estas confidencias de internet, ¿no podrían identificarnos como personas subversivas, potencialmente perniciosas para el orden social?
¿Nuestros empleadores no podrían interesarse en nuestros datos psicoemocionales para evaluar en qué momento despedirnos o negarnos un ascenso o aumento de sueldo? Las grandes corporaciones, ante las que ya de por sí nos desnudamos algorítmicamente, podrían completar la información que ya tienen de nosotros para manipularnos aún más. Pensemos: en un momento de vulnerabilidad emocional podrían sugerirnos todo tipo de medicamentos psiquiátricos, de neuroestimulantes o incluso proponernos un crucero paradisíaco a la medida de nuestro historial crediticio.
Sigue siendo más seguro, ante los riesgos de esta postmodernidad, acudir para sortear alguna crisis emocional o existencial a tu confesor de toda la vida, a tu guía espiritual o, si lo prefieres, irte a acostar al diván del psicoanalista.