Actualidad

¿Le confiarías tus problemas a un chatbot?: la IA llegó a la salud mental y explotaron las alarmas

INFORAMA habló con varios profesionales ligados a la salud en Catamarca para profundizar sobre este tema. Cuáles son los riesgos de implementar estas herramientas, qué ofrecen y cómo pueden afectar a los usuarios son algunas de las preguntas centrales.
Por Nadia Jaimes

"Interactué con el chat GPT y noté que es una inteligencia artificial, configurada para aprender a partir del lenguaje de humanos y si le planteas que necesitas que sea tu terapeuta va a responder como un terapeuta, pero hace como si…", dijo a INFORAMA el psicólogo catamarqueño Mariano Carrizo (MP 420, MB 82615), al experimentar brevemente y de primera mano, las nuevas opciones que la tecnología abre para la salud mental.

Para eso, planteó el caso de un paciente con "problemas en muchas áreas: en lo económico, el trabajo, lo vincular de pareja, alguien que se siente solo", comentó. En su experiencia, si bien chat GPT informó que no reemplaza el servicio de salud mental y que es necesario buscar ayuda de personal idóneo, le ofreció soluciones. Y según señaló, tampoco le "hizo las preguntas que un terapeuta suele realizar", ni la indagación de ideas que muchas veces son contrarias a los problemas que se plantean. "Ahí es donde digo que no es efectiva la ayuda que pueda dar un bot. Y que no detectan los procesos que están detrás de lo que está pasando", indicó el profesional que trabaja con terapias conductuales contextuales.

"Muchas de las respuestas que da son amables e invitan a que uno cuente qué está pasando, que exprese, comunique: ´lamento que te estés sintiendo así, que estés pasando por esto´. Y tal vez a algunas personas les sirva encontrar esas palabras, pero a la vez uno sabe que es un bot, distinto a una persona y a la escucha activa de un terapeuta", sostuvo.

"Y hay mucho que se pierde de lo humano en la comunicación", recalcó el psicólogo, como el aspecto no verbal o considerar otras posibilidades al escuchar "algo que le llama la atención". Y enfatizó una diferencia fundamental, que consiste en que si el terapeuta "erra a la estrategia en sesión, el paciente te lo hace saber. Y con un terapeuta te podes enojar, con una aplicación, no".

Carrizo describió estas herramientas como "una prueba piloto" que "no han sido probadas científicamente ni han sido métodos desarrollados por profesionales ni técnicos en salud mental". E incluso si fueran desarrolladas por personal idóneo, aparece el conflicto de confidencialidad y manejo de datos, expresó, por lo que estimó que tener resultados concretos puede llevar tiempo.

"Es muy nuevo y hay que ver cómo se desarrollan, pero para mí no hay posibilidad de que reemplace la atención en salud mental por parte de un humano"

Lic. Mariano Carrizo: MP 420, MN 82615

Es indiscutible el hecho de que la inteligencia artificial y la innovación tecnológica llegaron para quedarse. No se vislumbra ninguna intención de retorno y se inmiscuye cada vez más en todas las áreas de la vida. Incluso hay voces a favor, que entienden que la terapia automatizada tiene potencial de complementar el sistema de salud mental, siempre que esté acompañada de investigaciones serias y guiada por humanos.
Sin embargo, los límites éticos y legales son difusos, y usualmente corren detrás de los avances científicos.

En el último tiempo, surgieron aplicaciones que brindan servicios de asistencia psicológica o de acompañamiento terapéutico a través de bots o de otras herramientas provistas por la IA.

Esta es la situación que se presenta ante las últimas aplicaciones surgidas, que ofrecen algún tipo de asistencia psicológica, terapia asistida o acompañamiento a personas que desean hablar con alguien. Los nombres difieren, y los mecanismos que se utilizan también. Algunas actúan a través de bots, otras en última instancia conectan con un profesional de carne y hueso.

Existen varias opciones de este tipo: el famoso ChatGPT es una herramienta que además de otras múltples actividades, puede ser utilizado para este fin. Phobious es una aplicación que se promociona como ayuda para tratar fobias, Brain ofrece una experiencia de usuario realista e inmersiva al permitir a los usuarios conectarse por videollamada con 'Raúl', un terapeuta virtual. En este caso, mediante preguntas específicas y charla abierta, 'Raúl' elabora un informe firmado electrónicamente por un psicólogo y lo envía al usuario. O Cux, que está disponible en Catamarca mediante una empresa de salud privada.

La lista puede ser interminable y habría que analizar caso por caso. Sin embargo, no es necesario centrarse en cada una ya que proliferan constantemente nuevas apps con sistemas variados. Lo que sí se requiere son estudios más profundos sobre las implicancias y consecuencias que pueden acarrear y que ya despertaron la preocupación de las áreas ligadas a la salud en la provincia.

El Colegio de Profesionales de la Psicología de Catamarca, dijo que representan un “claro ejemplo de intervención iatrogénica, que implica graves riesgos para la salud, así como la vulneración de derechos de los y las usuarios/as”, ya que pasaría por alto las regulaciones y los principios deontológicos para la práctica de dicha profesión, la intervención psicoterapéutica y/o asistencia en la salud mental.

Asimismo, las denunció como una “flagrante violación de normativas vigentes tales como la Ley de Salud Mental (26657), (…) los códigos de Ética de la Federación de Psicólogas/os de la República Argentina, y de las leyes que protegen los derechos de asistencia de los y las pacientes, y la confidencialidad y protección de los datos personales, entre otros”.

Esto, en consonancia con la postura de FEPRA (La Federación de Psicólogas y Psicólogos de la República Argentina) que los rechaza “por tratarse de elementos ajenos a cualquier control, recomendación, principio y legislación en la materia”.

Son muchas las dudas en torno a la implementación de la inteligencia artificial en el ámbito de la salud mental, en general, los especialistas aseguran que faltan datos y estudios científicos con resultados concretos.

Por su parte, Diego Molina, director provincial de Prevención, Promoción y Abordaje territorial, explicó a INFORAMA que este tipo de prácticas en salud no fueron aprobadas por la ANMAT, por lo que serían una "terapia intrusiva ya que no estarían dentro de lo que es legal (…) sacando su efectividad, si la tuviera".

También se preguntó "quién se hace responsable de situaciones de riesgo y crisis que puedan existir. Me atiende un bot y yo me suicido, después la familia ¿a quién reclama o cómo sería la situación legal? ¿cómo se haría ante el pedido de un informe como dice la Ley de Salud Mental?". Otro aspecto a tener en cuenta, señaló, es la protección de los datos personales.

Más allá de la desregulación, el problema acá es la denominación, indicó Molina: "Se está entendiendo que hacen una consulta de salud mental. En realidad, es un diálogo sobre temas de salud mental pero no estaría siendo parte ni de una orientación, ni psicoeducación y menos de un tratamiento".

Otras cuestiones que generan dudas acerca del uso de IA en salud mental que detalló Molina, son las siguientes: la polisemia y los significantes culturales de cada palabra que no se sabe si el bot las podrá entender. O frente al caso de que apareciera alguna patología o psicopatología mental "que confunda a la persona". También, la "urgencia subjetiva", es decir, si se está en una crisis psicoemocional que genere pensamientos complejos, ambiguos. Además. el aislamiento social que puede provocar la facilidad de la atención 24/7, o algo no menor, quién derivaría al paciente en caso de ser necesario.

Por estos motivos, el director avizoró que podrían registrarse aumentos de sintomatología a corto o mediano plazo, ya que estas no estarían siendo realmente tratadas bajo dichos mecanismos, sino que funcionarían como recomendaciones que ofrecen alivio inmediato como "lo haría una aspirina para un dolor de cabeza". Al "no haber un diagnóstico diferencial no existiría la posibilidad de un tratamiento diferencial situado", aseguró.

La Lic. Sofia Zuliani MP. 310, miembro de la Comisión de Salud Mental y DD.HH del Colegio de Profesionales de la Psicología, y del Servicio de Adolescencia de Salud Mental del Hospital San juan Bautista, comparte muchas de estas ideas.

"La terapéutica con alguien que sufre siempre implica una relación de poder, en donde si ese otro no está visibilizado y hay un sistema, uno no sabe a quién le habla, a quién responde y qué intereses tiene. Y eso, además, está desregulado lo que hace que sea ilegal", apuntó.

Comentó a su vez, que este tipo de apps brindan respuestas estandarizadas "con opciones correctas e incorrectas como si la vida se tratara de eso, repitiendo la perversión social de que el sujeto no tiene valor y poniendo a quien consulta en el lugar de objeto, de pasividad (…)que lleva al sufrimiento y al disvalor humano".

En este sentido, Zuliani aclaró que el psicoanálisis, la vertiente desde la que plantea este tema, también apuesta al lazo social y a la palabra desde el afecto: "Esto acerca la posibilidad de acompañar a la persona a encontrar sus propias soluciones, a sentirse activo respecto del sufrimiento y no volverlo a poner en un lugar de objeto diciéndole lo que tendría que hacer, como si hubiera una forma correcta de vivir".

Asimismo, dijo que la estructura de la máquina anula la singularidad, la capacidad de resolver problemas, la posibilidad de desarrollo, la subjetividad, la transferencia negativa. Además, se anula la lectura "entre líneas" de síntomas y del cuerpo, que "es algo que no puede hacer la máquina" y para lo que sí están formados los psicólogos, señaló. También recordó que los profesionales pueden ser denunciados, dado que quienes llevan a cabo tratamientos de salud mental deben cumplir con algunos requisitos para obtener la matrícula, que además de la formación y la regulación legal, incluye un seguro por mala praxis.

"Si no está tu problema en el menú de opciones chau nos vemos, te corta la máquina y eso pone en riesgo la vida de la persona".

Lic. Sofía Zuliani

Finalmente, trajo a colación un ángulo que "empeora" más la situación y es el caso de los niños y adolescentes "quienes están estructurando sus defensas, síntomas y respuestas y que son una población muy vulnerable". "Poner su pedido de ayuda (…) en manos de una máquina es muy peligroso porque el ser humano es social y se estructura en función de los referentes que responden con una mirada atenta, desde el amor. Y si no hay eso, quedan solos con su sufrimiento lo que resulta de altísimo riesgo", sentenció.

App en Catamarca

El tema se puso en el tapete a nivel nacional durante el lanzamiento de Cux en Trenque Lauquen, que a nivel provincial, es temporalmente brindada por una empresa privada líder en servicios de salud.

Al respecto, ECA Salud, que ofrece el servicio de asistencia emocional mediante link a la App Cux -y en un período experimental durante tres meses-, explicó a INFORAMA que los afiliados "tienen la opción de utilizarla de manera gratuita con un código de acceso regalo y conversar con la herramienta, en un espacio totalmente privado de escucha y contención emocional que no brinda diagnóstico ni tratamiento". Pero esto "no afecta el servicio ofrecido por cartilla que es 100% de profesionales de la salud y de emergencias médicas".

También manifestó que la compañía siempre busca incorporar nuevas tecnologías que acerquen a Catamarca "soluciones de punta y de vanguardia exitosas en otras partes del mundo".

Sobre la implementación del servicio, informaron que "8 de cada 10 personas que probaron CUX, manifestaron altos niveles de satisfacción y tomando como referencia los datos hasta ahora consignados; la edad de uso de la herramienta se sitúa entre los 20 y 30 años".

*La línea 144, según informaron, no está en funcionamiento actualmente debido a los "recortes en las políticas de género".