INTELIGENCIA ARTIFICIAL

Publicado 01/09/2025

Psicología e IA: oportunidades y riesgos de las terapias digitales del futuro

La psicóloga Mora Zaharya, referente en salud mental digital, dialogó con Inteligencia Argentina sobre el rol del psicólogo en el desarrollo de herramientas de IA, las tecnologías que ya se usan en la práctica clínica y los principales beneficios y riesgos que plantean.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

La psicóloga Mora Zaharya, referente en salud mental digital, dialogó con Inteligencia Argentina sobre el rol del psicólogo en el desarrollo de herramientas de IA, las tecnologías que ya se usan en la práctica clínica y los principales beneficios y riesgos que plantean.

Mora Zaharya es psicóloga clínica con más de 20 años de experiencia y una de las pioneras en salud mental digital.Fundó proyectos innovadores como Psicoanálisis Online y Tratamientos Online, y se ha consolidado como conferencista internacional en temas de innovación, psicoterapia online y bienestar digital.

 

Su misión es clara: integrar la tecnología de manera consciente para mejorar la salud mental y desarrollar soluciones humanas y sostenibles. En esta entrevista con Inteligencia Argentina, nos cuenta en detalle cómo la psicología y la Inteligencia Artificial pueden complementarse, sus beneficios, riesgos y los desafíos que vienen.

 

Mora Zaharya -  Psicóloga clínica.

 

¿Qué papel cree que debe tener una psicóloga en el desarrollo o uso de herramientas de inteligencia artificial?

 

El rol del psicólogo debe ser activo y no meramente de usuario pasivo. Necesitamos participar en el diseño, validación y supervisión ética de estas herramientas para asegurar que se fundamenten en evidencia científica, respeten la diversidad cultural sin producir sesgos y contemplen las complejidades del padecimiento humano.

Si dejamos que la IA aplicada a salud mental sea únicamente territorio de ingenieros o empresas, corremos el riesgo de que prime la eficiencia técnica por sobre el cuidado clínico, lo cual puede derivar en riesgos complejos que incluso al día de hoy se observan en su uso.

 

¿Qué tipo de herramientas digitales se utilizan hoy en la práctica clínica?

 

Hoy convivimos con un ecosistema digital clínico diverso: desde la teleconsulta y las plataformas de e-salud, hasta aplicaciones, terapias digitales guiadas, chatbots y wearables con datos biométricos, que aportan innovación pero aún requieren regulación y mayor evidencia.

El futuro apunta hacia un modelo híbrido, donde lo humano y lo tecnológico se integren de forma ética, segura y centrada en la persona.

Si bien en Argentina aún estamos demorados con la adopción de nuevas tecnologías, muchas ya están en uso en otros países. Existen aplicaciones para seguimiento de síntomas, detección temprana de recaídas, registros de estados anímicos, manejo de la ansiedad, registro del sueño y hábitos.

Cabe destacar que la mayoría de las aplicaciones en el mercado no presentan evidencia científica, por lo cual es fundamental la formación y actualización sobre su uso.

También hay plataformas que funcionan como soporte para profesionales, unificando agenda, historia clínica electrónica y mensajería.

Lo que más se observa en los estudios también refiere al uso de chatbots conversacionales que ofrecen respuesta para situaciones de baja complejidad; aunque aún se presentan dificultades por la ausencia de habilidades humanas como el contexto, el timing y la empatía.

El uso de realidad virtual ha sido estudiado y presenta validación científica, siendo eficiente en cuadros de fobia y estrés postraumático.

Sintéticamente, es una herramienta que se utiliza dirigida por un profesional, quien dispone del tiempo y la intensidad de exposición a hechos u objetos traumáticos.

Lo que más está en vigencia y crecimiento es el uso de la IA como ChatGPT, que presenta una multiplicidad de posibilidades. Puede ser utilizada por profesionales para simular una supervisión, relevar información científica, analizar grandes volúmenes de datos y elaborar informes.

Sin embargo, aún queda un camino para recorrer donde los profesionales de la salud aprendan ingeniería del prompt para un uso ético de la herramienta. Existe una gran cantidad de colegas que aún son reticentes a este tipo de tecnologías.

 

 

¿Qué ventajas concretas ve en la incorporación de tecnología para el seguimiento y evaluación de pacientes?

 

La tecnología, siempre con consentimiento informado, permite una monitorización continua y no solo en la consulta semanal, generando datos útiles para la consulta.

Ciertas plataformas integradas facilitan la detección temprana de recaídas, personalizan intervenciones en tiempo real y mejoran la adherencia al tratamiento. Además, permiten recopilar métricas objetivas —como patrones de sueño o actividad física— que complementan la narrativa del paciente.

Sin embargo, nos encontramos con pacientes que pierden la capacidad de autopercepción y toman los datos biométricos como verdad absoluta. Esto implica un riesgo a largo plazo, dado que se cede la reflexión sobre uno mismo a los dispositivos.

A nivel local, Argentina tiene gran historia en psicoterapias y bajo estigma social, lo que facilita el acceso a profesionales. Aún prima el valor del vínculo terapéutico y la autenticidad del contacto humano.

Sin embargo, en las nuevas generaciones se observa mayor adopción tecnológica y nuevos comportamientos mediados por lo digital. En este sentido, es importante integrar el mundo digital de los pacientes a la consulta psicoterapéutica.

 

 

¿Existen ya aplicaciones de IA que puedan ayudar en diagnósticos o planes de tratamiento?

 

Sí, pero su uso clínico serio aún está en etapas de validación.

Algunos sistemas de IA procesan grandes volúmenes de datos de historias clínicas y autoinformes para sugerir diagnósticos diferenciales o guiar planes de tratamiento basados en guías clínicas.

Sin embargo, ninguna IA sustituye el juicio clínico: son herramientas de apoyo, no de reemplazo.

 

¿Qué opina sobre los chatbots terapéuticos que prometen apoyo emocional 24/7?

 

Los chatbots terapéuticos que ofrecen apoyo emocional 24/7 son un fenómeno interesante en la intersección entre salud mental y tecnología.

Por un lado, amplían el acceso y ofrecen un primer espacio de desahogo inmediato, sin barreras de horario, costo o localización.

En ese sentido, pueden ser útiles en situaciones de soledad o como complemento a la terapia.

Es evidente que para cuadros de baja complejidad pueden ser un recurso de apoyo, pero son limitados ante patologías graves o situaciones agudas.

Sin embargo, no debemos confundir accesibilidad con eficacia clínica. Estos sistemas, por más sofisticados que sean, carecen de empatía genuina, lectura emocional profunda y comprensión del contexto.

Corremos el riesgo de banalizar el sufrimiento psíquico si se los presenta como sustitutos de la psicoterapia.

Otro punto crítico es la ética y seguridad de los datos. El vacío regulatorio y la falta de garantías sobre la confidencialidad son riesgos que no deben minimizarse.

En resumen, los chatbots terapéuticos son herramientas complementarias, con valor en la inmediatez y la disponibilidad, pero deben usarse con cautela.

No reemplazan la relación humana en la terapia ni la función del profesional de la salud mental, que sigue siendo insustituible en la comprensión, la contención y la transformación profunda de la experiencia subjetiva.

 

 

¿En qué áreas de la psicología cree que la IA puede aportar más valor y en cuáles puede ser más peligrosa?

 

La inteligencia artificial ya está aportando valor en varias áreas de la psicología, pero su potencial y sus riesgos deben ser analizados con cuidado.

Por un lado, la IA puede contribuir en el campo de la psicoeducación, acercando información confiable y personalizada, o en el apoyo a los profesionales, liberando tiempo administrativo para que puedan enfocarse en lo clínico. Pero el panorama cambia en la intervención terapéutica profunda, donde los riesgos son más evidentes.

La IA carece de la capacidad de sostener transferencia genuina, interpretar matices emocionales o responsabilizarse éticamente. Otro punto delicado es el uso de datos sensibles sin regulaciones claras.

En síntesis, la IA puede ser un aliado poderoso en prevención, psicoeducación y apoyo logístico, pero resulta peligrosa si se presenta como sustituto de la relación clínica y humana. El desafío es integrar la tecnología sin perder de vista que la salud mental sigue siendo, en esencia, un encuentro humano.

 

¿Qué desafíos éticos plantea la IA en la práctica psicológica?

 

La inteligencia artificial plantea desafíos éticos profundos. Uno de los más urgentes es la confidencialidad y protección de datos sensibles, ya que la IA los procesa sin marcos regulatorios sólidos.

Otro desafío es la responsabilidad profesional: si un algoritmo se equivoca, ¿quién responde?.  

También está el riesgo de deshumanización del vínculo terapéutico, porque la psicología no se reduce a información procesada, sino a escucha, empatía y co-construcción de sentido. Finalmente, la equidad en el acceso: la tecnología puede ampliar posibilidades o profundizar brechas. 

En síntesis, la IA puede aportar, pero exige marcos éticos claros, transparencia en el manejo de datos y un límite infranqueable: no reemplazar la dimensión humana de la terapia.

 

 

¿La generación más joven, nativa digital, se siente más cómoda interactuando con un bot que con una persona?

 

Las nuevas generaciones valoran la inmediatez, la ausencia de juicio y el anonimato en un bot. Crecieron con interfaces digitales y, para algunos, abrirse a un chatbot es más fácil que exponerse ante una persona. Sin embargo, la comodidad no equivale a contención real y se observa un empobrecimiento de las habilidades sociales.

La clave es no demonizar la tecnología, sino promover un uso consciente y acompañar a los jóvenes hacia un bienestar digital. En procesos terapéuticos profundos, la intervención profesional es insustituible.

 

¿Qué riesgos hay de que se normalice reemplazar la terapia humana por soluciones automatizadas?

 

El mayor riesgo es la banalización del sufrimiento psíquico. Un algoritmo puede dar consejos, pero no sustituye la complejidad del encuentro terapéutico. Otro riesgo es la pérdida de la dimensión relacional: la terapia es vínculo, escucha y contención.

Además, existe el peligro de desigualdad en el acceso: los más vulnerables podrían quedar confinados a chatbots básicos. También está la dependencia tecnológica y los problemas de confidencialidad.

En conclusión, la automatización puede ser un recurso complementario, pero el riesgo es crear una salud mental de “bajo costo” que profundice desigualdades y deshumanice el cuidado psicológico.

 

 

¿Cómo cree que será la consulta psicológica en 10 años con el avance de la IA?

 

Probablemente híbrida: sesiones humanas combinadas con soporte tecnológico. El terapeuta podría recibir alertas predictivas y el paciente, intervenciones personalizadas. La clave será que la IA amplifique la capacidad del profesional, no que lo sustituya.

La consulta seguirá dependiendo del encuentro humano, la empatía y la contención. En síntesis, dentro de una década la IA hará la consulta más personalizada y eficiente, pero seguirá siendo el terapeuta humano quien sostenga la dimensión ética, emocional y transformadora.

 

¿Los futuros psicólogos deberían recibir formación en tecnología e inteligencia artificial?

 

Absolutamente. Entender cómo funciona la IA, sus alcances y limitaciones será tan esencial como conocer teoría del apego o psicopatología.

Debe ser una competencia transversal, integrada en la formación. La alfabetización digital se convierte en parte de la ética profesional.

 

 

¿Qué mensaje le daría a sus colegas que son escépticos o temerosos frente a estas herramientas?

 

La tecnología no es enemiga ni salvadora: es un medio. Ignorarla nos deja fuera de la conversación y cede el control a quienes no tienen formación clínica.

La clave es posicionarse críticamente, apropiarse del debate ético y clínico. La IA no reemplaza al psicólogo, plantea nuevos escenarios: más acceso, más datos, más inmediatez. 

Además, en varios países como Canadá, Australia o los nórdicos, ya se integran servicios de salud mental digital en políticas públicas: autogestión, psicoeducación, terapias online y chatbots.