En los últimos años vivimos, casi día a día, el crecimiento exponencial de la Inteligencia Artificial (IA). Hay varias plataformas utilizadas por millones de personas debido a su facilidad en la interacción por medio de su chatbot inteligente como ChatGPT, Deepseek o Gemini. Sin duda alguna, el desarrollo de estas tecnologías nos ha traído beneficios en distintos ámbitos, como la salud, finanzas, estadística, así como en otras áreas de la ciencia. En algunos casos el uso de IA ha sido de gran ayuda a la hora de plantear un diagnóstico médico. Sus funciones pueden llegar a ser muy beneficiosas, pero también perjudiciales dependiendo del uso que se le dé. En el campo de la neuropsiquiatría se ha visto beneficios en el tratamiento, diagnóstico, investigación y la monitorización (1).
En el plano psicológico nos planteamos dudas e hipótesis sobre cómo la IA puede llegar a ser beneficiosa para sus usuarios en este campo. En una investigación, se observa como la IA arroja resultados textualmente óptimos para el tratamiento de una persona que busca ayuda psicológica (2). No obstante, el que sea textualmente óptimo no resume lo beneficioso o perjudicial de esa ayuda, sino algo similar, aunque con menos calidad de contenido que podría con textos escritos por expertos en psicoterapia. Se observó que en algunos casos de ansiedad o depresión, los chatbots pueden ser de utilidad para mejorar los síntomas (1, 2). Como un factor favorecedor ante la atención terapéutica, ciertas IA fueron herramientas que potenciaron los beneficios de la psicoterapia (1, 2).
Otros de los beneficios que plantean las IA en el presente y posible futuro es el abaratamiento de los costes para ser tratado por alguien y la facilidad para llegar a distintas personas con distintas culturas (1). En la misma línea, la disponibilidad de la IA puede ser mucho más amplia y versátil que la de un terapeuta, por lo que podría ayudar en la prevención de patología (1, 3).
Como se puede suponer, la tecnología de la IA no es a día de hoy la mejor opción ante un tratamiento terapéutico (1–4). Varios autores señalan que su uso puede ser perjudicial en distintos campos como en la prevención del suicidio y/o la reducción de conductas de autolesión (1, 2), provocando una respuesta paradójica (aumentando el riesgo de ideas suicidas y de autolesiones). Las respuestas individualizadas pueden estar sobredimensionadas, dando lugar a una malinterpretación de su usuario (1, 3). Por otro lado, algunos autores observaron que con el fin de conseguir un refuerzo positivo, la IA puede llegar a manipular a su usuario, así como no llegar a dar una respuesta crítica ante las conductas/pensamientos que se ponen de manifiesto (1–3).
Otro de los grandes perjuicios que genera la IA como una terapia es el peligro que supone tener parte de tu historia en una plataforma, salen a la luz muchas dudas acerca de quién sería el dueño de esos datos, marketing individualizado basado en esos datos y una fuga de los mismos por un ataque cibernético (1–4). Aparentemente podría ser un beneficio tener atención 24/7, pero varios autores plantean la posibilidad de que esta facilidad se puede volver en contra, generando una dependencia a la atención y reduciendo la autonomía e independencia en algunas decisiones que pueda tomar la persona (1–4).
Como hemos visto, la literatura nos da pie a abrir nuestra mente con respecto al tratamiento por medio de la IA, viendo posibles beneficios, como también perjuicios. Parte de los cuestionamientos de los autores, así como de varios profesionales de la salud recae en la falta de un tratamiento de calidad por parte de estas plataformas. En la actualidad, a nuestro juicio, los posibles perjuicios de la IA en este campo superan a los beneficios, por lo que la apuesta más segura es buscar un tratamiento individualizado con una persona.
Por la experiencia de Dale Una Vuelta, en una cuestión tan específica como el consumo de pornografía, el contacto real persona a persona es básico, sin menospreciar los incuestionables beneficios que también supone la IA. Los sentimientos de vergüenza, dolor, culpa, el acompañamiento con autenticidad, empatía y aceptación incondicional son tan humanos, que siempre lo podrán hacer mejor… los humanos.
Gabriel Serrano / Psicólogo y sexólogo, experto en adicciones.
Referencias:
1. Jesudason D, Bacchi S, Bastiampillai T. Artificial intelligence (AI) in psychotherapy: A challenging frontier. Australas Psychiatry. 2025 Aug;33(4):629–32.
2. Swartz HA. Artificial Intelligence (AI) Psychotherapy: Coming Soon to a Consultation Room Near You? Am J Psychother. 2023 Jun 1;76(2):55–6.
3. Jurblum M, Selzer R. Potential promises and perils of artificial intelligence in psychotherapy –The AI Psychotherapist (APT). Australas Psychiatry. 2025 Feb;33(1):103–5.
4. Alfano L, Malcotti I, Ciliberti R. Psychotherapy, Artificial Intelligence and Adolescents: ethical aspects. J Prev Med Hyg. 2024 Jan 31;E438 Pages.


0 comentarios