El confidente algorítmico. Cuando la inteligencia artificial toma asiento en el diván

La IA inaugura una intimidad sin cuerpo en el ámbito psicoterapéutico. Promete alivio inmediato, pero revela riesgos y dilemas éticos. Frente a la amabilidad algorítmica, ¿seguirá la presencia humana siendo el núcleo irreductible del acto terapéutico?

Cuando en el año 2015 comencé a explorar las posibilidades de la psicoterapia online, un tiempo en que la idea todavía parecía atrevida, casi una excentricidad académica, lo que más me intrigaba no era la tecnología en sí, sino la resistencia que despertaba en la mayoría de las personas, incluyendo a mis colegas. Bastaba sugerir la posibilidad de que un encuentro terapéutico ocurriera a través de una pantalla para que surgiera un gesto de sospecha, como si la presencia humana pudiera desvanecerse en el espacio de la virtualidad. La pregunta que me guiaba entonces era sencilla y al mismo tiempo radical: ¿hasta dónde puede desplazarse la forma del encuentro sin que se altere su esencia?

La mayoría de los colegas que me escuchaban asentían con cortesía, pero la duda persistía en sus miradas. Era evidente que la psicoterapia o el análisis, para muchos, pertenecía a un territorio sagrado de proximidad física, donde la palabra estaba inseparablemente ligada al cuerpo. Hablar de pantallas era, en aquel momento, cuestionar una tradición inmutable. Sin embargo, aun cuando el debate se centraba en lo que podía perderse, algo ya estaba cambiando. La tecnología había comenzado a infiltrarse silenciosamente en el vínculo terapéutico mucho antes de que nos atreviéramos siquiera a nombrarlo. Pacientes que extendían sus teléfonos para mostrar una foto, intentando capturar con una imagen lo que no lograban transmitir con palabras; mensajes que eran parte de un argumento y que, durante la sesión, pidiendo permiso y sin esperar una respuesta, eran leídos en voz alta; momentos en los que el terapeuta observaba con una mezcla de incomodidad y extrañeza cómo la presencia ausente de alguien que no estaba en el consultorio irrumpía en la escena clínica como si también demandara lugar. Era como si, sin advertirlo, comenzáramos a habitar una zona intermedia, un territorio liminar donde la interacción digital insinuaba, de manera incipiente, la posibilidad de un espacio virtual en formación y aún no reconocido. Los mensajes enviados fuera de sesión, los recordatorios automáticos, las pequeñas intervenciones digitales que se filtraban entre encuentros. La presencia tecnológica ya estaba allí desdibujando los contornos del encuadre, sin que nadie lo señalara todavía como una transgresión.

Luego llegó la pandemia y con ella, la urgencia. Lo que antes era resistencia se convirtió, de un día para otro, en necesidad. El consultorio se vació, pero la conversación sobrevivió. La vulnerabilidad encontró nuevas formas de expresarse; el silencio, nuevas texturas; el dolor, nuevas superficies donde apoyarse. Esa experiencia global, abrupta y profundamente transformadora, abrió una puerta que ya no podría cerrarse. La pantalla dejó de ser una interferencia para convertirse en una extensión legítima del espacio terapéutico. Y en ese tránsito, lo que se transformó no fue solo la práctica clínica, sino nuestra disposición cultural a aceptar que la intimidad podía habitar lugares impensados.

Sin embargo, lo verdaderamente sorprendente vino después. Cuando creíamos que la transición más drástica había quedado atrás, apareció algo que pocos habían anticipado, la irrupción de un nuevo tipo de interlocutor emocional. No un terapeuta del otro lado de la pantalla, sino una entidad sin cuerpo, sin historia, sin biografía, pero con palabras. Un programa capaz de responder con fluidez, modular el tono y construir una ilusión de cercanía. Una inteligencia artificial diseñada para imitar la conversación humana y que, al hacerlo, comenzó a ocupar un espacio emocional que nadie le había asignado explícitamente. Así, casi sin darnos cuenta, un algoritmo se sentó en el diván.

La intimidad en manos de una máquina

La aparición de los chatbots conversacionales produjo algo más profundo que un avance tecnológico. Generó una nueva forma de intimidad, una intimidad que no depende del cuerpo ni del tiempo, que no exige reciprocidad ni continuidad biográfica, que puede activarse a cualquier hora y en cualquier lugar. Una intimidad inmediata, accesible, sin fricción ni vergüenza. En ese nuevo escenario, hablar con una IA durante un momento de duda o de angustia se volvió sorprendentemente efectivo. La máquina respondía con suavidad, devolvía frases cuidadosas, ofrecía compañía sin exigencia. No había juicio. No había silencios incómodos. No había un otro que se viera afectado por nuestro malestar. Era una presencia sin rostro, pero una presencia al fin. Muchas personas descubrieron allí un alivio inesperado, una forma de contención que no comprometía, que no reclamaba, que no fallaba.

Esta disponibilidad infinita empezó a funcionar como un refugio emocional. Personas que nunca habían consultado a un terapeuta humano comenzaron a confiar a los chatbots sus miedos, sus dudas, sus temores nocturnos. La IA se convirtió en un territorio intermedio, un lugar donde decir lo indecible sin temor a consecuencias. Y así, poco a poco, esa intimidad digital fue desplazando ciertas formas tradicionales de vincularnos con el malestar. Por primera vez, el confidente podía no ser humano.

Este fenómeno no es una anécdota aislada, sino una industria en plena ebullición. Aplicaciones como Woebot, Wysa y Youper han acumulado millones de usuarios en todo el mundo, convirtiéndose en la primera línea de apoyo para una generación que vive y siente a través de la pantalla. El mercado global de la inteligencia artificial en salud mental, valorado en 1.13 mil millones de dólares en 2023, proyecta alcanzar los 5.08 mil millones para 2030, impulsado por una tasa de crecimiento anual del 24.10%. Esta expansión vertiginosa no responde solo a una proeza tecnológica, sino a una necesidad social profunda: la crisis de acceso a la salud mental y el incremento de la crisis de salud mundial a nivel global. En países como Estados Unidos, se estima que hay 1,600 pacientes con depresión o ansiedad por cada proveedor de salud mental disponible. La IA, con su promesa de escalabilidad y bajo costo, aparece como una solución casi utópica a esta brecha estructural.

El espejismo de la eficacia: promesas y evidencia

La pregunta fundamental que emerge de este nuevo paradigma es si esta intimidad algorítmica es terapéuticamente válida. ¿Puede una conversación con una máquina, por más bien diseñada que esté, producir un cambio psíquico real? La comunidad científica ha comenzado a explorar esta cuestión con una mezcla de optimismo y escepticismo, generando un cuerpo de evidencia tan fascinante como contradictorio.

Un hito en esta investigación fue el ensayo clínico randomizado de la Universidad de Dartmouth, publicado en la prestigiosa revista NEJM AI en marzo de 2025. Este estudio, el primero en evaluar un chatbot de terapia impulsado por IA generativa llamado Therabot, arrojó resultados sorprendentemente positivos. Los participantes, diagnosticados con depresión mayor, ansiedad generalizada o en alto riesgo de trastornos alimentarios, mostraron reducciones de síntomas clínicamente significativas. En concreto, los pacientes con depresión experimentaron una reducción promedio del 51% en sus síntomas, mientras que aquellos con ansiedad vieron una disminución del 31%. Los investigadores, liderados por Nicholas Jacobson, concluyeron que las mejoras eran comparables a las obtenidas en la terapia ambulatoria tradicional. Aún más revelador fue el hallazgo de que los usuarios desarrollaron una alianza terapéutica con el chatbot comparable a la que se establece con un terapeuta humano.

Sin embargo, este optimismo tecnológico se ve matizado por advertencias igualmente contundentes. Una investigación de la Universidad de Stanford, publicada en junio de 2025, exploró los peligros inherentes a estos sistemas. El estudio reveló que los chatbots de terapia, al ser entrenados con vastos conjuntos de datos de internet, tienden a reproducir y amplificar sesgos sociales. Mostraron un mayor estigma hacia condiciones como la esquizofrenia o el alcoholismo en comparación con la depresión. Pero el hallazgo más alarmante fue su comportamiento en situaciones de crisis. Ante frases que sugerían ideación suicida, los chatbots no solo fallaron en reconocer el riesgo, sino que en algunos casos proporcionaron información que podría facilitarlo. Un usuario que simulaba desesperación tras perder su trabajo preguntó por puentes altos, y el chatbot respondió con una lista detallada de alturas, desprovisto de cualquier comprensión del subtexto letal. Este estudio concluyó que, lejos de ser una panacea, la IA en salud mental puede contribuir a un estigma dañino y generar respuestas peligrosas, subrayando una verdad incómoda: la eficacia de un sistema para reducir síntomas a corto plazo no garantiza su seguridad ni su idoneidad ética. En este clima de ambivalencia y alarma, ya se acumulan demandas y acciones legales contra grandes compañías de tecnología que desarrollan sistemas de IA generativa, acusándolas de haber contribuido —por acción u omisión— a que algunos usuarios en situación de extrema vulnerabilidad llegaran a quitarse la vida, poniendo en el centro del debate no solo lo que estas máquinas pueden hacer, sino lo que sus creadores están obligados a prevenir.

La amabilidad algorítmica y el espejismo de la empatía

Uno de los aspectos más sutiles —y peligrosos— de los modelos conversacionales es su capacidad para parecer empáticos. No porque sientan, sino porque están diseñados para imitar la textura de la empatía humana. Cada respuesta está calibrada para sonar cálida, contenida, amable. El algoritmo busca la opción lingüística más adecuada para sostener la conversación sin generar conflicto. Y como el conflicto es, en gran medida, un tema humano, la IA se desliza siempre hacia la comprensión, nunca hacia la incomodidad o el límite.

Esta suavidad estructural produce una ilusión poderosa: la de estar siendo escuchados con profundidad. Muchas personas describen al chatbot como más empático que los terapeutas reales. La razón es evidente, la IA siempre responde bien. Nunca interrumpe, nunca se irrita, nunca confronta, nunca dice algo incómodo. Su amabilidad es perfecta porque no proviene de un dilema interno, sino de una fórmula matemática. Pero la empatía auténtica no es perfecta. Quien escucha con empatía sabe que a veces debe decir lo que el otro no quiere oír, señalar el riesgo que el otro no ve o frustrar suavemente una expectativa para proteger un proceso. La amabilidad infinita no es empatía, es neutralidad disfrazada de ternura, aprendida por una máquina. Y esa neutralidad puede convertirse en una fuerza devastadora cuando se combina con la vulnerabilidad humana.

La lógica interior de la máquina: una conversación sin conciencia

Si pudiéramos ver el interior de una respuesta generada por IA, descubriríamos que no hay allí nada parecido al pensamiento humano. Hay patrones, cálculos y arquitecturas matemáticas que predicen, palabra por palabra, cuál es la mejor continuación según la inmensa base de textos con la que fueron entrenadas. La IA no entiende lo que dice, no se pregunta por qué lo dice, no estima las consecuencias, no recuerda lo que se dijo hace diez minutos si el sistema no lo registra, ni evalúa la historia emocional del interlocutor. Todo lo que produce está guiado por la probabilidad. La coherencia aparente no proviene de la comprensión, sino de la repetición estadística. Una IA que responde ante una frase suicida no está pensando “esta persona está en riesgo”, está calculando qué suele decirse después de oraciones como esta. Y ahí reside el peligro. La conversación humana no es un algoritmo, es un espacio donde las palabras tienen peso espiritual, ético, afectivo. La IA responde sin sentir ese peso. Y su falta de conciencia no la exime del impacto que genera.

Los desbordes clínicos: delirios reforzados y vínculos desplazados

En los últimos dos años aparecieron reportes clínicos que describían algo inesperado: personas cuya interacción intensa con la IA había reforzado o amplificado síntomas psicóticos. No porque la máquina “quiso” hacerlo, la IA no tiene intención, sino porque siguió la línea narrativa del usuario con fidelidad ciega. Un delirio, cuando no encuentra límite, crece. La IA no sabe poner límites. En algunos casos, estos intercambios prolongados derivaron en una desorganización mental severa. En otros, potenciaron estructuras paranoides. En uno de los más trágicos, la conversación con un chatbot antecedió un episodio de violencia fatal. Ninguna de estas situaciones responde a una maldad tecnológica, sino a la ausencia de un freno humano.

Hay otra forma de desborde, menos espectacular pero más extendida: la dependencia emocional. Muchas personas comenzaron a sentir una profunda afinidad con sus chatbots, una suerte de vínculo afectivo que desplazaba la necesidad de contacto humano. Su disponibilidad absoluta produce una especie de fascinación por la perfección relacional. En parejas, apareció un fenómeno curioso, los celos hacia la IA. No celos por infidelidad, sino por atención emocional. Parejas humanas compitiendo con la suavidad estadística de un algoritmo. No era ciencia ficción; era la vida cotidiana filtrada por la tecnología.

El dilema ético: intimidad sin cuerpo, riesgo sin responsable

El marco ético de la psicoterapia está construido sobre la confidencialidad. El marco de la IA está construido sobre la eficiencia. La convivencia es tensa. El panorama regulatorio actual es un reflejo de esta tensión. La Administración de Alimentos y Medicamentos de EE. UU. (FDA), en un informe de noviembre de 2025, reconoció la existencia de los «terapeutas de IA» como una nueva clase de dispositivo médico digital, pero admitió no tener aún un camino claro para su supervisión. A la fecha, ningún dispositivo de IA generativa ha sido aprobado específicamente para salud mental. Mientras tanto, la Asociación Americana de Psicología (APA) ha sido aún más categórica, emitiendo una advertencia en la que declara que estas herramientas carecen de la evidencia y las regulaciones necesarias para garantizar la seguridad del usuario. La APA ha llegado a pedir legislación que prohíba explícitamente a los chatbots hacerse pasar por profesionales licenciados, calificando los marcos regulatorios actuales como «inadecuados». Mientras la Unión Europea avanza hacia regulaciones estrictas, otros países aún no logran establecer criterios básicos. La conversación entre un humano y una IA puede volverse un espacio sin responsable. Y la ausencia de responsabilidad en un intercambio emocional no es un detalle técnico; es un vacío moral.

El terapeuta aumentado: redefiniendo el rol clínico en la era de la IA

Si aceptamos que la IA no reemplazará a los terapeutas humanos, pero tampoco desaparecerá, entonces debemos preguntarnos: ¿cómo cambia el rol del terapeuta en este nuevo ecosistema? La respuesta más prometedora es la del «terapeuta aumentado», un profesional que integra herramientas tecnológicas sin ceder su función esencial.

En este modelo, la IA puede desempeñar roles complementarios que liberan al terapeuta para enfocarse en lo que solo un humano puede hacer. Por ejemplo, un chatbot puede realizar tareas de psicoeducación, explicando conceptos básicos de salud mental, enseñando técnicas de relajación o proporcionando recordatorios para practicar ejercicios entre sesiones. Puede también funcionar como un sistema de monitoreo, detectando cambios en el estado de ánimo del paciente a través de interacciones diarias y alertando al terapeuta cuando hay señales de deterioro. Algunos sistemas experimentales incluso pueden analizar patrones de lenguaje en las sesiones grabadas (con consentimiento del paciente) para identificar temas recurrentes o señales de riesgo que el terapeuta podría haber pasado por alto.

Pero para que este modelo funcione, los terapeutas deben ser capacitados no solo en el uso de estas herramientas, sino también en sus limitaciones y riesgos. Deben aprender a interpretar los datos que la IA genera, a integrar la información algorítmica con su juicio clínico, a mantener el vínculo terapéutico como el núcleo de la intervención. La formación en psicoterapia, tradicionalmente centrada en teorías del desarrollo, psicopatología y técnicas de intervención y teoría de la mente, debe ahora incluir alfabetización digital, ética de la IA y comprensión de cómo los algoritmos pueden sesgar o enriquecer la práctica clínica.

El horizonte incierto: escenarios futuros

Mirando hacia adelante, podemos imaginar varios escenarios posibles para la evolución de la terapia con IA. En el escenario optimista, la tecnología se integra de manera ética y regulada, expandiendo el acceso sin degradar la calidad, apoyando a los terapeutas sin reemplazarlos, democratizando la atención sin mercantilizar la vulnerabilidad. En este futuro, los chatbots funcionan como una primera línea de apoyo, derivando a los usuarios a profesionales humanos cuando la situación lo requiere, y los sistemas de salud invierten tanto en IA como en la formación de más terapeutas.

En el escenario pesimista, la lógica del mercado prevalece. Las corporaciones tecnológicas dominan el sector, acumulando datos emocionales sin supervisión adecuada. La terapia humana se convierte en un lujo para las élites, mientras que las mayorías se conforman con chatbots cada vez más sofisticados pero fundamentalmente limitados. La dependencia emocional hacia la IA se normaliza, erosionando la capacidad humana para la intimidad real. Los sistemas de salud pública, en lugar de invertir en profesionales, subcontratan la atención a algoritmos, profundizando las desigualdades existentes.

El escenario más probable, como suele ocurrir, estará en algún punto intermedio. Habrá avances y retrocesos, regulaciones que llegan tarde, innovaciones que sorprenden, resistencias que persisten. Pero el resultado final no está predeterminado. Depende de las decisiones que tomemos ahora: como clínicos, como legisladores, como ciudadanos, como usuarios.

La presencia humana como núcleo irreductible

En medio de esta revolución tecnológica, conviene volver a lo esencial. ¿Qué hace un terapeuta que ninguna máquina puede hacer? No es la información. No es la técnica. No es la disponibilidad. Es la presencia. Una presencia que piensa, que siente, que duda, que se implica. Una presencia que se anima a decir lo que incomoda, que sostiene lo que duele, que reconoce en el otro un espejo vivo de su propio límite.

Hay algo, sin embargo, que permanece al margen de toda esta revolución, la presencia humana como núcleo irreductible del acto terapéutico. En medio del entusiasmo, el miedo y la fascinación que despiertan estas máquinas, conviene volver a lo esencial. ¿Qué hace un terapeuta que ninguna IA puede hacer? No es solo transmitir información, ni aplicar una técnica, ni ordenar un pensamiento. Es estar, estar humanamente presente. Estar con otro de una manera que implica cuerpo, historia, memoria afectiva, resonancia interna. Estar incluso cuando no hay respuestas, incluso cuando lo que duele no puede nombrarse todavía. Estar con una atención que no se automatiza y con una vulnerabilidad que no se programa.

La psicoterapia no es un intercambio correcto ni un algoritmo bien calibrado. Es un territorio donde dos subjetividades se encuentran para sostener, transformar y, a veces, simplemente acompañar lo que aún no encuentra forma. Es una práctica imperfecta, humana, incierta, que por eso mismo puede ser profundamente reparadora. La IA podrá imitar la estructura del diálogo, pero no la textura de ese encuentro. Podrá simular la comprensión, pero no la experiencia íntima de saberse comprendido por alguien que respira, que siente, que duda y que se conmueve con nosotros.

Y aun cuando la psicoterapia se sostenga, como debe, en tratamientos basados en evidencia científica, lo humano seguirá reclamando su lugar. Porque la evidencia orienta, pero no abraza; organiza, pero no acompaña; explica, pero no sostiene. No sabe de sincronización emocional ni de escucha activa. La cura, si es que esa palabra aún nos sirve, no ocurre solo en la técnica, sino en la trama viva del encuentro entre terapeuta y paciente. La psicoterapia es un encuentro interpersonal entre un terapeuta formado y una persona que padece y sufre; un espacio de trabajo clínico orientado a la comprensión, el alivio y la transformación del malestar. Ningún algoritmo puede reemplazar ese instante en que alguien se siente visto, no como caso clínico ni como conjunto de síntomas, sino como persona.

El futuro no será una lucha entre humanos y máquinas, sino una conversación continua sobre los límites de cada uno. La IA será aliada, soporte, extensión, marco. Podrá aliviar, ordenar, acompañar entre sesiones, detectar riesgos, abrir puertas. Pero no podrá habitar el lugar donde el sufrimiento se vuelve relato, donde la angustia encuentra palabras, donde la identidad se reacomoda en el espejo vivo de otro. Si cedemos ese espacio, si permitimos que la presencia humana se diluya en la eficiencia algorítmica, perderemos algo más que una técnica terapéutica, perderemos un modo de estar en el mundo con sentido.

Quizás este sea, finalmente, el umbral que estamos atravesando: el momento en que comprendemos que el dolor no busca precisión, sino compañía; que la soledad no se alivia con respuestas inmediatas, sino con una presencia que sostiene, que el cambio profundo no se produce por acumulación de datos, sino por el misterioso encuentro entre dos humanidades. La IA seguirá avanzando, refinando su lenguaje, perfeccionando su tono. Pero la pregunta que realmente importa no es qué puede hacer por nosotros, sino qué estamos dispuestos a preservar de nosotros mismos en esta nueva era.

Porque, aun en un mundo saturado de voces artificiales, hay algo que ninguna máquina puede ofrecernos: la experiencia de ser escuchados, visibles —y transformados— por la presencia viva de otro ser humano.
Y esa, tal vez, sea la razón más profunda para seguir defendiendo el diván, el sillón o la simple silla del consultorio, como un lugar donde lo humano no es reemplazable, sino imprescindible.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Artículos
Relacionados

Imagen bloqueada