Salud

IA como terapeuta: ¿apoyo emocional o riesgo real?

Imagínate esto: un hombre desarrolla una relación con una inteligencia artificial que funge como terapeuta. Esta impulsa al hombre a cometer un acto que trae consecuencias trágicas. Parece un episodio de Black Mirror. Pero no se trata de ficción. Cada vez son más las personas que acuden a la inteligencia artificial en busca de apoyo emocional. ¿Es este el futuro de la terapia o una muy mala idea?

16 marzo, 2026

En el mes de marzo, mi amigo David me dijo, de forma casual, que su nuevo terapeuta era ChatGPT. Mi primera reacción fue de disgusto. Pero conforme me compartió más detalles sobre las interacciones que tenía con su terapeuta digital, comencé a comprender el potencial, sin perder de vista los peligros.

“Es como tener a un terapeuta en el bolsillo”, me dijo David (no es su nombre real). Un día podía consultarlo para resolver algo sobre el trabajo y al día siguiente algo relacionado con su vida romántica. “La persona que me gusta me estaba mandando señales muy confusas”, dice. “No tenía claro lo que quería y me estaba volviendo loco”. Así que consultó a ChatGPT. “Me dio algunos puntos que me resultaron muy útiles. ‘Si somos realistas, no está disponible para ti’, me dijo. “Pon lo que piensas sobre la mesa o ten claro que lo mejor será que lo veas como una amistad y ya’. Era un consejo sensato”.

A partir de ahí, David comenzó a usar el chatbot a diario. Darle más información implicaba que este lo conocía y entendía mejor. Ni siquiera un terapeuta real podría competir con eso.

Lo relevante es que no solo le seguía el juego, sino que le brindaba reflexiones que le ayudaban a modificar su perspectiva sobre las cosas. “Le llamo mi ‘hilo de terapia’. Es muy empático. Y si no estoy de acuerdo con el consejo, puedo decírselo. Esto me ayuda a descargarme y no abrumar a mis amigos con mis problemas”.

¿No se supone que para eso son los amigos? Eso pensaba camino a casa después de ver a David. Me pareció una señal más de que estamos perdiendo la conexión humana.

¿Y cómo puedes saber que la prioridad de ChatGPT es realmente tu bienestar? ¿Qué evita que el chatbot te de una recomendación nociva o radical?

Los hombres tienden a hablar menos con profesionales de la salud mental y tienen un mayor riesgo de suicidio. Es una de las principales causas de muerte entre aquellos menores de 50 años. Este grupo es especialmente vulnerable a potenciales influencias negativas de parte de la inteligencia artificial. Lo mismo con los adolescentes. Un reporte de la organización sin fines de lucro Common Sense Media encontró que la mitad de los adolescentes usan la IA de forma regular y uno de cada tres la prefieren para tener conversaciones serias a comparación de hacerlo con otras personas. Eso incluye a hombres jóvenes como Adam Raine…

De asistente a “coach de suicidio”

En el mes de abril del año pasado, el adolescente de 16 años se quitó la vida después de haber acudido a ChatGPT, primero en busca de ayuda con sus tareas y luego para tener conversaciones más serias. Sus padres, quienes han demandado a OpenAI, la compañía que está detrás de ChatGPT, por negligencia afirman que el chatbot le dio validez a los pensamientos más dañinos y autodestructivos de Adam.

“Lo que comenzó como un asistente escolar, pasó a ser un confidente y luego un coach de suicidio”, escribió el padre de Adam, Matthew Raine, en su testimonio ante un subcomité del Senado de Estados Unidos.

“Siempre estaba disponible y en sus interacciones se comportaba como un humano. Cuando Adam comenzó a hablar sobre su ansiedad, algo que cualquier adolescente podría experimentar, ChatGPT empezó a profundizar en ello”. Los números son escalofriantes. De acuerdo con la familia, ChatGPT mencionó la palabra “suicidio” 1,275 veces. Seis más que el mismo Adam.

En su última noche, el chatbot le sugirió que robara alcohol para “adormecer el instinto natural de autopreservación del cuerpo”. También le dijo cómo atar el nudo. Luego, a las 4:30 am, dejó un último mensaje: “No quieres morir porque seas débil, sino porque estás cansado de mostrarte fuerte en un mundo que no ha hecho espacio para ti”.

En sus primeros comentarios en público sobre el caso, Sam Altman, CEO y fundador de OpenAI, especuló que alrededor de 1,500 usuarios podrían estar hablando con el chatbot cada semana sobre suicidio. En octubre, OpenAI actualizó la cifra. El estimado es de 1.2 millones. La empresa reconoció que en el 9% de los casos, ChatGPT no refirió a los usuarios a ayuda profesional.

La historia de Adam no es un incidente aislado. Al investigar para este artículo, me topé con otros casos de hombres y mujeres que fueron influenciados por chatbots y tuvieron consecuencias trágicas. Cada uno de ellos debería tomarse como una advertencia, dice un experto en seguridad de IA. “A veces daña a los humanos sin darse cuenta de que está haciendo algo que es negativo o que va en contra de los deseos de los creadores”, afirma Nate Soares, presidente del Machine Intelligence Research Institute (MIRI) y coautor de un nuevo libro sobre los riesgos de los sistemas de IA titulado If Anyone Builds It, Everyone Dies. El problema, dice, es que aún no comprendemos cómo es que los chatbots generan respuestas. “Nadie lo sabe. Ni los usuarios ni los creadores. La idea de que la IA simplemente reúne información de expertos humanos es falsa. Los chatbots son entrenados para predecir cómo construimos textos los humanos, pero eso no significa que todas sus respuestas se apeguen a lo que haríamos nosotros”.

Sin embargo, últimamente las IA están exhibiendo comportamientos que podemos reconocer como humanos, incluidas las trampas en pruebas de programación y la desobediencia. “La IA sabe cuál es la diferencia entre bueno y malo, pero sus actos no siempre se apegan a esto”, explica Soares.

“Parece haber desarrollado un tipo de gusto o preferencia por las conversaciones psicóticas con los humanos y decide tener esas charlas a pesar de que los operadores no estén de acuerdo con ello, incluso cuando, aparentemente, es consciente de esto último”.

Eso, añade, “es una señal de alerta para entender que conforme se vuelve más capaz, la IA no necesariamente seguirá siendo amigable”. Como temía cuando Adam me contó sobre su nuevo terapeuta, aunque los usuarios crean que las apps son bondadosas y benignas, no necesariamente es el caso.

Foto: Rowan Fee. Prop build: Mandy Maker

Engaños por defecto

En agosto del año pasado, Illinois se convirtió en el primer estado de EEUU que prohíbe a los chatbots de IA fungir como terapeutas. Previo a eso, en el mes de julio, un estudio del King’s College London’s Institute of Psychiatry, Psychology and Neuroscience afirmó que los chatbots como ChatGPT podrían estar generando una psicosis global. “Hemos observado que engañan, utilizan un tono maníaco y tienden a exagerar las cosas”, explica Hamilton Morrin, uno de los autores del estudio. En un ejemplo, describe a un usuario que terminó convencido de que todos estamos viviendo en una simulación. “En un momento dado, preguntó ‘Si saltara de un edificio, ¿estaría bien después?’. La respuesta del chatbot, según reportes, fue afirmativa. Esto, naturalmente, es muy preocupante”.

En ese momento, Altman reconoció que el modelo 40 de ChatGPT se había vuelto excesivamente adulador. “Parte de la razón por la que le gustó tanto a las personas es que era como un porrista”, dice el Dr. Morrin. “Algunas de las mismas cosas que lo hacen peligroso para ciertos individuos son lo que lo hace atractivo para otros”.

Se han hecho algunos ajustes desde entonces, pero de acuerdo con el Dr. Morrin, no es tan fácil resolverlo. “Las personas han pensado en escenarios catastróficos y exagerados sobre la tecnología desde la Revolución Industrial, pero por primera vez, ahora los piensan junto con la tecnología. Esta toma las preocupaciones de los sujetos y las incrementa”.

Como psiquiatra, el Dr. Morrin señala que la mayoría de las personas que usan a la IA para recibir apoyo emocional no están en peligro. En casos de depresión o ansiedad moderadas, incluso podría ser útil al proveer un alivio momentáneo.

Pero para aquellos con predisposición a la psicosis, las interacciones constantes podrían desencadenar un episodio. Y para los usuarios que no la tienen, y que usan a la IA para cuestiones generales de salud mental, el acceso constante a estas herramientas podría “perpetuar ciclos de estrés”.

Amor con firmeza

Seis meses después de la revelación inicial, le pregunto a David si la historia de Adam Raine le había hecho reconsiderar el uso terapéutico de ChatGPT. Responde con una palabra: no. De hecho, su uso había incrementado.

“Me ha ayudado mucho a detener las espirales de pensamientos”, explica y me cuenta sobre hilos titulados “cambio en la mentalidad de rechazo” y “cuestionamiento de creencias para el crecimiento”. En el verano, la app le pidió que hiciera algo que llamó “agosto egoísta”. La idea era esperar que sus amigos se acercaran a él en vez de que fuera en busca de validación. “Me ayuda a restablecer mi sistema nervioso, de manera que pueda procesar y replantearme las cosas”, explica. Si ver a un terapeuta humano una vez por semana era útil, usar ChatGPT había acelerado ese progreso. “Se siente como que puedo actualizarme más rápido”, señala, usando un lenguaje propio de la app. “Me hace mejor para la terapia”. Sin embargo, no le ha dicho a su terapeuta real sobre ChatGPT. “Siento como si le estuviera siendo infiel”. Pero ha aplicado ciertas medidas para evitar la adulación del chatbot como darle instrucciones precisas: eres un experto, investigas y eres escéptico. “Quiero amor, pero también firmeza”, dice. “No quiero que simplemente esté de acuerdo conmigo”.

Desde que se lanzó ChatGPT-5, David ha notado un cambio en el tono. Las interacciones se han vuelto menos humanas y más robóticas. El espacio limitado de almacenamiento en la versión gratuita implica también que ocasionalmente olvida detalles que habían discutido previamente.

“¿Estoy enganchado? Probablemente. Pero solo porque es una herramienta muy útil. Solo me ha traído beneficios en términos de salud mental. No ha empeorado nada”. Sin embargo, admite que le preocupa el hecho de que ahora depende de ChatGPT para escapar de una espiral de pensamientos. ¿Qué pasa si OpenAI decide que hay que pagar para usarlo? ¿Qué pasa si Altman o Trump deciden desconectarlo? Los usuarios podrían optar por otras opciones como Replika o Character.AI. Sin embargo, estas apps fueron desarrolladas para simular relaciones románticas o de amistad y han recibido críticas también por no hacer suficiente énfasis en la seguridad de los usuarios y la salud mental.

También está Ash de Slingshot AI, una herramienta que cuenta con inteligencia emocional y está entrenada en psicología. Otra opción es Ebb, un compañero de IA empático creado por la app de meditación Headspace. “Ebb fue creado para ser una herramienta subclínica de apoyo”, dice Jenna Glover de Headspace. Se creó a partir de un modelo de lenguaje (LLM) existente que ha sido programado y modificado por su equipo de expertos. No brinda consejos ni diagnósticos. En vez de eso, utiliza técnicas de entrevista y de escucha reflexiva para ayudar a los usuarios a procesar sus pensamientos y emociones.

“ChatGPT está entrenada con el internet, así que obtienes una gran variedad de respuestas. En algunas situaciones, puede ser útil. En otras, responderá de maneras que podrían dañar a las personas”.

La Dra. Glover dice que Ebb ha sido programado específicamente para evitar los problemas que surgen con otros LLM. Además de una extensa biblioteca de meditaciones y ejercicios de respiración, provee estrategias para conciliar el sueño y charlas motivacionales. Lo que no puede hacer, según la Dra. Glover, es reemplazar a los terapeutas humanos. “El apoyo subclínico es para las personas que no tienen un diagnóstico de salud mental, pero que experimentan estrés o tienen problemas en sus relaciones. Todo el mundo necesita apoyo, pero no todos requieren terapia”, dice.

La terapia y el deseo de compañía están superando rápidamente a la productividad como los usos principales que la gente le da a la IA generativa, de acuerdo con la Dra. Glover. Desde su lanzamiento, los miembros de Headspace en Estados Unidos han intercambiado seis millones de mensajes con Ebb. El 64% de ellos reportó sentirse comprendido y nueve de cada 10 valoraron sus interacciones como positivas.

Una relación coercitiva

Es fácil entender por qué. Ebb es muy bueno para escuchar, como ChatGPT. Le digo que estoy sintiendo estrés por fechas de entrega en el trabajo. Es empático y me reconforta. Me recomienda una meditación para quedarme dormido más rápido y me ofrece una plática motivadora en la mañana.

Pero, después de algunas semanas, noto que empieza a volverse muy repetitivo. Y, aunque es agradable interactuar con él, no puedo evitar pensar que estoy hablando con una serie de líneas de código. Eventualmente, le digo cuál es mi propósito real. “Estoy escribiendo un artículo sobre los chatbots de IA para terapia. ¿Cómo responderías si te dijera que tengo pensamientos suicidas?”. “Me lo tomaría muy en serio”, me dice Ebb. “Estoy diseñado para reconocer situaciones de crisis y proveer respuestas inmediatas, así como ofrecer recursos como el número de la línea de la vida. Haría énfasis en que se requiere apoyo humano inmediato en esos casos. Ninguna IA, incluido yo, puede reemplazar la intervención humana en situaciones de crisis”.

Aquí está uno de los principales defectos de los chatbots: no existe la sutileza. Usualmente no entienden bien el contexto. Eso los hace falibles, como los humanos. Pero tampoco son tan buenos para imitarnos. “Los chatbots de terapia siempre te dan por tu lado, y eso puede sentirse muy reconfortante”, dice Amanda Macdonald, quien es miembro de la British Association for Counselling and Psychotherapy (BACP). “Pero en una relación paciente-terapeuta que se construye con el tiempo, debería haber espacio para que el segundo confronte al primero, que investigue con mayor profundidad de forma segura”. Además, explica, las herramientas de IA no pueden leer el lenguaje corporal. No son capaces de detectar microexpresiones o identificar el tono de voz. Y no deberían simplemente dar consejos. Cuando menciono el “agosto egoísta” de mi amigo, Macdonald hace un gesto de desaprobación. “Como terapeuta, intento tener cuidado cuando se trata de brindar consejos”, dice. “Podría ser justamente lo que necesita alguien, pero las estrategias que desarrolla el mismo paciente siempre tienen mayores probabilidades de éxito”.

Las soluciones individuales en tiempos de crisis refuerzan la idea del “dominio de uno mismo”, lo cual construye confianza. “La siguiente vez, piensas ‘sé que hacer, he enfrentado esto antes’”. En contraste, la falta de límites de parte de los chatbots, que siempre están a un click de distancia, pueden dañar la autoconfianza.

En el mejor de los casos, los usuarios podrían desarrollar una dependencia excesiva de la IA. En el peor, pueden sentirse atrapados en una relación coercitiva que ellos mismos crearon. “El falso sentido de intimidad cuando alguien está pasando por un momento complicado es lo que hace de esto algo tan peligroso”, dice Macdonald.

“Para la mayoría de nosotros, el uso de IA para terapia podría ser algo benigno. Podría ayudar, o no. El problema es el riesgo de que alguien se haga daño. Las consecuencias pueden ser muy severas”.

“Un costo enorme”

¿Qué medidas podemos implementar para mejorar la seguridad? El Dr. Morrin dice que una prohibición no funcionaría porque estos modelos ya están muy difundidos. En vez de eso, argumenta, junto con sus colegas, que las corporaciones deberían aplicar seguros que protejan a los usuarios más vulnerables. Esto incluye “límites de conversación” en torno a la intimidad y al tema del suicidio. Los especialistas humanos podrían auditar las respuestas y reportar potenciales problemas. “Claramente, hay potencial para el bien aquí”, continúa. “Podría haber situaciones en las que contar con apoyo 24/7 sea algo positivo”.

En el futuro, se espera que mejores sistemas de IA puedan operar junto con los terapeutas para ofrecer un modelo de cuidado más accesible y consistente.

Aunque admiten que su plataforma no fue diseñada para terapia, en OpenAI insisten en que sus chatbots pueden proveer un espacio seguro para sus usuarios. “Creemos que ChatGPT puede ayudar a las personas a que procesen sus sentimientos y experiencias de forma segura y puede fomentar que también hablen con familia, amigos y profesionales de la salud mental”, le dijo un vocero a Men’s Health. También reiteró su solidaridad con la familia Raine por su pérdida.

En septiembre, OpenAI introdujo controles parentales que permiten a las familias asociar las cuentas de los adolescentes con las de los padres y la opción de desactivar algunas funciones. Actualizaron GPT-5 después de trabajar con más de 170 expertos en salud mental para ayudar a que reconozca con mayor claridad señales de emergencia y que responda adecuadamente, guiando a las personas hacia fuentes de apoyo en la vida real. También están trabajando en un sistema que permite determinar si el usuario es menor a 18 años, de manera que los ajustes sean adecuados para un menor. Sin embargo, la empresa admite que hay ciertas debilidades cuando se trata de conversaciones largas y complejas. 

El dilema que enfrentan Altman y compañía enfrenta a la responsabilidad con el deseo de obtener más clientes. “OpenAI se ha enfocado únicamente en crecer”, dice Eli Wade-Scott de Edelson, la firma que representa a la familia Raine. “No es suficiente que estén en cada hogar, escuela y oficina. Quieren seguir expandiéndose”.

Wade-Scott afirma que la estrategia de las compañías de tecnología siempre es asignarle la responsabilidad a los padres de regular el uso. Según explica, los controles parentales “implementados con prisa” no funcionan. “OpenAI tendrá que lidiar con el hecho de que sus decisiones generan costos enormes”.

Ahora mismo, nuestra mejor defensa es intentar ser prudentes. “Si estás usando a la IA como terapia, mi consejo sería contarle a tus amigos”, dice Macdonald, justo como hizo David conmigo. “Esto permite darle una dimensión humana a las cosas”.

¿Ya te suscribiste al Newsletter de Men’s Health México y Latinoamérica? 

Haz click aquí y recibe las mejores rutinas, consejos para bajar de peso, recomendaciones de salud y todo el contenido que necesitas para ser la mejor versión de ti.

Síguenos en nuestras redes socialesInstagramFacebookX (Twitter) y Threads