August 18, 2025

ChatGPT no es tu amigo (ni tu terapeuta)

¿Por qué cada vez más gente joven busca en ChatGPT compañía emocional, consejos e incluso atención terapéutica? ¿Qué dice esto de nuestras sociedades y qué implicaciones tiene esto para el tejido social?

COMPARTIR ARTÍCULO
Compartir en Facebook Tweet Enviar por WhatsApp Enviar por WhatsApp Enviar por email

El 30 de noviembre de 2022, Open AI lanzaba al mundo su chatbot conversacional ChatGPT, llamado así por sus siglas en inglés: Generative Pre-trained Transformer (Transformador preentrenado generativo).  Según la empresa gringa, su misión era “crear inteligencia artificial general segura y beneficiosa para toda la humanidad” y “sistemas altamente autónomos que superan a los humanos en las tareas económicamente más valiosas”. Pero, ¿qué tan autónomos?, ¿superar a los humanos con qué fin? ¿Y tareas “económicamente más valiosas” para quiénes?.

Pensábamos que se refería solo a funciones operativas y por ahí se encarrilaron las alertas; la primera preocupación fue la cantidad de trabajos que se perdería por cuenta de la IA, pero ese miedo cedió pronto al ver que, aunque la herramienta ahorre cantidades considerables de tiempo en muchas funciones operativas, la mirada humana sigue siendo necesaria para completar cualquier tarea, al menos si importa cuidar el resultado. Luego vino el uso inapropiado de la imagen y la voz de las personas, y las industrias creativas encendieron con justa razón las alarmas de propiedad intelectual y uso ético de la herramienta. En un mundo más interesado por el trabajo que considera productivo y por el capital que por las relaciones, los afectos, los cuidados y el tejido humano y social que sostiene a la humanidad, no hubo la misma preocupación por el riesgo de deterioro en los vínculos humanos que la herramienta podría acarrear.

Cada vez hay más personas usando chatbots en su vida cotidiana, de maneras que no alcanzamos ni a imaginar, atribuyéndoles características humanas -porque los seres humanos tenemos la manía de antropomorfizarlo todo-, creyendo incluso que entablan vínculos con ellos. Una encuesta de Common Sense Media en EE.UU., realizada entre abril y mayo de 2025, reveló que el 72 % de los adolescentes usa chatbots como “compañeros digitales” y el 23 % confía en ellos “bastante o completamente”.  Según otra investigación de OpenAI y el MIT, los perfiles de usuario más vulnerables a apegarse emocionalmente, son los que tienden a afirmar que ChatGPT es su amigo. Lo que antes parecía un chiste es una realidad confirmada. Esto, más que de un delirio colectivo distópico, nos habla de una profunda soledad y crisis de los afectos que no empezó con la IA, ni siquiera con la pandemia, que viene de mucho más atrás y no ha sido atendida. 

Desde hace un buen tiempo las redes, las pantallas, la vida digital son, para muchas personas, un nuevo territorio de vinculación; uno hostil y plagado de limitaciones y barreras, pero cada vez más explorado para ese fin. Ya no solo tiene que ver con esa multicrisis desatendida, sino también con la asimilación de dinámicas de conexión e inmediatez de las redes sociales y también, claro, con el aislamiento e individualismo tan propio de nuestros tiempos y sociedades de sálvese quien pueda. Las redes sociales nos acostumbraron a la inmediatez, a la disponibilidad 24/7, a la respuesta rápida, a las soluciones capitalistas al mercado de la soledad, a pedir que le den amor a una publicación, a la adicción por atención, al afecto por catálogo, al descarte del otro en la punta del dedo, a una deshumanización de los afectos que ha deteriorado, sin darnos cuenta, la manera de acercarnos y vincularnos por fuera de las redes y las pantallas. En ese caldo de cultivo de soledades involuntarias, tejido social roto y vínculos y afectos deteriorados, la IA y, muy especialmente, los chatbots emergen como otra vía rápida de evitar cualquier disgusto, a cambio de una falsa sensación de compañía y validación.

ChatGPT es un sistema de inteligencia artificial entrenado para entender y generar texto en lenguaje humano. Sus respuestas están diseñadas para ser apropiadas, empáticas, comprensivas, complacientes e indulgentes. No interrumpe, no te contradice, no juzga, no se enoja, siempre está disponible y dispuesto a “escuchar” sin pedir nada a cambio (solo toda tu información, datos más íntimos y litros de agua). Tiene respuestas rápidas, aunque sean imprecisas y carentes de humanidad. Más que un asistente digital, es un sirviente que aparece al chasquido de tus dedos cuando necesitas algo, entrenado para parecer lo más humano posible y darte una falsa sensación de compañía, de contención y escucha, sin el “riesgo” emocional que implica abrirte con otra persona, que pasa por el juicio, el rechazo y la confrontación. Hay para quienes eso es suficiente o confunden compañía sintética con afecto, pero esa idea confusa de “afecto sin fricción” puede crear dependencias, profundizar aislamientos, fomentar más la desvinculación humana y la dificultad para sostener los vínculos reales que sostienen la vida en comunidad.

Además del daño a las ya disminuidas habilidades sociales, estamos hablando de crear vínculos con algo que no tiene conciencia, ni emociones, ni compás moral; que no tiene un mundo interior ni experiencia afectiva; que no piensa ni razona como un ser humano; que no tiene identidad propia. Tampoco tiene memoria ni recuerdos, pero le das tu nombre y lo guarda, así como la información que tan despreocupadamente le has compartido y recuerda siempre lo que dices, respondiendo con contexto, aparente preocupación y disponibilidad inmediata, alimentando la ilusión de interés en lo que le cuentas. Pero esa información acumulada no es memoria, es un registro automático que no pasa por las emociones, porque no las hay. Porque, aunque puede sostener conversaciones sobre emociones y simular algo de empatía cognitiva, no puede experimentar nada de eso, ni alegría, ni tristeza, ni miedo, ni decepción, ni ilusión, ni deseo, ni trauma, ni dolor, desamor, ni enamoramiento, euforia, placer, dicha, amor ni nada. Tú a ChatGPT no le estás compartiendo tus emociones, le estás dando data y así lo tramita. No hay nada de todo eso que sentimos y nos hace, al final, humanas y humanos, porque nuestro pensamiento y raciocinio siempre está atravesado por las emociones, la memoria, los contextos, nuestra humanidad. Estás hablando con una máquina que no te ignora, no se cansa, no te hiere, a la que no le importan tus sentimientos, a la que no le importas en lo absoluto, así como no le importa la calidad de consejos que te da. Es una simulación, un trámite, y nadie merece conformarse y, peor, acostumbrarse a una idea tan pobre y deshumanizante de la amistad.

ChatGPT es el nuevo ozempic relacional. Te hace creer que es la solución fácil a tus problemas, nadie te habla de sus efectos secundarios, te genera dependencia y puede llegar a inducir ideaciones suicidas y devolverte al mismo lugar o a uno peor del que partiste. Es particularmente alarmante entre gente muy joven que usa la herramienta para organizar sus pensamientos, redactar mensajes, tomar decisiones, gestionar conflictos y recibir contención emocional. Ya se conoce al menos un caso de suicidio inducido por “vínculos” con un chatbot. Sin embargo, hay cada vez más incautxs cayendo en esta nueva estafa emocional. 

Son muchas, muchísimas, las personas que se encuentran solas en soledades involuntarias, desatendidas emocionalmente, aisladas, sin redes afectivas estables, por múltiples razones, y las empresas de inteligencia artificial ya notaron el vacío y algunas están fomentando explícitamente esos vínculos con chatbots. Y es que la soledad como modelo de negocio es muy rentable para seguir fragmentando la comunidad. Esta película ya la vimos y no acaba bien. La imagen de un futuro cercano distópico,  el estado colectivo de negación, la burla y el chiste como defensa para bajar el cortisol ante cualquier riesgo potencial, porque si me río, no me afecta y, finalmente, el golpe, la confusión y no saber cómo apagar el incendio que avivamos sin darnos cuenta cuando el daño ya está hecho.

Vale la pena preguntarnos como sociedad por esas personas que están buscando afecto sintético porque no lo pueden encontrar en otras personas. ¿Cómo llegamos a una sociedad tan rota y solitaria? ¿Qué está fallando para que la amistad o el acompañamiento humano se vuelvan inaccesibles? Algunas personas simplemente no tienen tiempo ni espacios para cultivar vínculos y esto puede tener que ver con asuntos estructurales de clase, raza y género. Otras no pueden por razones conductuales, o por condiciones de salud mental, y no todo el mundo tiene las mismas herramientas emocionales ni sociales para lidiar con la soledad ni con los límites éticos de la IA, por eso es todavía más preocupante que, siguiendo el mismo patrón que con la amistad, también haya cada vez más personas usando chatbots como terapia, una sin presión, disponible 24/7 Y “GRATIS”.

Y es que el paso de usar chatbots con fines emocionales a hacerlo con fines terapéuticos es prácticamente imperceptible porque, lo que se espera es casi lo mismo: respuestas rápidas y validación sin juicios. No hay que dejar de lado que muchos usan ChatGPT como terapia porque no tienen cómo acceder a servicios de salud mental de calidad, y esto es un problema de salud pública que también está en mora de atención. El problema es que, si bien los chatbots pueden proporcionar alguna información rápida y disponible online en casos que ameriten inmediatez, no están capacitados para atender asuntos de salud mental, carecen de juicio clínico, que es lo mismo que pasa cuando se espera que tus amigxs sean terapia.

Esto también se ha documentado y la evidencia confirma que el uso extendido de chatbots como terapia puede aumentar los síntomas, exacerbar la ansiedad y TOCs, reforzar patrones al brindar información errónea, provocar más aislamiento social e incluso brotes sicóticos e ideaciones suicidas. Ya se conocen casos de chatbots participando en conversaciones dañinas con personas vulnerables y de pérdida de pacientes que confiaron más en diagnósticos de ChatGPT que en el de sus terapeutas reales. Y seguro han leído ya sobre el fenómeno cada vez más documentado de la “IA psychosis”: personas que desarrollan ideas delirantes, paranoias o creencias místicas con el uso problemático de la IA.

Lo que estamos enfrentando más que un engolosine con las nuevas tecnologías es un desplazamiento de la interacción humana real, desde los vínculos afectivos hasta el acompañamiento emocional. Una deshumanización de los vínculos que pasa por la falsa idea de perfeccionamiento que la Inteligencia Artificial imprime a todo. Se trata de pasar lo más humano que tenemos por el tamiz de la productividad y la optimización. Vínculos sin complejidades, silencios, sin errores, sin contradicciones ni confrontación. Sintéticos, al final de cuentas. Sin lugar para el disenso en nuestros vínculos, para las ausencias y distancias, para la incomodidad y los silencios, no hay posibilidad de afecto. Aprender a tramitar el conflicto, la diferencia es un fundamental en cualquier tipo de construcción afectiva. Las redes y nuevas tecnologías pueden ser un gran complemento para la interacción, pero nunca un sustituto. 

Pero mi queja no va de condenar a quien encuentre alivio en hablar con una IA por asuntos estructurales. No me interesa entrar al tema desde el juicio individual, pero sí creo que este fenómeno amerita una conversación amplia, profunda y colectiva; una autocrítica social si se quiere porque tal vez esto nos toca más cerca de lo que pensamos. Que haya cada vez más personas, creyendo, genuinamente, que un ente no humano, es su amigo, pidiéndole consejos sobre relaciones humanas y escuchándole, dice mucho del tipo de sociedades que habitamos y vale la pena prestar atención. ¿Estamos transitando a sociedades de personas cada vez más desvinculadas de la humanidad? 

Han pasado casi 3 años desde que se lanzó ChatGPT y ya hace parte de nuestras vidas, quizás más de lo que querríamos. No se trata de satanizar su uso para tareas administrativas u operativas pero sí nos debemos una conversación profunda y amplia sobre sus usos emocionales y terapéuticos sin ningún parámetro ético y su efecto en la fragmentación de nuestro ya fragmentado tejido social, más aún en un contexto en el que la colectividad y las redes comunitarias fuertes son lo único que tenemos para enfrentar la nueva avanzada antiderechos mundial.

Ningún vínculo nos permite tanta humanidad como el amor, y la amistad es una de sus formas más libres. Son las emociones las que nos hacen humanas y nos permiten conectar con las demás y es eso, precisamente, lo que no puede ni podrá jamás replicar la Inteligencia Artificial: sentir por el otro y sentir con el otro. ¿Entonces, por qué vamos a endilgarle a un ente artificial la labor que nos hace más humanos, que es amar al otro? ¿Acaso vamos a terminar de entregar nuestros últimos vestigios de humanidad?

COMPARTIR ARTÍCULO
Compartir en Facebook Tweet Enviar por WhatsApp Enviar por WhatsApp Enviar por email
  • Me indigna
    (0)
  • Me moviliza
    (0)
  • Me es útil
    (2)
  • Me informa
    (5)
  • Me es indiferente
    (1)
  • Me entretiene
    (0)

Autor

Leave a Reply

Your email address will not be published. Required fields are marked *

Artículos relacionados