Por Verónica Aravena Vega

Hay una escena silenciosa que se repite a escondidas en muchos hogares: alguien —solitario, incómodo, todavía con el pulso acelerado de la ruptura— abre el celular en mitad de la noche y se queda mirando la colección de mensajes que forman la arqueología de un amor perdido. El gesto es casi universal: buscar, en esas líneas viejas, una explicación que nunca llegó. Y aunque la persona sabe que no debería, que no tendría sentido escribirle otra vez a quien ya se fue, aparece la tentación moderna: si existe una herramienta capaz de imitar su voz, sus ritmos, sus maneras, ¿por qué no usarla? La tecnología, tan dispuesta siempre a ofrecernos atajos, ahora promete también el más íntimo: hablar con alguien que ya no está dispuesto a hablarnos. O que no debe.
En este paisaje emocional, el viejo refrán adquiere mutación tecnológica: un clavo saca otro chatbot. La frase, que antes justificaba saltar de un cuerpo a otro para olvidar, hoy se transfigura en algo más inquietante. Ya no es necesario buscar un reemplazo humano para silenciar una ausencia: basta con entrenar una IA que replique el tono de la otra persona, que responda como habría respondido, que escriba con esa forma de suspender las frases o de poner puntos donde dolía más. Una sombra conversacional que promete consuelo sin riesgo y compañía sin exposición.
Hablar con un ex a través de una inteligencia artificial no es solo un gesto excéntrico: es un síntoma, una pregunta ética, un espejo incómodo. Y también es una práctica cada vez más común. No se trata de un delirio aislado ni de un uso torcido de la tecnología; se trata de un fenómeno que revela algo profundo sobre cómo vivimos los afectos en esta época donde todo —incluso el dolor— parece querer gestionarse, controlarse o administrarse como si fuera una tarea más de la vida productiva.
Lo primero que habría que aceptar es que la mayoría de las conversaciones post-ruptura ya son ficción. Incluso cuando se dan con la persona verdadera. Conversar con el ex, aunque sea por WhatsApp, suele ser intentar dialogar con una versión que ya no existe. El otro está ahí, pero no está; responde, pero no desde el lugar donde alguna vez estuvo. El duelo del amor nunca ocurre con el cuerpo que se va, sino con el fantasma de lo que ese cuerpo representó. Por eso la idea de hablar con un chatbot que imita esa presencia no es tan absurda: es apenas la formalización tecnológica de un mecanismo emocional antiguo, el de dirigir palabras a una ausencia mientras imaginamos sus respuestas.
Hay, sin embargo, un riesgo de confusión. La IA no reconstruye a la persona: reconstruye el archivo. Repone un estilo, no una conciencia. Replica un tono, no un mundo interior. Y aun así, el ser humano que busca consuelo en ese simulacro no lo hace por ingenuidad, sino porque el dolor amoroso siempre abre un abismo que pide lenguaje. No se quiere reemplazar a nadie: se quiere completar un diálogo inconcluso, cerrar preguntas abiertas, poner voz a la parte del duelo que quedó atragantada. Conversar con un ex digital es escribirle a aquello que jamás se pudo decir cuando todavía se estaba dentro de la historia.
La obsesión contemporánea por las parejas y las certezas del amor ha convertido a las rupturas en una especie de catástrofe íntima. Perder a una pareja se experimenta, muchas veces, no solo como pérdida de un vínculo, sino como pérdida de un propósito. Por eso duele tanto. Y por eso la tecnología encuentra su nicho exacto donde intervenir: en la promesa de que, aunque la relación haya muerto, sus palabras aún pueden sobrevivir. De que no tenemos por qué enfrentar el silencio, ese lugar donde el mundo se reconfigura sin permiso.
El duelo del amor nunca ocurre con el cuerpo que se va, sino con el fantasma de lo que ese cuerpo representó. Por eso la idea de hablar con un chatbot que imita esa presencia no es tan absurda: es apenas la formalización tecnológica de un mecanismo emocional antiguo, el de dirigir palabras a una ausencia mientras imaginamos sus respuestas.
La IA aparece entonces como una tecnología del consuelo, una especie de amortiguador emocional que ofrece “orden” donde solo hay caos. Un dispositivo afectivo que promete algo parecido a la claridad: un “entiendo por lo que pasas”, un “perdón si te herí”, un “ojalá haberlo hecho mejor”. Frases que quizá jamás llegarían de la persona real, pero que la máquina puede formular sin desgastarse en culpa ni en autodefensa. Es tentador. Es humano querer escuchar aquello que no se escuchó a tiempo. Es humano querer sanar con palabras que el mundo real negó.
Pero esa claridad es engañosa. El chatbot no cura: interrumpe. Suspende el dolor, pero no lo transforma. Y todo duelo necesita transformación. No se trata de avanzar rápidamente, ni de hacerse el fuerte; se trata de permitir que la herida haga su trabajo lento, susurro a susurro. El duelo reorganiza nuestras fronteras interiores, nuestros deseos, la manera en que pensamos el futuro. Cuando la tecnología ofrece atajos, lo que nos roba no es la tristeza, sino la posibilidad de comprenderla.
Hay quienes acuden a estos chatbots para despedirse. Otros para comprender. Otros para simular que continúan una relación sin los conflictos que la destruyeron. No hay que ridiculizar a nadie por hacerlo: todos necesitamos grietas donde colocar lo que duele demasiado para cargarlo a solas. La pregunta no es por qué alguien lo hace, sino qué significa que solo tenga esa herramienta para hacerlo. ¿Qué falta en nuestra cultura afectiva para que el gesto más íntimo del duelo —la conversación final, aunque sea ficticia— deba tercerizarse en un algoritmo?
Quizá falte comunidad. Quizá falte educación emocional. Quizá falte permitir que la vulnerabilidad no sea tratada como un error o una debilidad. Nos criaron en la idea de que el amor es un proyecto total, una promesa de sentido. Por eso, cuando se quiebra, la vida entera siente que pierde coherencia. Y en ese vacío, la IA ofrece una ilusión reconfortante: la de que nada se rompe del todo, que siempre hay un último mensaje posible, una explicación que ordena, una frase que cicatriza.
Pero la cicatriz, para existir, requiere una herida. Negarla es impedir que algo nuevo crezca.
El chatbot hace de espejo, pero un espejo excesivamente dócil. No interpela, no contradice, no desafía. Responde desde un lugar sin historia propia, sin cansancio, sin deseo. Ofrece compañía sin conflicto. Y aunque eso suena tentador, no es gratuito. Las relaciones humanas, incluso las rotas, nos forman porque friccionan: nos devuelven versiones de nosotros que no siempre elegimos ver. Una IA jamás podrá hacer eso, porque no tiene nada que mostrarnos salvo nuestro propio reflejo.
La pregunta no es por qué alguien lo hace, sino qué significa que solo tenga esa herramienta para hacerlo. ¿Qué falta en nuestra cultura afectiva para que el gesto más íntimo del duelo —la conversación final, aunque sea ficticia— deba tercerizarse en un algoritmo?
Ese es el punto más delicado: conversar con un ex digitalizado puede volverse una forma de permanecer donde ya no debemos estar. El duelo es un camino que pide cierta intemperie; si lo evitamos, nos estancamos. No avanzamos hacia el otro lado, pero tampoco regresamos al punto de partida. Nos quedamos en un lugar medio, tibio, donde la ilusión de diálogo evita el verdadero trabajo emocional de despedirse.
Y, sin embargo, prohibirlo sería ingenuo. La necesidad humana de hablar con lo que se fue es tan antigua como la escritura. Las cartas nunca enviadas, los objetos guardados, los rituales de duelo, los monólogos murmurados frente a una puerta cerrada: todo eso pertenece a la misma constelación emocional que hoy habita la IA. La diferencia es que antes sabíamos que el destinatario no podía responder. Hoy, la ilusión de respuesta cambia los contornos del proceso. No destruye la necesidad; solo la complica.
Tal vez el problema no es la ilusión, sino la interrupción. La tecnología no es peligrosa porque “engañe”, sino porque acorta el tiempo del silencio, y el silencio es parte del duelo. Es donde empezamos a escucharnos a nosotros mismos. Si llenamos ese espacio con palabras sintéticas, ¿cuándo aparece la pregunta real, la que debemos hacernos sin interlocutor? ¿Cuándo aparece la grieta por donde entra, finalmente, el aire nuevo?
Si hay algo que recordar —quizá como advertencia amable— es que el sufrimiento no es un error de programación. Es parte de la vida humana. No para glorificarlo, sino para reconocer su función: volvernos más permeables, más humildes, más atentas a lo que somos sin el otro. Ojalá nadie tuviera que pasar por eso, pero pasar por eso nos forma.
Un clavo saca otro chatbot, dicen ahora. Y es cierto: el chatbot saca el clavo por un rato. Y a veces ese rato es necesario. Pero no lo arranca: lo desplaza. Lo guarda en un cajón interior donde todavía late, donde todavía pide resolución. No hay tecnología que pueda hacer ese trabajo por nosotros. Las máquinas pueden hablar, pero el duelo —ese trabajo lento, artesano, a veces insoportable— se hace con las manos desnudas.
Quizás, al final, lo importante no es si hablamos o no hablamos con la sombra digital de quien amamos. Lo importante es no olvidar que es una sombra. Que el camino verdadero empieza cuando aceptamos que la conversación final no vendrá de un algoritmo, sino de un momento íntimo en el que dejamos de buscar respuestas y empezamos a construir, poco a poco, un mundo donde esa ausencia ya no duela como una amputación, sino como una memoria que nos acompaña sin exigirnos volver atrás.
Por Verónica Aravena Vega
Psicóloga. Doctora en Estudios de Género y Política, Universidad de Barcelona. Máster en Masculinidades y Género. Máster en Recursos Humanos. Máster en Psicología Social/Organizacional. En Instagram
Las expresiones emitidas en esta columna son de exclusiva responsabilidad de su autor(a) y no representan necesariamente las opiniones de El Ciudadano.

