La escena está bañada por una luz suave, cinematográfica y aterradoramente banal. Una mujer embarazada sostiene su teléfono inteligente y muestra su vientre a su madre. La madre jadea de emoción, arrulla y ofrece consejos maternales. Pero la madre está muerta. Es un «HoloAvatar», una marioneta digital impulsada por inteligencia artificial, renderizada a partir de apenas tres minutos de metraje de vídeo.
Esta es la visión promocional de 2wai, una controvertida aplicación lanzada por la ex estrella de Disney Channel, Calum Worthy. El anuncio promete que «tres minutos pueden durar para siempre», un eslogan que cae con el peso plomizo de una profecía distópica hecha realidad. Cuando el vídeo circuló por las redes sociales a finales de 2025, la reacción no fue de asombro, sino un escalofrío colectivo. Fue inmediatamente tildado de «demoniaco» y «psicótico», y miles de usuarios invocaron la trama de «Vuelvo enseguida» (Be Right Back), el profético episodio de 2013 de la serie Black Mirror.
Sin embargo, descartar esto simplemente como algo «macabro» es ignorar el profundo cambio ontológico que está teniendo lugar. Estamos presenciando lo que el filósofo francés Jean Baudrillard denominó la precesión de los simulacros. En el marco teórico de Baudrillard, la simulación ya no enmascara la realidad; la sustituye. El avatar de 2wai no oculta el hecho de que la madre ha muerto; construye un escenario «hiperreal» donde su muerte es irrelevante. La aplicación ofrece un mundo donde el mapa (los datos digitales) ha generado el territorio (la persona), y la finitud de la muerte es tratada como un fallo técnico que debe ser parcheado por un algoritmo.
Hauntología y el fantasma digital
Para comprender el malestar que provocan estos «HoloAvatares», debemos mirar más allá de la tecnología, hacia la filosofía. El filósofo francés Jacques Derrida acuñó el término hauntología (hantologie) —un juego de palabras en francés con ontología (el estudio del ser)— para describir un estado en el que el pasado no está ni completamente presente ni completamente ausente, sino que persiste como un «espectro».
El «deadbot» (robot de los muertos) de la IA es el artefacto hauntológico definitivo. Crea un «fantasma digital» que reside en el no-lugar del servidor, esperando ser invocado. A diferencia de una fotografía o una carta, que son registros estáticos de un «esto-ha-sido», el avatar de IA es performativo. Habla en tiempo presente. Viola la santidad de la línea temporal.
Walter Benjamin, en su ensayo seminal La obra de arte en la época de su reproductibilidad técnica, argumentó que incluso la reproducción más perfecta de una obra de arte carece de su «aura»: su presencia única en el tiempo y el espacio. El «griefbot» (robot de duelo) representa la destrucción final del aura humana. Al producir en masa la personalidad del difunto a través de algoritmos de texto predictivo, despojamos al individuo de su «aquí y ahora» único, reduciendo la chispa inefable de un alma humana a un patrón probabilístico de tokens. El resultado no es una resurrección, sino una vacuidad de alta fidelidad; una simulación que ha migrado del reino del arte al reino de los muertos.
El «FedBrain» y la falacia de la personalidad
La arquitectura técnica de aplicaciones como 2wai se basa en una tecnología patentada que denominan «FedBrain» (probablemente una referencia al Aprendizaje Federado), que afirma procesar las interacciones en el dispositivo del usuario para garantizar la privacidad y reducir las «alucinaciones». La promesa es que, al limitar la IA a los «datos aprobados por el usuario», el avatar seguirá siendo auténtico.
Sin embargo, las investigaciones más punteras sobre Grandes Modelos de Lenguaje (LLM) exponen esto como una falacia. Los estudios confirman que los LLM son fundamentalmente incapaces de replicar la estructura compleja y estable de la personalidad humana (como los rasgos de los «Cinco Grandes»). Sufren de un «sesgo de deseabilidad social» —una tendencia a ser agradables e inofensivos—, lo que significa que inevitablemente suavizan los bordes dentados, difíciles e idiosincrásicos que hacen que una persona sea real.
Por lo tanto, el usuario no está comulgando con su madre. Está interactuando con un modelo estadístico genérico que lleva el rostro de su madre como una máscara. La «personalidad» es una alucinación; la «memoria» es una base de datos. Como han señalado los investigadores, estos modelos carecen de «experiencia encarnada»; no tienen instintos de supervivencia, ni cuerpo, ni mortalidad: todo aquello que da forma a la cognición humana. La entidad resultante es un impostor, un «monstruo de Frankenstein», tal y como describió Zelda Williams (hija del fallecido Robin Williams) a las recreaciones no consensuadas de su padre mediante IA.
La comercialización del duelo: Una industria de 123.000 millones
Esta sesión de espiritismo tecnológica está impulsada por un potente motor económico. Estamos viendo la explosión de la Industria de la Vida Digital después de la Muerte (Digital Afterlife Industry) o «Grief Tech», un sector que se proyecta tendrá un valor de más de 123.000 millones de dólares a nivel mundial.
El modelo de negocio es lo que los críticos llaman «Duelo como Servicio» (Grief-as-a-Service). Transforma el luto de un proceso finito y comunal en un consumo infinito basado en suscripciones.
- Suscripción a los muertos: Empresas como 2wai y HereAfter AI (que utiliza un modelo ético de entrevistas pre-mortem) monetizan el deseo de conexión.
- La ética del «Dataísmo»: El filósofo Byung-Chul Han advierte sobre el auge del Dataísmo, donde la experiencia humana se rinde al «totalitarismo de los datos». En este régimen, la «muerte digital» es negada. Nos convertimos en zombis productores de datos, generando ingresos incluso desde la tumba.
- Mecánicas depredadoras: El riesgo, identificado por investigadores de Cambridge, es la «publicidad encubierta». Un «deadbot» de una abuela sugiriendo una marca específica de galletas es la forma definitiva de manipulación persuasiva, explotando los lazos emocionales más vulnerables para obtener ganancias comerciales.
La neurociencia del duelo: «Interferencias» en la máquina
Más allá de las críticas filosóficas y económicas, existe un peligro psicológico tangible. La Dra. Mary-Frances O’Connor, neurocientífica de la Universidad de Arizona y autora de El cerebro en duelo (The Grieving Brain), postula que el duelo es fundamentalmente una forma de aprendizaje.
El cerebro crea un mapa del mundo donde nuestros seres queridos son un elemento permanente («siempre estaré ahí para ti»). Cuando una persona muere, el cerebro debe actualizar dolorosamente este mapa para reflejar la nueva realidad de su ausencia. O’Connor advierte que la tecnología de IA «podría interferir» con este proceso biológico crítico. Al proporcionar una simulación constante e interactiva de presencia, el «griefbot» impide que el cerebro aprenda la lección de la pérdida. Mantiene las vías neuronales del apego en un estado de anhelo permanente y no resuelto: una receta digital para el Trastorno de Duelo Prolongado.
El vacío legal: Del «Salvaje Oeste» al Testamento Digital
Actualmente habitamos un «Salvaje Oeste» legal con respecto a los derechos de los muertos digitales. En Estados Unidos, los «derechos de publicidad post-mortem» son un mosaico inconexo; en muchos estados, el derecho a tu propia imagen expira en el momento en que mueres.
Europa ofrece un marco contrastante, aunque incipiente. España, por ejemplo, ha sido pionera con el concepto del «Testamento Digital» dentro de su Ley Orgánica de Protección de Datos (LOPD). Esto reconoce un «derecho a la herencia digital», permitiendo a los ciudadanos designar herederos específicos para gestionar o eliminar su huella digital.
Sin embargo, como argumenta la filósofa española Adela Cortina, la regulación no puede ser solo técnica; debe ser ética. Necesitamos preguntarnos no solo quién posee los datos, sino qué dignidad se debe a los muertos. Los «restos digitales» no son solo activos; son los escombros de una vida. Sin leyes robustas de «neuroderechos» o «dignidad de datos» que se extiendan post-mortem, los muertos no tienen consentimiento. Se convierten en materia prima para el «archivo viviente» que 2wai pretende construir: una biblioteca de almas propiedad de una corporación.
La necesidad del silencio
La tragedia del «Ash-Bot» en Black Mirror no fue que no lograra sonar como Ash. Fue que sí lo hizo. Ofreció un eco perfecto y hueco que atrapó a la protagonista en un ático de duelo suspendido.
La «séance algorítmica» promete vencer a la muerte, pero solo logra vencer al duelo. El luto requiere un final. Requiere el doloroso reconocimiento del silencio. Mientras nos apresuramos a llenar ese silencio con la charla de la IA generativa, corremos el riesgo de perder algo profundamente humano: la capacidad de dejar ir. En la era del Dataísmo y la hiperrealidad, el acto más radical puede ser simplemente permitir que los muertos descansen en paz, sin simulaciones y sin suscripciones.
