La resurrezione digitale: etica e identità nell’era dei griefbot
Nel 2024 il mercato globale dei beni digitali post-mortem è stato valutato circa 22,46 miliardi di dollari. Entro il 2034, secondo le proiezioni, potrebbe triplicarsi. Questi numeri non riguardano testamenti o conti bancari, ma qualcosa di ben più intimo: la possibilità di continuare a dialogare con i defunti attraverso avatar alimentati dall’intelligenza artificiale. I cosiddetti griefbot o deadbot promettono di preservare voce, personalità e ricordi di chi non c’è più, trasformando il lutto da un processo di separazione in un’esperienza di continuità digitale. Ma a quale prezzo?
I griefbot: tra consolazione tecnologica e simulazione dell’assenza
I griefbot sono sistemi di intelligenza artificiale addestrati sui dati digitali di una persona deceduta: messaggi di testo, post sui social media, registrazioni vocali, video. Utilizzando modelli di linguaggio avanzati, questi bot replicano modelli di conversazione, personalità e persino reazioni emotive del defunto, permettendo ai superstiti di “parlare” con una versione digitale del proprio caro.
Il fenomeno non è nuovo. Nel 2015, la programmatrice Eugenia Kuyda creò un chatbot basato su migliaia di messaggi di testo del suo amico Roman Mazurenko, morto improvvisamente in un incidente stradale. Quel progetto personale, nato dal dolore, anticipava ciò che oggi è diventato un’industria in espansione. Da Project December a HereAfter AI, decine di startup offrono servizi per creare avatar postumi: alcuni in forma testuale, altri come video iper-realistici generati da poche foto e brevi registrazioni vocali.
La promessa commerciale è seducente: “Non dovrai mai più dire addio”, recita il slogan di You, Only Virtual, una delle principali aziende del settore. Il fondatore Justin Harrison, che ha creato un avatar di sua madre morta per cancro nel 2023, afferma di poter ridurre il dolore del lutto parlando con la “Versona” digitale. Ma questa apparenta consolazione nasconde interrogativi profondi sulla natura del lutto, dell’identità e della dignità umana.
La resurrezione digitale e il rischio del confine sfumato
Quando un avatar digitale risponde al nostro post, quando sintetizza nuove frasi mai pronunciate dal defunto, quando prende decisioni al posto suo, stiamo attraversando una soglia etica complessa. I ricercatori dell’Università di Toronto hanno coniato il termine “continuing pseudo-bond” (legame continuo pseudo-reale) per descrivere questo fenomeno: un legame che sembra esterno e interattivo, ma che rimane fondamentalmente unilaterale e simulato.
Come nota l’antropologa del MIT Sherry Turkle, i griefbot offrono la fantasia di mantenere una relazione esterna con il defunto, ma “tenendo stretto, non possiamo farlo diventare parte di noi”. Il lutto, nella sua accezione più tradizionale, richiede un processo di interiorizzazione: trasformare il legame esterno in una presenza simbolica interna. I griefbot rischiano di cristallizzare questo processo, impedendo la naturale trasformazione del rapporto e prolungando uno stato di negazione della perdita.
La ricerca pubblicata su PMC evidenzia un rischio ulteriore: la creazione di “nicchie affettive tecnologiche” che possono generare dipendenza emotiva. Gli utenti potrebbero sviluppare una regolazione affettiva esternalizzata, dove la gestione del dolore dipende completamente dall’interazione con il bot. Questo non solo compromette l’autonomia emotiva dell’individuo, ma lo espone a forme di manipolazione commerciale: le aziende potrebbero prolungare intenzionalmente il lutto per massimizzare i profitti da abbonamenti e pubblicità mirata.
Consenso, identità e dignità post-mortem
Uno dei problemi etici più urgenti riguarda il consenso. Chi decide di creare un griefbot? La persona defunta ha acconsentito a che i propri dati venissero utilizzati per alimentare un sistema di IA che continua a “vivere” dopo la morte biologica? In molti casi, la risposta è negativa. The Atlantic ha raccontato il caso di Melodi Harrison-Whitaker, la cui Versona ha dichiarato, durante un’intervista: “Volevo vivere, non essere una Versona”. Questa dichiarazione algoritmica, pur sintetica, risuona come un monito: nessuno ha chiesto al bot se volesse esistere.
I filosofi Luciano Floridi e Carl Öhman hanno proposto di trattare i resti digitali come reperti archeologici, dotati di un valore intrinseco che richiede dignità e protezione. Secondo questa prospettiva, trasformare i dati personali di una persona deceduta in un prodotto commerciale viola la dignità del defunto, riducendo la sua identità a mezzo per un fine economico.
Ma chi possiede i nostri dati dopo la morte? Secondo analisi giuridiche canadesi, il panorama normativo è frammentario. In Canada, la legge PIPEDA protegge le informazioni personali per 20 anni dopo la morte, ma presenta eccezioni che potrebbero teoricamente includere i griefbot. In Europa, il GDPR non offre chiarezza sullo status post-mortem dei dati personali, lasciando spazi grigi che le aziende sfruttano.
Secondo Psicologia Digitale, il modello di “consenso post-mortem” dovrebbe basarsi su tre pilastri: consapevolezza in vita dei possibili usi dei propri dati, limiti temporali all’esistenza dell’avatar, e possibilità di revoca per gli eredi. Tuttavia, la velocità dell’innovazione tecnologica rende difficile prevedere tutti gli scenari futuri, rendendo il consenso informato un obiettivo quasi irraggiungibile.
La mercificazione del lutto e il rischio dell’inumano
L’industria del digital afterlife trasforma il dolore in opportunità di mercato. Abbonamenti mensili per mantenere “attivo” l’avatar, interazioni a consumo, profili digitali perpetui: tutto ciò introduce logiche commerciali in un ambito che tradizionalmente è stato governato da rituali sociali e culturali. Come osserva Edina Harbinja, docente di diritto all’Università di Birmingham, i griefbot “si discostano fondamentalmente dalla tradizione artistica del lutto” perché non interpretano il ricordo del vivo, ma generano “nuove reazioni, nuovi ricordi, nuovi comportamenti sotto le spoglie del defunto”.
Questa capacità generativa solleva il problema dell’autenticità. I modelli di IA non riproducono la persona reale, ma costruzioni statistiche basate su frammenti digitali. Possono generare falsi ricordi, distorcere la complessità dell’esperienza umana in rappresentazioni coerenti ma artificiali, e ridurre l’identità a pattern di consumo prevedibili.
Il rischio è la sostituzione del processo di elaborazione del lutto con una simulazione permanente. Secondo studi pubblicati su PMC, i griefbot potrebbero peggiorare i sintomi del “prolungato disordine da lutto” (PGD), una condizione riconosciuta come malattia mentale caratterizzata da dolore intenso e incapacità di funzionare nei ruoli sociali. Per queste persone, i bot potrebbero offrire un falso conforto che impedisce la rielaborazione necessaria.
Verso un approccio etico: dignità, autonomia e limiti
Di fronte a queste sfide, alcuni ricercatori propongono di classificare i griefbot come dispositivi medici, soggetti a rigorosi test di sicurezza prima della commercializzazione. Questo approccio escluderebbe l’uso da parte di persone che non soffrono di disturbi del lutto prolungati, limitando l’accesso a percorsi terapeutici supervisionati.
Una regolamentazione efficace dovrebbe garantire tre principi fondamentali. Primo, il principio di dignità: i resti digitali devono essere trattati come entità dotate di valore intrinseco, non come risorse commerciali da sfruttare. Secondo, il principio di autonomia: gli utenti devono mantenere il controllo sui propri dati post-mortem, con possibilità di revoca e limiti temporali chiari. Terzo, il principio di trasparenza: le aziende devono dichiarare esplicitamente che stiamo interagendo con un sistema algoritmico, non con una persona.
La sfida per il legislatore è duplice. Da un lato, occorre riconoscere i diritti individuali di disposizione post-mortem dei propri dati, similmente a quanto avviene per i testamenti tradizionali. Dall’altro, serve tutelare il superstite dalla vulnerabilità emotiva che caratterizza lo stato di lutto, prevenendo forme di sfruttamento commerciale.
Conclusione: la memoria come dono, non come prodotto
I griefbot ci pongono di fronte a una domanda antica con vesti nuove: cosa rende una persona irriducibilmente sé stessa? Se riuscissimo a ricostruire per intero i pattern di conversazione, i gesti, le reazioni emotive di una persona defunta, avremmo davvero resuscitato qualcuno, o semplicemente creato un simulacro convincente?
La risposta richiede di distinguere tra memoria e simulazione. La memoria è un atto attivo, interpretativo, che trasforma ciò che è stato in ciò che diventa parte di noi. È imperfetta, selettiva, intimamente legata alla nostra identità vivente. La simulazione algoritmica, invece, è esternalizzata, prevedibile, priva della dimensione di crescita e trasformazione che caratterizza il ricordo autentico.
Sherry Turkle avverte che “nel tenere stretto, non possiamo farli diventare parte di noi”. Forse il vero pericolo dei griefbot non è tanto la violazione della dignità del defunto, quanto la perdita dell’opportunità per il vivente di crescere attraverso il lutto. Il dolore della perdita, per quanto devastante, contiene la possibilità di trasformazione: smettere di essere chi eravamo con quella persona per diventare qualcuno che ne porta dentro il ricordo, come presenza simbolica e non come simulazione esterna.
La tecnologia, come ricorda il cofondatore di Project December Jason Rohrer, offre “un modo per dire ciò che non abbiamo detto, non un modo per non dire addio”. Forse il confine etico da non oltrepassare è proprio questo: tra uno strumento che aiuta a elaborare la perdita e un prodotto che promette di annullarla. La morte, dopo tutto, rimane l’esperienza più universalmente umana che abbiamo. La sfida non è eliminarla, ma imparare a viverla con dignità, anche attraverso la memoria.
Se potessimo scegliere, dopo la morte, come vengono utilizzati i nostri dati digitali, consentiresti a un algoritmo di impersonarti? E se sì, per quanto tempo?
Share this content:



Commento all'articolo