Sostieni Bioetica News Torino con una donazione. Sostieni
118 Dicembre 2025
Bioetica News Torino Natale 2025

Verso un aldilà algoritmico Il confine fragile tra tecnologia e presenza umana

In breve

L'emergere di «repliche digitali» capaci di simulare voce, volto e gesti dei defunti — come nel caso dell'app 2wai — apre scenari inediti (e preoccupanti) sul rapporto tra tecnologia, memoria e lutto. Questi simulacri, pur pensati come strumenti di consolazione, rischiano di ostacolare l'elaborazione dell'assenza e di trasformare il ricordo in prodotto. In un contesto che anticipa il Novacene, l'Intelligenza Artificiale diventa protagonista nella ridefinizione delle relazioni umane, incidendo anche sull'identità post-mortem. Da qui la necessità di regole chiare: consenso pre-mortem, tutela della dignità digitale e limiti al potere degli eredi e delle piattaforme. L'aldilà algoritmico è già presente: la sfida è proteggere ciò che resta insostituibile, la presenza reale dell'essere umano.

Negli Stati Uniti ha fatto discutere un video (divenuto virale) in cui una giovane donna dialoga con la madre defunta grazie a un avatar digitale generato dall’app 2wai, alimentata dall’Intelligenza Artificiale. 

Bastano pochi minuti di riprese della persona defunta affinché il sistema ricostruisca un avatar in grado di parlare, di muoversi e di rispondere come faceva la persona reale. 

La scena, emotivamente intensa, ha attratto milioni di utenti e ha riaperto interrogativi etici, psicologici e giuridici sul rapporto tra tecnologia, memoria e lutto. 

Non è la prima volta che l’Intelligenza Artificiale tenta di permettere un legame con chi non c’è più, ma in questo caso il passo appare più radicale. Infatti 2wai si propone di creare un’interazione continua e apparentemente autonoma, che simula la presenza del defunto. 

Il rischio è evidente: il dolore, per sua natura, si elabora attraverso la distanza che aiuta a riconoscere l’assenza. Un simulacro così «convincente» può invece impedire questo processo, trasformando la mancanza in una dipendenza emotiva più che in elaborazione del lutto. L’avatar non restituisce la persona, ma una sua apparenza statistica, costruita per rassomigliare e agire come se fosse viva, e proprio per questo può risultare ingannevole anche per chi crede di interagire con la memoria autentica del defunto.

A questo profilo problematico, bisogna aggiungerne un altro, ovverosia: chi controlla ciò che resta di noi dopo la nostra morte, quando voce, volto e gesti possono continuare a interagire attraverso sistemi generativi (gli stessi che si utilizzano per creare i deepfake)?

Senza un vero «testamento digitale», l’identità post-mortem rischia di diventare un oggetto gestito da altri: familiari, piattaforme o algoritmi di IA che possono continuare a generare contenuti in nostra vece. 

AvatarIA

È un terreno nuovo, in cui volontà, memoria e dignità possono essere manipolate o esposte a logiche commerciali. La tecnologia, concepita come strumento di consolazione, rischia così di trasformarsi in un mezzo di sfruttamento emotivo, dove il ricordo diventa prodotto e il lutto diventa mercato.

Il fenomeno 2wai mostra un passaggio culturale più ampio: stiamo entrando nel Novacene, l’epoca teorizzata da James Lovelock in cui l’Intelligenza Artificiale non è più semplice strumento, ma componente attiva e predominante dell’ambiente umano. In questo contesto, l’IA non si limita ad assisterci: inizia a definire le modalità con cui percepiamo la realtà e le relazioni. Nel caso dei defunti digitali ridefinisce la presenza, sostituendo alla relazione umana una forma di interazione modellata da dati, algoritmi e probabilità. È un cambiamento silenzioso ma profondo, che riguarda l’essenza della persona umana, il rapporto con la corporeità, la memoria e la distanza tra i vivi e i morti.

Di fronte a questa evoluzione diventa urgente stabilire criteri chiari e condivisi. È necessario un consenso pre-mortem esplicito, che definisca quali aspetti della propria identità digitale possano essere utilizzati ed entro quali limiti. È indispensabile tutelare la dignità post-mortem, impedendo che immagine, voce o azioni generate da un algoritmo possano essere manipolate o sfruttate per scopi commerciali. È fondamentale disciplinare il potere degli eredi o dei gestori, per garantire che l’avatar non trasformi l’identità del defunto.
Il caso 2wai ci ricorda che il confine tra «ciò che consola» e «ciò che illude» è fragile. La tecnologia può trasformare un bisogno umano naturale — il desiderio di restare vicini a chi non c’è più — in un’illusione permanente. L’aldilà algoritmico non è fantascienza: è già qui. La sfida del nostro tempo riguarda la capacità dell’uomo di custodire la propria umanità, proteggere la memoria e garantire che l’Intelligenza Artificiale, per quanto potente, non sostituisca ciò che è irripetibile: la presenza reale di un essere umano.

© Bioetica News Torino, Dicembre 2025 - Riproduzione Vietata

Sugli stessi temi: Fine Vita, Intelligenza artificiale