Sostieni Bioetica News Torino con una donazione. Sostieni
117 Ottobre - Novembre 2025
Bioetica News Torino

La misura del possibile e l’ombra della tecnica. Riflessioni bioetiche sul «caso Clothoff»

In breve

L'articolo analizza il «caso Clothoff» (applicazione di IA generativa per creare deep nude) come manifestazione emblematica del potenziale lesivo della tecnologia priva di etica, cui il Garante per la Privacy ha risposto con un provvedimento d'urgenza. La riflessione supera la risposta giuridica, interrogandosi sulla fragilità morale che spinge l'uomo a creare strumenti esclusivamente distruttivi. Si sostiene che il problema non risieda nella tecnica, ma nell'assenza di una bussola etica: quando il «possiamo fare» prevale sul «dobbiamo fare», l'innovazione viola la dignità umana. È urgente ristabilire l'etica come fondamento del progresso per evitare che la tecnica amplifichi le ombre dell'uomo anziché la sua umanità.

L’Italia è il primo Paese europeo che, recependo l’AI Act, si dota di una legge nazionale sull’Intelligenza Artificiale. La legge approvata si pone, tra gli altri, l’obiettivo di dare risposta ai molteplici allarmi che emergono circa l’uso distorto dell’Intelligenza Artificiale generativa. 

Un esempio emblematico di uso pericoloso dell’Intelligenza Artificiale è l’applicazione Clothoff, addestrata per «spogliare» digitalmente persone reali: una delle più gravi manifestazioni del potenziale lesivo di una tecnologia priva di vincoli etici.

In considerazione della pericolosità di questo strumento, il cui uso si stava diffondendo in maniera dilagante in Italia, il Garante per la Protezione dei Dati Personali, con un provvedimento d’urgenza emanato il 03 ottobre 2025, ha disposto la limitazione provvisoria del trattamento dei dati personali nei confronti della società che gestisce l’app (e che ha la sede legale nelle Isole Vergini Britanniche).

Clothoff consente di generare immagini e video «deep nude», falsificazioni digitali che mostrano persone – anche minorenni – in pose sessualmente esplicite, senza consenso e senza alcuna segnalazione circa la generazione artificiale del contenuto. 

L’intervento del Garante si è reso necessario a fronte dei gravissimi rischi per i diritti e le libertà fondamentali delle persone che potevano rimanere vittime di questa tecnologia, lesiva della dignità umana, della riservatezza, della sfera intima, etc.

Il Garante, inoltre, ha avviato un procedimento più ampio per contrastare tutte le applicazioni di nudificazione artificiale, alla luce di un fenomeno che sta assumendo dimensioni di vero allarme sociale.

La vicenda Clothoff, tuttavia, solleva una questione ancor più profonda della pur doverosa risposta giuridica, ovverosia: perché l’essere umano continua a realizzare strumenti che non possono avere alcuno scopo positivo, ma soltanto effetti distruttivi sul piano umano e sociale? 

La risposta non risiede nella tecnologia, bensì in chi la crea. 

La tecnica è, di per sé, neutra. Ciononostante è una grandissima forma di potere che è affidata alla mente umana che la guida. E se questa è priva di orientamento etico, il potenziale tecnico si trasforma facilmente in un desiderio di dominio sui propri simili e di mercificazione dell’altro.

Applicazioni come Clothoff non nascono da un autentico spirito di ricerca, ma da un impulso di controllo sull’immagine altrui, da una curiosità morbosa che riduce la persona a oggetto. 

È una forma digitale di violenza che colpisce la dignità e l’identità, che sono le due dimensioni più intime dell’essere umano.

Non è la tecnica in sé a essere il problema, ma la fragilità morale di chi la plasma. Viviamo in un’epoca in cui il «possiamo farlo» sembra aver sostituito il «dobbiamo farlo?». Il problema è che la libertà tecnica senza coscienza è un potere cieco. 

L’etica non dovrebbe essere percepita come un limite all’innovazione, bensì come la bussola che può e deve orientare il cambiamento dandogli forma e permettendogli di non perdere di vista il fine ultimo che dovrebbe avere ogni sviluppo tecnico, ovverosia il perseguimento del bene.

È urgente, quindi, promuovere una vera educazione alla responsabilità digitale, una cultura che insegni a distinguere ciò che è tecnicamente possibile da ciò che è moralmente sostenibile. 

La stessa Intelligenza Artificiale usata per creare «deep nude» potrebbe essere utilizzata per riconoscerli e bloccarli, per tutelare la privacy, per restituire a ciascuno il controllo sul proprio corpo. 

La direzione che decidiamo di dare allo sviluppo tecnico non dipende dagli algoritmi, ma dallo sguardo umano che li orienta.

Il caso Clothoff, quindi, non è più solamente la vicenda di un’app, ma l’occasione per riflettere sull’uomo contemporaneo e sul suo modo di confrontarsi con il proprio potere creativo. Ogni innovazione è uno specchio: riflette la nostra capacità di costruire o di distruggere, di custodire o di violare. Se la tecnologia nasce senza etica, diventa strumento di umiliazione; se è guidata da una visione di rispetto e responsabilità, diventa invece uno strumento di libertà. 

La dignità umana non deve essere un ostacolo al progresso, ma il suo fondamento più profondo. Solo attraverso questa consapevolezza la tecnica potrà ritrovare il proprio senso originario: non uno strumento che amplifica le zone d’ombra dell’uomo, bensì un prolungamento della sua umanità, capace di esprimerne la creatività e non di deformarla.

Caci Luca - Articolo Novembre (1)

© Bioetica News Torino, Novembre 2025 - Riproduzione Vietata

Sullo stesso tema: Bioetica e biodiritto