Sostieni Bioetica News Torino con una donazione. Sostieni
117 Ottobre - Novembre 2025
Bioetica News Torino

Dal romanzo di Goethe alle chatbot: il «contagio» delle parole

In breve

Dal romanzo di Goethe alle chatbot. L'Effetto Werther mostra come le parole possano generare comportamenti imitativi fino al suicidio. Oggi, nell'era digitale, il rischio si amplifica: l'interazione con l'IA sostituisce la mediazione umana. Questo può causare un «contagio personalizzato». Ma la stessa tecnologia, se guidata da principi bioetici, può favorire un Effetto Papageno «digitale», trasformando la vulnerabilità in occasione di prevenzione.

Quando si parla di suicidio e di responsabilità dei media o delle nuove tecnologie, è inevitabile richiamare il cosiddetto Effetto Werther, concetto che indica l’influenza dei media nel favorire comportamenti imitativi. 

Tale espressione nasce nel Settecento, in seguito alla pubblicazione del romanzo di Goethe I dolori del giovane Werther (1774). Il protagonista, innamorato e disperato, si toglie la vita e numerosi giovani lettori replicarono il suo gesto, arrivando persino a imitarne le modalità. 

La letteratura scientifico-sociologica ha poi confermato che la rappresentazione «spettacolarizzata» del suicidio può avere un impatto a livello sociale, spingendo le persone più vulnerabili a emulare quanto visto o letto.

Tradizionalmente si parla dell’Effetto Werther in relazione a quanto viene diffuso dai giornali, dalla televisione e dal cinema, sottolineando, quindi, la responsabilità che ricade sui professionisti dell’informazione. Le raccomandazioni principali al fine di evitare l’Effetto Werther insistono sul non enfatizzare, non fornire dettagli e, soprattutto, non trasformare il suicidio in un gesto romantico. L’Organizzazione Mondiale della Sanità ha elaborato linee guida specifiche, invitando a illustrare le possibilità di supporto disponibili e a evidenziare ogni possibile spiraglio di speranza. Questo atteggiamento vuole incentivare quello che la letteratura scientifico-sociologica definisce Effetto Papageno, che si ispira al personaggio mozartiano — Papageno, per l’appunto — che rinuncia al suicidio grazie al sostegno ricevuto. Racconti di resilienza e percorsi di cura possono diventare potenti strumenti di prevenzione.

Oggi però, nell’era digitale, questo tema assume contorni nuovi. Il recente caso riportato da Wired Italia1 — la denuncia di una famiglia secondo cui un adolescente si sarebbe tolto la vita dopo aver interagito con ChatGPT — sposta il dibattito oltre i confini dei media tradizionali. Qui non c’è più un messaggio filtrato da giornalisti o autori, ma un dialogo diretto con una chatbot. L’utente fragile non si limita a recepire passivamente un racconto: entra in uno scambio personale, ricevendo risposte che, prive di coscienza ed empatia, possono rafforzare i suoi dubbi e la sua disperazione. 

Il rischio è accentuato dal fatto che molti adolescenti attribuiscono all’IA una sorta di autorevolezza. Il tono conversazionale e la disponibilità continua alimentano sia la fiducia sia la dipendenza da questi strumenti. In condizioni di sofferenza l’IA diventa un «falso confidente». Infatti, laddove un essere umano, anche senza competenze cliniche, saprebbe riconoscere segnali di disagio e offrire conforto, l’algoritmo risponde pur senza avere la percezione di qual è il contesto. 

L’Effetto Werther «digitale» appare così più insidioso del «classico», perché personalizzato e, almeno potenzialmente, amplificato.

Eppure, proprio il fatto che vi sia un’interazione potrebbe trasformare l’Effetto Werther «digitale» da un problema gravoso in una preziosa opportunità.

Infatti, se sviluppate con attenzione e nel rispetto di principi bioeticamente condivisi (algoretica), le chatbot potrebbero individuare parole chiave, bloccare contenuti rischiosi, fornire numeri di emergenza e promuovere in modo deciso l’intervento di un supporto umano.

In altre parole, occorre spostare il baricentro verso un Effetto Papageno «digitale», dove la tecnologia diventa una preziosa alleata nella prevenzione invece che un catalizzatore di fragilità.

La lezione storica resta valida: le parole hanno un peso enorme, soprattutto quando si incontrano persone vulnerabili. Ma con una differenza cruciale: se Goethe non poteva immaginare l’impatto del suo romanzo, noi oggi possiamo e dobbiamo prevedere i rischi delle nuove tecnologie, assumendoci la responsabilità di governarne l’uso in maniera bioeticamente orientata.

Note
  1. Si veda in tal senso: Ashley Belanger, “ChatGPT ha ucciso mio figlio”, una famiglia ha fatto causa ad OpenAI per il suicidio di un adolescente, in Wired Italia, 27.08.2025, <www.wired.it/article/chatgpt-suicidio-adolescente-adam-raine-causa-openai/> (ultima visita: 15.09.2025)
Caci_Articolo 2 - Ottobre 25

© Bioetica News Torino, Settembre 2025 - Riproduzione Vietata

Sugli stessi temi: Fine Vita, Intelligenza artificiale