Un episodio quotidiano, il blocco automatico di WhatsApp durante l'invio degli auguri di Natale, rivela i limiti etici degli algoritmi: efficaci sul piano tecnico, ma incapaci di comprendere il contesto e il valore relazionale dei gesti umani. Ne nasce una riflessione sull'algoretica e sulla responsabilità delle decisioni automatiche, che finiscono per ridefinire implicitamente ciò che è considerato «umano».
Il giorno di Natale, come accade a molti, mi sono messo a inviare messaggi di auguri alle persone a me care. È un gesto semplice e ricorrente, quasi rituale, che non trasmette informazioni in senso stretto ma possiede un forte valore simbolico, in quanto conferma l’attenzione all’altro e il riconoscimento del legame che unisce.
Proprio durante questo scambio di auguri, però, l’algoritmo di WhatsApp ha bloccato la mia attività, interpretando l’invio di molti messaggi simili in un breve arco di tempo come spam. Il sistema rinviava a un servizio di assistenza che, in realtà, si è rivelato essere una chatbot, la quale si limitava a confermare la decisione automatica. La chatbot mi ha «invitato» ad attendere lo sblocco automatico di WhatsApp (che sarebbe avvenuto 24 ore più tardi), senza offrirmi alcuna possibilità di chiarimento, di revisione del provvedimento o di interlocuzione con un operatore umano.
L’interesse di questa vicenda non sta tanto nell’inconveniente in sé, quanto in ciò che esso rivela. Dal punto di vista tecnico, l’algoritmo ha funzionato correttamente: il mio comportamento corrispondeva al profilo statistico tipico dello spam. Dal punto di vista umano, però, emerge un paradosso evidente: il comportamento socialmente più normale in una determinata circostanza, cioè lo scambio degli auguri natalizi, diventa improvvisamente sospetto.
È qui che si apre una questione propriamente bioetica, che riguarda l’algoretica, intesa come l’etica incorporata nei sistemi automatici di decisione. Quando questa etica è implementata in modo cieco al contesto, essa non si limita a regolare comportamenti, ma finisce per ridefinire implicitamente ciò che è appropriato, lecito e «umano».
L’algoritmo non sa che è Natale, non riconosce il valore relazionale del gesto e non distingue tra comunicazione commerciale e comunicazione affettiva: vede soltanto pattern, frequenze e ripetizioni, e su questa base emette un giudizio che incide sulle relazioni personali.
A ciò si aggiunge un problema cruciale di accountability: chi è responsabile di una decisione automatica che limita la possibilità di comunicare? A chi può rivolgersi l’utente quando la decisione non è spiegabile, né contestabile, né modificabile?
In nome dell’efficienza e della sicurezza, e in mancanza di un interlocutore umano o di una concreta possibilità di appello, l’algoritmo finisce per assumere il ruolo di giudice definitivo, sottratto a qualsiasi forma di responsabilità.
Il problema non è l’uso degli algoritmi, ormai inevitabile, ma la loro pretesa di neutralità etica: un sistema automatizzato che decide senza alcuna conoscenza del contesto e senza responsabilità non può essere considerato aprioristicamente «giusto». Se perfino gli auguri di Natale possono essere considerati spam, allora la questione non è tecnica, ma antropologica: quale concezione dell’essere umano stiamo incorporando — e normalizzando — nei sistemi che progettiamo?

© Bioetica News Torino, Gennaio 2026 - Riproduzione Vietata





