L'articolo critica l'uso dell'Intelligenza Artificiale per individuare in anticipo possibili futuri criminali, mettendo in guardia dal rischio di trasformare una probabilità statistica in una colpa anticipata, in continuità ideale con il determinismo che aveva teorizzato Cesare Lombroso. Richiamando le distopie di George Orwell, il testo ribadisce che nel diritto liberale si è responsabili solo per un fatto commesso e che la probabilità non può sostituire la libertà, fondamento stesso della colpevolezza.
Una recente iniziativa nel Regno Unito1 ha riacceso un dibattito ricorrente: si può ricorrere all’uso di modelli previsionali (che oggi sarebbero basati sull’IA) per individuare precocemente minori a rischio di diventare criminali? Oggi siamo in grado di creare algoritmi che incrociano dati sociali, familiari e scolastici; modelli statistici che stimano probabilità; sistemi che promettono prevenzione. La promessa (almeno teoricamente) è seducente: prevenire il crimine prima che accada. E questa idea non è nuova…
Alla fine dell’Ottocento, Cesare Lombroso elaborò la teoria del «delinquente nato». Secondo la sua impostazione, il crimine non era una scelta, bensì un destino inscritto nei tratti somatici, nelle caratteristiche biologiche e nella costituzione dell’individuo. L’uomo delinquente, secondo le teorie lombrosiane) era riconoscibile e classificabile.
Oggi non misureremmo più crani e mascelle… Ma raccogliamo dati. Molti dati. Il passaggio dall’antropometria all’algoritmo, però, non elimina però il problema di fondo: l’idea che si possa identificare in anticipo chi sarà colpevole di un qualche crimine. I vulnus della teoria lombrosiana – determinismo, riduzionismo, stigmatizzazione preventiva – riemergono, sotto una rinnovata veste tecnologica, alimentata dall’illusione predittiva dell’Intelligenza Artificiale.
Lombroso basava le sue tesi su presunte evidenze scientifiche; l’IA si fonda su modelli statistici. Ma la logica è sorprendentemente simile: se certi indicatori sono presenti, allora l’esito sarà predeterminabile in maniera certa. La statistica, tuttavia, lavora sulla probabilità e non su destini. E, soprattutto, la probabilità non è colpa.
Qui si apre la questione giuridica centrale: il diritto penale si fonda sulla responsabilità personale per un fatto commesso, non per un fatto previsto. Il principio di colpevolezza presuppone libertà. Senza libertà non c’è responsabilità; senza responsabilità non c’è giusta pena. Se iniziamo a trattare individui come «criminali probabili» incriniamo la radice stessa del diritto liberale.
E non è irrilevante che tutto ciò accada nel paese di George Orwell. Nel suo romanzo 1984, Orwell immaginava una società sorvegliata dal «Grande Fratello», capace di controllare, registrare, anticipare. Una società in cui l’individuo è trasparente al potere. Proprio la tradizione britannica è storicamente associata al liberalismo, alla tutela delle libertà individuali, al primato dell’habeas corpus.
Nel 2026, invece, arriviamo a chiederci se l’uso dell’IA per identificare in anticipo possibili criminali non rischia di trasformarsi in una forma di «Grande Fratello 2.0»? Non più telecamere onnipresenti, ma modelli predittivi che classificano le vite prima ancora che queste si dispieghino.
Il cinema aveva già presentato questo scenario. In «Minority Report» di Steven Spielberg, la polizia arresta persone prima che commettano un omicidio grazie a un sistema predittivo ritenuto infallibile. Ma la domanda che attraversa l’intero film è decisiva: può esistere un colpevole prima del fatto?
La categoria di “colpevole potenziale” è una contraddizione in termini. La colpa presuppone un atto libero già compiuto. Prima dell’atto c’è solo possibilità. E la possibilità è lo spazio stesso della libertà.
L’argomento pragmatico è noto: se possiamo prevenire il male, perché non farlo? Ma la prevenzione non può trasformarsi in anticipazione della colpa. Il rischio è quello di sostituire alla responsabilità individuale un algoritmo che assegna probabilità.
L’uomo, però, non è riducibile alla sua curva statistica. Certo, l’Intelligenza Artificiale lavora su dati, pattern, correlazioni. Ma l’essere umano è (molto) più della somma dei suoi precedenti. L’uomo, infatti, è stato creato libero – e la libertà è il fondamento stesso dell’ordinamento giuridico. Negare la capacità di autodeterminazione in nome dell’efficienza tecnologica significherebbe compiere un atto di resa culturale: una forma di stupidità umana dinanzi all’Intelligenza Artificiale.
La vera domanda non è se l’IA sia potente. Lo è. La domanda è se tutto ciò che è tecnicamente possibile sia anche giuridicamente e moralmente legittimo.
A questo proposito, molteplici sono le lezioni che ci offrono la letteratura e le scienze umane e sociali. Lombroso ci ricorda che il fascino della scientificità può condurre a errori profondi. Orwell ci mette in guardia contro il potere che pretende di sapere prima. Il diritto liberale afferma che l’uomo risponde di ciò che fa, non di ciò che potrebbe fare.
Se accettiamo che un algoritmo possa dirci chi diventerà criminale, stiamo spostando il baricentro dal fatto alla previsione, dalla libertà alla probabilità.
E allora la domanda finale, più che tecnologica, è antropologica: vogliamo ancora credere che l’essere umano sia libero? Perché se la risposta è sì, nessuna Intelligenza Artificiale potrà mai sostituire il mistero – e la responsabilità – della scelta.

1. Si veda in tal senso: Luigi Ippolito, L’Ai utilizzata per prevedere il comportamento criminale dei bambini: la proposta choc a Londra in Corriere della Sera, 17.02.2026,
© Bioetica News Torino, Aprile 2026 - Riproduzione Vietata

