Sostieni Bioetica News Torino con una donazione. Sostieni
117 Ottobre - Novembre 2025
Bioetica News Torino

Intelligenza Artificiale e funzione pubblica: sfide giuridiche e bioetiche

In breve

L'introduzione di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione, come i casi di Diella in Albania e di Sofia in Italia, segna un passaggio cruciale: dalla funzione meramente ausiliaria all'assunzione di ruoli simbolici e operativi. Tale evoluzione solleva interrogativi giuridici e bioetici su sovranità tecnologica, trasparenza, responsabilità e rischio di disumanizzazione dell'agire pubblico.

L’Albania, con la presentazione di Diella, una «Ministra virtuale» interamente guidata dall’Intelligenza Artificiale, e l’Italia, con l’esperimento dell’AGCM che ha visto «nascere» Sofia, un sistema di IA incaricato di chiarire i diritti dei consumatori, evidenziano una tendenza chiara: la progressiva delega a sistemi di Intelligenza Artificiale di funzioni pubbliche che fino a poco tempo fa erano una prerogativa esclusivamente umana. Oggi, il ricorso all’IA nella Pubblica Amministrazione non si limita più a strumenti di supporto interno, ma coinvolge figure che, tanto da un punto di vista simbolico quanto da un punto di vista operativo, influenzano il modo in cui le istituzioni comunicano e, in alcuni casi, prendono decisioni.

Le istituzioni nazionali e sovranazionali stanno iniziando a regolamentare l’uso di tutte quelle IA che sono chiamate ad adempiere a delle funzioni pubbliche. Nel 2024 l’Unione Europea ha introdotto l’AI Act, che prevede sia degli obblighi di trasparenza sia un controllo umano delle decisioni algoritmiche, mentre l’Italia ha stabilito delle linee guida per l’uso dell’IA nella Pubblica Amministrazione. Anche i paesi candidati ad entrare nell’UE, come l’Albania, devono allinearsi allo spirito di queste normative per risultare candidati credibili.

Ma seguire le regole non basta: l’adozione dell’IA nella PA solleva il tema della sovranità tecnologica. Se un software straniero gestisse funzioni ministeriali, sorgerebbero dubbi sull’indipendenza dell’algoritmo, sulla sicurezza dei dati e, soprattutto, sulla sicurezza nazionale, con il rischio che l’innovazione diventi solamente un pretesto che porta, di fatto, ad una cessione indiretta della propria sovranità politica.

L’uso dell’IA nella PA pone anche problemi di trasparenza e responsabilità. Algoritmi complessi producono risultati poco «spiegabili», rendendo difficile valutare sia l’equità delle decisioni sia l’eventuale presenza di bias. La gestione dell’accountability (ovverosia l’identificazione di chi risponde per gli errori e per le eventuali discriminazioni compiute dagli algoritmi) è complicata e questo, di fatto, andrà a esporre i cittadini a decisioni opache e incontestabili.

La gestione degli appalti pubblici, compito assegnato a Diella, rende i rischi sopracitati ancor più evidenti: senza trasparenza è impossibile capire se un algoritmo favorisca alcuni operatori a scapito di altri, con conseguenze devastanti sulla fiducia nel sistema.

Accanto ai rischi, però, vi sono anche dei vantaggi. Assistenti come Sofia possono rendere più accessibile il linguaggio giuridico, abbattendo le barriere culturali e permettendo a tutti i cittadini di conoscere i propri diritti. 

In campo amministrativo, l’IA può velocizzare le procedure, ridurre i costi, semplificare la burocrazia e liberare risorse umane da incombenze ripetitive. 

Questa modalità di utilizzo dell’IA può essere positiva, purché gli algoritmi rimangano strumenti di supporto agli operatori umani e non sostituiscano, almeno non completamente, il giudizio delle persone.

Dal punto di vista bioetico, il pericolo maggiore è la disumanizzazione della funzione pubblica. Un avatar che si presenta come Ministro o parla «al posto» delle istituzioni riduce la politica a un’interfaccia tecnologica, allontanando ulteriormente i cittadini da chi dovrebbe rappresentarli.

Anche se l’uso dell’IA nella PA è ormai inevitabile, la sua applicazione richiede necessariamente la presenza di una solida cornice giuridica e bioetica. Sovranità tecnologica, trasparenza algoritmica, responsabilità legale e rispetto della dignità umana devono guidare l’innovazione per garantire giustizia ed equità, evitando che il ricorso all’IA comporti, in definitiva, l’accentuarsi di opacità e disuguaglianze.

Caci_Articolo 1 - Ottobre 25

© Bioetica News Torino, Settembre 2025 - Riproduzione Vietata

Sugli stessi temi: Bioetica e biodiritto, Intelligenza artificiale