Il caso dell'auto a guida autonoma fermata negli Stati Uniti senza alcun umano a bordo mette in luce una domanda destinata a diventare decisiva nei prossimi lustri: chi risponde degli errori dell'IA? Accanto alla necessità di regole chiare — come l'attribuzione della responsabilità all'ente registratario del veicolo — l'articolo evidenzia come il vero baricentro sia individuabile nelle scelte di consumo. Siamo noi, attraverso ciò che acquistiamo, a indirizzare l'evoluzione dell'IA. Per questo la responsabilità è non solo giuridica, ma anche etica e civica: il futuro che abiteremo dipende dalla nostra capacità di preferire tecnologie trasparenti, sicure e rispettose della persona.
Negli Stati Uniti un’auto a guida autonoma ha compiuto un’inversione a U vietata e degli agenti di polizia l’hanno fermata con l’intento di contestare l’infrazione al guidatore. Ma chi si può multare se non vi è un autista in carne ed ossa perché l’automobile è guidata da un’IA?
La questione non si può certo relegare a un imbarazzo normativo: è il segnale di qualcosa di più profondo, che riguarda il rapporto tra tecnologia, diritto e identità umana.
Da sempre il diritto rincorre la realtà nel tentativo di normarla: è consustanziale. Ma oggi il problema è più ampio. Non siamo pronti — come giuristi, come società e persino come individui — ad accogliere il cambiamento che ogni giorno si manifesta nel reale.
Viviamo in un tempo in cui trasformazioni che richiedevano ere geologiche – lente, progressive, quasi impercettibili – si concentrano nell’arco di una singola vita umana. Abbiamo visto nascere l’Antropocene e adesso già parliamo di Novacene. Due «epoche» nel giro di qualche decennio.
Come potremmo essere davvero preparati?
Eppure c’è un punto che spesso ignoriamo: noi non siamo spettatori passivi. La tecnologia non si evolve motu proprio. Al contrario, si evolve perché qualcuno la produce, qualcuno la compra, qualcuno la usa. Ogni grande player dell’Intelligenza Artificiale ha un unico obiettivo: vendere prodotti e servizi capaci di generare profitto. Senza di noi, semplicemente, queste tecnologie non esisterebbero.
È una verità semplice, ma rivoluzionaria: il futuro lo finanziamo noi, con il nostro portafoglio.
Ogni volta che scegliamo un dispositivo, un assistente, un’auto, un’app, stiamo orientando lo sviluppo tecnologico.
E allora la domanda da porsi non è solo: «come facciamo a multare una macchina senza autista?», ma anche – e soprattutto – «che macchine vogliamo finanziare?».
Se accettiamo sistemi opachi, aggressivi e irresponsabili, questi continueranno a moltiplicarsi. Se, invece, premiamo aziende che investono in sicurezza, trasparenza e rispetto della persona umana allora quel modello diventerà dominante.
La tecnologia segue il mercato: e il mercato siamo noi.

Naturalmente servono norme. Per situazioni come quella della «multa impossibile», una soluzione semplice sarebbe attribuire automaticamente la responsabilità amministrativa all’ente registratario del veicolo. Non si multa un robot ma si chiama a rispondere chi lo immette nel mondo.
Ma questo, indubbiamente, è solo un passo.
La differenza decisiva la possiamo fare soltanto noi, in quanto consumatori e cittadini.
Se vogliamo un’IA che migliori la vita umana, dobbiamo iniziare a votare con il portafoglio, a scegliere tecnologie che rispettino i nostri valori e a chiedere trasparenza come condizione per concedere fiducia.
In un mondo plasmato dall’uomo tramite la tecnica, la responsabilità non si misura solo nelle aule dei tribunali, ma anche nelle scelte quotidiane. E in questo siamo noi i protagonisti.
Dobbiamo smettere di comportarci come utenti passivi e iniziare ad agire come cittadini consapevoli.
Perché anche quando sbaglia una macchina, la risposta – tanto bioetica quanto giuridica – riguarda sempre noi.
© Bioetica News Torino, Dicembre 2025 - Riproduzione Vietata






