Sabato 4 ottobre u.s. si è tenuto, presso il Polo Teologico Torinese il primo incontro del Corso Specialistico di Bioetica Avanzata, giunto alla sua diciassettesima edizione.
Attualissimo il tema dibattuto durante la giornata: “Intelligenza artificiale tra passato, presente e futuro”.
Di fronta ad un salone gremito di partecipanti, al microfono si sono visti alternare il professor Oreste Aime, docente di Filosofia presso e la facoltà Teologica dell’Italia Settentrionale – Sezione parallela di Torino e il professor Alessandro Martino, teologo dogmatico.
Moderatrice della giornata, la professoressa Carla Corbella, anch’essa docente di Teologia presso la summenzionata facoltà.
Dopo i saluti del presidente dell’ordine dei giornalisti del Piemonte, dottor stefano taglia, il quale sottolinea sin da subito la necessità e l’urgenza di creare un advocacy e una regolamentazione per l’impetuoso mondo dell’AI, la giornata di studi viene inaugurata dal professor Aime, il quale accompagna gli astanti in un lungo ed esauriente viaggio attraverso quelle che sono state le posizioni della storia della filosofia circa il rapporto uomo – tecnica/tecnologia.
Osserva, il professor Aime, che in passato la filosofia si è interrogata sul rapporto tra l’uomo e la scienza, benché la tecnica sia sempre esistita tra gli uomini, a partire dall’età della pietra. Oggi sembra prevalere il discorso sulla tecnica, all’interno del quale si inserisce quello sull’Intelligenza Artificiale, la quale viene, piuttosto, definita da Aime Intelligenza digitale,
Tempo ne è passato dalla macchina di Turing, i balzi tecnologico sono stati, sono (e saranno) imponenti. Si è passati da un paradigma informatico basato sul mero connessionismo per ritrovarci oggi di fronte a quella che viene definita intelligenza generativa.
Parlando del digitale, prosegue Aime, e di tutti i termini chiave che gravitano attorno ad essa, si capisce subito che una delle problematiche fulcro della questione AI è quella del rapporto tra le stessa e l’intelligenza umana, ma soprattutto l’impatto che questa nuova forma di tecnologia haa su quest’ultima.
Vengono proposti alcuni libri, vere e proprie pietre miliari nell’ormai vasto campo di studi di filosofia della tecnologia: Il duplice enigma, di Daniel Avner, nel quale l’autore francese propone una netta distinzione tra IA e intelligenza umana e che propone di chiamare la prima con la locuzione sistema artificiale intelligente. L’intelligenza umana non si occupa solo di problemi potenzialmente risolvibili, essa “vive situazioni”.
Altro libro presentato è quello di A. Ferrara, Le macchine del linguaggio, dove viene affrontato il tema del linguaggio e della sua rappresentazione nel mondo digitale.
Il terzo volume presentato e commentato magistralmente dal professor Aime è quello di S. Russell, Compatibile con l’uomo. Come impedire che l’IA controlli il mondo. Russell, autore di uno dei manuali sull’IA più famosi al mondo, è uno di quegli studiosi che tempo fa hanno presentato una moratoria su Chat – Gpt 4, chiedendosi effettivamente cosa ci fosse in gioco con lo sviluppo di siffatto strumento. La moratoria non è stata accolta. Russell evidenzia il fatto che le macchine siano meri strumenti esecutori di ordini, ergo è importante cosa andiamo a chiedere loro di fare, anche all’IA. Qui entra in gioco la responsabilità di chi programma questi algoritmi, in quanto la macchina, una volta programmata, continuerà ad eseguire l’ordine per cui è stata progettata. Perseguire un uso consapevolmente benevolo… ma è sempre così?
Altri due volumi presentati per completare, almeno idealmente, il quadro sono quelli di M. Murgia, Essere Umani. L’impatto dell’IA sulle nostre vite e quello di M. Ferraris, La pelle. Cosa significa pensare dell’epoca dell’intelligenza artificiale. Entrambe premono il pedale sull’umano, su ciò che lo caratterizza come essere sociale e psicologico e sulla peculiarità della sua intelligenza e sapienza in un orizzonte sociale ed intrapsichico, il quale è irriducibile ad un mero calcolo informatico tout court.
L’ultimo libro presentato è L’empire numérique, del filosofo francese J. Lassègue, non ancora tradotto nella nostra lingua. Libro molto importante ai fini della ricerca odierna. In esso si parla di quella che viene chiamata ideologia digitale: un processo che porta spesso allo scambio della mappa con il territorio. E’ la vittoria di Pitagora su Euclide: il primo asseriva che il mondo, il suo archè e la sua essenza è il numero, mentre il secondo asseriva che fosse lo spazio.
La tesi centrale del libro di Lasègue è che senza l’alfabeto greco non ci sarebbero stati i computer. Se si confronta questo alfabeto con quello fenicio o con quello ebraico, la prima cosa che balza all’occhio è che a questi ultimi due mancavano le vocali. Con l’alfabeto greco, dopo aver interiorizzato le consonanti e le vocali, si può leggere tutto anche senza capire cosa si è scritto, a differenza, per esempio, dell’ebraico, dove il lettore deve sapere a priori quanto v’è scritto nei testi. La lingua greca quindi ha permesso una codifica maggiore del mondo attraverso i suoi simboli… esattamente come sta avvenendo oggi con la digitalizzazione del reale. Descrive tutto…. ma lo capisce?
La seconda parte della mattinata è stata affidata al professor Alessandro Martini, il quale esordisce subito dicendo che quando si parla di AI un approccio transdisciplinare è il migliore da prendere in considerazione.
Per quanto concerne l’etica che dovrebbe soggiacere al modo in cui l’IA pervade sempre più massicciamente il nostro vivere quotidiano, il prof. Martini propone agli astanti una preziosa riflessione. Oggi si parla sempre di “etica di”, pensando all’etica come ad un qualcosa di staccato e che deve essere messo in relazione volta per volta al suo complemento di specificazione. Sembra quasi che tra vita concreta ed etica ci sia una dicotomia. Ma la dimensione etica – prosegue Martino – è strutturalmente connessa all’essere umano, in relazione con se stesso, con gli altri e anche con l’Assoluto.
L’IA in quanto artefatto tecnologico, è addestrato a risolvere problemi in maniera autonoma. Non esegue solo comandi, ma apprende, modifica le sue parti e può svolgere funzioni a seguito del suo nuovo apprendimento. Essa si basa su algoritmi, procedure analitiche che eseguono una certa sequenza di calcoli, con la capacità di addestrarsi e/o apprendere. Ma, si badi bene, questo è diverso da ciò che umanamente si intende con “imparare”.
Presentati negli anni 50, ma allora non c’erano macchine abbastanza potenti da mettere in campo pratico i risultati che furono prefissati. E non c’erano dati a sufficienza. Nei tempi recenti, grazie al Web, si sono formati i cosiddetti Big Data, e così gli algoritmi hanno iniziato ad avere pane per i loro denti e hanno iniziato a funzionare.
Si vuole imitare l’intelligenza umana, il funzionamento del nostro cervello e dei nostri neuroni. Ma come replicare il funzionamento complesso di un organo che a malapena è conosciuto dagli stessi addetti ai lavori?
Stesso discorso di incomprensibilità lo si ritrova di fronte al funzionamento stesso di alcuni sistemi di IA, così complesse che difficilmente la mente umana riesce a seguire e concepire.
Infine la dimensione etica, specie quando si parla di utilizzo di IA in ambito medico sanitario. Essa è capace di analizzare e incrociare miriadi di dati, trovare soluzioni, proporre nuove teorie e pratica. Ma, continua il professor Martini: è possibile fornire descrizioni standard in medicina? Si pensi, per fare solo un esempio, al diverso modo in cui i vari operatori sanitari compilano le cartelle dei loro pazienti. Una eccessiva standardizzazione del linguaggio e della prassi medica non porterebbe, per utilizzare l’espressione di Luciano Floridi, a una forma di wrapping, ossia di avvolgimento delle pratiche umane quotidiane, come è anche quella medica, alle esigenze degli algoritmi e dei sistemi IA?
Intelligenza artificiale, quindi? Meglio parlare di elaborazione artificiale. I Big Data non sono assolutamente un Big Thinking. Come reagire a tutto ciò? Secondo il professor Martini è necessario sviluppare un pensiero critico, a livello globale, capire come usare al meglio questa nuova, potente tecnologia capendo qual è la nostra posizione in questo nuovo orizzonte.
L’intelligenza è incomunicabile, indisponibile, con diversi livelli ontologici, difficilmente traducibile in un numero o in una mera sequela di calcoli. L’essere umano è unico ed irripetibile, con questi processi si rischia di standardizzare la persona umana, a ridurla a mera rappresentazione digitale.
L’IA è veloce, conclude il professore… ma che bella è la lentezza, come, per esempio, quella di un ragazzino che ci mette tre ore per risolvere un’equazione, dove intervengono l’aiuto dell’insegnante, lo sforzo personale, la sbirciatina al compito del compagno di banco e magari, durante le tre ore di compito, una delle tre la passi a fantasticare…
Ebrei e fenici avevano capito che togliendo le vocali davano spazio alla fantasia. I greci, con le vocali, hanno introdotto la razionalizzazione.
© Bioetica News Torino, Novembre 2025 - Riproduzione Vietata




