L’Intelligenza Artificiale appare come tecnologia autonoma, ma si fonda su un vasto lavoro umano invisibile. L’articolo esamina il ruolo dei data workers impegnati nell’addestramento degli algoritmi, evidenziando condizioni di sfruttamento, precarietà ed esposizione a contenuti traumatici. Attraverso dati e casi emblematici, il contributo propone una lettura critica del fenomeno come forma di colonialismo digitale e richiama l’urgenza di una riflessione etica sul costo umano dell’AI.
Se, per una sorta di combinazione fortuita, potessimo sbirciare dietro il sipario che nasconde il funzionamento dell’Intelligenza Artificiale (AI), ne rimarremmo sorpresi. Ci troveremmo davanti a un esercito di persone impegnate in un lavoro umile e invisibile: analizzare e catalogare milioni di frammenti di immagini, testi e dati per addestrare i sistemi di AI, rendendoli progressivamente più accurati e “intelligenti”.
Secondo un rapporto della Banca Mondiale, i cosiddetti data workers sono oggi tra 150 e 430 milioni nel mondo, e il numero è in crescita esponenziale. Il mercato del data labeling vale già 2,1 miliardi di dollari e crescerà del 26% annuo fino al 2030, con il 69% del lavoro affidato a fornitori esterni.
Si tratta di un fenomeno in rapida crescita, che costituisce ormai un business enorme per le grandi aziende di Intelligenza Artificiale. La manodopera viene reclutata da società intermediarie, spesso attingendo alle fasce più vulnerabili della popolazione, a costi estremamente bassi. Tra questi lavoratori figurano gruppi molto diversi tra loro: giovani e adulti africani, oltre due milioni di persone nelle Filippine, migranti provenienti dall’India, detenute impiegate nelle carceri finlandesi, profughe ucraine in cerca di sostentamento.
In concreto il lavoro che viene svolto da queste persone consiste nell’indicare cosa compare in una foto o in un fotogramma, delimitare gli oggetti tracciandoli con riquadri o segmentazioni pixel per pixel; classificare testi assegnando categorie a documenti o frasi indicando se si tratta di dati sensibili; identificare azioni, comportamenti o contesti: ad esempio se una scena rappresenta pericolo, ironia, violenza, oppure contiene interazioni sociali specifiche. In pratica, i labeler trasformano informazioni non strutturate in materiale comprensibile alle macchine affinché possano essere utilizzati per addestrare modelli di Intelligenza Artificiale e algoritmi di machine learning.
Uma Rani, economista dell’Organizzazione Internazionale del Lavoro a Ginevra, ricorda con grande chiarezza che ciò che percepiamo come pura automazione — la risposta di un assistente virtuale, la manovra con cui un’auto a guida autonoma evita un ostacolo, il riconoscimento di un volto da parte di un social network — si regge in realtà sul lavoro, spesso invisibile, di migliaia di persone distribuite in tutto il mondo.
Il lavoro è estremamente ripetitivo, noioso e lungo; per analizzare, identificare e catalogare il contenuto di un filmato di un’ora il labeler impiega almeno 800 ore di lavoro. Le Big Tech non si fanno problemi etici o morali, infatti, la maggior parte di questi lavoratori vive in situazioni di forte disagio e povertà e qualche centesimo in più o in meno può fare la differenza tra sopravvivere o non arrivare alla fine del mese.
In Africa, il Kenya è diventato, anche grazie agli investimenti governativi, un punto di riferimento per lo sviluppo tecnologico, spesso è descritto come la “Silicon Savannah”. Dietro questa definizione, però, si trova una realtà più complessa, segnata anche da sfruttamento, stress psicologico e dinamiche ricattatorie.
Il documentario In the Belly of AI, (Nel ventre dell’AI), diretto da Henri Poulain, alza il sipario sulla condizione di questi nuovi schiavi. Non è solo una questione economica. Molti labeler devono visionare contenuti estremi: stupri, torture, omicidi, abusi su minori. Il trauma psicologico è enorme, ma invisibile. “Queste persone esistono, respirano, soffrono, ma devono firmare accordi di riservatezza che li condannano all’invisibilità”, denuncia Poulain.
Sociologi e politologi parlano di una nuova forma di colonialismo: non più confini fisici, ma sfruttamento diffuso, che attinge alle risorse naturali e alle vite umane per alimentare gli algoritmi. “Quando digitiamo una query, chi pensa ai milioni di lavoratori che rendono possibile quella risposta?”, si chiede il regista.
Le aziende fanno di tutto per mantenere il silenzio. In Kenya, dopo cause storiche contro queste società tecnologiche per violazioni dei diritti umani, il governo ha approvato una legge che garantisce immunità legale alle società di outsourcing, impedendo ai lavoratori di fare causa. “Abbiamo cambiato la legge: nessuno vi porterà più in tribunale”, ha dichiarato il presidente William Ruto. Una mossa che ha scatenato proteste e accuse di tradimento da parte delle associazioni di labeler.
Nonostante le difficoltà, i nuovi lavoratori sfruttati nell’addestramento dell’Intelligenza Artificiale stanno cercando di tutelarsi, organizzandosi collettivamente e reclamando visibilità. Vogliono uscire dall’anonimato, far sentire la propria voce e ricordare agli utenti che la “magia” dell’AI esiste grazie al loro lavoro: un lavoro che merita sicurezza, rispetto e una retribuzione dignitosa.
© Bioetica News Torino, Dicembre 2025 - Riproduzione Vietata





