Anche il 2025 sarà l’anno dell’intelligenza artificiale. Vedremo sempre più all’opera sia quella generativa (come ChatGPT, Gemini, Claude e Llama) sia gli agenti IA (cioè, programmi software in grado di raggiungere autonomamente obiettivi predeterminati, automatizzando compiti e aumentando la produttività). Ma soprattutto vedremo sempre più l’intelligenza artificiale entrare nelle nostre vite attraverso gli oggetti che usiamo di più, a partire dai cellulari. Vedremo anche fotografie e video realizzati con l’IA sempre più sofisticati e quindi vedremo circolare anche sempre più falsi che la maggior parte di noi faranno sempre più fatica a riconoscere come tali. Col risultato – come abbiamo già più volte segnalato – di creare mondi dove tutto è potenzialmente falso e quindi, alla fine, niente viene considerato vero. In questo momento è comunque difficile prevedere esattamente quale sarà nel 2025 l’andamento dei colossi dell’intelligenza artificiale. Su un punto, però, dovremmo tutti concentrare di più la nostra attenzione. Sui cosiddetti “schiavi del digitale”. Su quelle decine di migliaia di persone, cioè, che da anni vengono sottopagate per fare i lavori più umili e meno piacevoli del digitale. La prima volta che ne abbiamo sentito parlare è stato grazie al docufilm “The Moderators” (visibile gratis all’indirizzo web tinyurl.com/yeyj7da9). Si tratta di migliaia di ragazzi, spesso di Paesi in via di sviluppo, pagati meno di due dollari l’ora per visionare e fermare il peggio che viene postato sui social (filmati di omicidi, pedofilia, violenza e brutalità, solo per citarne alcuni) in turni massacranti. Perché è vero che sui social c’è ancora tantissima spazzatura, ma la peggiore (che non vediamo) viene fermata grazie a loro più che all’intelligenza artificiale. E sono sempre loro, i “paria del digitale”, che oggi vengono reclutati per ripulire sistemi IA come ChatGpt. Ad alzare il velo su questo nuovo scandalo è stata la rivista Time con un articolo intitolato OpenAI ha utilizzato lavoratori keniani pagati meno di 2 dollari l’ora per rendere ChatGPT meno tossico (lo trovate al link tinyurl.com/mrx25a6y). A questo punto d’inizio d’anno dobbiamo farci reciprocamente una promessa: che insieme faremo di tutto perché scandali come questo non vengano messi a tacere. Se accadrà sarà per merito di tutti noi. Della nostra capacità di non dimenticare questo aspetto della corsa tecnologica ma anche della nostra capacità (mia quanto tua) di indignarci perché il digitale non diventi un altro settore dove le persone vengono sfruttate. Ve lo dico subito: non sarà facile. Per continuare a migliorare i sistemi IA, infatti, c’è bisogno di sempre più dati. Ma quelli reali e disponibili stanno finendo, anche perché sempre più soggetti ne stanno negando l’utilizzo ai giganti dell’IA. Così i sistemi di intelligenza artificiale vengono sempre più spesso addestrati con dati sintetici, cioè creati dall’intelligenza artificiale. Perché le macchine apprendano correttamente occorre però che i dati vengano etichettati nel modo migliore. E a farlo sono persone, non macchine. Alcune pagate in maniera congrua, molte altre sfruttate. Già oggi questo è un business fiorente, che entro il 2030 potrebbe valere miliardi di dollari. Per capirci: la multinazionale Gartner, che si occupa di analisi nel campo della tecnologia, prevede che nel 2025 il 60% dei dati utilizzati per progetti di intelligenza artificiale e analisi sarà generato sinteticamente. Il 60 per cento. Sta a noi decidere di non dimenticare gli sfruttati dell’IA. © riproduzione riservata
© Riproduzione riservata
ARGOMENTI: