Ogni giorno abbiamo tutti un buon motivo per lamentarci dei social. Volgarità, 'fake news', razzismo e frasi d’odio infestano post e commenti di Facebook e affini. Difficile, se non impossibile, controllare e filtrare tutto, rispettando le libertà degli utenti. Facebook ha appena annunciato che assumerà altre 3.000 persone come moderatori, che andranno ad affiancarne altri 4.500. Quello che il social più grande del mondo non dice è che i 'suoi' moderatori spesso lavorano in società esterne, in varie zone del mondo. E non certo in sedi prestigiose e scintillanti come quelle delle aziende della Silicon Valley. È merito loro se su Facebook non avete mai visto del materiale pornografico. Merito di persone che passano infinite ore davanti ai computer, 24 ore su 24, 7 giorni su 7. Quanto siano pagate nessuno lo dice. Ma di certo non navigano nell'oro. Sono un esercito prezioso ma di loro si parla troppo poco. Perché il mondo digitale tende a nascondere le sue 'sentinelle'. Come qualcosa di cui non si deve parlare. Come persone che non si devono vedere. Eppure, senza di loro, saremmo ancor più invasi dalla spazzatura digitale. Quella della peggiore specie. Pensate al peggio e capirete di cosa stiamo parlando.
Hanno provato a fermarla con gli algoritmi matematici che governano i computer ma spesso è andata male. Come quando è stata censurata la foto casta di una madre che allattava e persino la famosissima foto della bimba colpita dal Napalm, simbolo della guerra del Vietnam, solo perché correva nuda. Il computer non poteva capire la differenza sostanziale tra quella foto simbolo e una pedopornografica. Per lui era una bimba nuda e come tale l’aveva trattata. Quello dei 'moderatori digitali' è un lavoro infernale. Per farvi capire la portata, ogni minuto solo su Facebook vengono pubblicati 41mila post, molti dei quali con foto. Sono 2 milioni 460mila all’ora. Che al giorno fanno la bellezza di 59 milioni e 40mila post, di cui quasi 40 milioni con una foto allegata o composti solo da foto. Senza contare Instagram che di foto vive, o social come Twitter e Snapchat, per restare ai più famosi. Già, ma chi sono i 'moderatori' della rete. Tre anni fa erano 100.000, oggi sono 150.000, «più del doppio dei dipendenti di Google, e quasi 9 volte quelli di Facebook». E sono destinati a crescere sempre di più. Un esercito che, non è un’esagerazione, rovina la propria vita per far sì che social e altri servizi on line siano più puliti di quello che appare.
Molti di loro vivono in India. Il primo a svelare la loro esistenza fu Adrian Chen su Wired, nell’ottobre 2014. Oggi a mostrarci le loro giornate – drammaticamente uguali quanto alienanti – è il docufilm The Moderators di Adrian Chen e Ciaran Cassidy, disponibile gratis on line sulla piattaforma Field of Vision. «Dobbiamo 'moderare' oltre 2.000 foto all’ora» spiega uno di loro. Nessuno nel film appare con un nome. Perché ai giganti del web non interessa chi sono, ma cosa fanno e quanto velocemente lo fanno. Duemila foto all’ora, fanno 1,8 secondi a fotografia. Per vedere, giudicare e dividerle in quattro sezioni: 1) immagini volgari ma non pornografiche postate da smartphone; 2) immagini volgari ma non pornografiche postate da computer; 3) immagini pornografiche; 4) immagini 'inaccettabili'. Cosa significa 'inaccettabili' lo spiega un’altra 'sentinella digitale': «Spesso vediamo cose raccapriccianti. Così raccapriccianti da cambiarti la vita per sempre». Il loro responsabile prova a rendere le cose meno drammatiche: «Non dovete farne una questione personale. Mai. Non fatevi contaminare da quello che vedete». Per un attimo credi che lo stia facendo per proteggere la sua squadra di giovanissimi. Invece, il resto del suo pensiero ti spiazza: «Non dovete farvi coinvolgere perché il vostro giudizio deve essere il più distaccato possibile. Ricordate, voi non potete fare neanche un errore. Le macchine e gli algoritmi possono a volte sbagliare, voi no».
In questa società, in una non dichiarata città dell’India, dove si lavora 24 ore su 24, 7 giorni su 7, conta solo una cosa: la soddisfazione del cliente. Qui non esistono né il giorno né la notte. Le luci al neon sono sempre accese, come le pale dei ventilatori appese al soffitto e gli schermi dei computer. L’unico legame con la realtà 'là fuori' sono quattro orologi appesi alla parete di fondo. Ognuno ha sotto una scritta in maiuscolo: PST, CET, MSK e IST. Cioè: Pacific Standard Time (PST): Central European Time (CET); Moscow Standard Time (MSK); India Standard Time (IST). I quattro fusi orari più importanti per il loro mondo, digitale e non. Ogni giorno è uguale. Ogni ora è uguale. Un infinito turno di vedetta sulle discariche digitali a ripulire ciò che noi giustamente non dobbiamo e non vogliamo vedere nei 'nostri' social e nelle nostre piattaforme.
«Quando trovate del contenuto pedopornografico mandate una mail al 'cliente', avvertendolo di controllare quel determinato ID che l’ha pubblicato» dice il capo. Messa così sembra una cosa semplice. Ma provate voi a rimanere 'distaccati' dopo una simile visione. «Immagini simili possono rovinarti per sempre» spiega un 'moderatore', stando attento a non farsi sentire dal capo. Un’altra area a forte rischio sono i siti di incontri. «Le persone che si iscrivono a questi servizi sono molto vulnerabili e i controlli sono pochi. Così è pieno di truffatori. Perché è molto facile creare profili falsi e manipolare le persone». Anche i falsi profili presenti sui social sono tantissimi. «Solo il 30-40% sono reali, il 60-70% sono falsi». «Ogni giorno la nostra squadra di 20 persone modera 1 milione di immagini e 5.000 profili social» dice orgoglioso alla telecamere il capo. «La macchina a volte sbaglia, gli umani devono correggere. Per ora è impossibile fare moderazione digitale senza le persone».
Il che ci pone di fronte ad un dilemma non da poco: quanto siamo disposti siamo disposti a pagare, anche in termine di vite rovinate dal troppo orrore visto, per tenere pulite le strade digitali del mondo? E ancora: quando cominceremo a trattare col rispetto e il salario dovuto persone che fanno un lavoro così delicato e così importante? Invece, al momento, i ragazzi indiani di The Moderators vivono 'nascosti', lontano dai nostri occhi. Perché non dobbiamo vedere quanto fanno e cosa fanno. Così possiamo dormire sonni (relativamente) tranquilli, pensando che basti una macchina 'intelligente' per pulire i social e ignorando che esistono 150.000 'moderatori' umani, molti dei quali trasformati in «spazzini digitali» costretti a eliminare le nefandezze degli utenti.