Il problema è antico ma di enorme attualità, anche nell'universo digitale. Di fatto ruota a attorno a tre domande: chi controlla? come si controlla? e chi controlla i controllori? Che il web e i social abbiano bisogno di un controllo per frenare la crescente ondata di odio e violenza, è un dato di fatto. Il problema è semmai come esercitare questo controllo.Google, che è uno dei più grandi colossi digitali, per esempio, sta lavorando in diverse direzioni. Il suo primo progetto si chiama Conversation AI. È un software che individua automaticamente il linguaggio inappropriato presente in un commento e lo blocca prima che sia pubblicato. Il software dovrebbe (auto) apprendere dalla pratica e diventare sempre più bravo e raffinato. La promessa dei suoi creatori «è che avrà una percentuale di successo molto alta e sarà molto più rapido di ogni moderatore umano».L'obiettivo dichiarato (con un'intervista a Wired America) è di usare la tecnologia per fermare i cosiddetti «troll», cioè le persone che seminano odio e violenza su web e social. Per far funzionare al meglio le cose, gli sviluppatori di Conversation AI hanno lavorato a stretto contatto col team di Wikipedia e con le 14 persone che si occupano di gestire i circa 11mila commenti che vengono postati ogni giorno sul sito del New York Times (per farci capire di che fatica si tratti il team ha realizzato anche una sorta di gioco-test online.Aspettate, però, a gioire.Sempre Google ha da poco annunciato anche un nuovo piano per la moderazione dei commenti presenti in YouTube, il portale video di sua proprietà. Il progetto si chiama YouTube Heroes e punta sulla collaborazione degli utenti per migliorare la comunità. In pratica: chi aiuta YouTube a scovare i commenti inappropriati riceve dei punti. Più punti si accumulano più si ha accesso a funzioni ed eventi esclusivi.Macchine evolute, «capoclasse digitali» o società che offrono servizi di moderazione (un business in forte crescita): difficile dire chi avrà la meglio. Anche perché non tutto sta andando liscio. Conversation AI, per esempio, fa fatica a imparare tutte le complesse sfumature del linguaggio umano, per di più in tutte le lingue e i dialetti del pianeta. Non solo. Sembra faccia fatica a imparare anche l'ironia presente nei commenti. La differenza tra sfottò e offesa. O il fatto che si può essere molto offensivi senza utilizzare alcun termine volgare. Il progetto YouTube Heroes, invece, per ora non è stato accolto molto bene dagli utenti. Anche chi riconosce che esiste un problema di odio e di violenza nel social, non vuole vestire i panni del «poliziotto» o del «capoclasse digitale». Dal canto suo Facebook, l'altro colosso digitale, sul fronte della moderazione ha avuto due enormi incidenti: il blocco «automatico» (da parte del sistema che l'ha ritenuta inappropriata) della foto storica – simbolo della guerra in Vietnam – della bambina bruciata dal napalm che corre nuda e terrorizzata. E due giorni fa l'apparizione sul suo nuovo mercato social, denominato Facebook Market Place, dove gli utenti si scambiano oggetti come su eBay, di armi, droga e prestazioni sessuali. Per Facebook si tratta di «incidenti» (come raccontato anche dall'Ansa. Sarà, ma la credibilità del social più grande del mondo e del suo sistema di controllo ne esce a pezzi. Quindi, apparentemente, non restano che le società private che controllano i commenti. Che però costano cifre mirabolanti. E portano alla terza domanda: chi controlla i controllori?