Cosa fa esattamente un moderatore di Tik Tok? Quali sono le "regole d'ingaggio" alle quali deve attenersi? Ma soprattutto: quanto la moderazione sul social più frequentato dai ragazzi è fatta dai computer (con i sistemi di intelligenza artificiale) e quanto da persone in carne ed ossa che vigilano sui contenuti?
A queste domande Tik Tok, per scelta, non ha mai risposto. Da qualche giorno, però, ne sappiamo un po' di più grazie ad un'intervista anonima realizzata su YouTube dall'esperto digitale Giorgio Taverniti a un moderatore di TikTok. Anonima perché impiegati e collaboratori del social firmano una clausola di riservatezza che impedisce loro di raccontare ciò che fanno. Basta comunque ascoltarla per capire che la persona intervistata è chi dice di essere. Il suo volto non si vede mai, la sua voce è stata camuffata ma quello che dice è reale. E fa effetto.
Innanzitutto ci svela che mediamente, ogni giorno, deve analizzare «tra i 900 e i 1000 video. Ed è molto pesante». Scopriamo anche che di moderatori come lui in Europa TikTok «ne ha circa 400». Domanda inevitabile: ha mai visto su TikTok tracce di quella sfida per la quale si è detto sarebbe morta la bambina di Palermo? «No, non l'ho mai vista. Su TikTok vedo però molte sfide: da quella di coprirsi completamente la faccia con lo scotch o il nastro adesivo, che è comunque molto pericolosa se lo fa un bambino, oppure altre dove i ragazzi si stendono per terra e bevono litri d'acqua finché non ce la fanno più e stanno male». In caso di sfide particolarmente pericolose cosa fate? «Blocchiamo i video e il profilo dell'utente e, in casi estremi, viene attivata un'unità speciale che ha il compito di contattare la Polizia postale o altre Forze dell'Ordine sparse negli altri Paesi».
Cos'è la cosa più estrema che è stato costretto a vedere in un video postato su TikTok? «Persone che si sono sparate davanti alla telecamera mentre qualcuno le riprendeva. E poi tanti ragazzini che si filmano nudi». Tutto questo, per fortuna, quasi nessun utente l'ha mai visto. Perché uno dei compiti dei moderatori sia elettronici sia umani «è quello di bloccare i contenuti inappropriati». Chiede Taverniti: contenuti simili sono riconosciuti dall'intelligenza artificiale o li scoprite grazie alle segnalazioni degli utenti? «Li riconosce direttamente l'intelligenza artificiale». I moderatori in carne ed ossa intervengono su casi dubbi. E qui l'intervistato fa un'ammissione importante: «Ogni giorno abbiamo così tanti filmati da vedere (circa 1.000 a testa), che ogni tanto qualcosa purtroppo ci scappa».
Mentre si ascolta l'intervista si ha la conferma di quanto la questione sia complicata. Perché su TikTok ci sono tantissimi contenuti «al limite» (e oltre) che «sono accettati nei ragazzi sopra una certa età e nei maggiorenni ma sono bloccati se li fanno i più piccoli» ma è sempre più difficile verificare l'età degli utenti. Chiede Annalisa via chat: vedere ogni giorno così tanti video alla fine non vi fa normalizzare le brutture? «Per aiutarci facciamo continuamente corsi che possono durare anche un mese e abbiamo un supporto psicologico disponibile 24 ore su 24. Personalmente mi fa molto male soprattutto vedere tanti bambini ipersessualizzati».
All'inizio, ammette il moderatore, «quando si chiamava Musical.ly, TikTok era un luogo abbastanza sano. Poi sono arrivati gli adulti e c'è stata un'accelerazione sulla pornografia e la sessualizzazione dei ragazzi e dei bambini perché credono sia l'unico modo che hanno per farsi notare. Oggi c'è anche tanto bullismo. E, pur lavorando in maniera molto seria, facciamo fatica a bloccarlo tutto». Infine un consiglio ai genitori: «Evitate che i vostri figli minori di 14 anni vadano su TikTok o perlomeno controllate ogni giorno ciò che fanno. Troppi ragazzini fanno cose assurde all'insaputa dei genitori. E vale non solo per TikTok ma per tutti i social».
© Riproduzione riservata
ARGOMENTI: