Algospeak, il gergo social che inganna gli algoritmi
Lo chiamano «algospeak». E per il Washington Post «sta cambiando la lingua di Internet (e non solo quella) in tempo reale». Di fatto è un gergo nato per rimpiazzare certe parole che verrebbero bloccate dagli algoritmi su piattaforme di social media come TikTok, YouTube, Instagram e Twitch con altre in grado di aggirare i divieti. Ovviamente una parte delle parole fa riferimento a termini volgari, ma il fenomeno è molto più ampio. E va ben oltre il mettere una X al posto di un'altra lettera in una parola scurrile, come fanno tanti italiani.
Questo fenomeno è esploso durante la pandemia, quando – racconta il Washington Post – «i sistemi di moderazione dei contenuti basati sugli algoritmi hanno avuto un impatto senza precedenti sulle parole che usiamo». Non riuscendo ancora a comprendere il senso compiuto di un testo, le macchine hanno spesso ridotto la diffusione anche a tanti post che contenevano le parole «covid» o «pandemia» senza capire se si trattasse di fake news, deliri, sfoghi o testi scientifici. Così le persone al posto della parola «covid» hanno iniziato a usare termini non pertinenti come (in America) «panda express».
In questi ultime settimane, invece, per parlare dell'invasione dell'Ucraina senza essere intercettati, su YouTube e TikTok molti utenti hanno iniziato ad usare l'emoji col simbolo del girasole al posto della parola «Ukraine».
Usare un gergo per evitare forme di controllo è, come sappiamo, un atto nato molto prima dei social e di Internet. Nel digitale, come ben spiega Taylor Lorenz, columnist del Washington Post, «anche i primi utenti di Internet usavano l'ortografia alternativa per aggirare i filtri delle parole. Ma i sistemi algoritmici di moderazione dei contenuti nati in questi ultimi anni sono diventati così rigorosi da finire spesso per mettere a tacere anche comunità emarginate o discussioni importanti».
Ovviamente a usare l'«algospeak» sono soprattutto certi tipi di gruppi e di persone, compresi quelli più a rischio di censura come i no-vax o quelli pro-anoressia. Ma la questione pare molto più grande. Per esempio, secondo Kathryn Cross, «TikTok abbassa la diffusione di contenuti che contengono parole legate alla salute delle donne, alla gravidanza o ai cicli mestruali senza fare differenza tra contenuti professionali, ironici, personali o provocatori». Mentre, come ha spiegato Lodane Erisian, community manager per i creatori di Twitch, la piattaforma di Amazon dedicata ai videogiocatori (e non solo) «ha iniziato a rimuovere anche alcuni emoji (i simboli usati nei messaggi) perché le persone li utilizzano al posto di parole volgari». Per alcuni esperti, come Evan Greer, direttore di Fight for the Future, «queste censure sono un atto senza senso, perché sono comunque aggirabili».
Per Ángel Díaz, docente presso la UCLA School of Law che studia tecnologia e discriminazione razziale, a complicare il problema ci sarebbe il fatto che «molti sistemi pubblicizzati come gestiti da intelligenze artificiali in realtà sono molto poco intelligenti, visto che si basano semplicemente su elenchi di parole ritenute problematiche».
Sia che si tratti di elenchi o di veri sistemi gestiti da algoritmi o da intelligenze artificiali, la moderazione dei contenuti è comunque qualcosa di cui non possiamo più fare a meno vista la quantità di post eccessivi presenti sui social. Il punto, quindi, non riguarda solo cosa vietare ma soprattutto come farlo da qui in avanti tenendo presente il maggior numero di varianti e di sfumature e al contempo rispettando il più possibile la libertà di espressione delle persone.