«Fake porn»: la moda criminale spacciata come goliardia
C'è un errore di fondo nell'approccio generale al cosiddetto cyberbullismo. Anzi, due. Il primo è che il cyberbullismo non esiste. Esiste il bullismo. Dentro e fuori la Rete. E tentare di dividere il «reale» dal «digitale» ci porta inevitabilmente ad affrontare il problema solo a metà. Come se il «male» esistesse solo su web e social, su WhatsApp e Messenger mentre nella vita «vera», signora mia, è tutto rose e fiori. Il secondo errore è pensare che il bullismo sia solo una prerogativa dei ragazzi, per i quali giustamente si organizzano convegni, seminari e lezioni.
Peccato che a furia di guardare solo ai giovani, stiamo perdendo di vista malefatte altrettanto se non più inquietanti del mondo degli adulti. L'ultima in ordine di tempo si chiama deepfake e consiste nel creare fake porn, cioè filmati pornografici che vengono ritoccati cambiando il volto dei protagonisti. All'inizio la sostituzione avveniva con le facce di attrici famose. Per farlo servivano computer performanti e una buona conoscenza nell'uso di certi programmi. Ora c'è anche un'applicazione per smartphone che permette a tutti di realizzare facilmente filmati pornografici taroccati, usando il volto di chiunque.
Ripeto: di chiunque. Ex fidanzate, ex fidanzati, figlie, mamme, zie, bambini, professori, politici, prelati e chi più ne ha più ne metta.
I creatori di questo sistema malato dicono che è un gioco. Una scemenza da bar. Una goliardia da confraternita di un college americano.
«I filmati taroccati sono creati sfruttando l'intelligenza artificiale, e nel dettaglio un algoritmo di "machine learning", cioè di apprendimento automatico». Uno dei problemi del mondo attuale, reale e non solo digitale, sta proprio qui: nel credere che un'azione ripugnante, che trasforma persone ignare in pornostar – nel migliore dei casi per divertimento, nel peggiore per vendetta o peggio – sia una «cosa leggera». Da ridere.
Invece, la "moda" del «fake porn» non è roba da ragazzini brufolosi ma coinvolge anche e soprattutto gli adulti. Persone di 30 e 40 anni che ci ostiniamo a definire ragazzi anche se non lo sono più. In America sta diventando un caso. Con artiste famose come Scarlett Johansson e Taylor Swift che si sono ribellate, denunciando – come chiamarli: stalker digitali? delinquenti? idioti? – gli autori, spesso anonimi, dei taroccamenti pornografici.
Un portavoce di Twitter ha ribadito ieri, in un'intervista al sito specializzato Motherboard, «che il social sospende ogni account che per primo ha pubblicato foto e video intimi prodotti o distribuiti senza il consenso del soggetto immortalato». Quindi, a maggior ragione, «sospenderemo ogni account che posterà fake porn». Anche un sito molto popolare come Reddit ha appena chiuso il suo forum «deepfakes», che raccoglieva diversi video e foto di questo genere.
Sono due segnali importanti. Ma non basta. Sappiamo tutti che certi filmati possono essere (e sono) condivisi su tanti altri social e tante altre piattaforme, e in mille altri modi. Basta un link spedito via WhatsApp, Messenger, mail o sull'obsoleto sms per infangare una persona. Che spesso è una donna. Quando successe a Tiziana Cantone abbiamo versato fiumi di parole sui giornali e sui social. Mentre ora rischiamo di passare tutto sotto silenzio. Invece dovremmo urlare perché con la complicità di un'intelligenza artificiale (che come ogni intelligenza si può rivelare anche criminale), oggi è facilissimo trasformare un'ignara vittima in una pornostar, rovinandole magari la vita. Basta la foto del suo volto e qualche minuto di attesa.
Basta un «niente» e una persona che non ha fatto alcunché viene infangata e magari distrutta. A tradimento.