Don Luigi Ciotti
Li chiamano “deepfakes”, cioè bufale hi-tech confezionate con lo zampino dell’Intelligenza artificiale. Video, foto e audio falsi, che però sembrano talmente veri da provocare danni alla reputazione, convincere le vittime designate a sborsare denaro, addirittura provocare terremoti politici. L’ultimo a farne le spese è stato don Luigi Ciotti, fondatore di Libera che fa della credibilità la sua bandiera. Il sacerdote è stato digitalmente infangato nei giorni scorsi: alcuni truffatori hanno manipolato le immagini del suo intervento a Tor Vergata del 24 marzo, in occasione della Giornata contro le mafie, per ricavarne un odioso spot su una (presunta) miracolosa cura anti artrite. “I medici non ci dicono la verità – recitava il don Ciotti contraffatto – ecco come ci si può curare anche da casa”. Il prete antimafia ha scoperto tutto e denunciato l’accaduto alla magistratura, che ora indaga per trovare i responsabili. Ma don Ciotti è solo l’ultimo di una serie di personaggi illustri "copiati" dall'Intelligenza artificiale. Prima di lui, in tempi recenti, era capitato a Fabio Fazio e a Piero Ferrari, vicepresidente del Cavallino. All’estero sono finiti nel mirino Scarlett Johansson, Tom Hanks e perfino Mark Zuckerberg (infilato in un fasullo dibattito politico).
Con l’evoluzione della tecnologia legata all’IA i deepfakes sono diventati sempre più sofisticati e, dunque, credibili. Una minaccia che purtroppo sta facendo avverare i peggiori timori di Europol e Unicri (l’agenzia anticrimine Onu), che già 4 anni fa elaborarono uno studio sui rischi derivanti dall’uso malevolo dell’Intelligenza artificiale. Nel report un intero capitolo era appunto dedicato ai deepfakes. Nel 2020 il pericolo si traduceva soprattutto nella realizzazione di video pornografici falsi: su 15 mila filmati fake, il 96% era di contenuto vietato ai minori. La tecnica è nota: il viso di una celebrity applicato a un corpo nudo per suscitare la morbosità degli utenti. Ma se 4 anni fa il fenomeno era limitato, con l’evoluzione rapidissima degli strumenti i rischi si sono notevolmente innalzati, al punto che nei casi più complessi è difficile distinguere il vero dal falso. Certo, ci vogliono conoscenze e risorse adeguate, e i piccoli truffatori non ne hanno a sufficienza. Per questo motivo vengono quasi sempre smascherati. Ma l’Europol metteva in guardia sugli sviluppi futuri, soprattutto riguardo a campagne mediatiche e social concepite per screditare gli avversari politici. Un altro potenziale utilizzo ostile prevede la diffusione di immagini artefatte a fini di estorsione: la vittima sa che si tratta di un fake, ma non può dimostrarlo e perciò paga per evitare scandali.
Le insidie vengono anche dall’uso della voce contraffatta: Europol e Unicri hanno documentato vari casi. In uno, il dirigente di un’azienda era stato convinto a stanziare una somma di denaro credendo di parlare con il suo amministratore delegato. Addirittura, fu la stessa Europol ad andarci di mezzo: una banda di truffatori aveva usato la voce dell’ex direttore esecutivo per estorcere 10 mila euro. L’inganno era emerso quando la vittima aveva chiamato la stessa organizzazione per chiedere indietro la somma.
Il deepfake è una pratica sempre più diffusa in Africa, dove rischia di provocare effetti catastrofici e destabilizzanti. Nel 2018, un finto video raccontava che il presidente del Gabon era in fin di vita o addirittura morto: circostanza che portò i militari a tentare un colpo di Stato.
Massima attenzione anche sui passaporti: ci sono software che permettono di modificare una foto tessera in modo da far assomigliare il viso di una persona anche a quello di un’altra. Il fine è chiaro: permettere di usare un documento altrui eludendo i controlli.
Tutti pericoli molto concreti, dalle conseguenze inquietanti e forse ancora non del tutto inimmaginabili. Non a caso l’Unione Europea ha appena approvato una legge per regolare l’uso dell’Intelligenza artificiale e prevenirne gli abusi. Basterà?