A prima vista sembra tutto semplice e chiaro. Di più: doveroso e di assoluto buon senso. Apple ha deciso che, da fine anno, tutte le immagini presenti su un telefonino iPhone, quando verranno salvate (magari con un backup automatico dei dati del cellulare) su iCloud «saranno scansionate a caccia di materiale pedopornografico». Il sistema non 'guarderà' ogni foto, ma 'leggerà l’impronta digitale' di ogni scatto (si chiama 'hash') e la verificherà con milioni di 'impronte' contenute nel database del National Center for Missing and Exploited Children, l’istituto americano che si occupa di minori. Quando la scansione «supererà una certa soglia» (non è specificato quale) Apple disabiliterà l’account dell’utente e invierà un rapporto al National Center for Missing and Exploited Children, il quale a sua volta informerà le Forze dell’ordine.
Il primo impulso davanti a una notizia così è di battere le mani. E dire: ben venga un sistema così per ridurre l’orrenda piaga della pedopornografia. Sistemi simili peraltro sono già usati anche da Google, Microsoft e Dropbox. Quella di Apple non è l’unica novità di rilievo. Il Parlamento europeo tramite il regolamento denominato 'ChatControl' ha da poco stabilito che le applicazioni di messaggistica (come WhatsApp o Messenger) potranno utilizzare tecnologie di sorveglianza delle conversazioni degli utenti per individuare abusi sessuali sui minori, per poi segnalarli alle autorità e rimuoverli.
Ribadito che qualunque azione volta a contrastare la pedopornografia è una buona notizia e ce ne vorrebbero molte di più, queste novità aprono anche altri scenari. Perché nel momento in cui noi accettiamo (giustamente e doverosamente visto che si tratta di contrastare la pedopornografia) di far 'monitorare' le foto e le conversazioni presenti sui nostri cellulari non possiamo non chiederci: chi ci garantisce che, domani o dopodomani, questi sistemi non saranno usati anche per altri scopi, magari non tutti così nobili? La svolta di Apple per proteggere i minori prevede anche altro.
E cioè che se un minore riceve sul suo cellulare una foto di nudo attraverso il sistema di messaggistica iMessage questa venga oscurata e nel contempo un messaggio avvisi i genitori del ragazzo, i quali saranno gli unici che potranno renderla eventualmente visibile. Il che ci porta a un’altra domanda.
Forse la più importante: quanto ognuno di noi è disposto a farsi controllare e far controllare i suoi cari da un sistema tecnologico per migliorare l’ecosistema digitale? Personalmente non ho problemi a farmi controllare, ma vorrei precise garanzie di difesa della privacy di ognuno e del fatto che certi sistemi tecnologici vengano utilizzati solo per fini nobili e importanti e siano a loro volta monitorati da enti terzi. In questi anni infatti abbiamo visto più volte che anche i migliori sistemi digitali possono essere usati per fini che non immaginavamo e tutt’altro che nobili.
Per esempio, dopo il caso dell’omicidio di George Floyd da parte di un poliziotto americano (smascherato da un video ripreso da una ragazza e postato sui social), quando gli agenti americani sono in situazioni 'delicate' e si vedono ripresi dai cittadini fanno suonare sui loro cellulari canzoni famose a tutto volume. Perché lo fanno? Perché se e quando quei video di denuncia verranno caricati online il sistema li bloccherà in automatico per violazione del copyright sulla musica.
E in questo modo oscurerà altrettanto in automatico anche qualunque video compromettente. Perché la tecnologia è un’ottima cosa ma non è sempre così perfetta e soprattutto può essere anche manipolata. Per questo dobbiamo imparare che nessun sistema tecnologico basterà mai da solo a contrastare la pedopornografia e a difendere i minori dall’ondata di immagini a contenuto sessuale che si riversano ogni giorno sui loro cellulari.
Oggi come domani servirà anche e soprattutto l’impegno costante di tanti esseri umani in carne e ossa. Perché la parola chiave in tutto questo è (e resta) analogica. Ed è 'educare'. I nostri ragazzi, noi stessi e la nostra società sempre più immersa nel digitale.