undefined - undefined
Un altro mondo (anche digitale) è possibile. Quello, per esempio, dove la migliore app per comunicare in totale privacy (altro che Telegram, dove i messaggi tra utenti non sono protetti in automatico e i gruppi sono sempre visibili a tutti) non solo non ha come obiettivo quello di fare profitti, ma per proteggerla da speculatori e possibili derive è di una fondazione. Si chiama Signal ed è nata dall’incontro tra Moxie Marlinspike, crittografo, ex capo della sicurezza di Twitter, e Brian Acton, uno dei fondatori di WhatsApp, il quale dopo avere venduto l’app di messaggistica più usata al mondo a Facebook, lasciò il colosso in polemica sul modo col quale veniva gestita (male) la privacy degli utenti.
Uno strano gioco del destino ha voluto che l’arresto del fondatore di Telegram avvenisse quasi in concomitanza col decennale del debutto di Signal. Che non è solo un’app usata da milioni di persone ma una realtà all’avanguardia che protegge anche i miliardi di utenti che su WhatsApp (e non solo lì) usano (spesso senza saperlo) i protocolli di crittografia di Signal. «Per molti versi - ha scritto l’esperto Andy Greenberg su Wired - è l’esatto opposto del modello della Silicon Valley. È un’organizzazione non profit che non ha mai ricevuto investimenti, rende il suo prodotto disponibile gratuitamente, non ha pubblicità e non raccoglie praticamente nessuna informazione sui suoi utenti, mentre compete con i giganti della tecnologia e vince».
Da due anni presidente di Signal è Meredith Whittaker, una paladina di un nuovo modo di fare e concepire il digitale. Quando lavorava a Google ha guidato scioperi e proteste contro alcune derive aziendali come quella di accettare contratti militari. Cofondatrice dell’AI Now Institute che si occupa delle implicazioni etiche dell’intelligenza artificiale, è convinta che «l’AI e la sorveglianza siano intrinsecamente interconnesse». Il suo obiettivo in Signal, ha raccontato a Wired, è trovare finanziamenti a lungo termine per mantenerla in vita per i decenni a venire, senza compromessi o stravolgimenti aziendali, ma anche fare in modo che sia un modello per l’esistenza di un nuovo ecosistema tecnologico».
Tra le azioni intraprese per crescere c’è quella di allargarsi in Europa. «Dobbiamo essere flessibili, considerando che ci troviamo di fronte a un contesto geopolitico molto volatile». Non tutti amano la privacy totale. Anzi. Anche in Europa, ci sono posizioni diverse. «La Germania sta prendendo in considerazione una legge che imponga la crittografia end-to-end, mentre la Spagna è in prima linea nel premere per indebolirla». Eppure nel 2020 la Commissione Europea ha approvato Signal come unica app di messaggistica raccomandata ai suoi membri. La verità è che la privacy non solo è diventata molto importante ma è anche un enorme business. «Noi siamo un’organizzazione non profit perché questo tipo di struttura organizzativa è fondamentale. Nel nostro settore, il profitto si ottiene monetizzando la sorveglianza o fornendo beni e servizi a chi lo fa. Ma la vera privacy, in un’economia alimentata dalla sorveglianza (che usa cioè le informazioni delle persone per marketing e anche per manipolarle - nota mia), ostacolerà necessariamente tutto questo».
A questo punto Whittaker sottolinea due aspetti molto importanti. Il primo è che stiamo addestrando le intelligenze artificiali usando anche moltissimi metadati di bassissima qualità. «Prendono dati spazzatura che affermano rappresentino sentimenti umani, o cose che sono molto più difficili da misurare accuratamente e li inseriscono in un modello statistico. E questa la chiami intelligenza?». Il secondo aspetto è ancora più forte. «Con l’intelligenza artificiale e la sorveglianza le persone vengono catalogate. E se la macchina decide che il tuo profilo di dati assomiglia abbastanza a un profilo che è stato segnalato come pericoloso, vieni colpito come accade con le bombe a Gaza».
Ma l’IA, come ben sappiamo tutti, è anche molto utile, per esempio in campo medico. «Vero. Ma la priorità del mercato è il business. Per cui gli stessi dati possono essere usati dalle compagnie assicurative per escludere le persone dalle coperture, risparmiando un sacco di soldi. Oppure utilizzato per respingere i pazienti. L’IA è costosissima e chi la controlla al momento non sembra certo avere come priorità il bene di tutti. Più potere accumulano queste aziende e più sarà difficile creare alternative che proteggano veramente le persone».
Insomma, non solo un altro mondo (anche digitale) è possibile ma ne abbiamo sempre più bisogno.