Quando i primi gestori di siti web cominciarono a lamentarsi con Google – appena lanciato come progetto dell’università di Stanford – perché la graduatoria del motore di ricerca non li includeva fra i risultati più in evidenza, i due giovani inventori, Larry Page e Sergey Brin, si difesero dicendo che loro non c’entravano nulla, non c’era alcun intervento umano, la scelta dipendeva esclusivamente dal lavoro del software. Il preziosissimo territorio della prima pagina dei risultati di ricerca, cruciale per la visibilità, e quindi il business, di chi opera nel web, è amministrato da potenti algoritmi (il principale è PageRank). Per entrarci occorre capire quali sono i loro meccanismi e cercare di coglierne le esigenze. Lavoro in cui sono impegnate miriadi di società e singoli, attenti a registrare i più impercettibili cambiamenti di funzionamento e di logiche di Google e ad adeguarvisi il più velocemente possibile, per riuscire ad apparire fra i primi (tra gli addetti di Internet si dice che «il posto più sicuro dove nascondere un cadavere è la seconda pagina dei risultati di Google»). «Nessun intervento umano» per i fondatori di Google equivaleva a una piena garanzia di neutralità, imparzialità e correttezza. Così gli algoritmi hanno fatto il loro ingresso nel web di massa. Oggi sono il filtro onnipresente attraverso cui vediamo Internet. Ideati per risolvere problemi concreti, suddividendone la soluzione in diversi passaggi di un processo, gli algoritmi hanno applicazioni in tutti gli ambiti in cui l’informatica può dare un contributo. Ma è nel web che hanno trovato il loro habitat ideale. Col crescere dei contenuti e dei servizi della rete è nata la necessità di individuare strumenti che aiutassero a scovare le informazioni davvero pertinenti alle diverse necessità dei navigatori. La parola d’ordine per capire la trasformazione in corso è “personalizzazione”, ovvero l’insieme di tecniche e strategie che mirano a darci una versione del web sempre più tagliata sulle nostre esigenze. «Gli algoritmi sono programmi informatici che cercano indizi per restituirti esattamente ciò che desideri», come li definisce la stessa Google, e confezionano con zelo e precisione una versione di Internet filtrata dalla quale sta diventando sempre più difficile uscire. Facebook funziona in un modo simile. Un insieme complesso di algoritmi determina cosa ci può interessare, e quin- di cosa vediamo nella nostra bacheca, scegliendo fra il diluvio di post provenienti dai nostri “amici”. Di recente l’azienda è stata accusata di privilegiare i contenuti filodemocratici nella sezione “
trending topics” (“argomenti di tendenza”, non attivo in Italia) e anche in quel caso per difendersi il fondatore Mark Zuckerberg ha invocato la neutralità degli algoritmi. Twitter di recente si è adeguata e proprio in questi giorni anche Instagram, che è proprietà di Facebook, ha confermato, dopo un annuncio – molto contestato – del marzo scorso, che entro un mese abbandonerà l’ordine cronologico nel proporci le foto dei personaggi o degli amici che seguiamo. In pratica anziché vedere i tweets e le immagini nell’ordine in cui sono stati inseriti, vi possiamo accedere in una sequenza decisa in base al nostro comportamento precedente, alla popolarità di quel contenuto, alle nostre interazioni con chi lo ha inserito e numerose altre variabili. Il tutto esaminato dagli algoritmi. Il che significa che alcuni contenuti magari non li vedremo mai. Ci sono possibilità d’intervento – su Twitter si può riabilitare l’ordine cronologico, e su Facebook si può indicare se si vogliono vedere i post di un amico per primi, ma ad avvalersene sono in pochi. Ormai tra noi e lo sterminato patrimonio di contenuti, idee, relazioni che Internet rende possibile c’è uno strato d’inimmaginabile complessità, un brulichio di programmi che incrociano i siti che abbiamo visto, i link su cui abbiamo cliccato, i «mi piace» che abbiamo dispensato e migliaia di altre variabili per decidere se proporci un contenuto piuttosto che un altro. Lo aveva intuito già nel 2011 l’americano Eli Parisier, autore di un libro profetico
The Filter Bubble, (tradotto in italiano come
Il filtro, ll Saggiatore, 2012) dove descriveva l’evoluzione del web verso la creazione di «bolle » in cui quello che c’è «là fuori» viene filtrato sulla base delle esigenze e degli interessi di ogni specifico utente. Lo psicologo Jonathan Haidt lo chiama «Effetto Facebook», ovvero il fatto che noi «vogliamo passare più tempo con persone che la pensano come noi e meno con chi ha opinioni diverse». Oggi la personalizzazione si è fatta ancora più capillare: le bacheche dei social network sono spazi contesi dagli inserzionisti pubblicitari che vogliono essere certi di piazzare i loro annunci accanto a contenuti di sicuro interesse per i destinatari. E così si procede, in una ricerca sempre più minuziosa, ad analizzare ogni minimo dettaglio delle nostre azioni all’interno di un certo sito. Un lavoro immane e incessante che ha lo scopo di confermarci nelle nostre convinzioni e darci sempre più prodotti – di ogni tipo – uguali o simili a ciò su cui abbiamo appena cliccato o che abbiamo appena comprato. Gli algoritmi – nuovi intermediari invisibili che hanno preso il posto dei mediatori tradizionali – macinano dati e li incrociano sulla base di propri criteri, solo in parte noti. Hanno un’etica fluida, con cui non è possibile negoziare, che in linea generale fa riferimento a criteri come la popolarità, la novità, il coinvolgimento. Informazioni sgradevoli, o impopolari, o semplicemente che mettono in crisi le convinzioni più diffuse, difficilmente possono trovare spazio in un ambiente di questo tipo. Come ha spiegato di recente Zeynep Tufekci sul “New York Times”, scopo di Facebook è massimizzare il coinvolgimento degli utenti nel sito e renderlo appetibile per la pubblicità. È molto facile cliccare sul pulsante «mi piace », ma non c’è ancora un bottone che recita «questo è un articolo difficile, ma importante». Piacerci sempre di più, quasi mai sorprenderci o stupirci: così sta diventando Internet. Siamo ancora sicuri di voler cliccare «mi piace»?