Digitale. Capire il «gioco» degli algoritmi per una rete a dimensione umana
Negli ultimi anni le reti sociali hanno rivoluzionato la comunicazione e l’interazione umana, aprendo nuove opportunità per connettersi e condividere contenuti. Si è creata una comunicazione integrata che consiste nella convergenza dei processi di comunicazione, in cui i social media svolgono un ruolo decisivo come un forum in cui si formano i nostri valori, le nostre convinzioni, il nostro linguaggio. In futuro è probabile che i social continueranno a evolversi e ad adattarsi alle esigenze degli utenti, integrandosi sempre di più con le nuove frontiere dell’innovazione digitale come l’intelligenza artificiale e la realtà aumentata. L’intelligenza artificiale è un campo in rapida evoluzione che ha il potenziale per trasformare molti settori, compreso quello dell’informazione. Tuttavia, è importante valutare l’impatto dell’AI in modo equilibrato e realistico, soppesando rischi e benefici.
La crescente enfasi sulla distribuzione e sul commercio di conoscenze, dati e informazioni ha generato un paradosso: in una società in cui l’informazione svolge un ruolo così essenziale, è sempre più difficile verificare le fonti e l’accuratezza delle informazioni che circolano in digitale. Fondamentale è quindi il controllo dello strapotere che gli algoritmi hanno acquisito negli ultimi anni. Ad esempio, il sovraccarico di contenuti è risolto da algoritmi di intelligenza artificiale che decidono costantemente cosa mostrarci, sulla base di fattori che a malapena percepiamo o intuiamo. Ricordiamoci sempre che l’ambiente digitale che ognuno vede – e perfino i risultati di una ricerca online – non è mai uguale a quello di un altro.
Il documento vaticano Verso una piena presenza. Riflessione pastorale sul coinvolgimento con i social media, esprime una versione positiva del mondo digitale, ma non incondizionatamente. In 87 punti, il documento fa un’ampia disamina dello spazio digitale come si presenta adesso, guardando anche agli sviluppi dell’intelligenza artificiale e agli algoritmi che ormai dominano la percezione umana perché preposti a selezionare ed evidenziare le informazioni che ritengono migliori nel sovraccarico informativo di oggi. Senza ombra di dubbio, come precisato anche nel documento vaticano, con l’avvento del Web 5.0 e altri progressi nelle comunicazioni, il ruolo dell’intelligenza artificiale nei prossimi anni avrà un impatto sempre maggiore sulla nostra esperienza della realtà. Stiamo assistendo allo sviluppo di macchine che lavorano e prendono decisioni per noi, che possono imparare e prevedere i nostri comportamenti; sensori sulla nostra pelle in grado di misurare le nostre emozioni; macchine che rispondono alle nostre domande e imparano dalle nostre risposte o che usano i registri dell’ironia e parlano con la voce e le espressioni di quanti non sono più con noi. In questa realtà in continua evoluzione, molte domande richiedono ancora una risposta.
Approfondendo poi il tema dell’informazione, nel documento vaticano si parla di “ladri di attenzione”. Con questo termine si fa riferimento alla disponibilità infinita di informazioni a cui tutti noi possiamo accedere tramite i nostri dispositivi. Inoltre, le piattaforme social ci permettono di scorrere all’infinito per esplorare la ricchezza mediatica della comunicazione digitale. Sicuramente, come sottolineato dal Dicastero per la comunicazione della Santa Sede, questa disponibilità infinita di informazioni ha creato anche alcune sfide. Quotidianamente sperimentiamo il sovraccarico di informazioni, quando la nostra capacità cognitiva di elaborazione soffre a causa dell’eccesso di informazioni a disposizione. In modo analogo, sperimentiamo un sovraccarico di interazioni social, quando siamo soggetti a un alto livello di sollecitazioni social.
Come possiamo assicurare che quanti elaborano gli algoritmi siano guidati da principi etici e aiutino a diffondere a livello globale una nuova consapevolezza e un nuovo pensiero critico al fine di ridurre al minimo le falle delle nuove piattaforme informative? Questa la domanda che solleva nella riflessione pastorale sul coinvolgimento con i social media. Come ben sappiamo, ormai gli algoritmi sono parte integrante della nostra vita quotidiana. Sono utilizzati nei motori di ricerca per classificare i risultati, nei social media per selezionare i contenuti da mostrare agli utenti e nelle piattaforme di notizie per suggerire articoli. Questi algoritmi, spesso basati sull’apprendimento automatico e sull’intelligenza artificiale, sono progettati per ottimizzare l’esperienza dell’utente, ma ciò solleva importanti questioni riguardo alla veridicità e all’obiettività delle informazioni che ci vengono presentate. Il primo problema fondamentale evidenziato dal documento vaticano è la questione della “bolla informativa”. Gli algoritmi tendono a mostrare agli utenti contenuti che corrispondono alle loro opinioni e interessi pregressi, creando così una sorta di filtro a campana intorno a ciascun individuo. Ciò può portare a un’ulteriore polarizzazione delle opinioni e alla diffusione di notizie false o distorte all’interno di gruppi chiusi, dove la verità è spesso sacrificata sull’altare delle convinzioni personali.
Inoltre, gli algoritmi possono essere manipolati da attori malintenzionati o da interessi commerciali. Le notizie false, conosciute come “fake news”, possono diffondersi n modo virale attraverso la rete, influenzando l’opinione pubblica e distorcendo la percezione della verità. Alcuni algoritmi, progettati per massimizzare il coinvolgimento dell’utente, tendono a promuovere contenuti sensazionalistici o controversi, piuttosto che informazioni accurate e veritiere. La verità in balia degli algoritmi solleva anche domande etiche riguardo alla responsabilità delle piattaforme digitali. Chi è responsabile quando un algoritmo diffonde informazioni errate o dannose? Le aziende che sviluppano e gestiscono queste piattaforme hanno il dovere di intervenire per limitare la disinformazione, anche a costo di limitare la libertà di espressione? Una possibile soluzione a questi problemi potrebbe essere l’implementazione di una maggiore trasparenza e responsabilità nei processi decisionali degli algoritmi. Le aziende possono adottare politiche più rigorose di verifica delle informazioni e promuovere la diversità delle fonti di informazione. Inoltre, la promozione dell’alfabetizzazione mediatica potrebbe aiutare gli utenti a sviluppare una maggiore consapevolezza critica nei confronti delle informazioni che incontrano online.
Certamente questa è una sfida complessa e cruciale per la nostra società digitale. Gli algoritmi possono essere potenti strumenti per migliorare l’accesso alle informazioni, ma richiedono una supervisione attenta e una riflessione critica per garantire che la verità non venga sacrificata sull’altare del profitto o della polarizzazione. La ricerca di soluzioni per garantire una migliore qualità dell’informazione online è quindi una sfida fondamentale per il nostro tempo. Infatti, la disciplina dell’uso dell’intelligenza artificiale richiede l’adozione di principi etici, regolamentazioni appropriate e una governance responsabile. È importante sviluppare modelli di AI trasparenti e imparziali, garantendo la privacy dei dati e promuovendo un dialogo inclusivo che coinvolga esperti, decisori istituzionali e società civile. L’obiettivo deve essere quello di sfruttare l’intelligenza artificiale per il bene comune, promuovendo un equilibrio tra innovazione, efficienza e valori umani fondamentali.
Dobbiamo essere consapevoli che, se l’intelligenza artificiale non rispetterà i diritti fondamentali delle persone, compresi quelli relativi alla dignità, alla privacy, all’onore, all’immagine, alla non discriminazione e alla proprietà intellettuale, essa diventerà il killer del benessere digitale anziché armonizzarsi con la costruzione di un nuovo umanesimo digitale, che il documento vaticano indica come prospettiva virtuosa da coltivare.
Docente di Diritto dell’informazione all’Università Cattolica di Milano
IN COLLABORAZIONE CON IL Dicastero per la Comunicazione