Editoriale. L’IA chiede umani più responsabili, la sfida di un’educazione all’altezza
Elena Beccalli
Il nuovo anno, come già è avvenuto nel 2023, avrà nell’intelligenza artificiale (IA) uno dei maggiori elementi di rischio e opportunità. A sottolineare quanto il tema sia rilevante è anche l’AI Act, l’accordo raggiunto lo scorso 9 dicembre da Parlamento, Commissione e Consiglio europeo, in cui si propone per la prima volta l’adozione di una regolamentazione dell’intelligenza artificiale, con norme differenti secondo i diversi livelli di rischio alcuni dei quali considerati inaccettabili.
La rilevanza di questo accordo - purtroppo solo europeo - sta nel riconoscere che l’utilizzo dell’intelligenza artificiale comporta dei rischi che, se non debitamente governati, possono avere conseguenze negative a livello individuale e sociale. Sul tema rischio, sono di particolare interesse alcune analisi che saranno presentate nel Rapporto giovani 2024 dell’Istituto Toniolo. Basate su un’indagine internazionale realizzata con interviste condotte nel 2023 su un campione di 6.003 ragazzi, rilevano che un grado più elevato di conoscenza dell’intelligenza artificiale è associato a una maggiore percezione del suo rischio. La crescita nell’utilizzo delle applicazioni dell’IA implica invece una minore percezione del loro rischio e uno speculare aumento delle opportunità attese. Questi risultati suggeriscono quanto sia necessario agire sulla conoscenza degli strumenti di IA poiché essa accresce la consapevolezza dei giovani in merito ai rischi e alle opportunità che ne possono derivare. Da questo punto di vista, le evidenze emerse dallo studio confermano la validità dell’approccio dell’AI Act, che propone una regolamentazione dell’intelligenza artificiale basata proprio sui rischi a essa legati.
Ritornando al Rapporto giovani 2024, è interessante anche notare la relazione tra la percezione del rischio dell’IA e alcune caratteristiche socio-demografiche. Innanzitutto, il genere ha un suo impatto: le intervistate mostrano una percezione del rischio maggiore rispetto agli intervistati di genere maschile cui si associano una conoscenza e un utilizzo minore. Fa la differenza anche il livello di istruzione: se questo è superiore, si rileva una percezione del rischio maggiore, una migliore conoscenza nonché un minor utilizzo. Evidenti sono infine le eterogeneità per aree geografiche, con un posizionamento di italiani e spagnoli - rispetto a tedeschi, francesi e britannici - in assoluto inferiore in termini di percezione del rischio, cui si associa una conoscenza più limitata ma un utilizzo analogo.
Ciò indica che soprattutto nel nostro Paese per affrontare in maniera consapevole le sfide imposte dall’intelligenza artificiale l’educazione riveste un ruolo cruciale. Nel messaggio per la 57esima Giornata Mondiale della Pace, Papa Francesco pone il tema dell’intelligenza artificiale come prioritario per il nuovo anno, riconoscendone «entusiasmanti opportunità e gravi rischi». Interrogandosi in merito alle conseguenze dell’IA, suggerisce come lo sviluppo di tecnologie al servizio della dignità umana abbia evidenti implicazioni per le istituzioni educative e per i metodi di insegnamento. I giovani vanno innanzitutto educati al pensiero critico per essere in grado di discernere nell’uso dell’enorme quantità di dati e contenuti resi disponibili dall’intelligenza artificiale. Inoltre, le scuole e le università sono chiamate ad aiutare gli studenti ad approfondire gli aspetti sociali ed etici dello sviluppo e dell’utilizzo dell’intelligenza artificiale. Tema quest’ultimo ricorrente nel pensiero di Papa Francesco, che già in occasione del convegno della Pontificia Accademia per la Vita del febbraio 2020, si era pronunciato in questo senso: «Il rapporto tra l’apporto umano e il calcolo automatico va studiato bene perché non sempre è facile prevederne gli effetti e definirne le responsabilità».
Numerosi gli studi che di recente affrontano il tema dell’accountability, vale a dire dell’attribuzione della responsabilità all’uomo piuttosto che alla macchina. In alcuni contesti, come ad esempio i sistemi di guida autonoma assistita da un copilota umano, l’attribuzione della responsabilità agli esseri umani può avvenire coinvolgendo l’utente finale, con una sua partecipazione attiva e consapevole alle decisioni e azioni dell’algoritmo. A volte però, come nel caso delle strategie di gestione di portafogli finanziari, gli algoritmi di intelligenza artificiale sono “imperscrutabili”, cioè assumono decisioni complesse sulla base di un’elevata mole di informazioni e con sofisticate tecniche di analisi tali da rendere impossibile o inefficiente una ricostruzione analitica del processo decisionale e una partecipazione dell’utente finale. In tali situazioni la responsabilità non può che essere fatta risalire fino ai soggetti coinvolti nello sviluppo degli algoritmi, anche per scelte non direttamente effettuate da loro. Lo snodo centrale, dunque, riguarda il modo in cui gli esseri umani possono essere resi responsabili, ovvero la cosiddetta attribuzione di responsabilità che non può limitarsi alla costruzione dell’algoritmo oggi ma che deve spingersi alle sue future capacità di apprendimento e alle decisioni che ne deriveranno.