Ursula Von der Leyen, presidente della Commissione europea, all’arrivo al vertice di Bletchley - Reuters
Quali usi dell’intelligenza artificiale sono così pericolosi da dover essere vietati o classificati come ad alto rischio? Questa è la domanda cruciale, posta al centro del primo summit su sicurezza e intelligenza artificiale che si è chiuso, ieri, in un luogo iconico a 75 chilometri da Londra, come Bletchley Park, dove furono decifrati i codici segreti dei nazisti durante la seconda guerra mondiale. Il risultato è stato un impegno condiviso, racchiuso nella “Dichiarazione di Bletchley” che coinvolge i 25 Paesi presenti che si sono detti pronti a lavorare insieme e stabilire un approccio comune sulla supervisione degli sviluppi dell’intelligenza artificiale. Anche Wu Zhaohui, vice ministro cinese della Scienza e della Tecnologia, ha sottolineato che Pechino aumenterà la collaborazione sulla sicurezza dell’intelligenza artificiale per aiutare a costruire un “quadro di governance” internazionale.
Quest’impegno sulla carta si va a integrare agli sforzi compiuti, finora singolarmente, per regolamentare i possibili rischi e conflitti etici legati all’utilizzo dell’intelligenza artificiale. Ad esempio il riconoscimento facciale in ogni luogo pubblico, o la giustizia predittiva, che è la possibilità di calcolare in anticipo l’esito di una sentenza oppure il cosiddetto social scoring, ossia un punteggio sociale che misura l’affidabilità delle persone attraverso gli algoritmi che producono valutazioni numeriche e classificatorie a partire da comportamenti, preferenze e dati anche personali raccolti sul web.
Dalla dichiarazione di Bletchley all’AI Act
Lunedì il presidente degli Stati Uniti, Joe Biden ha firmato un ordine esecutivo sull’intelligenza artificiale, richiedendo che le aziende riferiscano al governo federale dei possibili rischi laddove i loro sistemi possano in qualche modo avvantaggiare altri Paesi o gruppi terroristici a produrre armi di distruzione di massa. L’ordinanza mira anche a ridurre i pericoli dei “deep fake” che potrebbero influenzare il voto o truffare i consumatori. «I deep fake utilizzano audio e video generati dall’intelligenza artificiale per diffamare la reputazione, diffondere notizie false e commettere frodi», ha affermato Biden alla firma dell’ordine alla Casa Bianca, ponendo sul tavolo anche il rischio della disinformazione. Nello stesso giorno, il 30 ottobre, i Paesi del Gruppo dei Sette hanno concordato un Codice di condotta in 11 punti per le aziende che sviluppano sistemi avanzati di IA, che «mira a promuovere un’IA sicura, protetta e affidabile in tutto il mondo».
Dal canto suo, la Cina già aveva presentato la “Global AI Governance Initiative”, preoccupando non poco il resto del mondo e in particolare gli Usa: Pechino aveva pubblicato una proposta di requisiti di sicurezza per le aziende che offrono servizi basati sull’intelligenza artificiale, inclusa una lista nera di fonti che non possono essere utilizzate per addestrare modelli di intelligenza artificiale. E ha imposto nel contempo ai fornitori di servizi di presentare valutazioni di sicurezza e ricevere l’autorizzazione prima di rilasciare prodotti di intelligenza artificiale sul mercato di massa. In questa direzione di divieti e richieste di autorizzazioni si muove anche l’Europa, dove i negoziati sono appena entrati in una fase cruciale per finalizzare l’ambiziosa legge sull’IA dell’Unione Europea entro la fine dell’anno.
Gli incentivi ad agire, e a farlo insieme, dunque, sono molti. In primo luogo, perché l’intelligenza artificiale è davvero una tecnologia globale che offre grandi promesse come diagnosticare malattie, prevedere inondazioni e altri effetti del cambiamento climatico, ma comporta nel contempo rischi che includono potenziali violazioni della privacy e l’eliminazione di posti di lavoro. L’IA si basa su modelli linguistici di grandi dimensioni (Large language model, LLM) che vengono allenati usando una grande quantità di testi provenienti da diverse fonti: possono essere eseguiti su un computer qualsiasi, in qualunque parte del mondo. Dunque, sarebbe di scarsa utilità regolamentare in modo stringente l’IA in alcuni Paesi, se poi in altri rimanessero dei vuoti normativo.
La volontà di agire c’è, ma manca «il consenso su quali siano i problemi che dobbiamo governare, per non parlare di come dovremmo governarli», ha sintetizzato Henry Farrell, docente di Affari internazionali alla Johns Hopkins University di Baltimora. Nello specifico vanno distinte tre domande che aprono, di fatto, tre aree di discussione. Di cosa dovrebbe preoccuparsi il mondo con lo sviluppo dell’IA? A cosa dovrebbero mirare le regole? E come dovrebbero essere applicate? Se prima si opponevano alla regolamentazione, oggi, anche giganti come Alphabet e Microsoft fanno pressioni perché nuove regole vengano negoziate, concordate, applicate. Per il timore che una concorrenza sfrenata possa spingere altri ad agire in modo sconsiderato, rilasciando modelli, di cui si potrebbe abusare.
Regolamentare sì, ma in che modo?
Veniamo agli obiettivi della regolamentazione. Questi sono difficili da impostare perché l’intelligenza artificiale si sta evolvendo rapidamente: non passa giorno senza che una start-up inventi qualcosa di nuovo. E perfino gli sviluppatori non sono in grado dire con certezza quali funzionalità avranno in futuro i sistemi basati sull’IA. Durante un’audizione al Senato di Washington nel luglio scorso, Dario Amodei, amministratore delegato di Anthropic, aveva avvertito che i modelli di intelligenza artificiale saranno in grado di fornire in pochi anni tutte le informazioni necessarie per costruire armi biologiche, consentendo «a molti più attori di effettuare attacchi biologici su larga scala». Simili previsioni disastrose sono state fatte anche riguardo alle armi informatiche. Altri rischi riguardano l’indebolimento del processo democratico.
Per tutte queste ragioni il dibattito su che cosa regolamentare non sembra essere facile da risolvere. Le aziende tecnologiche suggeriscono per lo più di limitare l’esame ai modelli più potenti e più evoluti. Microsoft ha chiesto un regime di licenze che imponga alle aziende di registrare quei modelli che superano determinate soglie di prestazione. Ma la maggior parte delle aziende ritiene che siano le applicazioni dei modelli, e non i modelli stessi, a dover essere regolamentate. Mentre gli sviluppatori di intelligenza artificiale avvertono che norme più invasive rallenterebbero l’innovazione.
Chi controllerà gli sviluppi dell’IA?
Fino allo scorso anno Stati Uniti, Gran Bretagna e Unione europea sembravano concordare su questo approccio basato sul rischio. L’ascesa mozzafiato del LLM dal lancio di Chat gpt un anno fa li sta facendo ripensare. L’Ue ora si chiede se, dopo tutto, i modelli stessi debbano essere supervisionati. Il Parlamento europeo vuole che i creatori di modelli testino gli LLM per il potenziale impatto su tutto, dalla salute umana ai diritti umani. E insiste per ottenere informazioni sui dati su cui vengono addestrati i modelli. Queste regolamentazioni più severe rappresenterebbero un cambiamento di rotta rispetto ai codici di condotta non vincolanti, che finora hanno rappresentato l’approccio preferito. L’estate scorsa la Casa Bianca aveva già negoziato una serie di “impegni volontari” con alcune aziende per far testare i loro modelli internamente ed esternamente prima del rilascio, chiedendo anche di condividere le informazioni su come gestiscono i rischi dell’IA.
Poi c’è la questione di chi dovrebbe fare la regolamentazione. Stati Uniti e la Gran Bretagna pensano che le agenzie governative esistenti possano svolgere la maggior parte del lavoro. L’Ue vuole creare un nuovo organismo di regolamentazione. A livello internazionale, alcuni dirigenti tecnologici hanno chiesto la creazione di qualcosa di simile al Gruppo intergovernativo sui cambiamenti climatici (Ipcc), a cui le Nazioni Unite hanno il compito di tenersi al passo con la ricerca sul riscaldamento globale e di sviluppare modi per misurarne l’impatto. Considerate tutte queste questioni aperte è difficile prevedere cosa possa aggiungere l’odierna “Dichiarazione di Bletchley”. Per dirla con Keegan McBride, docente di Intelligenza artificiale e politica all’Internet Institute dell’Università di Oxford, ha senso capire come poter aiutare le aziende a competere in un momento di rapidi cambiamenti e di enormi investimenti nell’ambito dell’AI, senza ignorare i rischi più immediati nel mondo reale della tecnologia.