Unione Europea e Intelligenza Artificiale - Ilustrazione di Massimo Dezzani
Guerra di Crimea, battaglia di Balaklava, 25 ottobre 1854. Quattro squadroni di cavalleria russa si dirigono verso l’accampamento britannico, per attaccarlo. Sir Colin Campbell, comandante del 93° Reggimento di fanteria Highlander, ordina ai soldati di disporsi su due linee parallele per proteggere l’accampamento. Normalmente si sarebbero disposti a quadra to su quattro file, ma Sir Campbell non ha tutti quei soldati. Chiede ai suoi uomini di difendere la linea senza arretrare, anche a costo della vita. I cavalleggeri russi caricano ma, a meno di 50 metri dalla “sottile linea rossa” formata da quello sparuto numero di soldati inglesi, si ritirano pensando che oltre la linea si celino altre truppe inglesi pronte a intervenire. Da allora, la sottile linea rossa diventa metafora della difesa a oltranza.
La proposta di regolamento europeo sull’intelligenza artificiale elenca alcune pratiche vietate, a difesa dei valori fondanti dell’Unione Europea. Si tratta di pratiche che hanno una ricaduta significativa sulle persone: tecniche subliminali, manipolative o ingannevoli; sfruttamento delle vulnerabilità fisiche e psicologiche; deduzione delle emozioni; calcolo del punteggio sociale; identificazione biometrica basata su immagini; giustizia predittiva. A queste si aggiungono le pratiche che violano le norme sulla protezione dei dati personali, sulla non discriminazione, sulla tutela dei consumatori e la concorrenza. Non è vietato, invece, l’uso dell’intelligenza artificiale per finalità militari e di sicurezza nazionale, per il contrasto al terrorismo e alla malavita organizzata. È possibile riconoscere in questi divieti una sottile linea rossa che deve essere difesa a oltranza? Come vedremo nel seguito, mentre è semplice identificare il bene che si intende difendere (i diritti umani e i valori europei), è più arduo riconoscere i nemici. L’intelligenza artificiale è uno strumento tecnologico usato per molti fini e, di per sé, non può essere considerata un avversario. Analizzando attentamente la proposta di regolamento si scopre che la maggior parte delle pratiche vietate può essere utilizzata solo ed esclusivamente da entità statali, come ad esempio la giustizia predittiva e l’identificazione biometrica. Viene da chiedersi perché l’Unione Europea proibisca ai suoi Stati membri l’uso di tali pratiche, difendendosi così da un nemico interno. Diversa è la posizione nei confronti di pratiche che possono essere messe in atto da aziende private e, in particolare, dalle grandi big tech. In questi casi, infatti, il divieto esplicito è necessario per garantire all’Unione Europea una copertura giuridica nel caso di accertamento di una violazione. Si tratta di un evidente e conclamato ricorso alla sovranità europea. L’AI Act non prevede solo divieti ma anche pratiche soggette a un’analisi del rischio. Nel caso in cui la stima del rischio è molto alta è prevista una procedura complessa di autorizzazione, basata sul concetto di conformità e gestita da appositi organismi nazionali. In tutti i casi in cui la stima del rischio è bassa o nulla, la futura normativa europea prevede un’autorizzazione implicita e, per maggior tutela, favorisce la definizione di codici di condotta. Perché l’AI Act stabilisce un trattamento diverso tra pratiche vietate e pratiche ad alto rischio? In effetti, potrebbe essere sufficiente rafforzare le procedure di rilascio della conformità anche per quelle vietate, confidando sul senso di responsabilità degli Stati membri e delle aziende. Tutto sommato, l’amministrazione Biden sta andando in questa direzione, condivisa dalla maggior parte delle big tech. Per rispondere è necessario riflettere sul concetto di rischio.
Dopo avere opportunamente misurato il danno e la probabilità, il rischio è calcolato moltiplicando le due misurazioni. A seconda del contesto, è possibile stabilire alcune soglie che caratterizzano il rischio: valori molto alti possono indicare un rischio inaccettabile, valori molto bassi un rischio quasi nullo. L’AI Act non riporta esplicitamente la procedura seguita per calcolare “matematicamente” il valore numerico del rischio, ma elenca esplicitamente le pratiche a rischio inaccettabile (quelle vietate) e quelle ad alto rischio. Alla base di questo approccio c’è la considerazione che, quando il danno è estremamente alto, la probabilità può essere trascurata. In effetti, pratiche che danneggiano i diritti fondamentali dell’uomo, intoccabili e universalmente condivisi, devono essere vietate per principio.
Nel caso delle pratiche ad alto rischio, la componente del danno non è predominante, ma entra in gioco la probabilità. Allo stato attuale, la tecnologia AI (soprattutto quella generativa) non è totalmente affidabile e controllabile perché dipende dall’addestramento, dalla complessità dei sistemi e dalla loro opacità in termini di comprensione dei dati usati e di determinazione dell’output (il numero enorme di parametri delle reti neurali, nel caso dell’AI generativa). È quindi necessaria un’attenta analisi di conformità che prenda in considerazione lo specifico sistema AI, le procedure di addestramento, la natura e la qualità dei dati di addestramento e così via. Fermo restando il “dilemma della decisione algoritmica”, il legislatore europeo assume che questa analisi sia in grado di individuare, e quindi di non autorizzare, sistemi potenzialmente pericolosi.
Un’ultima domanda: esistono pratiche di intelligenza artificiale per le quali il rischio è accettabile a priori? In teoria no, di fatto sì, quando il danno e la probabilità si abbassano notevolmente e possono essere stimati con un alto livello di affidabilità. Ciò accade nei cosiddetti “mondi stabili” descritti da Gerd Gigerenzer nel suo recente saggio Perché l’intelligenza umana batte ancora gli algoritmi (Raffaello Cortina). Confrontando l’intelligenza artificiale con quella umana Gigerenzer afferma che «gli algoritmi complessi funzionano al meglio in situazioni ben definite, stabili, in cui sono disponibili grandi quantità di dati. L’intelligenza umana, invece, si è evoluta in modo da gestire l’incertezza a prescindere dalla quantità di dati disponibili». Ci sono contesti in cui l’AI è sicura, efficace ed efficiente, ma nel mondo reale, ricco di eventi e situazioni impreviste e imprevedibili, l’AI non è intrinsecamente sicura e può essere pericolosa per gli umani. È allora necessario istituire divieti e identificare i mondi ragionevolmente stabili in cui valutare e accettare i rischi, per difendersi con una sottile linea rossa.