Tecnologia. Ok all'AI Act: l'intelligenza artificiale non potrà riconoscere le emozioni
I relatori dell'AI Act, Dragos Tudorache e Brando Benifei
Con 523 voti a favore, 46 contrari e 49 astenuti, il Parlamento europeo ha approvato l’Artificial Intelligence Act, il primo regolamento europeo sull’intelligenza artificiale.
Il testo approvato (a questo link si può leggere l’integrale) ha l’obiettivo di favorire l’innovazione garantendo però che lo sviluppo dell’intelligenza artificiale in Europa sia compatibile con la sicurezza dei cittadini e rispetti i diritti fondamentali.
A questo punto all’AI Act, il cui percorso è iniziato nel 2021, manca solo l’approvazione del Consiglio europeo, composto dai rappresentanti dei governi dell’Unione.
Vietato il riconoscimento delle emozioni sul posto di lavoro o a scuola
Le nuove regole vietano alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini. Sono citati esplicitamente i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e lo scraping non mirato di immagini facciali da Internet o filmati per creare database di riconoscimento dei volti.
Saranno vietati anche il riconoscimento delle emozioni sul posto di lavoro e a scuola, l’introduzione di sistemi di punteggio sociale, la polizia predittiva (sistemi di controllo che si basano esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l’intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.
La polizia può usare sistemi di identificazione biometrica?
La legge vieta in linea di principio l’utilizzo di sistemi di identificazione biometrica (Rbi) da parte delle forze dell'ordine, tranne che in situazioni tassativamente elencate e strettamente definite. Ad esempio l’uso “in tempo reale” di questi sistemi può essere implementato solo in casi specifici, con un uso limitato nel tempo e nello spazio e dopo una autorizzazione giudiziaria o amministrativa. Potrebbe essere usata per cercare una persona scomparsa o prevenire un attacco terroristico. L’utilizzo di sistemi Rbi non in tempo reale è permesso in casi considerati “ad alto rischio”, con autorizzazione del giudice.
I sistemi di IA ad “alto rischio”
La legge europea prevede l’individuazione di sistemi di IA ad alto rischio, quelli che possono portare danni significativi a salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto. Rientrano in questo gruppo sistemi diversi, ad esempio quelli che possono essere utilizzati nelle scuole, negli ospedali, in banca o nella gestione di infrastrutture critiche, nella gestione delle migrazioni, nella giustizia e nei processi democratici come le elezioni.
«Tali sistemi devono valutare e ridurre i rischi, conservare i registri di utilizzo, essere trasparenti e accurati e garantire la supervisione umana – spiega il Parlamento europeo –. I cittadini avranno il diritto di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che influiscono sui loro diritti»
Gli obblighi di trasparenza
Ai sistemi di IA con finalità generali, come ChatGPT, le nuove leggi impongono maggiori requisiti di trasparenza, compreso il rispetto delle norme europee sul copyright e la pubblicazione delle fonti utilizzate per generare i contenuti. I sistemi più potenti, che potrebbero generare “rischi sistemici” dovranno anche proporre strategie per mitigare i rischi e pubblicare report periodici sugli “incidenti” del sistemi. Immagini, audio o video prodotti con l’IA (i cosiddetti deepfakes) dovranno essere etichettate chiaramente come contenuti artificiali.
Il sostegno all’innovazione
A livello nazionale ogni governo dovrà creare delle sandbox regolatorie e dei sistemi controllati di sperimentazione nel mondo reale, cioè ambienti dove startup e piccole imprese possano sperimentare l’uso dell’AI in maniera libera prima di mettere sul mercato le loro soluzioni.