REUTERS
Nel guardare al mondo delle tecnologie si è soliti distinguere tra due differenti famiglie di artefatti: le tecnologie special purpose e quelle general purpose. Una tecnologia special purpose è una forma di artefatto che risponde a un bisogno umano. Per esempio, di fronte ai bisogni di cibo abbiamo sviluppato gli attrezzi agricoli. Questi attrezzi hanno subìto nel tempo un’evoluzione: la zappa, l’aratro a spalla, l’aratro a buoi, il trattore e forse un giorno il trattore a guida autonoma. Di fronte a un particolare bisogno la soluzione tecnica specifica evolve aumentando in efficienza e in capacità.
Esistono però momenti in cui abbiamo sviluppato delle tecnologie, dette appunto general purpose, che non servono direttamente a fare qualcosa ma cambiano il modo con cui facciamo tutto il resto. Un esempio di queste tecnologie è la corrente elettrica, che ha cambiato il modo con cui viviamo. Le tecnologie general purpose sono quindi dispositivi, strumenti o meccanismi caratterizzati da una certa versatilità, adatti a molti impieghi e non specializzati per particolari esigenze.
Le scienze economiche ci insegnano che ai lunghi cicli economici è legato il concetto di paradigma tecnologico, ovvero un insieme di princìpi ispiratori che sovrintendono all’evoluzione tecnologica e indirizzano la ricerca scientifica e tecnologica in un dato periodo. Le tecnologie general purpose presentano un elevato livello di pervasività, ovvero si propagano velocemente in ogni ambito della produzione industriale, non sono solo una nuova tecnica – si pensi alla ruota, all’elettricità, a internet e così via – ma si inseriscono in ogni espressione della produzione tecnica, cambiandone i contenuti e il modo di operare.
Alla luce di questa definizione possiamo capire le rivoluzioni industriali come la comparsa di nuove forme di tecnologie general purpose: la prima rivoluzione industriale è legata all’energia come forza per produrre lavoro che ha reso possibile la rivoluzione della produzione mediante l’introduzione di macchine a vapore. La seconda rivoluzione industriale ha sfruttato nuove forme per produrre lavoro con l’avvento della chimica e dell’elettricità. La terza rivoluzione, grazie all’elettronica, ha cambiato il modo di produrre le azioni delle macchine: da meccanismi predeterminati che compivano movimenti fissi a circuiti flessibili in cui era un programma software che decideva delle azioni dell’hardware plasmandole e aggiustandole a seconda del variare delle necessità.
L’intelligenza artificiale (IA) è una tecnologia general purpose che ha il potenziale di trasformare non solo le scienze ma l’intero sistema produttivo, rinnovando profondamente i modelli economici. Per questo motivo è fondamentale per chiunque cerchi di cogliere le opportunità personali e professionali che presenta e di mitigare i rischi di essere lasciato indietro in questa era che sembra destinata ad essere guidata dall’IA. Le diverse nazioni per questo stanno cercando di sviluppare forme di governance per cercare di gestire l’impatto sociale ed economico che queste tecnologie stanno producendo. Di fatto i comitati scientifici nazionali e sovranazionali sorti nel mondo stanno affrontando una serie di sfide cruciali relative all’impatto e al futuro delle intelligenze artificiali (IA). Queste sfide riguardano vari ambiti, tra cui la regolamentazione e la governance dell’IA, l’etica e la responsabilità dell’IA, l’impatto sull’occupazione e il lavoro, le sfide ambientali e la sostenibilità, e gli effetti sulla ricerca scientifica.
La regolamentazione e la governance dell’IA rappresentano un tema prioritario per i governi, che negli ultimi anni si sono dotati di strutture tecniche il cui compito è supportare il decisore pubblico nell’analisi e nella gestione di una questione che ha un’infinità di applicazioni: dalla difesa alla medicina, dall’istruzione alla ricerca scientifica.
È necessario stabilire limiti etici e legali all’uso dell’IA, alcuni dei quali devono essere stabiliti dal diritto, mentre altri devono risiedere nella coscienza dei ricercatori. L’IA ha il potenziale di trasformare radicalmente il mondo del lavoro. Tuttavia, è importante considerare come garantire che queste trasformazioni non portino a disuguaglianze sociali o economiche.
L’IA può avere anche un ruolo significativo nel contribuire a risolvere le sfide ambientali e di sostenibilità e ha un impatto significativo sulla ricerca scientifica, con applicazioni che vanno dalla fisica all’astronomia. Tuttavia, ci sono ancora molte domande senza risposta su come l’IA funziona e su come può essere utilizzata in modo efficace e responsabile nella ricerca.
Le sfide che attendono i comitati scientifici insediati in tutto il mondo riguardano una serie di questioni complesse e interconnesse. Le risposte a queste sfide stanno emergendo attraverso un processo di dibattito e ricerca continuo, che coinvolge una vasta gamma di stakeholder, tra cui scienziati, legislatori, eticisti e il pubblico in generale.
Regolare l’IA a livello internazionale presenta però diverse difficoltà. In primo luogo, c’è un’assenza di normative. Nonostante l’IA abbia implicazioni significative per la privacy, la democrazia, i diritti umani e altri aspetti della società, non esistono ancora normative internazionali che regolamentino il suo uso. Solo nel 2019, il G7 e il G20 hanno concordato su una serie di principi per una crescita inclusiva e sostenibile nell’impiego dell’IA. La Commissione europea ha iniziato a occuparsi dell’IA nel 2018, ha prodotto un regolamento generale sulla protezione dei dati e al momento sta lavorando all’AI Act. Tuttavia l’estensione di queste regole su scala mondiale si è rivelato un processo lento e complicato. In secondo luogo, c’è la questione della compatibilità tra le regolamentazioni nazionali.
Ogni Paese ha la propria normativa e le proprie leggi, che possono differire notevolmente da quelle di altri Paesi. Questo può creare problemi di compatibilità quando si cerca di stabilire norme internazionali. Ad esempio, una direttiva dell’Unione Europea stabilisce un obiettivo che i Paesi Ue devono conseguire, ma spetta ai singoli Paesi definire come raggiungere tale obiettivo attraverso la loro legislazione nazionale. Questo può portare a differenze significative nel modo in cui l’IA è regolamentata in Paesi differenti. I nfine, esiste una grande difficoltà legale. Questi sistemi possono essere complessi e imprevedibili, rendendo difficile determinare la responsabilità in caso di problemi. Ad esempio, se un sistema di IA commette un errore che causa danni può essere difficile stabilire chi sia legalmente responsabile: il creatore del sistema, l’utente, o il sistema stesso? Il problema è ulteriormente complicato dal fatto che l’IA può essere utilizzata in una vasta gamma di contesti, da quelli sanitari a quelli militari, ognuno dei quali può richiedere diversi tipi di prove legali.
Per realizzare una base comune su cui poter costruire un consenso internazionale è nata la “Rome Call for AI Ethics”, documento firmato a Roma il 28 febbraio 2020 da Pontificia Accademia per la Vita, Microsoft, Ibm, Fao e Ministero dell’Innovazione del governo italiano per promuovere un approccio etico all’intelligenza artificiale. L’idea alla base del testo è quella di promuovere un senso di responsabilità condivisa tra organizzazioni internazionali, governi, istituzioni e settore privato, nel tentativo di creare un futuro in cui l’innovazione digitale e il progresso tecnologico garantiscano alla specie umana la sua centralità.
Il documento si concentra su tre aree di impatto: etica, educazione e diritti. L’area dell’etica sottolinea che tutti gli esseri umani nascono liberi e uguali in dignità e diritti. L’area dell’educazione sottolinea l’importanza di costruire un futuro per e con le generazioni più giovani attraverso l’innovazione dell’IA. L’area dei diritti insiste sul fatto che lo sviluppo dell’IA al servizio dell’umanità e del pianeta deve essere riflesso in regolamenti e princìpi che proteggono le persone, in particolare i deboli e gli svantaggiati, e gli ambienti naturali. Questo impegno etico, che riunisce leadership tecnologica e religiosa, università ed entità governative, è stato rinnovato nel gennaio 2023, con rappresentanti delle fedi musulmana ed ebraica che si uniscono alla Santa Sede nel chiedere una cura etica di questo processo tecnologico.
La “Rome Call for AI Ethics” è un invito a riflettere su ciò che dovrebbe essere accettabile e quel che non dovrebbe esserlo. È un invito a rivedere i nostri valori morali riguardo l’IA nella forma dell’algoretica.