Luciano Floridi - Raffaello Cortina editore
C’è un’onda dell’intelligenza artificiale che sta salendo, ma sarebbe un tentativo futile prevedere quale sarà il suo impatto fra dieci anni. Oggi dobbiamo evitare l’eclissi dell’analogico e investire nelle applicazioni mediche a beneficio dell’intera umanità, tema di cui si parla in un grande evento di tre giorni della Fondazione Cini a Venezia. E sullo sfondo della tecnologia che avanza, l’IA ci suggerisce anche un nuovo modo di guardare all’eccezionalismo umano e al trascendente. Un lungo colloquio con Luciano Floridi via videocall dall’Università di Yale, dove ha recentemente fondato e dirige il Digital Ethics Center, illumina con prospettive originali gli scenari di uno dei fenomeni più discussi di questi anni, cui il Papa dedica una speciale attenzione a partire dal suo messaggio in occasione della Giornata mondiale della Pace 2024.
«Di fronte all’intelligenza artificiale – dice il filosofo italiano, tra i massimi esperti del settore, per molti anni a Oxford prima di attraversare l’Atlantico e tornare a insegnare anche in patria a Bologna – dobbiamo evitare sia l’approccio fantascientifico (l’IA rivoluzionerà tutto, nel bene o nel male: ci cambierà per sempre la vita o renderà gli esseri umani i suoi animali domestici) sia il momento di grande scetticismo (dopo tutto non sembra poi così intelligente). Ci vorrà ancora qualche anno per vederne l’impatto maggiore, quando non potremo più farne a meno nell’economia e in molti ambiti della nostra esistenza. Gli effetti si stanno già osservando nel mondo del lavoro, della formazione, sull'ambiente, nei campi delle comunicazioni e della creazione di contenuti. Inutile tentare di capire il futuro con una sfera di cristallo, cerchiamo invece di costruirlo. Oggi questo è fondamentale. E qui entra il tema dei valori che vogliamo tenere saldi».
I premi Nobel per la Fisica e la Chimica assegnati quest’anno ai padri del machine learning e a DeepMind «rappresentano una sorta di riconoscimento dell'importanza di un’area di ricerca», ma non soddisfano tutti gli addetti ai lavori. E poi c’è il tema della totale assenza di onorificenze a studiose. Un punto, quello della disparità di genere, che Floridi tiene a sottolineare. Anche perché si tratta di un problema che proprio l’intelligenza artificiale può affrontare in una duplice prospettiva. «Quando Amazon ha cercato di automatizzare con l’IA le proprie procedure di assunzione, ha presto scoperto che la propria banca dati conteneva una vasta quantità di bias (distorsioni): continuavano a scegliere persone con gli stessi profili e il medesimo background. L’IA può fare emergere il problema, perché la applichi e all'improvviso ti accorgi che fino a ieri avevi fatto pasticci infiniti. E poi può risolverlo, perché ti dà l’opportunità di introdurre bilanciamenti e riprendere le fila del processo modificandolo rapidamente».
I nuovi strumenti «hanno una potenza mai vista prima ed è immenso quello che ci potranno dare in termini di conoscenza», ribadisce Floridi, che ha da poco pubblicato in italiano per Cortina editore Filosofia dell’informazione, mentre rimane fondamentale il suo Etica dell’intelligenza artificiale (sempre con Cortina). «E questo va rimarcato, altrimenti ci si sofferma troppo sui pericoli e le difficoltà. Tutto vero, ma l’uso buono o cattivo sta nelle nostre mani. È come se dicessimo: hai visto? Quell’auto è passata con il semaforo rosso. Ma è il guidatore (finché c’è) che ha commesso l’infrazione, assurdo prendersela con il mezzo meccanico».
Il grande cambiamento che stiamo vivendo passa per i dati, se possiamo tradurre e quantificare un fenomeno, lo possiamo processare con l’IA. «Questa datificazione ci ha permesso di fare un salto enorme. Le reti neurali erano note da tempo, le insegnavo anch’io negli anni Novanta, quando ero professore di logica matematica. Oggi, però, è cruciale considerare la possibile eclissi dell’analogico. L'analogico non sparisce, semplicemente non lo vediamo più. Pensiamo alla medicina. Il medico consulta la cartella elettronica e non visita più il paziente. Dopo la prima valutazione, il percorso è tutto digitale. Il rischio è che si perda di vista l’individuo che soffre, l'essere umano. Questo può accadere in molti settori. L’ufficio risorse umane perde di vista il lavoratore; la scuola, lo studente; l’assicurazione, il cliente. Hai davanti uno schermo con la scheda digitale, ma non hai mai incontrato la persona fisica. E le decisioni vengono prese da qualcuno che non sa neppure chi è l’individuo sulla cui vita interviene».
Il paradosso, osserva Floridi, è che l’analogico ritorna con prepotenza nell’azione dei governi e degli Stati, «che non riescono a controllare il digitale e provano a mettere al sicuro le infrastrutture, le aziende o le materie prime, con barriere e confini. Ma se qualcuno ha il monopolio dei cavi sottomarini, un continente come l’Africa dipende completamente da soggetti esterni per le sue reti digitali«. Cosa deve fare l’Europa? Qui il filosofo e il tecnologo, lascia il posto all’intellettuale pubblico che non risparmia consigli alla politica. «Non ha senso inseguire il modello americano, non potremo mai eguagliare la loro capacità di investimento privato nell’industria tech. In Finlandia non crescono gli ulivi. La Ue non deve andare solo in direzione del mercato, bensì di una partnership pubblico-privato, nella sua tradizione di Welfare. Nel campo della regolazione siamo già i primi con l’AI Act. Siamo realisti, non possiamo creare un gigante tecnologico, possiamo però sfruttare i dati di alta qualità che abbiamo per sviluppare sistemi esperti, nuove procedure, soprattutto in sanità. E poi anche gli americani e gli asiatici verranno a curarsi da noi».
È il tema che Floridi con il gruppo di studiosi convocati a Venezia svilupperà in chiave di Global Health. Quaranta esperti di etica e sanità provenienti da università e centri di ricerca da tutto il mondo si riuniscono dal 7 al 9 novembre 2024 alla Fondazione Giorgio Cini, sull’Isola di San Giorgio Maggiore, per discutere delle sfide e delle opportunità offerte dall’intelligenza artificiale nel campo della salute globale. A loro spetterà il compito di tracciare le linee guida per un utilizzo sempre più consapevole ed etico della nuova frontiera tecnologica, capace di innescare processi virtuosi per il diritto alla salute su scala globale. «Dobbiamo fare più cose per più persone nell’ambito della sanità – dice Floridi che è il direttore scientifico dell’iniziativa –. Quello che possiamo realizzare in termini di diagnosi preventiva grazie all’IA, per esempio, è straordinario. L’unico limite è la fantasia. E tuttavia manca un quadro normativo, etico, deontologico e professionale. Insomma, che cosa è giusto e sicuro fare e che cosa no. In assenza di questo, tutto il settore della medicina sta viaggiando in maniera molto più lenta. È un po’ come avere una Ferrari senza fari di notte. Devo andare piano, anche se sono al volante di una vettura velocissima. Va ampliata la platea dei beneficiari delle nuove tecnologie mediche, ed è quello che ci proponiamo di fare».
Il filosofo Floridi riflette a largo spettro, non solo sull’etica delle nuove tecnologie. «Ma di certi temi preferisco scrivere», premette. Poi spiega, anche se rimanda un’altra discussione più approfondita. «L’intelligenza artificiale si sta dimostrando più brava di noi in tanti campi e ciò provoca una ferita narcisistica. Eppure, questo disagio viene per il nostro bene. Cade un’idea produttivistica, direi quasi consumistica, della nostra eccezionalità. Siamo forse speciali come umani perché scriviamo poesie o perché andiamo sulla Luna, abbiamo spinto avanti la scienza o produciamo oggetti preziosi? No, non è questo, e lo scopriamo ora. Anche l’IA lo può fare. Siamo speciali perché abbiamo il desiderio di imparare a suonare uno strumento o perché facciamo una torta per un amico. Magari non viene benissimo, ma chi la riceve la apprezza più di un dolce industriale perfetto. Siamo un'opera incompleta ma bellissima. E questa logica dell’incompletezza è molto più in linea con la mia educazione cristiana, io che non sono più credente, ma neanche ateo. Mi considero agnostico, nel senso che non credo nella non esistenza di Dio».
È un work in progress non solo accademico, forse anche personale. «Osservo uno strappo ontologico. La Storia non riesce a darsi un significato al 100%. L’immanente non può ricucire quella frattura, non è in grado di darsi una spiegazione laica completa, senza ricorrere al trascendente. Si tratta di una domanda che resterà sempre, ogni generazione se la dovrà riproporre ogni volta. La mia risposta per ora va in direzione di una speranza, non di una fede, nel trascendente».