La Superintelligenza è ancora un miraggio
venerdì 31 gennaio 2025

Prima di intraprendere questa nuova avventura, desidero ringraziare Gigio Rancilio per il prezioso lavoro che ha svolto e che continuerà a svolgere. Con grande rispetto e un po’ di timore, cercherò, se non di esserne all’altezza, almeno di non fargli fare brutta figura. Ogni giorno vengono pubblicati decine di articoli sull’intelligenza artificiale. In questi giorni, l’attenzione è rivolta a DeepSeek, la nuova intelligenza artificiale cinese che sta creando un gran trambusto nel mondo tecnologico. Tuttavia, ciò che mi colpisce maggiormente è il modo in cui si parla dell’intelligenza artificiale, soprattutto quando si affronta il tema dell’“Intelligenza Artificiale Generale” (nota come AGI, da Artificial general intelligence).

Spesso viene descritta come una prospettiva imminente, un traguardo tecnologico quasi a portata di mano. Eppure, questa visione non corrisponde alla realtà dei fatti. L’AGI, ossia una forma di intelligenza artificiale capace di emulare o superare quella umana, non esiste ancora e non è chiaro se sarà mai realizzabile. Questa distorsione della realtà non è casuale: è spesso il risultato di una narrazione orchestrata dai giganti tecnologici, che, dietro la promessa di una superintelligenza artificiale, perseguono i propri interessi economici e politici. Il termine “Intelligenza Artificiale Generale” è stato introdotto nel 1997 dal fisico Mark Gubrud, che la definì come un sistema capace di competere con il cervello umano in termini di velocità e complessità, acquisendo una conoscenza universale e utilizzandola per ragionare.

Tuttavia, è stato il filosofo Nick Bostrom a dare grande visibilità al concetto con il suo saggio Superintelligence, in cui descrive l’AGI come un’intelligenza in grado di superare di gran lunga le menti umane nei più disparati ambiti cognitivi. La realtà è che le IA moderne sono molto lontane dal raggiungere la “generalità” dell’intelligenza umana. Le IA attuali sono specializzate, in grado di svolgere compiti specifici come rispondere a domande o creare contenuti. Queste capacità derivano da complesse correlazioni statistiche tra i dati, senza alcuna vera comprensione o capacità di astrazione, caratteristiche distintive dell’intelligenza umana. Ad esempio, ChatGPT è estremamente abile nel predire la parola successiva in una sequenza, ma non ha una vera comprensione del significato di ciò che produce.

Non possiede coscienza, intuizione o la capacità di apprendere come farebbe un essere umano. La creazione di un’AGI richiederebbe un salto qualitativo che, al momento, sembra ancora molto lontano. Perché, allora, si parla tanto di AGI? Aziende come OpenAI, Microsoft e Google, insieme a figure influenti come Elon Musk e Sam Altman, promuovono questo tipo di storytelling, che non solo attrae ingenti capitali, ma anche influisce sulle politiche pubbliche e le normative sull’IA.

Creare l’illusione che l’AGI sia imminente serve anche a distogliere l’attenzione dai veri problemi legati all’uso delle IA, come la sicurezza, la sorveglianza, le discriminazioni e la privacy. In definitiva, la creazione dell’AGI rimane, almeno per ora, un obiettivo distante e incerto, ma si sa che in questo campo nessuno ha la certezza assoluta. Nonostante le straordinarie capacità delle IA attuali, esse sono ancora ben lontane dal possedere una vera intelligenza generale. Fermarsi a riflettere su queste dinamiche è essenziale per comprendere come ci stiamo preparando al futuro, senza lasciarci abbagliare dalle promesse di una superintelligenza che, al momento, non è nemmeno in fase di progettazione concreta.© riproduzione riservata

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: