Opinioni

La svolta e i rischi. Se l'Intelligenza artificiale punta solo al profitto

Andrea Lavazza mercoledì 9 ottobre 2024

Quando si chiede a ChatGPT se Geoffrey Hinton, vincitore in condivisione del Nobel per la Fisica 2024, è uno dei suoi padri intellettuali, la risposta molto umana è: «In qualche misura». Lo studio delle reti neurali e dell’apprendimento profondo condotto dallo studioso britannico ha infatti portato agli spettacolari avanzamenti dell’intelligenza artificiale che sono oggi sotto i nostri occhi. I cosiddetti transformer, veri motori dei Grandi modelli linguistici che tutto sanno e tutto possono dirci, non sono sua creazione diretta, eppure Hinton non ha voluto passare alla storia come l’apprendista stregone delle nuove tecnologie ed era già diventato noto al grande pubblico, prima della massima onorificenza scientifica, per l’allarme lanciato nel maggio dell’anno scorso.

Proprio il successo degli algoritmi generativi gli faceva infatti temere che possano diventare più intelligenti di noi e provocare danni incalcolabili, se non addirittura l’estinzione del genere umano. Doomerism è definito in inglese questo atteggiamento, qualcosa in più del pessimismo, la convinzione che il futuro ci riserverà catastrofi globali. Hinton è sempre stato sulla frontiera della ricerca informatica, ma ha anche manifestato sensibilità etica, prima lasciando gli Usa per il Canada a causa del potenziale uso militare delle sue scoperte e poi, nel 2023, si è dimesso da Google, che gli aveva permesso di progredire nel campo grazie a ingenti risorse, per potere denunciare i rischi di un progresso rapidissimo e incontrollato.

Non tutti sono d’accordo, anzi. Tanti scienziati e uomini d’affari attivi nel settore della IA pensano il contrario. Uno è certamente Sam Altman, fondatore di quella che può essere considerata l’azienda simbolo di questo decennio, anche se è nata solo nel 2015 e come società non profit. Intorno a OpenAI, balzata alla fama mondiale a seguito del lancio di ChatGPT nel novembre del 2022, c’è già un’aura epica e anche un clima di mistero, ripropostosi in queste settimane con l’annuncio della prossima modifica della sua missione, attraverso il passaggio a un modello prevalentemente a scopo di lucro.

Al di là della controversia sulla fine del mondo, si tratta di avere consapevolezza che l’intelligenza artificiale – certamente uno dei fenomeni più impattanti dei nostri tempi, cui il Papa sta dedicando molta attenzione – passa da realtà che la sviluppano all’interno di logiche economiche e sono oggetto di scelte che non sottostanno al controllo dei cittadini consumatori, come nei timori espressi da Hinton.

La scelta profit di OpenAI sembra rispondere alle pressioni degli investitori, che cercano rendimenti finanziari più chiari e cospicui, considerato il rapido sviluppo e la valutazione dell’azienda, oggi superiore ai 150 miliardi di dollari. Fondata con lo scopo di rendere l’intelligenza artificiale accessibile e vantaggiosa per tutta l’umanità, OpenAI operava inizialmente come un’organizzazione non commerciale. Tuttavia, già nel 2019, adottò un modello a “profitto limitato” (ritorno “solo” fino a cento volte per ogni dollaro messo nel capitale) al fine di attrarre investimenti (l’ultima raccolta sta fruttando 6,6 miliardi di dollari) e coprire i costi elevati della sperimentazione.

OpenAI, pur in un ambiente altamente competitivo come quello della Silicon Valley, dove operano colossi più influenti di moltissimi governi, rappresenta ormai un attore chiave dell’innovazione verso algoritmi sempre più grandi e performanti. Sam Altman, il 39enne guru dei modelli linguistici generativi, incarna una figura nuova di ricercatore e (soprattutto) imprenditore, in grado di condizionare il modo di lavorare, studiare e divertirsi di 200 milioni di persone, tanti quanti gli utenti attivi oggi, cresciuti da zero a questa cifra in meno di due anni, con una progressione che ha pochi o nessun precedente.

I fini di OpenAI sono (o, probabilmente meglio, erano) quelli di garantire un futuro verso l’intelligenza artificiale generale, ultimo stadio dell’automazione, che sia in linea con i valori umani. Non a caso si chiamava “gruppo di allineamento” quello che doveva sorvegliare lo sviluppo dei programmi e che poi si è di fatto dissolto per le numerose dimissioni dei suoi membri, insoddisfatti delle politiche aziendali. In tutto questo, nel novembre 2023, il Consiglio di amministrazione ha rimosso lo stesso Altman dal ruolo di presidente operativo, giustificando la decisione con la mancanza di fiducia insorta per le sue ultime mosse. Tuttavia, Altman è stato reintegrato cinque giorni dopo a seguito della rivolta di dipendenti e azionisti. E negli ultimi due anni l’azienda ha affrontato numerose cause legali per presunta violazione del copyright nei confronti di autori e società di media il cui lavoro è stato utilizzato per istruire alcuni programmi di IA. Qui si inserisce una delle preoccupazioni principali che ha segnato gli esordi dei modelli linguistici divenuti nuovi oracoli del nostro tempo, non senza numerosi errori fattuali e pure invenzioni.

Che fine farà l’informazione fagocitata nelle versioni dei software generativi aperti al Web e potenziali strumenti per vere industrie di fake news a opera di malintenzionati? Testi e immagini si possono ora costruire ad arte con piccolissimo sforzo e altissimo ritorno di verosimiglianza e pericolosità. Gli accordi che OpenAI sta stipulando in America ed Europa (Italia compresa) dovrebbero permettere di valorizzare i contenuti dei media di qualità, sperabilmente dando visibilità alle fonti originarie e consentendo loro di sopravvivere nell’era dell’intelligenza artificiale, in cui servono ancora cronisti reali per testimoniare, indagare e riflettere sui fatti. Il forte rischio, tuttavia, è che si stia approntando un abbraccio della morte. Non a caso il “New York Times” si è fieramente opposto e vuole andare in tribunale per eventuali predazioni dei suoi articoli, anche solo per l’addestramento degli algoritmi. Per questo le vicende societarie di OpenAI, pur relative a un’azienda che non ha il peso delle Gafam (Google, Amazon, Facebook, Apple e Microsoft), ci riguardano da vicino di più di quanto pensiamo. E il monito di Geoffrey Hinton deve valere come invito a una sorveglianza e una regolamentazione che proteggano gli utenti senza privarli degli indubitabili benefici della IA.