Intelligenza artificiale. Macchine che prendono potere e il giusto valore dell’uomo
Il mondo delle intelligenze artificiali (AI) è in subbuglio. La settimana scorsa OpenAi leader in questo settore ha rivelato all’umanità intera l’ultima sua creazione: Gpt-4. Un prodotto dalla sigla incomprensibile ma che in pochissimo tempo ha riempito le colonne dei giornali e le pagine dei blog. I risultati che hanno ottenuto a OpenAi sono senz'altro strabilianti. Se leggiamo il documento tecnico che è stato pubblicato al momento del rilascio vediamo capacità inimmaginabili. Gpt-4 può partire da una domanda testuale associata a un’immagine, mostra di saper riconoscere cosa ci sia nell'immagine e di unire i diversi elementi in un quadro di senso: risolvere un problema matematico o rispondere su cosa ci sia di strano in una foto. Gpt-4 accetta richieste che consistono sia in immagini che in testo, il che – parallelamente all'impostazione di solo testo – consente all'utente di specificare qualsiasi compito di visione o di linguaggio. In particolare, il modello genera output di testo, dati input costituiti da testo e immagini interlacciati in modo arbitrario. Su una serie di domini – tra cui documenti con testo e fotografie, diagrammi o schermate – Gpt-4 mostra capacità simili a quelle degli input di solo testo.
Abbiamo un modello che, figurativamente, unisce “udito”, nel senso che sente la nostra richiesta scritta, e “vista”, mostrando una “percezione artificiale” di un’immagine. La cosa più strabiliante è che Gpt-4 sa fare cose che i ricercatori non si aspettavano che sapesse fare. Sempre nel documento citato leggiamo: « Nei modelli più potenti emergono spesso nuove capacità. Alcune di esse sono particolarmente interessanti: la capacità di creare e agire su piani a lungo termine, di accumulare potere e risorse (“ricerca di potere”) e di mostrare un comportamento sempre più “agentivo”. In questo contesto, per “agentivo” non si intende l’umanizzazione dei modelli linguistici o il riferimento alla senzienza, ma piuttosto sistemi caratterizzati dalla capacità di raggiungere obiettivi che potrebbero non essere stati specificati concretamente e che non sono apparsi nell'addestramento, di concentrarsi sul raggiungimento di obiettivi specifici e quantificabili e di fare piani a lungo termine». Se guardiamo la fonte citata nelle note al testo, si legge, senza mezzi termini: «Usiamo il termine agentività per sottolineare il fatto sempre più evidente che i sistemi di ML [machine learning] non sono completamente sotto il controllo umano».
Quindi i ricercatori si accorgono che il modo stesso con cui hanno addestrato il sistema – non solo l'utilizzo di dati ma il premiare alcune risposte e punirne altre mediante interazione con uomini e l'uso di modelli di ricompensa basati su regole – trasmette al modello due elementi: la capacità di adottare strategie a lungo termine e la ricerca di potere e risorse nella sua interazione con l’input. Gli ingegneri che hanno sviluppato Gpt-4 ci dicono che il sistema potrebbe avere un suo «piano interno e potrebbe agire per acquisire le risorse e i modi per ottenerlo».
Tutto questo non perché sia una sorta di genio del male ma probabilmente perché, nell’apprendimento per rinforzo gli addestratori nel “premiare” o “punire” Gpt-4 emettono giudizi, e questi non sono mai solo costruiti su una cosa in sé ma su una cosa in merito a un fine. Intuitivamente, potremmo pensare che il sistema incorpori questi “microframmenti” di finalità delle valutazioni nel processo di rinforzo facendo emergere una finalità globale in una maniera analoga a quella con cui fa emergere informazioni dai dati. Se questo è quello che sappiamo di Gpt-4, Google con il suo PaLM – un sistema dello stesso tipo – sembra aver raggiunto risultati ancora più potenti e strabilianti, tali da ritardarne il rilascio pubblico per la paura degli effetti. Ma quanto vale tutto questo? Da un punto di vista commerciale tantissimo. Microsoft, acquisite le licenze del sistema, sta lanciando una serie di prodotti in cui Gpt-4 aiuterà l’utente a fare i suoi compiti.
Chiama questi sistemi Copilot. Dobbiamo abituarci all’idea di una trasformazione di ogni campo del lavoro in cui avremo un copilota che ci guida e ci assiste in ogni ambito della vita? Al di là dei problemi sociali, la domanda che sorge, allora, è quanto vale l’uomo in questa nuova stagione caratterizzata dalle AI. A questa domanda ha risposto nei giorni scorsi papa Francesco, che parlando ai partecipanti ai Minerva Dialogues – un tavolo di confronto in cui sono presenti molti attori di primo piano in questo mondo – ha detto: « Il concetto di dignità umana – questo è il centro – ci impone di riconoscere e rispettare il fatto che il valore fondamentale di una persona non può essere misurato da un complesso di dati. [...] Non possiamo permettere che gli algoritmi limitino o condizionino il rispetto della dignità umana, né che escludano la compassione, la misericordia, il perdono e, soprattutto, l’apertura alla speranza di un cambiamento della persona».
Se la macchina vale in senso economico, l’uomo ha un valore che non è misurabile né in valori numerici dei dati né in quelli economici in un bilancio. La dignità umana, al centro dell’algoretica, ci chiede quali relazioni e quale società vogliamo.