Opinioni

Digitale. Attenti ai pit bull del calcolo (mantenere terrestre il digitale)

Eugenio Mazzarella giovedì 20 aprile 2023

Il subbuglio nel mondo delle intelligenze artificiali (AI), da Paolo Benanti efficacemente riportato su “Avvenire” del 30 marzo scorso, merita di essere ripreso, per l’inedita richiesta di un pit stop nella corsa all’IA che è venuto da un nutrito gruppo tra i maggiori attori del settore, a cominciare da Elon Musk, preoccupati dell’immaturità tecnologica dei sistemi di controlli sugli effetti sociali di queste tecnologie. Richiesta che se non è una furbata di chi sta indietro nello sviluppo della IA rispetto ad altri (non tutti, infatti, vi hanno aderito) testimonia un minimo di prudenza tra i suoi grandi protagonisti nonostante gli enormi interessi economici e commerciali in gioco (e politici e militari); tali da far stimare gli investimenti in campo paragonabili solo a quelli per il progetto Apollo per la “conquista” della Luna.

Ora la domanda è: a quale allunaggio, su quale società, ci preparano oggi le tecnologie dell’intelligenza artificiale? Che pare abbiano capacità “agentive”, cioè di azioni di calcolo in proprio non previste dai loro programmatori e addestratori, come si legge nel documento di rilascio di quella più avanzata, la Gpt-4: « Nei modelli più potenti emergono spesso nuove capacità. Alcune di esse sono particolarmente interessanti: la capacità di creare e agire su piani a lungo termine, di accumulare potere e risorse (“ricerca di potere”) e di mostrare un comportamento sempre più “agentivo”. In questo contesto, per “agentivo” non si intende l’umanizzazione dei modelli linguistici o il riferimento alla senzienza, ma piuttosto sistemi caratterizzati dalla capacità di raggiungere obiettivi che potrebbero non essere stati specificati concretamente e che non sono apparsi nell’addestramento, di concentrarsi sul raggiungimento di obiettivi specifici e quantificabili e di fare piani a lungo termine».

Più che alludere a impossibili capacità di intenzionalità senziente e discernente, proprie dell’agentività umana, si sottolinea in sostanza «il fatto sempre più evidente che i sistemi di ML [ machine learning] non sono completamente sotto il controllo umano». Detto alla buona, tradurrei così: con queste macchine rischiamo di selezionare dei pit bull del calcolo che possono sfuggirci mano e rivolgersi contro di noi proprio come capita con pit bull e dobermann, il cui cervello troppo compresso, nei processi di selezione della razza, entra in conflitto con la scatola cranica e manda l’animale fuori controllo nell’esecuzione dei compiti per cui è addestrato.

E tuttavia questo rischio di calcoli sbagliati, cioè fuori controllo dei sistemi “aperti” (produttivi cioè di effetti non linearmente programmati) dell’IA, non mi sembra il pericolo maggiore dei Gpt-4 e simili. E neanche il loro precoce uso truffaldino. Possiamo benissimo immaginare un Gpt-4 Senior che faccia l’esame di analisi matematica e un Gpt-4 Junior che lo passi brillantemente, o che rischiamo di dare una cattedra ai lavori scientifici dell’IA più che del candidato. È già per altro capitato che un’università canadese facesse tenere corsi online da un prestigioso docente defunto da due anni, incorrendo nella denuncia di uno studente che aveva pagato rette salate per seguirne le lezioni da vivo.

Ciò che qui è più significativo è che il generalizzarsi del ricorso all’IA nel lavoro di massa rischia di disabilitare capacità cognitive socialmente diffuse non più esercitate. E già qui siamo sul terreno non degli effetti imprevisti dell’IA, ma proprio di quelli per cui viene portato avanti il suo sviluppo, cioè la performatività economica sempre più spinta del ciclo produttivo. Che magari ci libererà dal lavoro usurante, anche se non si capisce bene quanto lavoro resterà a disposizione di chi voglia lavorare anche solo per non restare sul divano con un congruo reddito di cittadinanza se mai glielo si potrà riconoscere. Concessa la battuta, il punto vero se il nuovo lavoro promesso dalla rivoluzione digitale sarà per la gran massa dei lavoratori più povero o più ricco cognitivamente e rimunerativamente.

A giudicare dalla concentrazione sociale della ricchezza, favorita dall’economia finanziarizzata e da start up, che in pochi raggiungono con capitalizzazioni impensabili in passato, oggi non sembra così. E sarebbe sensato almeno ricordarci che non sarà nessun “nuovo” lavoro a salvare da povertà e diseguaglianza l’umanità, ma semmai una nuova ridistribuzione della ricchezza, cioè l’attenzione politica e sociale al “pasto comune” del gruppo primitivo studiato dagli antropologi come connettivo sociale fondante (e che tale è rimasto come bisogno nei secoli, da ultimo aggiornatosi a welfare, il nostro Stato sociale).

Al di là del lungo elenco dei benefici che ci potranno venire se l’IA saremo capaci di tenerla sotto controllo, il vero pericolo è che la sua implementazione sociale rischia di essere portata avanti in accordo – senza sorveglianza né sociale né intellettuale – tra economia e politica. Un accordo un po’ brutalmente di questo tenore: «Voi li spennate, noi li controlliamo, mentre fingiamo di tenergli compagnia con la pet terapy e la ludopatia digitale sarà». Perché questo è il punto, che mi faceva notare un amico, la suasività di Gpct-4 come surrogato dialogico cui si rivolgerà la solitudine sociale, alla ricerca di “relazioni” da vivere nella perdita sempre più diffusa di quelle sociali di presenza.

Profilazione generale come consumatori, controllo politico capillare, e dipendenza digitale di massa minacciano di essere il “triangolo delle Bermude” in cui potrà inabissarsi la nostra società, la socialità di presenza di cui si sostanziano i vissuti di comunità, per altro sempre più scemanti, mentre sempre più acuto se ne fa il bisogno nell’alienazione, nell’anomia sociale in cui siamo immersi. La sfida vera è mantenere il digitale “terrestre”. Ricorrere certo a esso, ma senza togliere la “carne” (e insieme l’anima) dell’uomo dai piedi per terra, dai piedi nella realtà esistenziale di presenza, biopsichica, che è sempre stata. Forse è giunto il momento di pensare a Trattati di non proliferazione digitale in ambiti della vita custodi della nostra capacità di distinguere il reale del virtuale, capacità che sarà sempre più a rischio con i nativi digitali. Salvare la presenza degli uni agli altri pure in un mondo di bit e schermi.