Le intelligenze artificiali (IA) sono strumenti, come un martello o una lavatrice, né più né meno.
Complessità e ambiti di innesto non incidono minimamente sull'ipotetico salto qualitativo che, dando seguito alla profetica singolarità, dovrebbe trasformarle in soggetto di relazione. Sono e rimarranno per sempre strumenti. Il destino scritto nella stessa genetica della loro struttura è un destino meccanico. Ciò non toglie che l'essere umano sia perfettamente in grado di affidare a un martello la facoltà di scegliere il proprio partner o di erogare eutanasie, abdicando scientemente al discernimento del nulla, inteso come categoria della coscienza.
Giochetti come GPT4 aspirano alla connotazione di artificial general intelligence che si discosta sensibilmente dalle innumerevoli applicazioni IA specifiche ai vari campi della attività umana. La loro architettura sintattica è derivata dai meandri del deep learning, termine nebuloso per i più, un approccio così totalizzante alla conoscenza da avvicinarsi pericolosamente a quello umano.
Se da un lato i labirinti dei large language models, nutrimento per una futura accezione di divinità tecno-condivisa, si prestano a ogni tipo di esperienza cui riescono a dare sempre una qualche struttura, come ad esempio scrivere algoritmi nello stile letterario di Shakespeare, dall'altro sollevano consistenti ondate di scetticismo. Per quanto astratto possa essere un contenuto IA, questo non deriva da una “comprensione” da parte della intelligenza artificiale della astrazione. Le IA non comprendono, così come un martello o un cacciavite non comprendono. Il termine di pappagalli stocastici, coniato in un articolo del 2021, è suggestivo, ma attribuisce a queste ragnatele linguistiche una dimensione che non hanno, sia pure l’identità di un pappagallo. Le IA imitano, non vogliono imitare.
Tra le stranezze dei test cui ChatGPT4 viene sottoposta, l'esperimento recente dell'unicorno è particolarmente illuminante, non tanto per il risultato quanto per le forzature interpretative, a mio modo di vedere, da parte di Sébastien Bubeck, specialista di machine learning nel Microsoft Research di Redmond, Washington, ansioso di conferme in stile Huxley. Si è chiesto a ChatGPT4 di generare un codice capace di disegnare un unicorno. Quindi i ricercatori sono intervenuti pesantemente sul codice prodotto cancellando l'istanza corno dal processo complessivo. Il codice modificato è stato riproposto a ChatGPT4 per constatare se sarebbe stata in grado di ricostruire comunque la testa dell'animale e quindi piazzargli il corno. ChatGPT4 ha in effetti ricostruito l'unicorno, sia pure in forma primordiale, dotato del corno che era stato escluso dalla sintassi procedurale del codice. Secondo Bubeck, questo significa che la IA ragiona. Interpretazione del tutto arbitraria. Ciascuna delle parti del codice risparmiato dalle sottrazioni potrebbe contenere ganci sintattici in grado di aggregare, attingendo ad un infinito serbatoio di risorse, il completamento della forma unicorno, ancor prima che secondo logica, secondo statistica. L'invenzione ex novo del corno che verrebbe da un presunto ragionamento è niente più che un’ipotesi. Il test non dimostra in alcun modo che la IA possiede il concetto di unicorno, ma che è in grado di gestire consequenzialità meccaniche di azioni collegate tra loro e richiamarle ove manchino, procedendo per tecniche combinatorie, più o meno sofisticate. L'unicorno privo di corno non è poi così male, in fondo.
© riproduzione riservata
© Riproduzione riservata
ARGOMENTI: