L’Instrumentum Laboris della 48ma Settimana Sociale dedica una sezione (nn. 59-68) alle prospettive del lavoro in un futuro dominato dalla tecnologia. Si tratta di una riflessione importante, poiché l’automazione e interconnessione degli strumenti digitali sta provocando trasformazioni crescenti e pervasive non solo nel mondo della produzione, ma anche nella stessa vita quotidiana. Si parla ormai, in proposito, di 'quarta rivoluzione industriale'. È un passaggio pieno d’incognite, che chiede di essere governato. Anche perché, come sottolinea lo stesso Instrumentum Laboris, i costi che esso comporta rischiano di pagarli le categorie più deboli. Bisogna dunque aver ben chiare le sfide che ci attendono, anche per evitare sia di essere soggetti solo passivi di questi cambiamenti, sia di rapportarci a essi, in maniera velleitaria, semplicemente credendo di rigettarli. A questo scopo, sulla linea di alcune esplicite indicazioni dell’Instrumentum Laboris, vogliamo riflettere su due ordini di problemi, che vedono strettamente intrecciati fra loro elementi di tipo tecnologico e considerazioni di carattere etico: la correttezza nell'azione delle macchine e il rapporto tra etica e tecnologia nel disciplinare gli effetti del loro uso nella società del futuro.
Partiamo con una riflessione sulla 'qualità' delle procedure eseguite dagli algoritmi e sulla possibilità di controllare il loro comportamento. Il concetto di 'algoritmo' è la base fondamentale per il funzionamento dei computer, per la comunicazione in rete, per il movimento dei robot e il controllo dei sistemi di automazione industriale, per l’analisi dei dati da cui estrarre conoscenze o prendere decisioni. L’algoritmo è un procedimento concettuale 'implementato', cioè realizzato sulla macchina mediante programmi o applicazioni. Il problema della correttezza del funzionamento della macchina coinvolge pertanto due aspetti: la corrispondenza tra l’algoritmo e la funzionalità da eseguire, per un verso, e quella tra la descrizione astratta del procedimento e la sua traduzione in un programma operativo, per altro verso. In entrambi i casi, lo vedremo, è in gioco una specifica responsabilità che coinvolge gli esseri umani.
Il primo è l’aspetto più importante, e corrisponde alla capacità di ragionamento, all'attitudine a risolvere problemi, alla competenza nel definire esattamente lo scopo da raggiungere e le funzioni da realizzare da parte della macchina. La 'programmazione', cioè la traduzione dell’algoritmo in programma è invece una attività tecnica. Essa – e questo è un aspetto molto importante da segnalare – può essere in parte automatizzata, mentre la definizione degli algoritmi è sempre un’attività umana. Per questo possiamo affermare che una formazione adeguata dovrebbe far maturare le capacità di astrazione, di analisi critica e di ragionamento, oltre alla conoscenza delle tecniche per codificare gli algoritmi in programmi. Per essere tradotte in 'buoni' programmi, infatti, le procedure devono essere descritte in forma algoritmica. In molti casi il problema non riguarda solo i tecnici informatici: si pensi ad esempio a certe norme di legge, che pur prevedendo di essere applicate con procedure informatizzate, le definiscono in modo intricato e burocratico, rendendo difficoltoso tradurle in algoritmi corretti ed efficienti.
Il problema di verificare la correttezza dei programmi è da sempre presente all'attenzione degli informatici, che hanno studiato metodi teorici e strumenti per verificarla sia prima che durante l’esecuzione, utilizzando a tale scopo, per quanto possibile, appositi programmi. La capacità delle macchine di eseguire tanti programmi diversi può dare all'esterno l’apparenza di un comportamento autonomo, ma occorre ricordare che le macchine elaborano solo quanto previsto dai programmi di funzionamento. Questo punto non è ancora ben messo a fuoco nella coscienza comune, sebbene sia espresso già dalla tesi di Turing-Church (1936), che afferma: le macchine eseguono tutto e solo ciò che è calcolabile da un algoritmo. Le macchine, dunque, non sono pienamente 'autonome'. La loro autonomia è infatti dipendente dai programmi definiti dagli esseri umani. Un altro limite all'autonomia delle macchine è dato dal fatto che alcuni algoritmi, anche se formulati in maniera semplice, comportano tempi di esecuzione che crescono esponenzialmente rispetto al numero dei casi trattati e sono inapplicabili in pratica. I risultati teorici sono validi in generale, indipendentemente dalla potenza del computer utilizzato. Anche le reti neurali, che sono usate in applicazioni di intelligenza artificiale e sembrano poter realizzare forme di calcolo alternative rispetto agli algoritmi, confermano questi risultati teorici già noti, in particolare il fatto che problemi diversi richiedono per la soluzione reti neurali diverse. I risultati dell’informatica teorica permettono di affermare che non ci saranno mai computer 'intelligenti', cioè capaci di risolvere problemi non descritti da algoritmi, e non ci saranno mai computer 'consapevoli', come sostiene autorevolmente anche Federico Faggin, l’inventore dei microchip e imprenditore di tecnologie del computer.
Da tutto ciò deriva una serie di conseguenze di carattere etico. Infatti, anche attivando i processi messi in opera dalle macchine, non per questo l’essere umano è sgravato dalle sue responsabilità. Ciò vale anche nel caso delle trasformazioni del lavoro, delle sue modalità e delle sue forme, a cui l’uso di tali tecnologie ci sta conducendo. Abbiamo visto che la definizione degli algoritmi, secondo cui un programma fa funzionare la macchina, è qualcosa che può essere compiuto solo da un essere umano. Allo stesso modo l’essere umano è chiamato alla verifica della correttezza di tali programmi, sia ex ante, sia in corso d’opera. Abbiamo segnalato inoltre i limiti nell’autonomia di una macchina.
C’è dunque una responsabilità umana, variamente articolata, che dev'essere sempre tenuta presente e che non può essere surrogata da procedure automatizzate. È la responsabilità del progettista delle macchine, ma anche dell’elaboratore di programmi. È la responsabilità di chi definisce gli algoritmi, ma anche di chi li implementa. È la responsabilità di chiunque queste macchine le utilizza. Nel nostro caso: sia del datore di lavoro (che ad esempio sceglie la macchina al posto dell’essere umano, sia per motivi di efficienza che per motivi di risparmio), sia del lavoratore (che accondiscende a essere una semplice funzione nel sistema produttivo, in tal modo finendo per legittimare, nell'implicito, una nuova forma di schiavitù). Il richiamo a precise responsabilità umane lascia ampi spazi che rendono possibile incidere sulle conseguenze che l’uso delle tecnologie sta comportando e può comportare sulle nostre vite. È vero infatti, ripetiamo, che anche le macchine agiscono, con un grado maggiore o minore di 'autonomia'. Ma è soprattutto vero che esse agiscono sulla base di criteri e di procedure che inizialmente sono gli esseri umani a stabilire.
Emerge qui la questione del controllo, a cui fanno riferimento anche i nn. 64 e 65 dell’Instrumentum Laboris. Una volta stabilito il ruolo degli esseri umani e delle macchine nei nuovi processi lavorativi, una volta preso atto della possibilità di governare tali processi, è necessario mettere in opera una serie di verifiche concrete, sia su di un piano giuridico che su di un piano etico, sia da un punto di vista individuale che in una dimensione sociale. Tali verifiche devono consentire, come scrive l’Instrumentum Laboris, di «valutare l’adeguatezza delle intelligenze artificiali destinate a coesistere e cooperare con il lavoratore umano».
A questo scopo può certamente essere utile anche la scelta tecnica di elaborare algoritmi di verifica indipendenti, come viene suggerito (n. 64). Ma soprattutto dovranno essere ripensate le forme di tutela dei diritti del lavoratore, a partire dalle trasformazioni della sua figura e del suo ruolo (n. 63). Anche su questo versante, che non può essere affrontato solo con forme di contrattazione sindacale, il riferimento all’etica può giocare un ruolo decisivo. Anche riguardo a quest’esigenza, oggi particolarmente sentita, l’Instrumentum Laboris offre riflessioni significative.
*professore ordinario di Filosofia morale all’Università di Pisa
**Docente di Sistemi Informativi all’ Università di Pisa e membro del Consiglio direttivo di WECA