La guerra è un beneficiario d’elezione per la narrativa epica che accompagna l’avvento delle
intelligenze artificiali come un alone magico.
Imaging ad altissima risoluzione, droni più umani degli umani che li guidano, bombardamenti talmente precisi che potresti tranquillamente fare colazione mentre viene raso al suolo l’ospedale di fronte al bar, cyber-selezione mirata dei colpevoli, licenza di uccidere via software, che suona bene, molto più pulita. Il mainstream dei generali ci racconta che le IA sono in grado di ricentrare il bias, devianza sconveniente dal valore medio. Le società assecondano con piacere la veste candida dei massacri intelligenti che nessuno, naturalmente, ha confezionato, si è cucita da sola sull’etica asettica delle macchine che ci autorizza finalmente ad osservare le cose con distacco. Ammesso che sia possibile e auspicabile, la eliminazione dei disallineamenti presenta aspetti
controversi. Il nostro pensare, il nostro vivere, le nostre scelte prendono vita molto spesso proprio quando vanno fuori asse, particolarmente se l’asse è il valore medio delle abitudini. Trattandosi di guerra , si dirà, è diverso, eliminare l’errore è fondamentale, annullare la discrezionalità anche. Si uccide chi si deve uccidere, si distrugge ciò che si deve distruggere. La perfezione della devastazione, il cui tema non è come ma perché.
Quando si individua in questa facoltà delle IA la panacea che garantirà guerre impeccabili, si trascurano alcuni problemi essenziali, il primo dei quali
è la soggettività delle linee guida secondo cui si calcola il bias. Il disallineamento non è altro che uno scostamento rispetto a ciò che si considera a torto o a a ragione la linea di condotta principale che non dà alcuna garanzia di giustizia. L’operazione è più simile a una semplificazione che apre la strada di un’etica flessibile e funzionale. Le IA aprono di fatto la strada agli utilizzi più strumentali, quanto di più lontano dalla riduzione effettiva dei bias umani. Facciamo un esempio concreto. Se le tecniche gps incrociate con il riconoscimento delle immagini mi dicono che nel tal luogo ci sono i nemici, questo andrà distrutto.
Che succede se insieme ai nemici si trovano donne, bambini e malati? Ridurre il bias significherà introdurre la categoria delle priorità, decidere chi sacrificare definendo uno standard del tutto estraneo a morale e perfezione. Potremmo scoprire di essere più simili alle IA di quanto siamo portati a pensare. Anche noi, quando le cose si fanno difficili,
adottiamo gli slogan che addomesticano i giudizi al valore medio del quieto vivere dalle morali facili. Per reggere la nuova sfida cosa facciamo? Imitiamo le IA e la loro avversione per l’imprevedibile, la sorpresa, le variazioni. Comprendere cosa comportano le intelligenze artificiali non significa banalmente orientarsi sul piano del prodotto, una novità qui, una là, inventiamo un codice etico per questo e quello, e siamo a posto. Non è lì che si gioca il nostro destino. Lo scarto virtuoso è nel metodo cui rinunciamo volontariamente per rimanere nel mercato, ma le IA questo mestiere, sanno farlo molto meglio. Chatgpt, scrivi un necrologio commovente che mostri l’inconsolabile sincero dolore di chi ahimè, proprio come me, non trovandosi sotto le bombe intelligenti, gioisce sinceramente per la salvezza che viene dal dolore, degli altri naturalmente. Niente più di un prompt, un suggerimento, una correzione del bias.
© riproduzione riservata
© Riproduzione riservata
ARGOMENTI: