Caro Avvenire, si discute delle enormi potenzialità positive dell'intelligenza artificiale, ma nessuno ha il coraggio di parlare del suo impiego nei conflitti attuali, sia in Ucraina sia in Medio Oriente. Il sistema israeliano Habsora seleziona e decide i bersagli da colpire, cercando di scovare i miliziani di Hamas che utilizzano la popolazione civile come scudo umano. Sono ormai le macchine a decidere le persone da uccidere, e purtroppo non vogliamo vedere questa realtà consolidata.
Cristiano Martorella
Caro Martorella, la sua lettera ci mette di fronte a un tema particolarmente delicato, che merita la massima attenzione. Dobbiamo partire però da una constatazione: sappiamo poco degli usi militari dell’intelligenza artificiale (IA), perché chi la usa non vuole dare vantaggi al nemico e perché si temono le reazioni dell’opinione pubblica. Una democrazia, anche grazie all’azione di media indipendenti, non è per fortuna un monolite sigillato. Conosciamo così l’esistenza del sistema Habsora, mentre ignoriamo se e in che modo la Russia faccia uso di algoritmi sul campo di battaglia.
Tuttavia, in base a ciò che è trapelato – in particolare attraverso una recente, approfondita inchiesta del New York Times –, sembra di potersi affermare che le stragi di civili nella Striscia di Gaza sono dovute principalmente all’allargamento dei criteri di attacco deciso dalle Forze armate israeliane. Tranne eccezioni (probabili ma da documentare), viene preso di mira direttamente solo chi è ritenuto un combattente o una minaccia allo Stato ebraico.
Ma in un territorio ad alta densità abitativa un missile o un attacco di artiglieria farà spesso vittime collaterali (leggi: donne, bambini, anziani, cooperanti...). Quanti si è disposti a colpirne pur di non far scappare un miliziano di Hamas? Pare che Israele abbia alzato fino a venti civili la sua “soglia di tolleranza”. Si tratta di un numero altissimo, se così fosse. Significa che per eliminare mille terroristi si rischia di uccidere ventimila abitanti inermi. Questo a indicare che il problema, più che l’intelligenza artificiale, è ancora la volontà “politica” umana.
Non si deve però sottovalutare il ruolo che sempre più avrà l’automazione delle decisioni, per renderle più rapide e “precise”. In questo senso, Habsora riesce ad analizzare una grandissima quantità di dati in tempo reale (intercettazioni telefoniche, immagini satellitari, attività sui social media) e fornisce le coordinate di un’azione mirata con le relative probabilità di successo, compresi i potenziali danni a persone o strutture intorno al bersaglio. Il diritto di uccidere (con l’attrice premio Oscar Helen Mirren) è un film molto bello di qualche anno fa che mostra i dilemmi sull’uso di armi quasi-autonome (ci sono diversi gradi di liberà per i dispositivi bellici dotati di IA).
Oggi siamo di fronte a una nuova generazione di programmi di IA e la tentazione di affidarsi a essi per condurre la guerra si fa molto forte, in quanto garantirebbero maggiore velocità e accuratezza, con minore arbitrio rispetto alle scelte dei generali, soggette a distorsioni emotive del momento. Da un lato, ciò è vero: un sistema autonomo non vorrà mai vendicare una strage precedente e non farà nulla per cui non sia stato programmato. Tuttavia, non avrà mai un dubbio o un moto di pietà; i dati che utilizza possono non essere pienamente affidabili; e la responsabilità per le sue azioni risulta ancora elusiva (in altre parole, chi ne risponde?).
Sebbene sia richiesto il via libera finale di un essere umano, il ricorso all’IA comporta, in definitiva, il pericolo di una perdita delle ragioni umanitarie che dovrebbero limitare le azioni belliche secondo il diritto internazionale che tutela i non combattenti. Ha ragione, caro Martorella, c’è molto da ragionare e da agire su questo versante. Ma al tavolo delle regole sull’IA per usi militari, come a molti altri, servono persone di pace e non di guerra. Altrimenti, risulterà tutto vano.
© riproduzione riservata
© Riproduzione riservata
ARGOMENTI: