Attualità

Corsa agli armamenti . «Un Trattato internazionale contro le "armi autonome letali"»

Luca Liverani venerdì 11 ottobre 2024

undefined

«Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno». Il padre della fantascienza Isaac Asimov già nel 1950, immaginando potenzialità e rischi di un futuro robotizzato, proponeva nei suoi romanzi la “prima legge della robotica”. Da allora la scienza e la tecnologia hanno fatto progressi enormi. La legge sui robot è ancora solo fantascienza.

Da anni la ricerca militare studia armi letali autonome – in inglese LAWS (Lethal autonomous weapons systems) - per selezionare e distruggere il bersaglio senza controllo umano. Terminator, il film del 1984, raccontava di un cyborg assassino. E Stop killer robots è il nome della campagna internazionale - 250 organizzazioni della società civile mondiale - che chiede un Trattato internazionale.

Un tema attualissimo (in Ucraina e a Gaza le sperimentazioni sono sul campo) di cui si discute oggi pomeriggio a Roma, alla facoltà di Scienze politiche della Sapienza, al convegno “Intelligenza delle macchine e follia della guerra: le armi letali autonome”, organizzato da Archivio Disarmo e da Rete italiana pace e disarmo, assieme alla Campagna internazionale, Amnesty International, Croce Rossa italiana e Etica Sgr. Tra gli interventi, anche Peter Asaro, numero due di Stop killer robots.

L’obiettivo immediato è sostenere l’approvazione, alla sessione di ottobre dell’Assemblea generale delle Nazioni Unite della risoluzione sulle arme autonome. Promossa dall’Austria come capofila di altri stati, segue quella analoga del 2023 votata da 164 stati, 5 contrari (Bielorussia, Russia, India, Mali e Niger) e 8 astenuti (Cina, Corea del Nord, Iran, Israele, Arabia Saudita, Siria, Turchia e Emirato arabi). Consolidare un’ampio fronte politico come tappa verso un Trattato giuridicamente vincolante.

L’attenzione dell’Italia, oltre che dal sì alla risoluzione nel 2023, è testimoniata anche dal fatto che i promotori del convegno sono stati ricevuti l’8 ottobre al Quirinale dal presidente Sergio Mattarella.

Richiami accorati a una regolamentazione delle LAWS sono arrivati più volte anche da Papa Francesco. A giugno, al G7 in Puglia, ha definito «urgente ripensare lo sviluppo e l'utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l'uso».

Concorda il professor Fabrizio Battistelli, presidente di Archivio Disarmo: «L’intelligenza aritificiale (AI) è un fattore potente e rivoluzionario che, come sempre, può portare grandi progressi o rischi inauditi. A cominciare dalle responsabilità in campo militare, strategiche e tattiche. Strategicamente le LAWS possono rendere più facile lo scatenarsi dei conflitti, saltando l’ostacolo principale, almeno nelle democrazie rappresentative, cioè le perdite umane dei propri eserciti. La resistenza delle opinioni pubbliche per i governi è ancora un freno. È l’illusione delle “perdite zero”».

Dal punto di vista tattico poi, ragiona Battistelli, «un’arma con AI è in grado di riconoscere un nemico identificato, non di distinguere un miliziano confuso tra i civili. I rischi sono enormi. E senza più responsabilità umana. È urgente creare norme internazionali come già fatto per le armi biologiche, chimiche, per le mine antipersona».

Concorda Riccardo Noury, portavoce di Amnesty International Italia: «C’è una pericolosa sottovalutazione dell’impatto che l’AI può avere sull’automazione dei conflitti. Grande è il ritardo normativo. L’UE ha prodotto nel 2021 un pronunciamento non particolarmente vigoroso. Ora con l’Assemblea NU c’è l’occasione di dare seguito alla prima risoluzione, più che altro espressione di una preoccupazione internazionale. È necessario un passo avanti, per arrivare a un trattato vincolante. Come l’Att sul commercio internazionale di armi: anche se non abbastanza rispettato, afferma un principio fornendo un appiglio legale».

Togliere all’uomo la decisione finale sull’uso delle armi apre a esiti imprevedibili, sottolinea Noury. «Chi avrà la responsabilità? Il ministero della Difesa? L’azienda produttrice? E se queste tecnologie finiranno nelle mani di gruppi non statali? Miliziani, jihadisti, mercenari? Sulla proliferazione delle armi autonome va posto un tabù».