Stop alle armi automatiche
Chi conosce un po' di linguaggio di programmazione informatica ha sentito almeno parlare delle istruzioni condizionali. Un'istruzione di questo tipo viene definita if-else ed è un costrutto logico che controlla la diramazione condizionale. Le istruzioni nell'espressione vengono eseguite se è verificata la condizione inclusa. Si vorrebbe dare la possibilità di uccidere a un'arma automatica in forza di istruzioni di questo tipo.
Già sappiamo che nel caso di droni militari la decisione di colpire è presa a distanza da un operatore umano. Nel caso di armi letali autonome la decisione è presa da algoritmi automatici. Gli Slaughterbot sono pre-programmati per uccidere uno specifico "profilo di destinazione". L'arma viene quindi schierata in un ambiente in cui la sua intelligenza artificiale cerca quel "profilo di destinazione" utilizzando i dati dei sensori, come il riconoscimento facciale.
Gli Stati Uniti, lo scorso 2 dicembre, hanno respinto le richieste di un accordo vincolante che regoli o vieti l'uso di "robot killer", proponendo invece un "codice di condotta" alle Nazioni Unite. Intervenendo a un incontro a Ginevra incentrato sulla ricerca di un terreno comune sull'uso di queste cosiddette armi letali autonome, un funzionario statunitense ha rifiutato l'idea di regolamentarne l'uso attraverso uno «strumento giuridicamente vincolante». L'incontro era preparatorio per una conferenza di revisione sulla Convenzione su alcune armi convenzionali che si terrà dal 13 al 17 dicembre.
Le armi che usano algoritmi per uccidere, piuttosto che il giudizio umano, sono immorali e rappresentano una grave minaccia per la sicurezza. Il segretario generale delle Nazioni Unite António Guterres ha già detto che «le macchine con il potere e la discrezionalità di uccidere senza coinvolgimento umano sono politicamente inaccettabili, moralmente ripugnanti e dovrebbero essere proibite dal diritto internazionale». Ora resta la parte più difficile: convinceri i cuori a scegliere la vita perché la macchina non uccida.
(Avvenire.it/
rubriche/Humanity-2-0)