Conferenza mondiale. I Grandi contro la moratoria: licenza di uccidere ai robot-killer
Un robot per la rilevazione di esplosivo. Ma dispositivi di intelligenza artificiale possono anche essere anche programmabili per uccidere
Niente da fare. La sesta Conferenza d’esame della convenzione delle Nazioni Unite sull’impiego di alcune armi classiche si chiuderà domani con un probabilissimo fallimento. Avrebbe dovuto disciplinare la minaccia incombente dei robot-killer. Invece manca l’accordo su tutto. Dal 13 dicembre le trattative sono bloccate dai veti incrociati di Russia, Stati Uniti e India. Si va verso l’anarchia.
Decine di Paesi membri speravano in un bando totale dei sistemi autonomi letali. Ma ormai non si parla nemmeno più di interdire, solo di disciplinare. È drastico il ricercatore Richard Robert. Non si è trovata un’intesa neppure su eventuali raccomandazioni. Clare Conboy, membro della campagna per lo Stop ai robot-killer, è sconsolato. Human Right Watch (Hrw) e il Comitato internazionale della Croce Rossa premono dal 2015 per un trattato vincolante, soprattutto ora che si affacciano armi basate sui profili biometrici e su dati raccolti dai sensori di bordo che identificano, selezionano e possono attaccare in tutta autonomia esseri umani o determinate categorie di persone. Vedremo assassinii mirati decisi da un robot?
L’International human rights clinic della facoltà di giurisprudenza di Harvard ha pubblicato un rapporto allarmante di 23 pagine: “Urgenza in tema di robot-killer. Necessaria una nuova legge e come arrivarci”. Il problema è che la Convenzione delle Nazioni Unite funziona per consenso. I russi non hanno nessuna intenzione di legarsi le mani in un momento cruciale. Vladimir Putin ha lanciato già la sua sfida: «Chi dominerà nell’intelligenza artificiale, avrà le redini del mondo». Il Cremlino sta sviluppando molte gamme di robot da combattimento. Alcune le ha provate in guerra, nella Siria sua vassalla. Come al solito, anche gli americani rifuggono dai trattati vincolanti. L’Agenzia per la ricerca e l’innovazione del Pentagono garantisce a parole un «livello appropriato di intervento e di giudizio umano» nell’impiego dei robot. Ma i documenti ufficiali americani tradiscono le intenzioni: «Bisogna restare competitivi in materia di intelligenza artificiale militare, altrimenti rischiamo di essere sopraffatti dai rivali».
La solita logica perversa che manda a monte tutto. Hrw lascia però intravedere uno spiraglio: «Si può lanciare un iter indipendente, come quello che ha permesso di bandire le armi a grappolo o le mine antiuomo, o adire l’Assemblea generale dell’Onu, dove è stato negoziato il trattato contro le armi nucleari». Ma non c’è tempo da perdere, perché la corsa agli automi da guerra è già partita. Australia, Cina, Corea del Sud, Israele e Turchia hanno tutti lanciato programmi di ricerca e di sviluppo di robot-killer, prendendo in contropiede gli sforzi per arrivare a un accordo condiviso. Promettono tuttavia che le loro armi autonome saranno supervisionate dall’uomo. C’è da fidarsi? La storia militare insegna il contrario.
Tutti i sistemi d’arma che hanno garantito un vantaggio sul nemico sono stati impiegati al massimo delle loro potenzialità. Orribile, ma vero.