All’indomani del tragico attacco di Hamas in Israele il ministro degli Affari Esteri di Tel Aviv ha commentato che «perfino un’intelligenza artificiale è più umana dei terroristi». Il commento, affidato a un post su Linkedin, si riferiva a un video in cui alcuni prompt – le frasi con cui si chiede a una intelligenza artificiale (AI) di generare un’immagine – su scene come quelle viste negli attacchi venivano rifiutate dalla macchina perché troppo disumane, e invece erano state visibili nei video a tutti e nei materiali degli attacchi terroristici.
La domanda che ci vogliamo fare è come sia possibile un attacco come quello di questi giorni nel tempo delle AI. L’agenzia Reuters racconta che il 27 settembre, appena una settimana prima che i combattenti di Hamas lanciassero il più grande attacco a sorpresa contro Israele dalla guerra dello Yom Kippur del 1973, funzionari israeliani hanno portato il presidente del Comitato militare della Nato al confine con Gaza per dimostrare l'uso dell'intelligenza artificiale e della sorveglianza ad alta tecnologia. I funzionari israeliani in quella occasione avrebbero detto che le AI sono state usate nell'ultima grande guerra a Gaza nel 2021, e che ancora oggi una migliore intelligenza artificiale e i droni più recenti stanno aiutando a selezionare e distruggere gli obiettivi ostili nel territorio palestinese. L'incapacità di questi sistemi di fornire un preavviso dell'attacco di Hamas del 7 ottobre, tuttavia, rappresenta un fallimento che probabilmente sarà studiato e discusso per anni.
In maggio il direttore generale del Ministero della Difesa israeliano, Eyal Zamir, aveva affermato che il Paese era sul punto di diventare una “superpotenza” dell’intelligenza artificiale, utilizzando tali tecniche per semplificare il processo decisionale e di analisi.
Cosa dobbiamo capire da questi fatti? Forse la strage di israeliani per mano di Hamas, del tutto inattesa, suggerisce che le autorità israeliane sono state troppo fiduciose nelle AI? Da un punto di vista meramente tecnico le AI possono rivelarsi preziose per sintetizzare enormi volumi di dati, in particolare in aree tecniche come le analisi dei dati di sonar o di radar. Ma sono valide solo quanto le loro fonti di materiale: e l'attività umana in un ambiente urbano congestionato come Gaza è raramente semplice da interpretare. Non è l’utilizzo difensivo o il futuro uso offensivo delle AI a essere in questione ma è l’aspetto umano ed etico che ci deve interrogare. Da un lato ci interessa sottolineare che, come più volte scritto sulle colonne di questa rubrica, le AI più che tecnologie in cui confidare sono strumenti da porre al servizio dell’uomo. In secondo luogo, l’algoretica, che più volte abbiamo invocato, ci chiede di fare delle AI degli utensili e non delle armi.
Gli episodi assolutamente disumanizzanti di questi giorni ci fanno gridare e pregare per la pace, ma non possiamo farlo senza pensare che il nostro impegno deve essere sempre per una tecnologia posta al servizio dell’uomo e non per il suo controllo o dominio. Qualsiasi sia la bandiera sotto cui questo possa avvenire.