Hiroshima è un luogo profondamente simbolico, perché testimonia le conseguenze di una tecnologia distruttiva e la necessità di una duratura ricerca della pace. Alla tragedia della bomba atomica è associata la figura di Sadako Sasako, una bambina giapponese che quando fu sganciata la bomba atomica su Hiroshima, il 6 agosto 1945, aveva solo due anni. Dopo l’esplosione, Sadako non riportò ferite visibili immediate ma dieci anni dopo, nel 1954, le fu diagnosticata una forma di leucemia causata dalle radiazioni. Durante il suo ricovero in ospedale, Sadako iniziò a realizzare gru di carta secondo la tecnica dell’origami. Si ispirava, in questo suo gesto, a una leggenda giapponese secondo la quale chi piega mille gru vedrà esaudito il proprio desiderio. Nonostante la malattia e i dolori costanti, Sadako riuscì a piegare 1.300 gru prima di morire, il 25 ottobre 1955.
Il suo desiderio non venne esaudito, ma la sua determinazione e la sua speranza sono da allora state di ispirazione per innumerevoli persone in tutto il mondo. Dopo la sua morte, gli amici e i compagni di scuola avviarono una raccolta fondi per costruire un monumento che commemorasse sia Sadako che tutti i bambini vittime della bomba atomica.
Nel 1958 fu inaugurato il Monumento alla Pace dei Bambini nel Peace Memorial Park di Hiroshima: raffigura Sadako che tende una gru d’oro verso il cielo. Il gesto di piegare gru di carta è diventato un simbolo internazionale di pace.
Ogni anno, milioni di gru di carta vengono inviate al monumento da tutto il mondo come tributo e preghiera per la pace. Nessun’altra città incarna in modo così vivido l’urgenza di garantire che la tecnologia sia una forza per il bene. Questo è un messaggio centrale nella “Rome Call for AI Ethics”. Ciascuno di noi conosce la propria fragilità e debolezza di fronte ai grandi mali che oggi sconvolgono il mondo: siamo come fogli di carta, piegati dalla storia e dagli eventi delle guerre che ancora oggi sconvolgono il mondo. Tecnologie come le intelligenze artificiali non fondono né riducono in cenere le strutture in cemento e mattoni in cui abitiamo, ma hanno potenzialmente la capacità di distruggere il collante stesso del nostro convivere. Le intelligenze artificiali generative possono fondere la nostra capacità di convivenza, possono erodere la fiducia nell’altro e trasformarci in nemici: fuori da ogni controllo etico, le IA generative hanno il potere di hackerare il nostro sistema operativo culturale.
Abbiamo quindi bisogno di guardrail etici: abbiamo bisogno di algoretica. Ma questo deve essere fatto con il contributo concorrente della grande tradizione di sapienza umana che le religioni raccolgono e trasmettono. L’evento “AI Ethics for Peace” ad Hiroshima ha riunito i leader della maggior parte delle religioni del mondo per firmare la “Rome Call for AI Ethics”. Questo evento è stato promosso dalla Pontificia Accademia per la Vita, da Religions for Peace Japan, dall’Abu Dhabi Forum for Peace e dalla Commissione per le relazioni interreligiose del Gran Rabbinato di Israele. L’evento ha visto la partecipazione di figure di spicco come il reverendo Yoshiharu Tomatsu, presidente di Religions for Peace Japan, monsignor Vincenzo Paglia, presidente della Pontificia Accademia per la Vita, Sheikh Abdallah Bin Bayyah, presidente del Forum per la Pace di Abu Dhabi, e Rabbi Eliezer Simha Weisz, membro della Commissione per le Relazioni interreligiose del Gran rabbinato di Israele. Oltre ai leader religiosi, erano presenti anche rappresentanti di importanti aziende tecnologiche come Microsoft, Ibm e Cisco. Anche Amandeep Singh Gill, inviato del segretario generale delle Nazioni Unite per la tecnologia, ed Eriko Hibi, direttrice dell’ufficio di collegamento Fao in Giappone, hanno partecipato all’evento. Firmando la Rome Call in questo storico evento multireligioso, i leader religiosi hanno riaffermato l’impegno a garantire che l’intelligenza artificiale sia utilizzata per il bene dell’umanità. Questo evento sottolinea l’idea che affrontare le sfide poste dall’IA richiede uno sforzo collettivo e un lavoro continuo da parte di tutte le parti interessate, comprese le organizzazioni, i governi, le aziende tecnologiche e le istituzioni religiose. Da oggi, dopo la firma dei leader delle principali religioni del mondo, la “Rome Call for AI Ethics” rappresenta semplicemente la maggioranza delle persone del pianeta. La Call si basa su sei principi fondamentali: trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy. Questi principi sono particolarmente rilevanti nel contesto dell’IA generativa, un campo in rapido sviluppo con il potenziale per rivoluzionare molti aspetti della vita. L’Addendum di Hiroshima, presentato durante l’evento, evidenzia l’importanza di applicare i principi della Rome Call all’IA generativa per garantirne un utilizzo responsabile ed etico. Tra i vari aspetti, l’Addendum sottolinea la necessità di trasparenza, affermando che ciò che viene generato dalla macchina deve essere immediatamente riconoscibile come tale. Enfatizza l’inclusione, sottolineando che gli strumenti di intelligenza artificiale devono rispettare la diversità delle culture, delle tradizioni e delle lingue umane. L’impegno dei firmatari della Call va oltre la semplice enunciazione di principi etici; si estende alla responsabilità per lo sviluppo e l’implementazione dell’IA. Ciò include la considerazione dell’impatto a lungo termine di queste tecnologie sull’ambiente e sulla società. Hiroshima ha chiamato a raccolta uomini di buona volontà provenienti da ogni parte del mondo per realizzare una effettiva algoretica. Ora spetta a ciascuno di noi rispondere a questo impegno globale portando il proprio contributo.
© Riproduzione riservata
ARGOMENTI: