Etica e tecnologia. L'auto robot e gli incidenti: la scelta non è uguale per tutti
L'auto autonoma e il libero arbitrio in caso di possibile incidente: la questione morale è aperta
Ovviamente "salvare il maggior numero possibile di persone, dare la precedenza ai più giovani e agli esseri umani rispetto agli animali". Sono questi i criteri a cui si dovrebbero ispirare le auto a guida autonoma (se e quando arriveranno). Che non dovranno però solo guidare sulle strade, ma anche attraverso i dilemmi morali da affrontare in caso di incidenti inevitabili: milioni di persone da 233 Paesi hanno partecipato alla più grande inchiesta condotta on line su questo argomento, con l'obiettivo di individuare e valutare gli scenari in cui i veicoli saranno costretti a fare delle scelte critiche. E in base alle risposte al sondaggio, le sorprese non sono mancate.
L'esperimento, chiamato la “Macchina Morale”, è stato coordinato da ricercatori del Massachusetts Institute of Technology (Mit) guidati da Edmond Awad e i risultati, pubblicati sulla rivista Nature, aiuteranno il dibattito sul futuro sviluppo di un'etica dei veicoli autonomi. I partecipanti sono stati messi di fronte a diversi scenari che coinvolgevano un'auto autonoma e varie combinazioni di passeggeri e pedoni. Durante l'incidente la macchina poteva mantenersi sulla sua corsia o invadere quella opposta per evitare l'ostacolo: la scelta dipendeva da quali vite le persone ritenevano maggiormente meritevoli di essere risparmiate.
Gli autori hanno identificato alcune preferenze morali generalmente condivise dalla maggioranza, come appunto salvare il maggior numero possibile di vite, dare la precedenza ai più giovani e alle persone rispetto agli animali. Interessante però è registrare come l'empatia nei confronti delle persone coinvolte cambi da Paese a Paese, e da una zona geografica all'altra. In generale, l'Europa e il Nord America ad esempio hanno manifestato la tendenza a vedere come più “sacrificabili” gli anziani rispetto ai giovani. Il Giappone (Paese dove l'età media e la logevità sono tra le più alte del mondo) e gli altri Paesi orientali invece, non hanno manifestato questa propensione. Sempre Giappone, Norvegia e Singapore hanno mostrato una forte tendenda a proteggere i pedoni a prescindere. Al contrario di Cina, Estonia e Taiwan, che hanno ritenuto più preziose le vite dei passeggeri a bordo dei veicoli.
Altre scelte invece variavano in base alle diverse culture di appartenenza: ad esempio i partecipanti dell'America Centrale e dell'America del Sud, come anche della Francia e molti Paesi di lingua francese, hanno mostrato una forte preferenza per risparmiare le donne e (chissà perchè) gli individui molto atletici. Invece chi proveniva da Paesi con forti disuguaglianze di reddito ha manifestato di considerare anche lo status sociale come fattore discriminante.
Fin qui il sondaggio, il cui valore lascia il tempo che trova. Ma anche chi ha provato a dare una sorta di impronta normativa alla questione, non ha ottenuto risultati definitivi. O meglio, è arrivato a ribadire che una macchina in futuro non dovrà scegliere affatto. Spieghiamo meglio. In Germania, qualche mese fa hanno deciso di stabilire 20 principi etici per marcare i confini oltre i quali i programmatori non dovranno mai spingersi quando si tratterà di scrivere il codice delle vetture e dei robot del futuro. Li ha messi nero su bianco la Commissione etica sulla guida autonoma e connessa, voluta dal ministro dei trasporti Alexander Dobrindt. Tra i quattordici membri anche un teologo, quattro professori di etica, uno di informatica, e un ex giudice costituzionale. «Queste sono al mondo le prime linee guida sul tema con una forte impronta etica», ha spiegato Christoph Luetge, professore di Business Ethics al Politecnico di Monaco e membro della commissione. «Principi fondanti che un domani potrebbero essere alla base di un nuovo quadro di leggi».
Si parte dalla sicurezza: l'automazione non ha senso se non salva vite, considerando che sulle strade muoiono ogni anno un milione e 250mila persone e nel 93 per cento dei casi l'errore umano svolge un ruolo essenziale nel causarli. Non solo. Si stabilisce il primato della libera scelta e questo si traduce nel rifiuto dei mezzi a guida autonoma totale, il cosiddetto "Livello 5" delle auto prive di volante e pedali. E ancora: il software di un autobus, auto o aereo, non potrà decidere chi sacrificare fra pedoni, guidatore e passeggeri nelle collisioni inevitabili scegliendo in base al genere, all'età o al numero. «La tecnologia deve esser progettata per non arrivare mai a casi simili», ha sottolineato Luetge.
Le "situazioni dilemma", sulle quali tanto ci si è interrogati in ambito accademico in questi anni di ascesa delle macchine capaci di apprendere, vengono rifiutate in blocco. E riguardo le responsabilità oggettive, legali e assicurative, la commissione chiarisce che «cambieranno volta per volta, a seconda che l'incidente sia stato provocato da una rottura di un componente, da un errore del software mentre guidava o da quello del conducente». Il dubbio e le variabili, insomma, restano. Come gli interrogativi che avvolgono tutte le macchine che vogliono o possono sostituirsi all'uomo.