.jpg?width=1024)
- - Google DeepMind
Pubblichiamo un estratto dal volume Per un’ecologia dell’intelligenza artificiale. Dialoghi tra un filosofo e un informatico di Vincenzo Ambriola e Adriano Fabris (Castelvecchi editore).
Nella storia della filosofia il termine “etica” è ambiguo, perché si riferisce a due concetti strettamente collegati tra loro. Il primo, e probabilmente quello più conosciuto e usato, indica il contesto, l’insieme dei valori che fanno da riferimento per le azioni che quotidianamente compiamo. In questo contesto l’etica è legata agli usi e ai costumi, sia collettivi che individuali, in base ai quali agiamo. Il secondo concetto, più complesso e sfumato, collega l’etica a una riflessione e a una revisione dei criteri e dei principi consolidati nel sentire comune. In questo caso, non si parla più di “etica” nel senso della descrizione di come agisce una comunità, ma se ne parla riferendosi alle normative che prescrivono un determinato comportamento anche quando è contrario alle abitudini consolidate. Oggi però ci troviamo in una situazione nuova. Ad agire non sono più solamente gli esseri umani: agiscono anche programmi e dispositivi. Agiscono secondo una determinata modalità di azione, che è quella procedurale. Sono in grado, comunque, di prendere iniziative e di “imparare”, modificando la propria attività nell’interazione con l’ambiente. Di conseguenza, i due sensi di “etica” di cui abbiamo parlato sono anche chiamati in causa in relazione allo scenario tecnologico in cui viviamo. Lo sono, anzitutto, perché i nostri usi e costumi, i nostri comportamenti all’interno di questo scenario si trovano radicalmente trasformati. Lo sono, poi, perché nuovi compiti emergono, nonché prospettive diverse rispetto a una pura e semplice acquiescenza nei confronti del dato. Proprio rispetto all’alternativa fra sostegno e sostituzione, di fronte alla quale l’agire dei nuovi programmi e dispositivi ci pone, siamo chiamati a fare le nostre scelte. In questa situazione il ragionamento etico diventa irrinunciabile. Lo diventa sia per dare un senso al nuovo ruolo della tecnologia, sia per stabilire i suoi usi legittimi, affinché siano preservati i valori e i principi propri della convivenza umana. Si tratta anche di capire, poi, se e come sia possibile instillare tali valori e principi “all’interno” di queste nuove entità artificiali, affinché le loro azioni siano “intrinsecamente” rispettose proprio ed esattamente di tali valori e principi.
Per dare concretezza a questi obiettivi si possono seguire due approcci. Il primo trova una concreta operatività non solo nei numerosi codici etici sviluppati da entità nazionali, professionali, scientifiche e anche religiose, ma soprattutto nell’azione normativa dei governi. L’etica, così, si ricollega al diritto, trova in questo rapporto la contestualizzazione e la concretezza di cui hai bisogno, e, in tal modo, assume un carattere ordinamentale forte di un potere interdittivo e prescrittivo. Il secondo, invece, mette in campo il tema della coscienza umana, intesa come interazione tra la consapevolezza nei confronti di sé e quella relativa agli sviluppi del mondo circostante. Abbiamo visto nel libro come l’etica entri a pieno titolo nel dibattito relativo alla realizzazione e all’uso dell’intelligenza artificiale. Mentre è stata dimostrata, con tutte le cautele del caso, la possibilità che i valori e i principi etici ispirino la scrittura e l’adozione di norme giuridiche, è ancora un problema aperto la progettazione e la realizzazione di sistemi che adottino e rispettino “internamente” tali valori e principi. In attesa di tali sistemi è necessario procedere “approssimando” il loro comportamento etico, concependoli in vista di un duplice obiettivo: da una parte il loro uso non deve indurre rischi inaccettabili per gli umani (e per l’ambiente), dall’altra tali sistemi devono essere pro-gettati affinché i principi etici siano cablati internamente e non controllati a posteriori. Si tratta della cosiddetta Ethics by Design, che consente d’inserire nei programmi criteri etici in modo che siano presenti sin dall’inizio nei loro meccanismi di base, così come la sicurezza viene progettata negli impianti industriali. I criteri di progettazione devono essere ispirati a principi quali trasparenza, spiegabilità, rispetto di regole predefinite e inviolabili. Devono essere chiariti i meccanismi di responsabilità che governano il funzionamento di questi sistemi, separando la fase di addestramento da quella di esercizio. Tutte queste sono questioni che risultano, ancora, oggetto di elaborazione, anche se i criteri e i principi di riferimento per affrontarle sembrano ormai generalmente condivisi a livello mondiale. Si tratta di elaborare sistemi che, nonostante la loro autonomia, abbiano pur sempre al centro l’essere umano. In questo senso si parla di Human centered AI.
Resta però aperta la questione di fondo, almeno per ciò che ci riguarda. Spesso si parla di intelligenza artificiale come di uno strumento che può sostenere gli esseri umani nello svolgimento di tutte le loro attività. Ciò, tuttavia, richiede una radicale trasformazione sia del modo in cui tali attività sono effettuate, sia della stessa azione umana. Altrettanto spesso, poi, si parla del pericolo di una sostituzione degli esseri umani da parte dell’intelligenza artificiale. È una possibilità di cui dobbiamo essere consapevoli, verso cui siamo indirizzati da interessi economici ben precisi e che richiede da noi il coraggio di una scelta. Ci troviamo di fronte, insomma, a un inedito dilemma etico: farsi sostituire dall’intelligenza artificiale o usarla, pur consapevoli che, nell’interazione con essa, inevitabilmente ci facciamo trasformare? Come trovare un punto di equilibrio in questa complessa situazione? Saremo capaci di sciogliere infine questo nodo?
© 2025 Lit edizioni s.a.s. per gentile concessione