Agorà

Scenari. Grinbaum: «L’Intelligenza artificiale sfida i traduttori»

Eugenio Giannetta lunedì 30 settembre 2024

Ora l'IA sfida i traduttori

Il traduttore esplora il legame tra fatto linguistico e fatto di pensiero, ma cosa accade quando in questo rapporto si inserisce l’intelligenza artificiale? Oggi, in occasione della Giornata Internazionale della Traduzione, a Venezia, ne parleranno Thierry Lorho, ingegnere di Mines Télécom, direttore della Sicurezza dei Sistemi Informativi di Sopra Steria, ideatore dell’intelligenza artificiale Mileva ed Alexeï Grinbaum, fisico e filosofo, laureato all’Università di San Pietroburgo e all’École Polytechnique di Parigi, presidente del Comitato operativo pilota di etica del digitale del Cea e specialista della teoria quantistica dell’informazione, che abbiamo intervistato.

Qual è il rapporto tra traduzione e intelligenza artificiale?

«Il motivo per cui oggi si parla così tanto di intelligenza artificiale è l’avvento di grandi modelli linguistici. Questi grandi modelli non imparano le lingue come le impariamo noi. Non sanno nemmeno che esistono lingue umane, eppure hanno questa capacità di tradurre che imparano in modi decisamente non umani. Se chiediamo a un modello linguistico di grandi dimensioni di tradurre dall’italiano al francese o viceversa, il modello produrrà un risultato, e questo risultato sarà a volte molto buono, anche un’ottima traduzione, tranne per il fatto che questi modelli non hanno mai imparato a tradurre. Non sanno nemmeno quale sia la lingua, e questa è una situazione nuova e affascinante. In un certo senso questi modelli parlano tutte le lingue allo stesso tempo, senza nemmeno sapere che ci sono lingue diverse che sono divise in famiglie separate. Hanno una sorta di conoscenza delle lingue umane in generale, e non sappiamo bene che tipo di conoscenza sia, perché si tratta di numeri. Si tratta di zeri e uno e di calcolo. All’interno di questi numeri non ci sono regole linguistiche, né di grammatica. Eppure, attraverso questi calcoli si possono produrre ottimi risultati, che a noi sembrano traduzioni eccellenti. Quindi, in un certo senso, abbiamo un agente non umano che può parlare non solo una, ma molte lingue umane allo stesso tempo. E anche, tra l’altro, lingue non umane. Possiamo chiedere a questo agente di tradurre in lingue che noi stessi abbiamo dimenticato, o di inventarne di nuove. Abbiamo un artefatto tecnologico e una macchina che può convincere in modo convincente, fare traduzioni convincenti, ma il percorso che intraprende, la strada che percorre per queste traduzioni, è poco umana».

Traduttori e interpreti avvertono il pericolo dell’IA. È giusto averne paura?

«Non scompariranno del tutto, ma saranno meno numerosi e il lavoro cambierà. Ciò che è importante capire è che le macchine non hanno il discernimento umano di ciò che è bello o di ciò che è giusto, di ciò che è corretto, vero. Quindi solo gli esseri umani possono giudicare; perciò, se si vuole certificare che qualcosa è corretto o vero, c’è bisogno di un umano che metta la sua firma, che capisca il contenuto e lo validi, perché le macchine possono solo imitare. Imitare la verità non significa che qualcosa sia vero. Imitare la bellezza non significa che questo sia un bel risultato».

E se smettessero di interessarci verità o bellezza?

«Possiamo fare una traduzione tecnica che non è necessariamente bella, e va bene così. Questa traduzione tecnica può essere fatta benissimo dalle macchine. Ma quando abbiamo bisogno di una traduzione che sarà, diciamo, autenticata, abbiamo bisogno di mettere un timbro che attesti che, sì, una tale cosa è corretta, allora non basterà. Solo un traduttore umano può apporre un timbro e dire: “Garantisco che questo è vero”. Pensiamo alla poesia, che non è solo un insieme di parole in una lingua, ma ha un metro estetico. Per questo abbiamo bisogno di traduttori di poesia umani, perché le macchine non sanno cosa sia bello o meno, quindi a scomparire saranno i traduttori tecnici. Gli altri inizieranno a lavorare in modo diverso. Probabilmente useranno le macchine per tradurre, ma poi dovranno leggere il risultato e assumersi la responsabilità della veridicità. I traduttori di letteratura, di poesia, invece, questi non scompariranno affatto, perché le macchine possono produrre solo poeti mediocri».

Lei è presidente del Comitato Operativo Pilota di Etica Digitale del Cea, in cosa consiste il suo lavoro?

«In qualcosa che viene chiamato “ethics by design”, ovvero valutazione dell’etica operativa ed etica nella progettazione dello sviluppo dei sistemi di IA. Quello che facciamo è porre domande etiche durante la progettazione. Domande su parzialità e non discriminazione, su trasparenza del sistema, responsabilità del progettista e così via. È necessario porsi molti tipi diversi di domande etiche durante la fase di progettazione dell’IA, perché altrimenti sarà troppo tardi e il sistema sarà già sul mercato».

Pensa che in futuro ci sarà una sola lingua, comprensiva di tutte le lingue del mondo?

«No, anzi, perché anche i sistemi di intelligenza artificiale sono piuttosto creativi. Non credo quindi che i sistemi di IA ci daranno la parola di un linguaggio unico e comune; al contrario, favoriranno la diversità».