Gli assistenti vocali dei cellulari stanno cambiando la nostra lingua
Chissà se in un futuro non troppo lontano computer e cellulari creeranno le parole di domani, comporranno articoli di giornale senza più bisogno che qualcuno li scriva o addirittura faranno calare il sipario sull’inglese come lingua franca del pianeta visto che potrebbe bastare un paio di auricolari con annesso microfono per capire (e parlare) tutti gli idiomi del mondo. Fantalinguistica? Non proprio. Perché i vocaboli “nativi digitali”, le cronache già pronte online e i dialoghi con le cuffiette sono il sole dell’avvenire che potrebbero far sorgere Google con il suo traduttore automatico, Apple grazie a Siri – l’assistente “parlante” dei suoi iPhone – o ancora Dragon, il programma di trascrizione vocale che (ti) ascolta. «Quando si pensa a questi strumenti, si pone l’accento principalmente sul versante tecnologico. Invece la loro portata va ben al di là dell’informatica. A conti fatti stanno cambiando il nostro modo di comunicare attraverso la sorprendente capacità di elaborazione automatica del linguaggio», spiega Mirko Tavosanis, docente di Linguistica italiana all’Università di Pisa, che al tema ha dedicato il suo ultimo libro Lingue e intelligenza artificiale (Carocci, pagine 128, euro 12,00).
Tre sono le grandi famiglie che uniscono lingua e web: gli assistenti vocali che si trovano su telefonini o siti e da poche settimane anche negli “altoparlanti intelligenti”; i software di riconoscimento del parlato; e i traduttori istantanei in Rete. Guai però a considerarli davvero intelligenti. «Anzi, sono estremamente stupidi – sostiene lo studioso –. Adoperano metodi a base statistica molto sofisticati e adatti a determinati compiti, ma sono privi di capacità di generalizzare e di andare oltre la meccanicità». È il netto confine fra riconoscere un termine e comprenderlo. Se Siri è in grado di rispondere alla domanda “che tempo fa oggi” oppure “com’è il meteo” fornendo le previsioni della giornata, è soltanto perché i suoi sviluppatori sanno che, benché in italiano siano molti i modi di chiedere le previsioni, tutti includono vocaboli come “meteo”, “previsioni” o “tempo” che Siri riconosce. «Associare le parole alle azioni è cosa molto diversa rispetto alla comprensione umana», afferma il linguista. E cita un altro esempio. Quando si fa tradurre a Google o a Microsoft la frase inglese The box was in the pen, entrambi scrivono più o meno: “La scatola era nella penna”. Espressione priva di senso. Perché pen non è soltanto la “penna” (secondo il significato più comune), ma anche il “recinto”. E la scatola dei giocattoli che il piccolo John cercava non era nella “penna” ma nel “recinto” dei giochi. «Ogni tanto capita di leggere qualche valutazione sul quoziente d’intelligenza di questi strumenti – osserva Tavosanis –. L’analisi di un gruppo di ricercatori cinesi, presentata lo scorso autunno, indicava livelli pari alla metà di un essere umano. Personalmente ritengo che non si vada oltre lo zero. Ciò non vuol dire che siano mezzi inutili, ma non possiamo dare la sensazione che dietro alle facoltà di Siri o di Google ci sia qualcosa che operi come un cervello umano, anche se a uno stadio inferiore».
Certo, fanno breccia nell’immaginario collettivo i “collaboratori” che compaiono sugli schermi: Siri nei cellulari Apple; Cortana negli apparecchi legati a Microsoft; Alexa targato Amazon; o l’omologo di Google. «Sono stati superati gli ostacoli legali alla pronuncia e agli accenti marcati dovuti magari a un dialetto – precisa lo studioso –. E oggi tali sistemi sono in grado di gestire un buon numero di variazioni nelle domande». In più Siri e Cortana hanno una loro personalità, mentre Google ne è privo. Tuttavia, nonostante gli stratagemmi, un po’ tutti siamo consapevoli di avere a che fare con una macchina. «Quando parliamo con gli assistenti vocali o con i programmi di trascrizione, lo facciamo con un approccio differente dallo stile che adottiamo con una persona. O meglio, parliamo in modo semplificato, irrigidito e deliberatamente scandito, come un libro stampato o come fossimo di fronte a uno straniero che non conosce bene la nostra lingua». Dal canto loro gli “amici” con cui dialoghiamo su smartphone e computer hanno «una lingua professionale, formale, segnata da espressioni standard, in cui prevalgono le forme neutre che permettono di intendere facilmente il messaggio», fa notare Tavosanis. E aggiunge: «È interessante che non si impieghino locuzioni burocratiche, come quelle che si sentono negli annunci delle stazioni, ma si privilegi una lingua media, assolutamente corretta dal punto di vista grammaticale ma anche con qualche incertezza fonetica». Però non tutto funziona. Se si domanda a Siri o a Cortana di mettere la sveglia «al tocco», termine molto diffuso in Toscana per dire l’una (le 13) e che il dizionario De Mauro considera “comune”, entrambi chiedono chiarimenti. «Perché si basano su un vocabolario controllato e lavorano solo sul lessico normalmente usato. Se quindi si esce dalla via tipica, si inceppano».
Non è tutto oro neppure quello che luccica nei programmi di trascrizione offerti da Google e Microsoft o in quelli in vendita come Dragon. «Se usiamo un linguaggio scandito e ordinario, le percentuali di successo rasentano l’ottimale, con errori al di sotto del 5% nella dettatura di messaggi», avverte Tavosanis. La prospettiva cambia quando i software devono mettere per scritto una conversazione. «Nella trascrizione digitale del parlato colloquiale le imprecisioni superano il 50%: in pratica la metà delle parole viene trascritta male o non viene proprio riportata. Ciò rende impossibile, ad esempio, avere sottotitoli automatici nei film o durante le dirette tv».
Sempre più usati i siti di traduzione immediata. Ma se le lingue del mondo sono 6mila, Google si limita a riconoscerne 103. «Comunque possiamo avere la tradizione di un testo italiano in cinese, seppur non perfetta, senza neppure sapere una parole di cinese – riferisce il linguista –. Siamo davanti a un processo ancora incompleto ma di grande utilità. E in alcuni casi funziona discretamente. Penso alla traduzione in tempo reale che Skype offre in molte lingue: così un italiano e un giapponese discorrono adeguatamente conoscendo soltanto le rispettive lingue». E, mettendo assieme tutti questi ritrovati, possiamo già trovare società anglosassoni che sfornano solo con i computer articoli sportivi ed economici. «Ciò è possibile dal momento che i punti di partenza sono dati numerici, ma queste operazioni non includono la comprensione reale di quanto accade», precisa il docente. Eppure l’intelligenza “digitale” ha iniziato a dare vita a nuove parole. «Sono per lo più nomi commerciali inglesi, inventati esaminando numerose varianti. Cito il marchio di una birra artigianale, la Heaven cat, o le denominazioni di nuovi colori come Soreer gray o Sane green». Poi c’è l’ipotesi di non dover più studiare alcuna lingua straniera: tanto un cellulare tradurrà tutto in tempo reale e parlerà al mio posto. «Di sicuro un sistema automatico di traduzione non potrà mai farci immergere nella cultura, nella civiltà, nella storia di un Paese di cui apprendiamo la lingua. E magari un governo potrà anche controllare che la tradizione sia politicamente corretta...». George Orwell con il suo Grande fratello lo aveva già intuito.
<+RIPRODUZ_RIS>