Nell'universo multimiliardario di Google c'è un bottone rosso molto importante. L'ha creato un ingegnere informatico italiano che si chiama Lorenzo Caggioni.
Di bottoni rossi nei film ne abbiamo visti tanti. Normalmente servono o per lanciare allarmi globali o per fermare all'ultimo secondo un mostruoso sistema che avrebbe causato morte e distruzione. Il bottone rosso di Lorenzo fa qualcosa di diverso ma non meno importante: migliora la vita di milioni di persone. E come spesso accade lo fa partendo da una singola storia, da un singolo bisogno. Quello di Giovanni, il fratello ventunenne di Lorenzo che è affetto da sindrome di Down e da sindrome di West.
Giovanni non può parlare, non ci vede bene ma ama la musica e il cinema. Strimpella a suo modo il pianoforte e gli piace dondolarsi nella sua poltrona sospesa.
Grazie a una bicicletta tandem fa lunghe gite con Lorenzo. Non potendo comunicare con la voce è avendo problemi motori non può usare liberamente lettori dvd o servizi di streaming audio e video e nemmeno gli assistenti vocali. Quelli che, comandati con la voce, sono ormai in grado di aiutare disabili e anziani in molte piccole e grandi incombenze: dall'alzare le tapparelle della casa ad accendere la luce, solo per citarne due molto comuni.
Come dare la stessa possibilità a persone come Giovanni, così da essere più autonome? Per mesi Lorenzo ha cercato una risposta a questa domanda. Finché si è presentato ai colleghi di Google Italia col progetto Diva, sigla che significa (in inglese) diversamente assistito.
È composto da uno scatolotto e da un grande bottone rosso. Tutti i componenti usati sono di facile reperibilità e il sistema può essere programmato da persone mediamente esperte per far comunicare chi non può parlare con l'assistente vocale di Google.
Sembra una cosa da poco ma è per certi versi rivoluzionaria. Scoprendola abbiamo scoperto la faccia buona di Google. Un mondo di progettisti e ingegneri che lavorano con l'elettronica, l'informatica è l'intelligenza artificiale per migliorare le vite di milioni di disabili. Soprattutto per chi ha problemi di linguaggio o di assenza di parola. Causati da malattie congenite, anche da ictus, SLA, sclerosi multipla, lesioni cerebrali traumatiche o morbo di Parkinson.
Un progetto entusiasmante si chiama Euphonia. Grazie all'intelligenza artificiale e al machine learning, il sistema impara a conoscere la “lingua” di chi parla, anche se è pressoché incomprensibile, e la traduce sul display di uno smartphone (per ora) in inglese corretto. In questo modo anche i malati più gravi possono tornare a parlare e a farsi capire come se non avessero alcun problema.
Non solo. Ci sono anche i progetti Live Transcribe, Live Relay e Live Caption. La prima è un'applicazione che permette di trascrivere in formato testo le conversazioni in tempo reale in modo così da renderle fruibili ai non udenti. Live Captions invece consentirà di sottotitolare in tempo reale i video riprodotti sullo smartphone. Infine c'è Live Relay che permetterà ai non udenti di rispondere alle chiamate telefoniche trasformando le parole in una vera e propria chat.
Perché l'intelligenza artificiale come lo strapotere di Google non sono solo posti di lavoro “rubati” da robot e invasioni della privacy ma anche aiuti concreti per persone in difficoltà. Difficile dire con esattezza quante siano. Ma secondo le stime delle Nazioni Unite, una persona su dieci nel mondo ha una disabilità. Parliamo di 700 milioni di persone. Quasi quanti tutti gli abitanti dell'Europa.
© Riproduzione riservata
ARGOMENTI: