Ricerca. Un decoder nel cervello restituisce la voce a chi non può più parlare
Metropolis, film muto del 1927 diretto da Fritz Lang, considerato il capolavoro del regista
Perdere la parola per un danno neurologico provocato da un incidente o da malattie come il Parkinson e la Sla è uno dei peggiori handicap, che spesso si associa ad altri sintomi invalidanti. Trovare un modo di ridare voce ai pensieri potrebbe essere un dono straordinario per i pazienti impossibilitati a parlare. Un significativo passo avanti su questa strada arriva con un sintetizzatore che utilizza i segnali cerebrali tradotti da un programma di intelligenza artificiale per ricostruire e dare voce al discorso mentale. Lo straordinario prototipo si deve a tre ricercatori dell’Università di California-San Francisco: Gopala K. Anumanchipalli, Josh Chartier e Edward F. Chang. Gli studiosi hanno descritto il loro esperimento in un articolo pubblicato sulla rivista “Nature”.
Dai neuroni alle parole ritrovate
I risultati sono più che incoraggianti. Alla macchina basta mezz’ora di addestramento – osservando che cosa accade nel cervello tramite l’elettrocortigrafia mentre i soggetti esaminati parlano o anche mentre mimano silenziosamente le parole – per comprendere e riprodurre tutti i movimenti che l’apparato fonatorio deve eseguire per emettere i suoni corrispondenti al discorso. Il sintetizzatore fa il resto del lavoro, che non è poco, perché a partire dal movimento bisogna passare al suono. In questo modo dai segnali cerebrali si ottiene una voce che altri volontari hanno riconosciuto perfettamente. L’unica limitazione, per ora, è che l’elettrocortigrafia è un elettroencefalogramma svolto a cranio aperto, direttamente sul cervello e non dall’esterno. Cosa possibile su malati di epilessia che vengono operati proprio con un’apertura del cranio per ridurre i focolai che provocano gli attacchi. Ma se il sistema sarà ulteriormente testato e giudicato sicuro, gli elettrodi potrebbe essere impianti facilmente nelle persone divenute afone. I tempi non saranno comunque brevi. Probabilmente, qualche anno.
Leggere la mente non è più fantascienza
“Leggere la mente” o, meglio, come si dice oggi “cogliere i pensieri con strumenti neurotecnologici” non è più fantascienza da almeno una quindicina di anni. L’idea di base è che gli stati mentali (le percezioni, come il vedere un albero, i pensieri, come immaginare la gravità, ed emozioni complesse, come essere depressi e inclini al suicidio) sono realizzati nel cervello con l’accensione di vari gruppi di neuroni. Grazie a nuovi strumenti sofisticati per visualizzare l’attività del cervello mentre svolge compiti specifici, è possibile stabilire una correlazione tra i neuroni “accesi” e il pensiero che l’individuo riferisce. Non sono operazioni che può gestire un essere umano e sono software avanzati a “imparare” che cosa accade nel cervello di un volontario. E una volta istruito il software può capire, per esempio, quale film sta guardando una persona soltanto sulla base dei dati della risonanza magnetica funzionale. Oppure può dire se un individuo sta pensando a un concetto della fisica, come la gravità, o a un altro, come l’accelerazione.
Come si catturano le intenzioni
Attualmente, però, si possono “leggere” solo i pensieri che il software ha imparato a riconoscere in precedenza. Anumanchipalli e colleghi hanno perciò aggirato il problema e lavorato sull’attivazione da parte del cervello degli organi che permettono la parola. La prima strategia è come se per riprodurre il movimento si cercasse di capire direttamente nel cervello della persona paralizzata quale è la sua meta e poi la si facesse muovere con un supporto robotico. Un compito difficile. La strategia del decoder vocale è invece equivalente a intuire ogni singolo potenziale movimento della gamba e riprodurlo momento per momento: la meta si raggiungerà lo stesso anche se non siamo in grado di capirla in precedenza.