AGI - Perdere ogni movimento, dalle gambe alle braccia, persino la bocca. E avere soltanto qualche impercettibile movimento facciale che può diventare un linguaggio vivo, vero, sonoro oltre che visivo. Ma solo grazie a un avatar e all'intelligenza artificiale. Se per i tetraplegici gravi, finora, è possibile scrivere attraverso sensori collegati a un pc in grado di interpretare il movimento delle pupille, ora il computer andrà oltre: trasferirà gli impulsi cerebrali a un avatar che parlerà e si muoverà al posto della persona. L'Università della California, di San Francisco, è riuscita a mettere a punto il sistema che va oltre i metallici sintetizzatori vocali, e a testarlo su una donna gravemente paralizzata che è riuscita a parlare attraverso un avatar utilizzando una tecnologia che ha tradotto i suoi segnali cerebrali in parole ed espressioni facciali.
La nuova interfaccia cervello-computer (BCI) potrebbe cambiare radicalmente la vita delle persone che hanno perso la capacità di parlare per patologie come ictus e sclerosi laterale amiotrofica (SLA). Fino a oggi, per avere voce si poteva fare affidamento soltanto sui sintetizzatori vocali lentissimi e alle volte anche fallaci nell'interpretazione di movimenti limitatissimi. Una conversazione naturale era quasi impossibile, sicuramente frustrante.
La tecnologia più recente utilizza piccoli elettrodi impiantati sulla superficie del cervello per rilevare l'attività elettrica nella parte del cervello che controlla i movimenti del linguaggio e del viso. Questi segnali vengono tradotti direttamente nel parlato di un avatar digitale e nelle espressioni facciali, tra cui sorridere, aggrottare le sopracciglia o sorprendersi.
"Il nostro obiettivo è ripristinare un modo completo e umano di comunicare, che è davvero il modo più naturale per noi di parlare con gli altri", ha detto il professor Edward Chang, che ha coordinato il progetto dell'Università della California, San Francisco (UCSF).
Ann, 47 anni, è rimasta gravemente paralizzata da un ictus che l'ha colpita più di 18 anni fa. Non può parlare o digitare e normalmente comunica utilizzando la tecnologia di tracciamento del movimento che le consente di selezionare lentamente le lettere fino a 14 parole al minuto. Spera che la tecnologia avatar possa permetterle di lavorare come consulente in futuro.
Il team ha impiantato sulla superficie del cervello, nell'area della parola, un rettangolo sottile come la carta con 253 elettrodi, che hanno intercettato i segnali cerebrali che avrebbero controllato i muscoli della lingua, della mascella, della laringe e del viso, senza la lesione provocata dall'ictus.
Stimolazione delle cellule nervose spinali trovata per aiutare i pazienti colpiti da ictus a ripristinare il movimento
Dopo l'impianto, Ann ha lavorato con il team per addestrare l'algoritmo AI del sistema a rilevare i suoi segnali cerebrali e interpretarli nel modo corretto. Il computer ha imparato 39 suoni distintivi e un modello linguistico in stile Chat GPT è stato utilizzato per tradurre i segnali in frasi intelligibili. Questo è stato poi utilizzato per controllare un avatar in grado di riprodurre la voce di Ann prima che subisse l'Ictus.
La tecnologia non è perfetta, ha un margine di errore del 28%, ma raggiunge le 78 parole al minuto, rispetto alle 110-150 parole mediamente pronunciate in una conversazione naturale. Ma è questione di tempo: il sistema è in continuo addestramento e la tecnologia è già pronta per essere utilizzata su larga scala. Un passo successivo cruciale è quello di creare una versione wireless del BCI che potrebbe essere impiantata all'interno del cranio.