AGI - Sperimentati con successo micro-impianti cerebrali in grado di decifrare le parole di persone con problemi di linguaggio su uno schermo del computer. È quanto descritto in un articolo appena apparso su Nature da ricercatori della Stantford University. Sulla prestigiosa rivista, viene raccontata la storia di Pat Bennett paziente volontaria che ha acconsentito a farsi impiantare un gruppo di sensori delle dimensioni di un'aspirina nel suo cervello, per risolvere una condizione che l'ha frustrata per anni: la perdita della capacità di parlare in modo comprensibile.
La storia di Pat Bennett
I dispositivi trasmettono segnali da alcune regioni del cervello legate al linguaggio a un software all'avanguardia che decodifica l'attività cerebrale di Bennett e la converte in testo visualizzato su uno schermo del computer. Bennett, ora 68enne, è una ex direttrice delle risorse umane e un'ex sportiva che faceva jogging quotidianamente.
Nel 2012, le è stata diagnosticata una malattia neurodegenerativa progressiva chiamata sclerosi laterale amiotrofica (SLA), che colpisce i neuroni responsabili del movimento, causando debolezza fisica e paralisi."
Quando si pensa alla SLA, si pensa all'impatto su braccia e gambe", ha scritto Bennett in un'intervista condotta via email. "Ma in un gruppo di pazienti con SLA, inizia con difficoltà nel linguaggio. Non riesco a parlare"
Di solito, la SLA si manifesta per la prima volta alla periferia del corpo, cioè braccia e gambe, mani e dita. Nel caso di Bennett, il deterioramento non è iniziato nel midollo spinale, come è tipico, ma nel tronco cerebrale. Può ancora muoversi, vestirsi e usare le dita per digitare, sebbene con crescente difficoltà. Ma non può più utilizzare i muscoli delle labbra, della lingua, della laringe e delle mascelle per pronunciare chiaramente i fonemi, cioè le unita' sonore come "sh", che sono i mattoni fondamentali del linguaggio.
Una possibile soluzione
Anche se il cervello di Bennett può ancora formulare le direzioni per generare quei fonemi, i suoi muscoli non possono eseguire i comandi. Il 29 marzo 2022, un neurochirurgo di Stanford Medicine ha inserito due piccoli sensori in due regioni separate, entrambe coinvolte nella produzione del linguaggio, sulla superficie del cervello di Bennett.
I sensori sono componenti di un'interfaccia cervello-computer intracorticale, o iBCI. In combinazione con un software all'avanguardia per la decodifica, sono progettati per tradurre l'attività cerebrale correlata ai tentativi di parlare in parole visualizzate su uno schermo. Circa un mese dopo l'intervento chirurgico, un team di scienziati di Stanford ha iniziato sessioni di ricerca bisettimanali per addestrare il software che interpretava il suo linguaggio.
Dopo quattro mesi, le tentate enunciazioni di Bennett venivano convertite in parole su uno schermo del computer a 62 parole al minuto, più di tre volte più veloce del record precedente per la comunicazione assistita da BCI.
Gli scenari futuri
"Questi risultati iniziali hanno dimostrato il concetto e alla fine la tecnologia si svilupperà per renderla facilmente accessibile alle persone che non possono parlare", ha scritto Bennett. "Per coloro che sono non verbali, ciò significa poter rimanere connessi al mondo più ampio, forse continuare a lavorare, mantenere relazioni con amici e familiari".
Il ritmo di Bennett inizia a raggiungere il tasso di circa 160 parole al minuto, tipico delle conversazioni naturali tra i parlanti inglesi, ha detto Jaimie Henderson, il chirurgo che ha eseguito l'intervento chirurgico. "Abbiamo dimostrato che è possibile decodificare il linguaggio intenzionale registrando l'attivita' da una piccola area sulla superficie del cervello", ha detto Henderson. Henderson, professore di neurochirurgia presso il dipartimento di neurochirurgia John e Jean Blume-Robert e Ruth Halperin, è co-autore principale dell'articolo.
L'altro co-autore principale, Krishna Shenoy, professore di ingegneria elettrica e di bioingegneria, e' deceduto prima della pubblicazione dello studio. Frank Willett, uno scienziato dell'Istituto medico Howard Hughes affiliato al Laboratorio di Neuroprotesi Traslazionale, fondato da Henderson e Shenoy nel 2009, condivide la paternita' di autore principale con gli studenti Erin Kunz e Chaofei Fan.
Come è nata la collaborazione con Bennett
Nel 2021, Henderson, Shenoy e Willett sono stati coautori di un altro studio, sempre pubblicato su Nature, che descriveva il loro successo nel convertire la scrittura immaginaria di una persona paralizzata in testo su uno schermo utilizzando un iBCI, raggiungendo una velocità di 90 caratteri, o 18 parole, al minuto - un record mondiale fino ad ora per una metodologia correlata a un iBCI.
Nel 2021, Bennett ha appreso del lavoro di Henderson e Shenoy. Si è messa in contatto con Henderson e si è offerta volontaria per partecipare alla sperimentazione clinica. I sensori impiantati da Henderson nella corteccia cerebrale di Bennett, lo strato più esterno del cervello, sono matrici quadrate di piccoli elettrodi in silicio.
Ogni matrice contiene 64 elettrodi, disposti in griglie di 88 e separati l'uno dall'altro da una distanza di circa la meta' dello spessore di una carta di credito. Gli elettrodi penetrano nella corteccia cerebrale a una profondità pari a circa due quarti impilati. Le matrici impiantate sono attaccate a sottili fili d'oro che escono attraverso piedistalli avvitati al cranio, che vengono poi collegati tramite cavo a un computer.
Un algoritmo di intelligenza artificiale riceve e decodifica le informazioni elettroniche provenienti dal cervello di Bennett, imparando infine a distinguere le distinte attività cerebrali associate ai suoi tentativi di formulare ciascuno dei 39 fonemi che compongono l'inglese parlato. Fornisce le sue migliori ipotesi sulla sequenza dei fonemi tentati da Bennett in un cosiddetto modello linguistico, essenzialmente un sofisticato sistema di correzione automatica, che converte i flussi di fonemi nella sequenza di parole che rappresentano.
Come funziona l'algoritmo
"Questo sistema è addestrato per sapere quali parole dovrebbero venire prima delle altre e quali fonemi compongono quali parole", ha spiegato Willett. "Se alcuni fonemi sono stati interpretati in modo errato, è comunque possibile fare una buona ipotesi."
Per insegnare all'algoritmo a riconoscere quali modelli di attività cerebrale erano associati a quali fonemi, Bennett si è impegnata in circa 25 sessioni di allenamento, ciascuna della durata di circa quattro ore, durante le quali ha tentato di ripetere frasi scelte casualmente da un ampio set di dati costituito da campioni di conversazioni tra le persone che parlano al telefono.
Mentre tentava di recitare ogni frase, l'attività cerebrale di Bennett, tradotta dal decodificatore in un flusso di fonemi e poi assemblata in parole dal sistema di correzione automatica, veniva visualizzata sullo schermo sotto l'originale. Quindi sullo schermo apparirà una nuova frase. Bennett ripeteva dalle 260 alle 480 frasi per sessione di allenamento.
L'intero sistema ha continuato a migliorare man mano che acquisiva familiarità con l'attività cerebrale di Bennett durante i suoi tentativi di parlare. La capacita' di traduzione del parlato previsto dall'iCBI è stata testata su frasi diverse da quelle utilizzate nelle sessioni di formazione. Quando le frasi e il modello linguistico di assemblaggio delle parole erano limitati a un vocabolario di 50 parole (nel qual caso le frasi utilizzate venivano estratte da un elenco speciale), il tasso di errore del sistema di traduzione era del 9,1%.
Quando il vocabolario è stato ampliato a 125.000 parole (abbastanza grandi da comporre quasi tutto ciò che si vorrebbe dire) il tasso di errore è salito al 23,8%: lungi dall'essere perfetto, ma un passo da gigante rispetto allo stato dell'arte precedente.
"Si tratta di una prova scientifica del concetto, non di un dispositivo reale che le persone possono utilizzare nella vita di tutti i giorni", ha affermato Willett. "Ma è un grande passo avanti verso il ripristino di una comunicazione rapida per le persone paralizzate che non possono parlare".
"Immaginate", scrisse Bennett, "quanto sarà diverso condurre attività quotidiane come fare la spesa, presentarsi agli appuntamenti, ordinare cibo, andare in banca, parlare al telefono, esprimere amore o apprezzamento - persino discutere - quando le persone non verbali potranno comunicare i loro pensieri in tempo reale." Il dispositivo descritto in questo studio è concesso in licenza solo per ricerca scientifica e non è disponibile in commercio.