Nuovi micro-impianti cerebrali finalizzati a decifrare le parole di persone con problemi di linguaggio su uno schermo del computer sono stati sperimentati con successo. Questa ricerca è stata pubblicata di recente in un articolo pubblicato sulla rivista Nature dagli studiosi della Stantford University. Nell’articolo si parla della storia di Pat Bennett, la paziente volontaria. Nel cervello della donna sono stati impiantati un gruppo di sensori grandi come un’aspirina, per sopperire alla perdita della capacità di parlare in modo comprensibile.
Questi dispositivi sono in grado di emettere segnali da alcune regioni del cervello responsabili del linguaggio ad un software innovativo che decodifica l’attività cerebrale di Bennett e la converte in testo visualizzato su uno schermo del computer. Bennett ha 68enne ed è una ex direttrice delle risorse umane e un’ex sportiva che faceva jogging ogni giorno. Nel 2012, le è stata diagnosticata la sclerosi laterale amiotrofica (SLA), una malattia neurodegenerativa progressiva che colpisce i neuroni responsabili del movimento, causando debolezza fisica e paralisi.
Il deterioramento del linguaggio causato dalla SLA
Bennett in un’intervista condotta via email ha raccontato: “Quando si pensa alla SLA, si pensa all’impatto su braccia e gambe. Ma in un gruppo di pazienti con SLA, inizia con difficoltà nel linguaggio. Non riesco a parlare.” Di solito, la SLA si manifesta inizialmente colpendo la periferia del corpo, cioè braccia e gambe, mani e dita. Nel caso di Bennett, il deterioramento è iniziato dal tronco cerebrale. La donna è ancora in grado di vestirsi e usare le dita per digitare, sebbene con crescente difficoltà, ma non riesce ad utilizzare i muscoli delle labbra, della lingua, della laringe e delle mascelle per pronunciare distintamente i fonemi, cioè le unità sonore come “sh”, che costituiscono il linguaggio.
Nonostante il cervello di Bennett possa ancora generare i comandi per quei fonemi, i suoi muscoli non possono eseguirli. Il 29 marzo 2022, un neurochirurgo di Stanford Medicine ha inserito nel suo cervello due piccoli sensori in due regioni separate, entrambe coinvolte nella produzione del linguaggio. I sensori vanno a costituire un’interfaccia cervello-computer intracorticale, o iBCI che in combinazione con un software all’avanguardia per la decodifica, sono in grado di convertire l’attività cerebrale alla visualizzazione delle parole su uno schermo. Circa un mese dopo l’intervento chirurgico, un team di scienziati di Stanford ha iniziato sessioni di ricerca bisettimanali per addestrare il software che interpretava il suo linguaggio.
La capacità dei micro-impianti cerebrali
Dopo quattro mesi, il tentativo di parlare di Bennett veniva convertito in delle parole su uno schermo del computer alla velocità di 62 parole al minuto, più di tre volte più veloce del record precedente per la comunicazione assistita da BCI. Bennett ha scritto: “Questi risultati iniziali hanno dimostrato il concetto e alla fine la tecnologia si svilupperà per renderla facilmente accessibile alle persone che non possono parlare. Per coloro che sono non verbali, ciò significa poter rimanere connessi al mondo più ampio, forse continuare a lavorare, mantenere relazioni con amici e familiari“.
Jaimie Henderson, il chirurgo che ha eseguito l’intervento chirurgico ha dichiarato: “Attualmente, il ritmo di Bennett ha raggiunto la velocità di 160 parole al minuto che corrisponde alle conversazioni naturali tra i parlanti inglesi”. Handerson ha aggiunto: “Abbiamo dimostrato che è possibile decodificare il linguaggio intenzionale registrando l’attività da una piccola area sulla superficie del cervello“. Henderson, professore di neurochirurgia presso il dipartimento di neurochirurgia John e Jean Blume-Robert e Ruth Halperin, è co-autore principale dell’articolo.
Gli studi precedenti
L’altro co-autore principale, Krishna Shenoy, professore di ingegneria elettrica e di bioingegneria, è morto prima della pubblicazione dello studio. Frank Willett, uno scienziato dell’Istituto medico Howard Hughes affiliato al Laboratorio di Neuroprotesi Traslazionale, fondato da Henderson e Shenoy nel 2009, è anch’egli co-autore principale con gli studenti Erin Kunz e Chaofei Fan. Nel 2021, Henderson, Shenoy e Willett sono stati coautori di un altro studio, sempre pubblicato su Nature, che descriveva un altro sistema in grado di convertire la scrittura immaginaria di una persona paralizzata in testo su uno schermo utilizzando un iBCI, raggiungendo una velocità di 90 caratteri, o 18 parole, al minuto – un record mondiale fino ad ora per una metodologia correlata a un iBCI.
Nel 2021, Bennett è venuta a conoscenza della ricerca di Henderson e Shenoy e ha contattato Henderson, offrendosi volontaria per partecipare alla sperimentazione clinica. I sensori impiantati da Henderson nella corteccia cerebrale di Bennett, lo strato più esterno del cervello, sono matrici quadrate di piccoli elettrodi in silicio.
Il funzionamento dei sensori
Ogni matrice contiene 64 elettrodi, disposti in griglie di 88 e separati l’uno dall’altro da una distanza di circa la metà dello spessore di una carta di credito. Gli elettrodi penetrano nella corteccia cerebrale a una profondità pari a circa due quarti impilati. Le matrici impiantate sono attaccate a sottili fili d’oro che escono attraverso piedistalli avvitati al cranio, che vengono poi collegati tramite cavo a un computer.
Un algoritmo di intelligenza artificiale riceve e decodifica le informazioni elettroniche provenienti dal cervello di Bennett, imparando infine a distinguere le distinte attività cerebrali associate ai suoi tentativi di formulare ciascuno dei 39 fonemi che compongono l’inglese parlato. Fornisce le sue migliori ipotesi sulla sequenza dei fonemi tentati da Bennett in un cosiddetto modello linguistico, essenzialmente un sofisticato sistema di correzione automatica, che converte i flussi di fonemi nella sequenza di parole che rappresentano.
Come funziona l’algoritmo
Willett ha spiegato: “Questo sistema è addestrato per sapere quali parole dovrebbero venire prima delle altre e quali fonemi compongono quali parole. Se alcuni fonemi sono stati interpretati in modo errato, è comunque possibile fare una buona ipotesi.” Per insegnare all’algoritmo a riconoscere quali modelli di attività cerebrale erano associati a quali fonemi, Bennett si è impegnata in circa 25 sessioni di allenamento, ciascuna della durata di circa quattro ore, durante le quali ha tentato di ripetere frasi scelte casualmente da un ampio set di dati costituito da campioni di conversazioni tra le persone che parlano al telefono.
Mentre tentava di recitare ogni frase, l’attività cerebrale di Bennett, tradotta dal decodificatore in un flusso di fonemi e poi assemblata in parole dal sistema di correzione automatica, veniva visualizzata sullo schermo sotto l’originale. Quindi sullo schermo apparirà una nuova frase. Bennett ripeteva dalle 260 alle 480 frasi per sessione di allenamento.
Come può migliorare la qualità della vita di Bennet
L’intero sistema ha continuato a migliorare man mano che acquisiva familiarità con l’attività cerebrale di Bennett durante i suoi tentativi di parlare. La capacità di traduzione del parlato previsto dall’ICBI è stata testata su frasi diverse da quelle utilizzate nelle sessioni di formazione. Quando le frasi e il modello linguistico di assemblaggio delle parole erano limitati a un vocabolario di 50 parole (nel qual caso le frasi utilizzate venivano estratte da un elenco speciale), il tasso di errore del sistema di traduzione era del 9,1%.
Quando il vocabolario è stato ampliato a 125.000 parole (abbastanza grandi da comporre quasi tutto ciò che si vorrebbe dire) il tasso di errore è salito al 23,8%: lungi dall’essere perfetto, ma un passo da gigante rispetto allo stato dell’arte precedente. Willett ha spiegato: “Si tratta di una prova scientifica del concetto, non di un dispositivo reale che le persone possono utilizzare nella vita di tutti i giorni. Ma è un grande passo avanti verso il ripristino di una comunicazione rapida per le persone paralizzate che non possono parlare“. “Immaginate“, scrisse Bennett, “quanto sarà diverso condurre attività quotidiane come fare la spesa, presentarsi agli appuntamenti, ordinare cibo, andare in banca, parlare al telefono, esprimere amore o apprezzamento – persino discutere – quando le persone non verbali potranno comunicare i loro pensieri in tempo reale.” Il dispositivo descritto in questo studio è concesso in licenza solo per la ricerca scientifica e non è disponibile in commercio.