Un apparecchio wireless potrebbe un giorno effettuare una scansione in tempo reale dei dati nel nostro cervello per aiutare le persone con lesioni cerebrali a parlare. Recentemente, gli scienziati hanno sviluppato delle interfacce cervello-computer che aiutano a ripristinare la comunicazione in persone che non possono più parlare tramite elettrodi che rilevano le onde cerebrali inseriti sulle loro teste. Purtroppo, questi si sono dimostrati molto lenti, con circa una parola digitata al minuto, rendendo le conversazioni normali e le interazioni sociali virtualmente impossibili.
Ora il neuroscienziato cognitivo Frank Guenther della Boston University e i suoi colleghi rivelano di aver realizzato una interfaccia cervello-macchina che utilizza elettrodi impiantati direttamente nel cervello per recuperare la “voce” in tempo reale.
Dovrebbe presto essere disponibile per gli individui profondamente paralizzati e che sono attualmente in grado di parlare attraverso un computer portatile
ha detto spiegato Guenther. Gli scienziati hanno lavorato con un volontario di 26 anni che aveva una paralisi quasi totale causata da un ictus subìto quando aveva 16 anni. Hanno impiantato un elettrodo con due cavi nella parte del cervello che aiuta a pianificare ed eseguire i movimenti legati alla parola.
I segnali cerebrali degli elettrodi registrati quando il volontario ha tentato di parlare venivano trasmessi in modalità wireless al di là del cuoio capelluto per aiutare guidare un sintetizzatore vocale. Il ritardo tra l’attività del cervello e l’uscita audio è stato di soli 50 millisecondi, in media, più o meno visto quanto la parlata normale.
I ricercatori si sono focalizzati sulle vocali, dal momento che i componenti del suono coinvolti sono stati studiati per decenni e il software è disponibile per sintetizzarle rapidamente. L’esattezza delle produzioni delle vocali con il sintetizzatore migliora rapidamente con la pratica per il 45-89% di precisione nel corso di 25 sessioni in cinque mesi.
I nostri volontari sono stati in grado di produrre sequenze di vocali come “uh-ee”, che sono relativamente facili. La prossima sfida è la produzione di consonanti. Ciò richiederà un diverso tipo di sintetizzatore, un sintetizzatore articolatorio, dove l’utente controlla i movimenti di una “lingua virtuale”. Tale sintetizzatore permetterà di produrre parole intere, ma al costo di un sistema più complicato per l’utente. Questo, accoppiato con un aumento del numero di elettrodi che possono essere registrati e trasmessi dal cuoio capelluto, dovrebbe portare ad un sistema che permetterà all’utente di produrre parole e frasi intere.
L’attuale sistema utilizza i dati da due soli fili, ma entro un anno, spiegano i ricercatori, sarà possibile impiantare un sistema 16 volte più complesso.
Questo ci permetterà di attingere a molti più neuroni, che alla fine significa controllo molto migliore su un sintetizzatore vocale.
[Fonte: Livescience]