Esperimento all'avanguardia. I neurochirurghi dell’ospedale Ichilov di Tel Aviv hanno creato un’interfaccia cervello-computer che, tramite una serie di elettrodi, ha permesso di riprodurre due lettere dell’alfabeto solo pensate, e non pronunciate, da un paziente. Una nuova speranza per chi soffre di afonia.
Un team di ricercatori israeliani è riuscito a leggere, nel vero senso della parola, il pensiero di un paziente con una serie di elettrodi inseriti nel suo cervello, e a tradurne in suoni un frammento (due lettere) tramite un computer.
È avvenuto a Tel Aviv, dove i neurochirurghi del Sourasky Medical Center dell’Ospedale Ichilov, che stavano programmando un intervento su un uomo epilettico di 37 anni, hanno creato un’interfaccia cervello-computer apposita, e ottenuto un risultato che potrebbe avere grandi implicazioni future. Il paziente soffriva di una forma di epilessia resistente alle terapie convenzionali, che, a differenza della maggior parte delle crisi epilettiche, si manifesta attraverso alterazioni in aree profonde e meno superficiali del cervello.
Quando la terapia non serve, e le crisi si susseguono, di solito si ricorre a un intervento chirurgico, per spegnere l’attività delle cellule cerebrali responsabili. Ma in quel caso clinico l’intervento appariva particolarmente complesso, per la difficoltà di localizzare l’origine dei focolai epilettici. Si era deciso quindi di impiantare nel suo cervello alcuni elettrodi per cogliere, durante una crisi, la posizione esatta delle cellule nervose che producevano l’attività anomala. In questo modo sarebbe stato possibile intervenire con precisione, senza recare danni alle cellule sane (o comunque riducendoli al minimo). La presenza degli elettrodi nelle aree profonde ha fatto venire un’idea ai ricercatori.
Come riferisce la rivista scientifica Neurosurgery, i neurochirurghi hanno chiesto all’uomo (che si è prestato volontariamente ai test) di pronunciare i suoni “a” ed “e”. I due suoni sono stati raccolti da un sistema di intelligenza artificiale che, unendo la voce all’attività elettrica del cervello registrata dagli elettrodi nel momento dell’emissione dei suoni stessi, ha realizzato una sorta di mappa specifica. Nel cervello di quell'uomo, alle sue “a” ed “e” corrispondeva una certa attività cerebrale. A quel punto è iniziata la seconda fase. È stato chiesto all'uomo di pensare soltanto le stesse lettere, senza pronunciarle. E il computer, avendo “imparato” che a quell'attività del pensiero corrispondevano quei suoni, ha riprodotto in modo corretto le due vocali, trasformandole in suoni, nonostante queste non fossero state pronunciate.
Se questa capacità del programma verrà confermata, un sistema dello stesso tipo potrà essere studiato per tutti coloro che hanno perso la capacità di parlare (ad esempio, per un tumore, una paresi, un ictus, o un trauma), o per i pazienti con una malattia neuro-degenerativa che può portare alla perdita della vocalizzazione, come la sclerosi laterale amiotrofica.
In questi casi, si potrebbe procedere con la registrazione dell’attività cerebrale prima che il paziente perda la voce, e poi usare la sua mappa personale per realizzare interfacce che gli permettano di “parlare” anche quando non potrebbe più farlo.
L’idea è quella di arrivare, grazie a questo sistema, a “tradurre” intere frasi.
Questo filone della ricerca, però, apre le porte ad un problema etico non indifferente: questa tecnica potrebbe permettere di “leggere nel pensiero”.
Ad oggi la cosa importante, è riuscire a dare la possibilità a chi non può parlare di pronunciare sillabe come “sì” o “no”.