Una tecnologia che abbina sintetizzatori e intelligenza artificiale converte le onde cerebrali della corteccia uditiva in parole comprensibili a un utente esterno. Il sogno a lungo termine è arrivare a fare altrettanto con i discorsi soltanto immaginati.
Un gruppo di neuroscienziati della Columbia University ha creato un’interfaccia capace di tradurre un discorso scandito da un sintetizzatore vocale. Ben comprensibile a un ascoltatore esterno. Si tratta di un passo importante che potrebbe aprire la strada a nuove forme per comunicare mediate da computer. Sopratutto per le persone impossibilitate a parlare, perché affette da malattie neurodegenerative o reduci da lesioni cerebrali.
La svolta dell’intelligenza artificiale
Lo studio, descritto su Scientific Reports, è stato possibile grazie a un sistema di intelligenza artificiale. Che ha imparato a riconoscere i tratti ricorrenti delle onde cerebrali e a tradurle in parola. Ogni volta che parliamo o immaginiamo di parlare, infatti, il cervello produce schemi caratteristici di onde cerebrali. E lo stesso succede quando ascoltiamo qualcuno che parla, o immaginiamo di ascoltare.
Finora i tentativi di decodificare le onde cerebrali si basavano sull’analisi computerizzata di spettrogrammi. Ovvero le rappresentazioni grafiche delle frequenze sonore. Ma i risultati lasciavano a desiderare. «È la stessa tecnologia utilizzata da Amazon Echo e da Siri per fornire risposte verbali alle nostre domande».
Dall’ascolto alla parola
Per addestrare il vocoder, Mesgarani ha collaborato con un neurochirurgo che trattava pazienti epilettici, coinvolti in interventi di routine. Gli elettrodi impiantati nel cervello di questi pazienti a scopo terapeutico hanno anche permesso di registrare la loro attività cerebrale mentre ascoltavano brevi storie narrate da quattro diversi lettori.
A questo punto, quando l’algoritmo del vocoder era ormai sufficientemente “allenato”, gli stessi pazienti hanno ascoltato uno speaker che pronunciava i numeri da 0 a 9. Il vocoder ha analizzato le onde cerebrali prodotte nella loro corteccia uditiva. Poi le ha usate per tradurre in parola quei pensieri che aveva “ascoltato” . Il suono prodotto, analizzato e ripulito da un sistema di reti neurali, un tipo di AI che imita struttura e funzionalità dei neuroni nel cervello umano. Ascoltatori esterni hanno riconosciuto i numeri elencati dalla voce robotica nel 75% dei casi, la prova che il segnale era ben riconoscibile.
Un ponte per comunicare
I prossimi passi saranno testare il sistema con frasi più articolate, ma soprattutto provarlo con i segnali cerebrali emessi quando una persona parla, prova a parlare o immagina di parlare. Se funzionasse, si potrebbe immaginare che in futuro – si parla di un decennio almeno -, un impianto (invasivo) a base di elettrodi cerebrali simile a quello di alcuni pazienti epilettici permetterà di tradurre i pensieri del paziente direttamente in parole