Il nuovo sistema AI traduce i segnali del cervello umano in testo con una precisione del 97%

Il nuovo sistema AI traduce i segnali del cervello umano in testo con una precisione del 97%

Il mondo si sta appena abituando alla potenza e alla raffinatezza degli assistenti virtuali creati da aziende come Yandex e Google, che possono decifrare la nostra lingua parlata con inquietante precisione rispetto a ciò di cui la tecnologia era capace solo pochi anni fa.

In realtà, tuttavia, una pietra miliare molto più impressionante e travolgente potrebbe non essere lontana, rendendo il riconoscimento vocale quasi come un gioco da bambini: sistemi di intelligenza artificiale (AI) in grado di tradurre la nostra attività cerebrale in testo completamente formato senza sentire una sola parola.

Questa non è davvero fantascienza. Negli ultimi decenni, le interfacce cervello-macchina si sono evolute rapidamente, dal lavoro con gli animali ai partecipanti umani, e, infatti, ci sono già tentativi di questo tipo.

I ricercatori dell'Università della California, a San Francisco, lo spiegano in un nuovo studio.

Un team di scienziati guidati dal neurochirurgo Edward Chang del laboratorio UCSF ha utilizzato un nuovo metodo per decodificare un elettrocorticogramma: registrare gli impulsi elettrici che si verificano durante l'attività corticale registrati da elettrodi impiantati nel cervello.

In uno studio in cui quattro pazienti epilettici indossavano impianti per monitorare le convulsioni causate dalle loro condizioni mediche, il team dell'UCSF ha condotto un esperimento fianco a fianco in cui i partecipanti hanno letto e ripetuto ad alta voce diverse frasi suggerite mentre gli elettrodi registravano la loro attività cerebrale durante l'esercizio.

Questi dati sono stati quindi trasmessi a una rete neurale, che ha analizzato i modelli di attività cerebrale corrispondenti a firme vocali specifiche, come vocali, consonanti o movimenti della bocca, sulla base delle registrazioni audio dell'esperimento.

Quindi un'altra rete neurale ha decodificato queste rappresentazioni – raccolte da ripetizioni di 30-50 frasi pronunciate – e le ha utilizzate per cercare di prevedere ciò che è stato detto basandosi esclusivamente sulle firme di parole corticali.

Il sistema ha mostrato un tasso di errore di parola di solo il 3 percento.

Sebbene ci siano molti ostacoli da superare, gli scienziati ipotizzano che il sistema possa un giorno agire come la spina dorsale di una protesi del linguaggio per i pazienti che hanno perso la capacità di parlare.

I risultati sono presentati sulla rivista Nature Neuroscience.

Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: