Leggere il pensiero è la cosa più normale del mondo, se vivi in un film, romanzo, serie tv o qualsiasi altra forma di narrazione.
Ma cosa succederebbe se ci stessimo davvero avvicinando al momento in cui riuscissimo a sapere cosa passa per la testa della persona davanti a noi?
A cercare di scoprirlo ci ha pensato un team di scienziati della University of California, che si trova in quel di Berkeley.
Lo spunto di partenza è semplice: Quando qualcuno ci parla, le onde sonore che vengono create fanno scattare uno specifico set di cellule nervose, o neuroni, situati nell'orecchio interno.
Questi poi inviano queste informazioni sensoriali a quella parte del cervello che traduce i suoni in parole.
Ma leggere ad alta voce o con il pensiero, fa scattare gli stessi neuroni?
Per scoprirlo gli scienziati hanno esaminato l'attività cerebrale di sette persone in procinto di essere sottoposte a un'operazione chirurgica legata all'epilessia.
Usando una tecnica chiamata Elettrocorticografia, che coinvolge la misurazione dell'attività neuronale tramite elettrodi applicati sulla superficie del cervello, il team ha effettuato delle registrazioni mentre i pazienti leggevano a voce alta o solo con il pensiero dei testi che scorrevano su uno schermo.
Come elemento supplementare, è stata fatta anche una misurazione mentre i soggetti non leggevano nulla.
Durante la lettura ad alta voce i ricercatori hanno mappato quali neuroni venivano attivati durante specifici passaggi nella lettura e hanno usato i risultati per costruire un decoder per ognuno dei partecipanti.
Dopo avere scoperto quale schema di attivazione corrispondeva a determinate parole, hanno settato i decoder per seguire l'attività cerebrale dei pazienti durante una lettura silenziosa.
E hanno scoperto con somma soddisfazione che il decoder era in grado di tradurre molte delle parole che i soggetti stavano pensando, solo seguendo gli schemi di attivazione.
I ricercatori sono anche stati in grado di stabilire quale canzone di una selezione specifica stessero ascoltando, sempre seguendo gli schemi di attivazione durante aspetti diversi della musica.
Malgrado i risultati siano incoraggianti, gli algoritmi non sono ancora così precisi da permettere la costruzione di apparecchi per pazienti con condizioni mediche che impediscono di parlare, motivo per cui il prossimo passo sarà riuscire a interpretare gli schemi di attivazione durante pronunce di parole e velocità di lettura diverse.
Brian Pasley, l'autore dello studio sull'elettrocorticografia, ha concluso dicendo "se riusciremo a comprendere le letture silenziose in maniera precisa, potremo creare delle protesi mediche in grado di aiutare persone paralizzate o che abbiano impedimenti, a comunicare con l'esterno."
Preparatevi, presto i vostri pensieri non saranno più un segreto per nessuno.
Aggiungi un commento
Fai login per commentare
Login DelosID