Il suono delle parole lette e quello delle parole pensate implicano una analoga attività neurale.
Quando leggete una frase, come in questo momento, vi sembra di sentire la vostra voce che scandisce le parole nella mente. È un discorso interiore, che potete udire solo voi. In futuro, tuttavia, questo fluire di parole potrebbe diventare percepibile anche all'esterno: studiando il cervello impegnato nell'ascolto di frasi, infatti, è possibile ricostruire l'andamento delle onde cerebrali e "tradurre" in suoni l'eco delle parole pensate nella mente.
Dal suono al significato
«Immaginate un pianista davanti a un concerto suonato in televisione» spiega Brian Pasley dell'Università della California, a Berkeley. «Anche se l'audio è impostato su muto, gli sembrerebbe di sentire comunque la melodia, perché sa quali tasti corrispondono alle varie note. Noi abbiamo cercato di fare qualcosa di analogo con le onde cerebrali: abbiamo collegato le diverse attività nelle aree neurali con i suoni corrispondenti».
Il meccanismo con cui il cervello converte il discorso udito in informazioni veicolanti un significato non è ancora del tutto chiaro. L'idea di base, comunque, è che il suono attivi i neuroni sensoriali, i quali passano poi l'informazione alle diverse aree cerebrali dove i vari aspetti del suono (come frequenza, ritmo, scomposizione sillabica) vengono analizzati e percepiti come linguaggio. Gli esperti credono che l'attività cerebrale che si genera in risposta a una frase ascoltata sia simile a quella che si genera quando pensiamo a quella stessa frase.
Il meccanismo con cui il cervello converte il discorso udito in informazioni veicolanti un significato non è ancora del tutto chiaro. L'idea di base, comunque, è che il suono attivi i neuroni sensoriali, i quali passano poi l'informazione alle diverse aree cerebrali dove i vari aspetti del suono (come frequenza, ritmo, scomposizione sillabica) vengono analizzati e percepiti come linguaggio. Gli esperti credono che l'attività cerebrale che si genera in risposta a una frase ascoltata sia simile a quella che si genera quando pensiamo a quella stessa frase.
A ogni area il suo compito
I ricercatori hanno fatto ascoltare una serie di parole lette da diverse voci a 15 persone aventi elettrodi collocati sulla corteccia cerebrale in seguito a episodi di epilessia o interventi chirurgici per la rimozione di un tumore.
Si è così riusciti a registrare l'attività neurale sulla superficie dei giri superiori e mediotemporali, un'area del cervello vicino all'orecchio che è implicata nella processazione dei suoni. Grazie a queste registrazioni l'equipe è riuscita a collegare i diversi aspetti del suono a specifiche attività neurali. «I neuroni in alcuni punti potrebbero occuparsi, poniamo, solamente delle frequenze sul range dei 1000 hertz e non interessarsi d'altro, altri soltanto delle frequenze sui 5 mila hertz» continua Pasley. «Una volta identificata la frequenza di cui si occupano le varie aree, sapremo che quando l'attività in quelle aree aumenta, è perché c'è stato un suono di quella particolare frequenza». Ovvero, qualcuno sta udendo o pensando a un suono con quella particolare frequenza.
Dal pensiero al suono
Una volta raccolte tutte le informazioni necessarie i ricercatori hanno elaborato un algoritmo in grado di interpretare l'attività neurale nelle varie aree e creare uno spettrogramma dei suoni in esse processate: una sorta di rappresentazione grafica del suono pensato. Un secondo software ha permesso di trasformare lo spettrogramma nel corrispettivo discorso audio: ascoltando questo video pubblicato sul sito di NewScientist (fate una prova!) si possono cogliere somiglianze tra le parole qui udite e le reali parole udite dai volontari dell'esperimento. Una di queste, la più comprensibile, è "structure", struttura, in inglese.
Sento i tuoi pensieri
Siamo a un passo dalla creazione di una macchina della telepatia? È presto per dirlo. Ulteriori studi andranno compiuti in questo campo, anche perché il linguaggio non è solo frequenza, ma è composto da una miriade di altre componenti fisiche e metalinguistiche. Le possibili implicazioni della ricerca, tuttavia, sono enormi: se davvero imparassimo a decifrare il suono delle parole pensate potremmo per esempio, comunicare con chi, a causa di una malattia, è impossibilitato ad esprimersi, come i pazienti affetti dalla sindrome locked-in (che comporta la paralisi di tutti i muscoli del corpo, compresi quelli facciali). Le possibili conseguenze sul piano etico sono altrettanto importanti: immaginate che cosa accadrebbe in certe situazioni, se tutti potessero sentire ciò che istintivamente pensiamo.
Nessun commento:
Posta un commento
KG: