Un gruppo di ricercatori della John Hopkins University guidati da Mounya Elhilali ha messo a punto un modello matematico in grado di ricostruire nei minimi dettagli il processo con cui il nostro cervello registra i diversi suoni. Tra gli obiettivi finali, far apprezzare la musica ai pazienti con disabilita’ uditiva. I risultati sono stati presentati al Forum europeo delle Neuroscienze (FENS Forum) in corso a Milano. La musica e’ un esperienza acustica complessa che spesso diamo per scontata. Sia che siamo seduti in una sala da concerto o stiamo ascoltando la musica con gli auricolari, non abbiamo difficolta’ a identificare gli strumenti che stanno suonando, seguendo i battiti e le melodie, o semplicemente distinguendo un flauto da un oboe ha detto oggi (9 luglio) Mounya Elhilali durante il FENS Forum, la conferenza internazionale sulle neuroscienze in corso a Milano. Il nostro cervello si basa su un certo numero di attributi sonori che analizzano la musica attraverso le orecchie. Si tratta di caratteristiche che possono essere molto semplici, come la rumorosita’, oppure decisamente piu’ complesse, come l identita’ di uno strumento, formalmente chiamata timbro . Ad esempio, i timbri di strumenti a percussione come il tamburo o la marimba hanno una qualita’ unica, simile al rumore, che li rende chiaramente distinguibili da strumenti a fiato come l oboe o il flauto. Stabilire cio’ che rende un oboe un oboe e non un tamburo e’ una questione che gli scienziati ancora non riescono a capire pienamente. La ricerca condotta da Elhilali e colleghi nel dipartimento di ingegneria elettrica e informatica ha proprio l obiettivo di risolvere questo quesito sulla natura del suono. Il punto di partenza e’ l attuale conoscenza di come i suoni sono processati nel sistema uditivo del cervello, in modo da costruire una buona rappresentazione degli aspetti acustici che definiscono il timbro degli strumenti musicali. Quando un suono entra nelle nostre orecchie, viaggia attraverso diverse strutture cerebrali che ne codificano i vari attributi, tra cui il tono o la frequenza, cosi’ come le dinamiche temporali gli elementi del suono che cambiano nel tempo. E ciascun collegamento neuronale analizza un preciso aspetto sensoriale del suono. Utilizzando queste premesse, la squadra di Elhilali ha costruito un modello matematico che riproducendo la grande varieta’ dei nostri neuroni riesce ad analizzare qualunque suono. Il risultato e’ una rappresentazione multi-dimensionale di ciascun input sonoro, che contiene tutte le informazioni necessarie per definire il suono stesso. Compresa, ad esempio, la combinazione di tempo e frequenza sonora. Con questo nuovo metodo per rappresentare la musica, abbiamo visto che tutti i suoni del pianoforte tendono ad attivare lo stesso gruppo di neuroni, mentre quelli del violino attivano un altro gruppo. In questo modo cerchiamo di raggruppare gli strumenti musicali spiega Elhilali. I risultati mostrano che questo modello fornisce una classificazione quasi perfetta degli strumenti musicali con una precisione del 98%, attraverso il raggruppamento di suoni appartenenti alla stessa categoria. Il gruppo di ricerca sta ora usando lo stesso metodo per migliorare la comprensione dei meccanismi cerebrali legati alla percezione del timbro. A lungo termine, lavorare su modelli informatici di questo tipo potrebbe portare a migliorare le tecnologie per aiutare le persone con disabilita’ uditive a riuscire a godere dei piaceri della musica.