Acustica Cocktail del partito: come gli esseri umani percepiscono il suono in ambienti rumorosi e complessi

Maggio 23, 2016 Admin Salute 0 2
FONT SIZE:
fontsize_dec
fontsize_inc

Per le orecchie, un cocktail party presenta una scena caotica: brindisi, voci ronzio, musica per pianoforte luce potrebbe aleggiare giù dal palco. Un gruppo di ricercatori della John Hopkins University di Baltimora, Md., Sta cercando di capire come il cervello ha un senso di tali ambienti uditivi complessi.

Il team sta testando come gli esseri umani tracciare modelli di suono nel tempo, e in quali circostanze il cervello registra che il modello è stato rotto. I ricercatori presenteranno i risultati preliminari al meeting Acoustics 2012 a Hong Kong, 13-18 maggio, una riunione congiunta della Acoustical Society of America (ASA), Acoustical Society of China, Western Pacific Acoustics Conference, e l'Istituto di Hong Kong di Acustica .

"Quando una persona sente un suono, sia quello che noi chiamiamo 'bottom-up' e processi" top-down "si verificano nel cervello", dice Mounya Elhilali, un assistente professore presso il Centro di Lingua e Speech Processing a John Hopkins. L'udito tutta una gamma di suoni in una stanza è un processo bottom-up, ma la scelta di prestare attenzione a una particolare voce sarebbe un esempio di un processo top-down, Elhilali spiega. "Cerchiamo di capire l'interazione di questi due processi," dice.




Elhilali ei suoi colleghi chiedono volontari per ascoltare una serie di suoni e di premere un pulsante quando sentono qualcosa di insolito. Ad esempio, i ricercatori possono iniziare la riproduzione di musica di violino e poi introdurre il suono di un pianoforte. La variazione di musica del piano rappresenta un cambiamento del timbro, o la qualità del suono. I ricercatori hanno anche cambiato il passo (che va da basso a note alte o viceversa), e il volume. Come previsto, i risultati indicano che gli esseri umani percepire questi cambiamenti come eventi sonori salienti che afferrare la loro attenzione.

Formare una aspettativa circa il timbro, intonazione, e il volume dei suoni, e poi rendersi conto che l'aspettativa è stato rotto in genere richiede pochi secondi, dice Elhilali, anche se gli scienziati sono ancora in fase di analisi pienamente i loro dati. Con ulteriori analisi i ricercatori sperano anche per raccogliere informazioni su come le diverse aspettative interagiscono e cosa succede quando più modifiche, per esempio volume e tono, sono allo stesso tempo.

Alla fine la squadra vorrebbe ripetere gli esperimenti durante il monitoraggio onde cerebrali dei volontari attraverso sensori posti sulla pelle. Ciò offrirebbe agli scienziati uno sguardo ai cambiamenti neurali che avvengono nel cervello come la scena cambia suono.

L'obiettivo finale è quello di capire come il cervello si adatta a diversi ambienti acustici, dice Elhilali. Gli ingegneri potrebbero essere in grado di utilizzare le conoscenze per progettare migliori apparecchi acustici, software di riconoscimento vocale, e apparecchi di registrazione. Il gruppo di Elhilali, che si basa fuori del Dipartimento di Ingegneria Elettrica e Informatica, lavora anche su tali applicazioni tecnologiche della ricerca. "Quando una persona entra in una stanza, in primo luogo raccogliere informazioni che li aiuterà ad adattarsi alla scena acustica", dice Elhilali. Un giorno apparecchi acustici e di altre tecnologie di elaborazione del suono umani-progettato può essere altrettanto adattivo come il cervello umano.

(0)
(0)

Commenti - 0

Non ci sono commenti

Aggiungi un commento

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Caratteri rimanenti: 3000
captcha