En nylig oppdagelse forklarer hvordan vår hjerne håndterer samtaler i støyende miljøer og kan ha betydelig innvirkning på utviklingen av mer effektive høreapparater.
Vinay Raghavan, en forsker ved Columbia University i New York, ga en interessant forklaring på hvordan hjerne behandler taleoppfatning. Ifølge ham var den rådende ideen at bare stemmen til personen vi tar hensyn til blir behandlet av hjernen.
se mer
Søte nyheter: Lacta lanserer Sonho de Valsa e Ouro sjokoladebar...
Brasiliansk vin vinner etikettprisen på "Oscars" av...
Raghavan stiller imidlertid spørsmål ved denne oppfatningen, og bemerker at når noen skriker på et overfylt sted, ignorerer vi dem ikke selv når vi er fokusert på noen andre.
Eksperter undersøker hvordan den menneskelige hjernen behandler stemmer
Under den kontrollerte studien av Vinay Raghavan og teamet hans ble elektroder festet til hjernen til syv individer under epilepsioperasjoner, noe som muliggjorde overvåking av hjerneaktivitet.
Under denne prosedyren ble deltakerne eksponert for et 30-minutters lydklipp med to stemmer overlagret.
Deltakerne forble våkne under operasjonen og ble bedt om å veksle oppmerksomheten mellom de to stemmene som var tilstede i lyden. En av stemmene var en mann, mens den andre var en kvinne.
Til stemmer overlappende snakket samtidig, med lignende volumer, men i visse øyeblikk av klippet en stemme var høyere enn den andre, og simulerte omfanget av volumer som ble funnet i bakgrunnssamtaler i miljøer overfylt.
Forskerteamet brukte data hentet fra deltakernes hjerneaktivitet for å utvikle en modell som forutså hvordan hjernen behandler stemmer med forskjellig volum og hvordan dette kan variere avhengig av stemmen som deltakeren har blitt opplært til å å fokusere.
Søkeresultat
Resultatene avslørte at den høyere stemmen til de to ble kodet både i den primære auditive cortex, ansvarlig for av den bevisste oppfatningen av lyd, og i den sekundære auditive cortex, ansvarlig for mer lydbehandling. kompleks.
Dette funnet var overraskende, siden deltakerne ble bedt om ikke å fokusere på den høyeste stemmen, men hjernen behandlet denne informasjonen på en meningsfull måte.
I følge Raghavan er denne studien banebrytende ved å vise, gjennom nevrovitenskap, at hjernen koder for taleinformasjon selv når vi ikke tar aktivt hensyn til den.
Oppdagelsen åpner for en ny måte å forstå hvordan hjernen behandler stimuli som vi ikke retter oppmerksomheten mot.
Tradisjonelt har det vært antatt at hjernen selektivt behandler bare de stimuli som vi er bevisst fokusert på. Imidlertid utfordrer resultatene av denne studien dette synet, og viser at hjernen fortsetter å kode informasjon selv når vi er distrahert eller engasjert i andre oppgaver.
Resultatene avslørte også at den nedre stemmen bare ble behandlet av hjernen i cortexene primær og sekundær når deltakerne ble bedt om å fokusere oppmerksomheten på den stemmen spesifikk.
Videre tok det overraskende nok hjernen ytterligere 95 millisekunder å behandle den stemmen som tale sammenlignet med når deltakerne ble bedt om å fokusere på den høyeste stemmen.
Fortsatt ifølge Vinay Raghavan viser funnene av studien at hjernen sannsynligvis bruker forskjellige kontroller for å kode og representere stemmer med forskjellige volumer under en samtale. Denne forståelsen kan brukes i utviklingen av mer effektive høreapparater.
Spesialisten foreslår at hvis det var mulig å lage et høreapparat som er i stand til å identifisere hvilket person brukeren tar hensyn til, ville det være mulig å øke volumet på nettopp denne personens stemme spesifikk.
Et gjennombrudd av dette kaliberet kan forbedre lytteopplevelsen betydelig i støyende omgivelser, slik at brukeren kan fokusere bedre på lydkilden av interesse.
Elsker av filmer og serier og alt som involverer kino. En aktiv nysgjerrig på nettverkene, alltid koblet til informasjon om nettet.