En nylig opdagelse forklarer, hvordan vores hjerne håndterer samtaler i støjende miljøer og kan have en væsentlig indflydelse på udviklingen af mere effektive høreapparater.
Vinay Raghavan, en forsker ved Columbia University i New York, gav en interessant forklaring på, hvordan hjerne behandler taleopfattelse. Ifølge ham var den fremherskende idé, at kun stemmen fra den person, vi er opmærksomme på, behandles af hjernen.
se mere
Søde nyheder: Lacta lancerer Sonho de Valsa e Ouro chokoladebar...
Brasiliansk vin vinder mærkepris ved 'Oscars' af...
Dog sætter Raghavan spørgsmålstegn ved denne opfattelse og bemærker, at når nogen skriger på et overfyldt sted, ignorerer vi dem ikke, selv når vi er fokuseret på en anden.
Eksperter undersøger, hvordan den menneskelige hjerne behandler stemmer
Under den kontrollerede undersøgelse af Vinay Raghavan og hans team blev elektroder fastgjort til hjernen på syv personer under epilepsioperationer, hvilket muliggjorde overvågning af hjerneaktivitet.
Under denne procedure blev deltagerne udsat for et 30-minutters lydklip med to stemmer overlejret.
Deltagerne forblev vågne under operationen og blev bedt om at veksle deres opmærksomhed mellem de to stemmer, der var til stede i lyden. En af stemmerne var en mands, mens den anden var en kvindes.
Til stemmer overlappende talte samtidigt, med lignende lydstyrker, men i visse øjeblikke af klippet en stemme var højere end den anden og simulerede rækken af lydstyrker, der findes i baggrundssamtaler i miljøer overfyldt.
Forskerholdet brugte data opnået fra deltagernes hjerneaktivitet til at udvikle en model, der forudsagde, hvordan hjernen behandler stemmer af forskellig lydstyrke, og hvordan dette kan variere afhængigt af den stemme, som deltageren er blevet trænet i at at fokusere.
Søgeresultat
Resultaterne afslørede, at den højere stemme af de to var kodet både i den primære auditive cortex, ansvarlig for ved den bevidste opfattelse af lyd, og i den sekundære auditive cortex, ansvarlig for mere lydbehandling. kompleks.
Dette fund var overraskende, da deltagerne blev instrueret i ikke at fokusere på den højeste stemme, men alligevel behandlede hjernen denne information på en meningsfuld måde.
Ifølge Raghavan er denne undersøgelse banebrydende ved at vise, gennem neurovidenskab, at hjernen koder for taleinformation, selv når vi ikke er aktiv opmærksomme på den.
Opdagelsen åbner en ny måde at forstå, hvordan hjernen behandler stimuli, som vi ikke retter vores opmærksomhed mod.
Traditionelt har man troet, at hjernen selektivt kun behandler de stimuli, som vi er bevidst fokuseret på. Resultaterne af denne undersøgelse udfordrer imidlertid denne opfattelse og viser, at hjernen fortsætter med at kode information, selv når vi er distraheret eller engageret i andre opgaver.
Resultaterne afslørede også, at den nederste stemme kun blev behandlet af hjernen i cortexerne primære og sekundære, når deltagerne blev instrueret i at fokusere deres opmærksomhed på den stemme bestemt.
Desuden tog det overraskende hjernen yderligere 95 millisekunder at behandle den stemme som tale sammenlignet med, da deltagerne fik besked på at fokusere på den højeste stemme.
Stadig ifølge Vinay Raghavan viser resultaterne af undersøgelsen, at hjernen sandsynligvis anvender forskellige kontroller til at kode og repræsentere stemmer med forskellig lydstyrke under en samtale. Denne forståelse kunne anvendes i udviklingen af mere effektive høreapparater.
Specialisten foreslår, at hvis det var muligt at skabe et høreapparat, der er i stand til at identificere hvilket person, brugeren er opmærksom på, ville det være muligt at øge lydstyrken på netop denne persons stemme bestemt.
Et gennembrud af denne kaliber kunne markant forbedre lytteoplevelsen i støjende omgivelser, hvilket giver brugeren mulighed for bedre at fokusere på lydkilden af interesse.
Elsker af film og serier og alt hvad der involverer biograf. En aktiv nysgerrig på netværkene, altid forbundet med information om nettet.