Öronljud avslöjar ögonrörelser

By | November 22, 2023

Sammanfattning: Forskare upptäckte att örat ger subtila ljud som svar på ögonrörelser, vilket gör att de kan identifiera var någon tittar.

Studien visar att dessa öronljud, potentiellt orsakade av muskelsammandragningar eller hårcellsaktiveringar, kan avslöja ögonens position.

Denna upptäckt utmanar befintliga föreställningar om hörselns funktion, vilket tyder på att ljud i örat kan hjälpa till att synkronisera uppfattningen av syn och ljud. Teamets innovativa tillvägagångssätt kan leda till nya kliniska hörseltester och en djupare förståelse för sensorisk integration.

Nyckelfakta:

  1. Forskning fann att subtila ljud i örat motsvarar ögonrörelser, vilket ger information om var en person tittar.
  2. Detta fenomen orsakas sannolikt av att hjärnan koordinerar ögonrörelser med sammandragningar av öronmuskler eller aktivering av hårceller.
  3. Fynden öppnar möjligheter för nya kliniska tester och en bättre förståelse för hur hjärnan integrerar visuell och auditiv information.

Fontän: Duke University

Forskare kan nu exakt bestämma var en persons ögon tittar helt enkelt genom att lyssna på deras öron.

“I själva verket kan du uppskatta ögonrörelser, positionen för målet som dina ögon kommer att titta på, helt enkelt från inspelningar gjorda med en mikrofon i hörselgången”, säger Jennifer Groh, Ph.D., huvudförfattare. den nya rapporten, och en professor vid institutionerna för psykologi och neurovetenskap, samt neurobiologi, vid Duke University.

En uppsättning projekt fokuserar på hur öronljud som produceras av ögonrörelser kan vara olika hos personer med hörsel- eller synnedsättning. Kredit: Neuroscience News

2018 upptäckte Grohs team att öronen avger ett subtilt, omärkligt ljud när ögonen rör sig. I ett nytt reportage som dyker upp veckan den 20 november i tidningen National Academy of SciencesDukes team visar nu att dessa ljud kan avslöja var dina ögon tittar.

Det fungerar också tvärtom. Genom att helt enkelt veta var någon tittar kunde Groh och hans team förutsäga hur vågformen för det subtila öronljudet skulle se ut.

Groh tror att dessa ljud kan bero på att ögonrörelser stimulerar hjärnan att dra ihop mellanöratmusklerna, som normalt hjälper till att dämpa höga ljud, eller hårcellerna som hjälper till att förstärka mjuka ljud.

Det exakta syftet med dessa örongnissel är oklart, men Grohs första gissning är att det kan hjälpa till att skärpa människors uppfattning.

“Vi tror att detta är en del av ett system som gör att hjärnan kan matcha platsen för bilder och ljud, även om våra ögon kan röra sig medan vårt huvud och öron inte gör det,” sa Groh.

Att förstå sambandet mellan subtila ljud i örat och syn kan leda till utvecklingen av nya kliniska tester för hörsel.

“Om varje del av örat bidrar med individuella regler för trumhinnan, kan de användas som en typ av kliniskt verktyg för att bedöma vilken del av örons anatomi som inte fungerar korrekt”, säger Stephanie Lovich, en av studiens huvudförfattare. . artikeln och en doktorand i psykologi och neurovetenskap vid Duke.

Precis som ögats pupiller drar ihop sig eller vidgas som bländaren på en kamera för att justera mängden ljus som kommer in, har öronen också sitt eget sätt att reglera hörseln. Forskare trodde länge att dessa ljudregleringsmekanismer bara hjälpte till att förstärka mjuka ljud eller dämpa höga ljud.

Men 2018 fann Groh och hans team att samma ljudregleringsmekanismer också aktiverades av ögonrörelser, vilket tyder på att hjärnan informerar öronen om ögonrörelser.

I sin senaste studie följde forskargruppen upp deras första upptäckt och undersökte om de svaga hörselsignalerna innehöll detaljerad information om ögonrörelser.

För att avkoda ljud i människors öron har Grohs team vid Duke och professor Christopher Shera, Ph.D. vid University of Southern California, rekryterade 16 vuxna med intakt syn och hörsel för att komma till Grohs labb i Durham för att utföra ett ganska enkelt ögontest.

Deltagarna tittade på en statisk grön prick på en datorskärm och följde sedan, utan att röra huvudet, pricken med ögonen när den försvann och dök sedan upp igen uppåt, nedåt, till vänster, höger eller diagonalt från startpunkten. Detta gav Grohs team ett brett utbud av hörselsignaler som genererades när ögonen rörde sig horisontellt, vertikalt eller diagonalt.

En eyetracker spelade in där deltagarnas pupiller kastades för jämförelse med öronljud, som fångades med hjälp av ett par hörlurar med inbyggd mikrofon.

Forskargruppen analyserade ljuden i örat och hittade unika signaturer för olika rörelseriktningar. Detta gjorde det möjligt för dem att dechiffrera örats ljudkod och beräkna var människor tittade helt enkelt genom att undersöka en ljudvåg.

“Eftersom en diagonal ögonrörelse bara är en horisontell komponent och en vertikal komponent, insåg min labbpartner och medförfattare David Murphy att du kan ta de två komponenterna och gissa vad de skulle vara om du sätter ihop dem,” sa Lovich.

“Då kan du gå i motsatt riktning och observera en vingling för att förutsäga att någon tittade 30 grader åt vänster.”

Groh börjar nu undersöka om dessa hörselljud spelar en roll i uppfattningen.

En uppsättning projekt fokuserar på hur öronljud som produceras av ögonrörelser kan vara olika hos personer med hörsel- eller synnedsättning.

Groh testar också om personer som inte har hörsel- eller synnedsättning kommer att generera signaler i örat som kan förutsäga hur bra de klarar sig på en ljudlokaliseringsuppgift, som att upptäcka var en ambulans befinner sig under körning, vilket är beroende av kartläggning av hörselinformation på en visuell skärm. scen.

“Vissa människor har en signal som verkligen är reproducerbar från dag till dag och kan mätas snabbt,” sa Groh. “Du kanske förväntar dig att de människorna ska vara riktigt bra på en visuell-auditiv uppgift jämfört med andra människor, där det är mer varierande.”

Pengar: Grohs forskning finansierades av ett anslag från National Institutes of Health (NIDCD DC017532).

Om denna forskningsnyhet inom visuell och auditiv neurovetenskap

Författare: Dan Vahaba
Fontän: Duke University
Kontakt: Dan Vahaba – Duke University
Bild: Bilden är krediterad till Neuroscience News.

Ursprunglig forskning: Fri tillgång.
“Parametrisk information om ögonrörelser skickas till öronen” av Jennifer Groh et al. PNAS


Abstrakt

Parametrisk information om ögonrörelser skickas till öronen

När ögonen rör sig ändras anpassningen mellan de visuella och auditiva scenerna. Vi är inte perceptuellt medvetna om dessa förändringar, vilket indikerar att hjärnan måste införliva exakt information om ögonrörelser i auditiv och visuell bearbetning.

Här visar vi att små ljud som genereras i örat av hjärnan innehåller exakt information om samtidiga ögonrörelser i den rumsliga domänen: riktningen och amplituden av ögonrörelser kan härledas från dessa små ljud.

De underliggande mekanismerna involverar sannolikt de olika motoriska strukturerna i örat och skulle kunna underlätta översättningen av inkommande hörselsignaler till en referensram förankrad i ögonens riktning och därmed till den visuella scenen.

Leave a Reply

Your email address will not be published. Required fields are marked *