samenvatting: Onderzoekers hebben ontdekt dat het oor subtiele geluiden maakt als reactie op oogbewegingen, waardoor ze kunnen bepalen waar iemand kijkt.
Uit het onderzoek blijkt dat deze oorgeluiden, mogelijk veroorzaakt door spiersamentrekkingen of haarcelactivatie, ooglocaties kunnen onthullen.
Deze ontdekking daagt bestaande opvattingen over de functie van het oor uit, wat suggereert dat oorgeluiden kunnen helpen de perceptie van zicht en geluid te synchroniseren. De innovatieve aanpak van het team zou kunnen leiden tot nieuwe klinische gehoortests en een dieper begrip van sensorische integratie.
Belangrijkste feiten:
- Uit het onderzoek bleek dat subtiele oorgeluiden overeenkomen met oogbewegingen, waardoor inzicht wordt verkregen in waar iemand kijkt.
- Dit fenomeen is waarschijnlijk het gevolg van het feit dat de hersenen de oogbewegingen coördineren met de samentrekkingen van de oorspieren of de activering van haarcellen.
- De bevindingen openen mogelijkheden voor nieuwe klinische tests en een beter begrip van hoe de hersenen visuele en auditieve informatie integreren.
bron: Duke universiteit
Wetenschappers kunnen nu bepalen waar iemands ogen kijken, gewoon door naar hun oren te luisteren.
“Je kunt de beweging van de ogen en de positie van het doel waar de ogen naar kijken daadwerkelijk inschatten, alleen al op basis van opnames gemaakt met een microfoon in de gehoorgang”, zegt Jennifer Groh, Ph.D., senior auteur van het boek. boek. Het nieuwe rapport, en een professor in de afdelingen psychologie en neurowetenschappen, evenals neurowetenschappen aan de Duke University.
In 2018 ontdekte het team van Groh dat de oren een subtiel, onmerkbaar geluid uitzenden wanneer de ogen bewegen. In een nieuwe reportage die in de week van 20 november in het blad verschijnt Proceedings van de Nationale Academie van WetenschappenHet Duke-team laat nu zien dat deze geluiden kunnen onthullen waar je ogen naar kijken.
Het werkt ook omgekeerd. Alleen door te weten waar iemand keek, konden Groh en haar team de golfvorm van subtiel oorgeluid voorspellen.
Groh gelooft dat deze geluiden kunnen optreden wanneer oogbewegingen de hersenen stimuleren om de middenoorspieren samen te trekken, die normaal gesproken harde geluiden helpen dempen, of de haarcellen, die zachte geluiden helpen versterken.
Het exacte doel van dit piepende oor is onduidelijk, maar zijn eerste vermoeden is dat het de perceptie van mensen zou kunnen helpen verscherpen.
“We denken dat dit deel uitmaakt van een systeem waarmee de hersenen kunnen afstemmen op waar beelden en geluiden zijn, ook al kunnen onze ogen bewegen als ons hoofd en onze oren dat niet doen”, zegt Groh.
Het begrijpen van de relatie tussen subtiele oorgeluiden en zicht kan leiden tot de ontwikkeling van nieuwe klinische gehoortests.
“Als elk deel van het oor individuele regels bijdraagt aan het trommelvliessignaal, zou het kunnen worden gebruikt als een soort klinisch hulpmiddel om te evalueren welk deel van de anatomie in het oor defect is”, zegt Stephanie Lovich, een van de hoofdauteurs van het onderzoek. De paper en een afgestudeerde student psychologie en neurowetenschappen aan de Duke University.
Net zoals de pupil van het oog samentrekt of verwijdt, zoals het diafragma van een camera om de hoeveelheid licht die binnenkomt aan te passen, hebben de oren ook hun eigen manier om het gehoor te reguleren. Wetenschappers hebben lang geloofd dat deze geluidsregulerende mechanismen alleen maar helpen zachte geluiden te versterken of harde geluiden te dempen.
Maar in 2018 ontdekten Groh en haar team dat dezelfde geluidsregulatiemechanismen ook worden geactiveerd door oogbewegingen, wat erop wijst dat de hersenen de oren over oogbewegingen vertellen.
In hun laatste onderzoek vervolgde het onderzoeksteam hun eerste ontdekking en onderzocht of zwakke auditieve signalen gedetailleerde informatie over oogbewegingen bevatten.
Om de oorgeluiden van mensen te decoderen, hebben het team van Groh aan de Duke University en professor Christopher Schirra, Ph.D. Van de Universiteit van Zuid-Californië rekruteerde hij 16 volwassenen met slecht zicht en gehoor naar het laboratorium van Groh in Durham voor een vrij eenvoudige oogtest.
Deelnemers keken naar een stilstaande groene stip op een computerscherm en volgden vervolgens, zonder hun hoofd te bewegen, de stip met hun ogen terwijl deze verdween en weer boven, beneden, links, rechts of diagonaal vanaf het startpunt verscheen. Dit gaf het team van Groh een breed scala aan auditieve signalen die werden gegenereerd als de ogen horizontaal, verticaal of diagonaal bewegen.
Een eyetracker registreerde waar de leerlingen van de deelnemers heen gingen ter vergelijking met oorgeluiden, die werden vastgelegd met behulp van een paar oordopjes die in de microfoon waren ingebouwd.
Het onderzoeksteam analyseerde oorgeluiden en vond unieke kenmerken voor verschillende bewegingsrichtingen. Hierdoor konden ze oorgeluid decoderen en berekenen waar mensen naar keken, alleen al door de geluidsgolf te onderzoeken.
“Aangezien diagonale oogbewegingen slechts een horizontale component en een verticale component zijn, realiseerde mijn laboratoriumcollega en co-auteur David Murphy zich dat je deze twee componenten kon nemen en raden hoe het zou zijn als je ze samenvoegde,” zei Lovich.
“Dan kun je in de tegenovergestelde richting gaan en naar de oscillatie kijken om te voorspellen dat iemand in een hoek van 30 graden naar links keek.”
Zijn puppy gaat nu onderzoeken of deze oorgeluiden een rol spelen bij de perceptie.
Eén groep projecten richt zich op de manier waarop oog- en oorbewegingsgeluiden verschillen bij mensen met gehoor- of gezichtsverlies.
Groh test ook of mensen zonder gehoor- of gezichtsverlies oorsignalen zullen genereren die kunnen voorspellen hoe goed ze zullen presteren bij een audiolocatietaak, zoals het lokaliseren van een ambulance tijdens het rijden, waarbij auditieve informatie op een visueel apparaat in kaart wordt gebracht. Tafereel.
“Sommige mensen hebben een signaal dat echt dag in dag uit herhaalbaar is, en je kunt het snel meten”, zegt Groh. “Je zou verwachten dat deze mensen heel goed zijn in visuele en auditieve taken vergeleken met andere mensen, waar het gevarieerder is.”
Financiering: Het onderzoek van Groh werd ondersteund door een subsidie van de National Institutes of Health (NIDCD DC017532).
Over visueel en auditief neurowetenschappelijk onderzoeksnieuws
auteur: Dan Vahaba
bron: Duke universiteit
communicatie: Dan Vahaba – Duke Universiteit
afbeelding: Afbeelding toegeschreven aan Neuroscience News
Originele zoekopdracht: Vrije toegang.
“Parametrische informatie over oogbewegingen wordt naar de oren gestuurd“Door Jennifer Groh et al. Met mensen
een samenvatting
Parametrische informatie over oogbewegingen wordt naar de oren gestuurd
Wanneer de ogen bewegen, verandert de uitlijning tussen visuele en auditieve scènes. We zijn ons niet bewust van deze transformaties, wat suggereert dat de hersenen nauwkeurige informatie over oogbewegingen moeten integreren in auditieve en visuele verwerking.
Hier laten we zien dat kleine geluiden die door de hersenen in het oor worden gegenereerd, nauwkeurige informatie bevatten over gelijktijdige oogbewegingen in het ruimtelijke domein: de richting en amplitude van oogbewegingen kunnen uit deze kleine geluiden worden afgeleid.
Bij de onderliggende mechanismen zijn waarschijnlijk verschillende motorische structuren van het oor betrokken en deze kunnen de vertaling van binnenkomende auditieve signalen naar een referentiekader vergemakkelijken dat in de richting van de ogen en dus van het visuele tafereel is vastgelegd.
‘Webgeek. Wannabe-denker. Lezer. Freelance reisevangelist. Liefhebber van popcultuur. Gecertificeerde muziekwetenschapper.’