in

Ecoute de mouvements oculaires

## LIAISON ENTRE LA VUE ET L’OUÏE: LE CERVEAU ESSAYE DE COMPRENDRE

A chaque fois que nos yeux bougent, nos tympans bougent également. Cette connexion permet au système auditif de “écouter” les yeux, selon des chercheurs de l’Université de Duke. Maintenant, ces chercheurs ont décidé d’espionner ce signal pour mieux comprendre comment le cerveau relie ce qu’il voit à ce qu’il entend. Ils rapportent leurs résultats dans les Comptes rendus de l’Académie nationale des sciences.

Nos oreilles peuvent déterminer la provenance d’un son en fonction du moment de son arrivée dans l’oreille gauche et dans l’oreille droite. Cependant, l’alignement de la scène auditive et visuelle est en constante évolution. “Chaque fois que nous bougeons nos yeux, nous bougeons cette caméra pour regarder dans une nouvelle direction. Mais à moins de bouger la tête, cette différence de temps ne changera pas”, explique l’auteur principal Jennifer Groh, professeur de psychologie et de neurosciences à l’Université de Duke.

Pour comprendre comment le cerveau coordonne ces deux systèmes, Groh et ses co-auteurs ont placé de petits microphones dans le canal auditif. Ils ont ensuite enregistré de minuscules sons dans le tympan tout en demandant au sujet de recherche de suivre des indices visuels avec leurs yeux. Des travaux précédents du groupe de recherche avaient montré que ces sons existaient. Maintenant, ils ont montré que les sons se composent de composantes horizontales et verticales qui correspondent précisément au mouvement des yeux.

En utilisant cette correspondance, les chercheurs ont pu prédire où les yeux allaient regarder, après avoir éliminé le bruit ambiant. Bien que la technique ne soit pas utilisable dans des environnements plus bruyants, une meilleure compréhension du mécanisme derrière ces signaux auditifs pourrait aboutir à des avancées dans la technologie des aides auditives, par exemple.

## ESPIONNER LE CERVEAU

Lorsque le cerveau envoie un signal aux yeux pour les inciter à bouger dans une certaine direction, il envoie simultanément une copie de ce signal aux oreilles, comme un “bulletin de notes”, explique Groh. Cette coordination se produit dans d’autres contextes pour suivre les mouvements du corps, comme reconnaître le son de ses propres pas. Ce type de traitement se produit dans le cerveau, mais la recherche de Groh montre que des informations sur la vision sont présentes plus tôt dans le traitement du son que précédemment prévu. “Nous utilisons ce microphone pour espionner le cerveau”, déclare Groh.

Elle pense que les muscles de l’oreille moyenne et les cellules ciliées de l’oreille interne sont tous deux probablement impliqués dans le transport de ce signal à un stade plus précoce du système auditif. Les structures influencent différentes parties de l’ouïe, de sorte que lorsque les scientifiques en sauront plus sur les mécanismes du signal, Groh soupçonne que des tests d’audition plus précis pourraient être développés.

Une autre application clé de cette recherche pourrait être dans la technologie des aides auditives.

## APPLICATIONS PRATIQUES ET FUTURES

Les développeurs d’aides auditives ont du mal à raffiner la technologie pour localiser la provenance des sons, et les appareils sont conçus pour amplifier tous les sons de manière égale. Cela peut être frustrant pour les utilisateurs, surtout lorsqu’ils se trouvent dans des environnements bruyants. Par exemple, les aides auditives actuelles amplifient le bruit d’un climatiseur autant que la voix d’une personne. Les indices visuels pourraient aider à diriger les aides auditives pour résoudre ce problème.

“Si vous pouviez dire à votre aide auditive qui vous regarde, vous pourriez modifier l’algorithme de l’aide auditive pour prêter attention à cette personne”, explique Sunil Puria, chercheur à Mass Eye and Ear et professeur associé à la Harvard Medical School. Puria estime qu’il y a un “potentiel phénoménal” pour que la recherche soit finalement appliquée dans ce type de technologie, bien que Groh et d’autres chercheurs doivent d’abord comprendre les mécanismes en jeu.

Avant que les résultats ne soient appliqués dans des appareils auditifs “intelligents”, il est également important de déterminer si le signal influence les comportements auditifs, explique Christoph Kayser, professeur de neurosciences à l’Université de Bielefeld en Allemagne. Kayser n’a trouvé aucune interférence avec l’audition dans ses recherches sur les oscillations liées au mouvement des yeux, mais il note que cela n’exclut pas des effets sur des tâches d’écoute plus complexes, comme la localisation des sons.

## UNE IMPORTANCE VITALE

Bien que davantage de recherche soit nécessaire pour l’application de ces découvertes, Groh estime qu’il y a déjà une leçon importante à en tirer. “Cela révèle à quel point il est important de pouvoir lier ce que vous voyez à ce que vous entendez.”

What do you think?

Leave a Reply

Your email address will not be published. Required fields are marked *

Le Copilote de Microsoft va bénéficier des derniers modèles d’OpenAI et d’un nouvel interprète de code.

Comment utiliser un périphérique de stockage externe avec votre iPhone