Research
• Updated
09 December 2025
LNC2

How our brain decodes speech: a deep hierarchy of neural rhythms

For many years, neuroscientists have been trying to decipher how the human brain manages to understand speech in complex acoustic conditions or when it is distorted—whether in noisy environments, with strong accents, or when spoken rapidly. A breakthrough published in Nature Computational Science on September 26, 2025, by scientists from the reConnect Institute and the ENS PSL, offers an explanation with prospects for the rehabilitation of speech disorders and the development of brain-machine interfaces.

Crédit Illustration: Anastasia Prosochkina
©Anastasia Prosochkina 

Toute personne a un jour vécu ce moment d’interrogation, au cours d’une discussion, où elle se doit de poser la question ultime à son interlocuteur : « Je n’ai pas compris, peux-tu répéter s’il te plaît ? » Qu’il s’agisse d’un environnement bruyant, ou bien de paroles prononcées furtivement, le cerveau humain doit parfois faire face aux enjeux de compréhension et d’interprétation de mots parfois élusifs. Afin de mieux comprendre les mécanismes employés par le cerveau pour rester à l’écoute quel que soit son environnement, des scientifiques de l’Institut reConnect, de l’ENS-PSL, de l’Inserm et du CNRS ont employé le modèle BRyBI (Brain Rhythm-based Inference), un modèle neuro-computationnel inférentiel. Ils ont ainsi réussi à identifier la façon dont le cerveau utilise les rythmes cérébraux (des oscillations internes) dans le cortex auditif. 

« Nous avons cherché à comprendre comment les rythmes cérébraux peuvent concrètement nous aider à analyser et prédire la parole », explique Olesia Dogonasheva, chercheuse Inserm et première auteurice de l’étude (Institut reConnect, Inserm, ENS-PSL). 

Grâce au modèle BRyBI, l’équipe de recherche a observé que les rythmes cérébraux dans le cortex auditif travaillent ensemble pour :

  • Découper les sons en petites unités comme les phonèmes (les briques de base du langage)
  • Organiser ces sons pour former du sens dans un contexte (phrases, structures)
  • Créer un contexte prédictif qui facilite la compréhension

Une autre découverte intéressante réside dans la capacité du modèle à expliquer comment les rythmes cérébraux sont différemment impliqués selon le niveau d’information de la parole, si elle est prévisible ou surprenante.

« Notre modèle démontre le rôle crucial des rythmes cérébraux à différentes échelles dans la prédiction et la compréhension du langage parlé », souligne Anne-Lise Giraud, Professeure à l’Institut Pasteur, détachée du CNRS, et co-auteure de l’étude. « Au-delà d'un simple mécanisme neuronal, BRyBI révèle comment notre cerveau est capable de transformer des vibrations sonores en signification linguistique », ajoute la directrice de l’Institut reConnect et responsable de l’unité Neurospeech à l’Institut de l’Audition (Institut Pasteur, Inserm, CNRS).  

« Ces travaux de recherche apportent de nouvelles connaissances dans la compréhension du traitement de la parole. Ils soulignent la sophistication de notre cerveau, capable de décoder la parole à travers un orchestre complexe de rythmes neuronaux, nous permettant de communiquer efficacement malgré les nombreux obstacles acoustiques de notre environnement quotidien », ajoute Boris Gutkin, dernier auteur de l’étude, et membre du laboratoire des Neurosciences cognitives et computationnelles à l’ENS-PSL (Inserm U960).  

A travers cette étude, de nouvelles perspectives s'ouvrent pour la réhabilitation des troubles de la parole, le développement d'interfaces cerveau-machine et une meilleure compréhension des mécanismes de communication.

EN SAVOIR PLUS

Institut reConnect

Dogonasheva, O., Doelling, K.B., Zakharov, D. et al. Rhythm-based hierarchical predictive computations support acoustic−semantic transformation in speech processingNat Comput Sci 5, 915–926 (2025). https://doi.org/10.1038/s43588-025-00876-9