Notre cerveau anticipe le sens des mots pendant l’écoute de la parole

Des progrès considérables ont récemment été réalisés dans le domaine du traitement du langage naturel : les algorithmes d'apprentissage profond sont de plus en plus capables de générer, de résumer, de traduire et de classer des textes. Pourtant, ces modèles linguistiques ne parviennent toujours pas à égaler les capacités linguistiques des humains.

Apprend-on à parler de la même façon partout dans le monde ?

Des chercheuses et des chercheurs du Laboratoire de sciences cognitives et psycholinguistique (UMR8554, CNRS / EHESS / ENS-PSL) et du Max Planck Institute for Evolutionary Anthropology ont étudié les expériences vocales des enfants de l'île de Malakula (Vanuatu) où le multilinguisme est la norme. Les résultats de leur étude, parus récemment dans la revue Developmental Science, révèlent que les enfantsde l'île vocalisent à un rythme comparable à celui des enfants des populations monolingues habituellement étudiées malgré temps de parole entendue inférieur.

Getting ahead of the game: top-down prediction during natural language comprehension in adults and children

Over the last thirty years, psycholinguists have converged on a model of 
language comprehension in which perceptual input (e.g., sounds) 
incrementally activates higher-level representations (e.g., possible 
messages), which in turn constrain the interpretation of subsequent 
percepts.  Such a system should allow for prediction: the use of 
top-down information to anticipate the meaning and form of upcoming 
words.  While form based prediction is sometimes present under 
laboratory conditions, there is no consensus on whether prediction is 

Share