Modèles neurocomputationels du langage et du cerveau
Auteur / Autrice : | Corentin Bel |
Direction : | Valentin Wyart, Christophe Pallier |
Type : | Projet de thèse |
Discipline(s) : | Neurosciences |
Date : | Inscription en doctorat le 01/09/2023 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | École doctorale Cerveau, cognition, comportement (Paris ; 1992-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire de Neurosciences Cognitives et Computationnelles |
Equipe de recherche : Inference and Decision-Making | |
établissement opérateur d'inscription : Ecole normale supérieure |
Mots clés
Mots clés libres
Résumé
En moins d'une décennie, l'intelligence artificielle (IA) a déjà profondément transformé le paysage académique et industriel. Après le succès des grands réseaux convolutifs et leur remarquable capacité à reconnaître des objets à partir d'images naturelles, les systèmes d'IA font aujourd'hui des progrès majeurs dans le traitement du langage naturel. Le langage est l'épine dorsale de l'intelligence humaine. Il est le médiateur de la connaissance et du raisonnement. Pourtant, son fonctionnement reste un défi pour les neurosciences et l'IA. Ce problème pourrait désormais être résolu. Les 'grands modèles de langage' tels que Chat-GPT (Open AI), Barde (Google) et Llama (Meta) atteignent les performances de niveau humain pour toute une série de tâches : ces algorithmes peuvent effectuer des traductions avec une grande fidélité ou résumer un document. Le fonctionnement même de ces modèles semble être similaire à celui du cerveau humain. Par exemple, les équipes de Pallier à Neurosin et de Jean-Remi King à Meta ont récemment montré, grâce à l'imagerie par résonance magnétique fonctionnelle (IRMf), que les grands modèles de langage génèrent des activations en réponse à des mots qui sont en corrélation linéaire avec celles du cerveau humain en réponse aux mêmes mots. En d'autres termes, les neurones biologiques et artificiels semblent représenter le langage de manière similaire. Cependant, ces représentations du langage sont difficiles à interpréter. Dans cette thèse, nous combinerons (1) la neuroimagerie humaine à grande échelle collectée dans les universités avec (2) des systèmes d'intelligence artificielle (IA) de pointe développés par Meta pour comprendre la structure et les calculs qui sous-tendent le traitement du langage naturel (NLP). Pour ce faire, nous allons systématiquement collecter des ensembles de données à source ouverte et modéliser les réponses correspondantes du cerveau humain à la parole naturelle dans un cadre d'inférence formel. Selon ce cadre mathématique, chaque mot peut être modélisé comme un élément de preuve qui spécifie progressivement le sens d'une phrase. Valentin Wyart (DEC, ENS Ulm), qui co-dirigera la thèse, a utilisé avec succès ce modèle d'accumulation de preuves pour décomposer et localiser les calculs de la prise de décision humaine.