Contributions aux méthodes parcimonieuses pour la localisation de source en MEG/EEG
Auteur / Autrice : | Yousra Bekhti |
Direction : | Roland Badeau, Alexandre Gramfort |
Type : | Thèse de doctorat |
Discipline(s) : | Signal et Images |
Date : | Soutenance le 22/03/2018 |
Etablissement(s) : | Paris, ENST |
Ecole(s) doctorale(s) : | École doctorale Informatique, télécommunications et électronique de Paris (1992-...) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire Traitement et communication de l'information (Paris ; 2003-....) |
Jury : | Président / Présidente : Charles Soussen |
Examinateurs / Examinatrices : Maureen Clerc, Thomas Rodet | |
Rapporteurs / Rapporteuses : Laurent Albera, Erkki Somersalo |
Mots clés
Résumé
Cette thèse a développé des méthodes parcimonieuses pour la localisation de sources en magnétoencéphalographie (MEG) et l'électroencéphalographie (EEG). Pour un champ électromagnétique donné, il y a un nombre infini de sources réparties à l’intérieur du cerveau qui aurait pu le créer. Cela signifie que le problème inverse est mal-posé, ayant de nombreuses possibles solutions. Cela nous contraint à faire des hypothèses ou des apriori sur le problème. Cette thèse a étudié les méthodes parcimonieuses, i.e., seulement quelques sources focales sont activées lors d’une tâche précise. La première contribution est de modéliser le problème comme une régression pénalisée dans le domaine temps-fréquence avec un dictionnaire multi-échelle pour prendre en compte tous les aspects d’un signal cérébral. En ajoutant le terme de régularisation spatio-temporel, le modèle ajoute un hyperparamètre qui reste à optimiser. Ceci a constitué la seconde contribution de cette thèse où une estimation automatique des hyperparamètres a été mise en oeuvre. La troisième contribution est de réduire l’écart entre les deux communautés qui formulent le problème inverse comme étant une régression pénalisée ou comme un modèle Bayésien. Cette thèse montre sous quelles hypothèses et sous quelle paramétrisation, on obtient une équivalence des deux formulations et comment profiter de cette nouvelle formulation Bayésienne pour quantifier l’incertitude de nos solutions. La dernière contribution a eu pour but de valider les solveurs sur des données fantôme, c’est à dire des vraies données avec une réalité terrain pour pouvoir quantifier l’erreur de localisation en position, orientation, et amplitude.