Amélioration de l'acquisition IRM et de la détection d'anomalies grâce à des cadres d'apprentissage séquentiel évolutifs
| Auteur / Autrice : | Geoffroy Oudoumanessah |
| Direction : | Florence Forbes, Carole Lartizien, Michel Dojat |
| Type : | Projet de thèse |
| Discipline(s) : | Mathématiques et Informatique |
| Date : | Inscription en doctorat le Soutenance le 17/11/2025 |
| Etablissement(s) : | Université Grenoble Alpes |
| Ecole(s) doctorale(s) : | École doctorale mathématiques, sciences et technologies de l'information, informatique |
| Partenaire(s) de recherche : | Laboratoire : Laboratoire Jean Kuntzmann |
| Jury : | Président / Présidente : Olivier Detante |
| Examinateurs / Examinatrices : Florence Forbes, Carole Lartizien, Michel Dojat, Isabelle Bloch, Carole Sudre, Julia Schnabel, Jeffrey Fessler | |
| Rapporteurs / Rapporteuses : Julia Schnabel, Jeffrey Fessler |
Mots clés
Résumé
L'imagerie par résonance magnétique (IRM) a transformé l'imagerie médicale, en particulier dans le domaine des neurosciences, en permettant une cartographie 3D non invasive et à haute résolution des propriétés des tissus pour un diagnostic précis et une planification chirurgicale des pathologies cérébrales. Cependant, la demande croissante pour une acquisition plus rapide de l'IRM et le volume croissant d'ensembles de données d'IRM cérébrale de haute dimension à analyser posent des défis importants pour l'apprentissage de modèles. L'apprentissage séquentiel offre une solution robuste, servant de pierre angulaire à la descente de gradient stochastique et permettant aux réseaux neuronaux profonds (RNP) de traiter efficacement des ensembles de données à grande échelle. Bien que les algorithmes traditionnels d'apprentissage automatique aient du mal à s'adapter à de grands volumes de données de haute dimension, ils restent efficaces pour des tâches spécifiques. C'est pourquoi, dans la première partie de cette thèse, nous étudions comment les algorithmes traditionnels d'apprentissage automatique peuvent être mis à l'échelle en adoptant des techniques d'apprentissage séquentiel. Nous nous concentrons spécifiquement sur l'adaptation de l'algorithme de maximisation de l'espérance (EM) et des modèles de mélange pour gérer à la fois les grands volumes et les données de haute dimension. Notre approche consiste à appliquer ces modèles à grande échelle à deux défis pratiques : (i) la détection d'anomalies subtiles dans les IRM cérébrales de patients parkinsoniens de novo, et (ii) la résolution du problème inverse de la reconstruction de l'« empreinte » de l'IRM cérébrale. Nous démontrons que ces modèles ne sont pas seulement compétitifs par rapport aux DNN, mais qu'ils sont également frugaux en termes de calcul. Dans la deuxième partie, nous explorons une autre perspective de l'apprentissage séquentiel.