Méthodes variationnelles pour les problèmes de données à grande échelle en imagerie
Auteur / Autrice : | Ségolène Martin |
Direction : | Jean-Christophe Pesquet, Ismail Ben Ayed |
Type : | Projet de thèse |
Discipline(s) : | Informatique mathématique |
Date : | Soutenance en 2024 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale Sciences et technologies de l'information et de la communication (Orsay, Essonne ; 2015-....) |
Partenaire(s) de recherche : | Laboratoire : [CVN] Centre de la Vision Numérique |
Référent : CentraleSupélec (2015-....) | |
graduate school : Université Paris-Saclay. Graduate School Sciences de l’ingénierie et des systèmes (2020-….) | |
Jury : | Président / Présidente : François Malgouyres |
Examinateurs / Examinatrices : Nelly Pustelnik, Aleksandra Pizurica, Gabriele Steidl, Nicolas Thome | |
Rapporteur / Rapporteuse : Nelly Pustelnik, Aleksandra Pizurica |
Résumé
Cette thèse explore l'utilisation de méthodes variationnelles pour aborder les problèmes d'imagerie de grande échelle, tant en termes de dimensionnalité qu'en nombre de données. Elle met un accent particulier sur les problèmes inverses en restauration d'image et la classification en régime dit ''few-shot'', i.e., avec peu de données labellisées. Le fil conducteur entre les sujets abordés est le développement de méthodes et d'algorithmes à la fois performants, fiables, interprétables et efficaces via des outils d'optimisation avancés. Dans la première partie de la thèse, nous nous intéressons à la résolution de problèmes inverses de restauration d'image à partir d'une unique observation dégradée de grande taille. Un algorithme innovant de Majoration-Minimisation locale par sous-espace, couplé avec une méthode de pénalisation, est introduit pour l'optimisation lisse et sous contrainte. Des garanties théoriques de convergence sont données et l'efficacité, en terme de temps de convergence, est démontrée sur plusieurs exemples applicatifs. Toujours sur la thématique de la restauration, une étude applicative complète est conduite dans le cadre d'images tridimensionnelles obtenues par microscopie multiphoton, allant de l'estimation de l'opérateur de flou (Point Spread Function ou PSF) jusqu'à la déconvolution. Pour l'étape d'estimation de la PSF, nous proposons un nouveau modèle de calibration basé sur des billes de large diamètre, ainsi qu'un algorithme proximal alterné. Pour la phase de restauration, nous adoptons une formulation contrainte sans paramètre de régularisation, en supposant un bruit gaussien hétéroscédastique. La seconde partie de la thèse s'intéresse à la classification faiblement supervisée d'images en utilisant des modèles neuronaux pré-entraînés sur d'autres bases de données. Une attention particulière est accordée au scénario transductif, où les prédictions sont effectuées sur un ensemble de données non labellisées plutôt qu'individuellement. L'approche présentée dans cette thèse aborde le problème de la classification ''few-shot'' en présence d'un déséquilibre de classe dans les données, en mettant en uvre un critère pénalisé et en effectuant la minimisation par un algorithme alterné efficace. Dans le prolongement de ce travail, nous explorons la classification ''zero-shot'' et ''few-shot'' en utilisant des modèles vision-langage qui combinent des représentations visuelles et textuelles, tels que CLIP. Nous présentons la première approche transductive dans ce domaine en utilisant les vecteurs de probabilités fournis par CLIP comme entrées de notre classifieur. Ceci conduit à un problème original de minimisation sur un simplexe. Nous démontrons que des gains de performance significatifs peuvent être obtenus dans le scénario transductif.