Thèse soutenue

Echantillonnage Monte Carlo et modèles génératifs profonds pour inférence Bayésienne

FR  |  
EN
Auteur / Autrice : Florentin Coeurdoux
Direction : Nicolas DobigeonPierre Chainais
Type : Thèse de doctorat
Discipline(s) : Informatique et Télécommunication
Date : Soutenance le 10/11/2023
Etablissement(s) : Toulouse, INPT
Ecole(s) doctorale(s) : École doctorale Mathématiques, informatique et télécommunications (Toulouse)
Partenaire(s) de recherche : Laboratoire : Institut de Recherche en Informatique de Toulouse (1995-....)
Jury : Président / Présidente : Bruno Galerne
Examinateurs / Examinatrices : Nicolas Dobigeon, Pierre Chainais, Bruno Galerne, Emilie Chouzenoux
Rapporteurs / Rapporteuses : Julie Delon, Nicolas Courty

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

La génération de données réalistes aux motifs complexes repose fréquemment sur l'utilisation de modèles probabilistes expressifs. Ces modèles ont pour objectif de caractériser et d'approcher les distributions de données dans des espaces en grandes dimensions. Cependant, même avec la puissance actuelle des réseaux de neurones profonds, la construction de modèles probabilistes robustes demeure un défi de taille. Alors que l'obtention d'échantillons de qualité est donc une tâche ardue, de nombreuses applications scientifiques exigent de surcroit la capacité à estimer explicitement la densité de probabilité apprise par le modèle. Cette exigence supplémentaire nécessite l'adoption d'architectures de modèles restreintes, contrainte qui devient rapidement très limitante dans un espace complexe et de grande dimension. Cette thèse propose de relever ces défis en adaptant les protocoles d'entraînement ou les stratégies d'échantillonnage des architectures de modèles génératifs. Par ailleurs, elle explore plusieurs applications des modèles génératifs profonds dans le but de résoudre des problèmes pratiques. Dans une première partie, ce travail propose tout d'abord une stratégie d'entraînement hybride qui établit un compromis entre la génération d'échantillons réalistes et la capacité à estimer la densité de probabilité apprise par le modèle. Cette stratégie consiste à enrichir la fonction d'entraînement usuelle par une distance de transport approchée. Cette distance est également mise à profit dans une deuxième contribution qui vise à résoudre le problème de transport optimal entre distributions empiriques grâce à l'entraînement spécifique de modèles génératifs inversibles. Ensuite, une technique d'échantillonnage explorant l'espace latent est proposée. S'appuyant sur une diffusion de Langevin, elle permet de s'affranchir des limitations observées lors de l'utilisation de modèles génératifs profonds pour générer des données dont la distribution est multimodale et définie sur des espaces déconnectés. Enfin, une dernière partie de ce travail de thèse est consacrée à l'utilisation de ces modèles génératifs profonds pour apprendre des lois a priori. Ces dernières peuvent alors être facilement utilisées dans un cadre d'inversion bayésienne en imagerie computationnelle, assurant un échantillonnage efficace des lois a posteriori sous-jacentes. Dans leur ensemble, les modèles génératifs profonds offrent une solution souple, puissante et polyvalente pour la génération de données et l'estimation de densité, englobant non seulement le domaine de l'apprentissage automatique, mais trouvant également des applications dans diverses disciplines scientifiques et techniques de l'ingénierie.