Thèse soutenue

Augmentation de modèles approchée : Modèles et échantillonnage Monte Carlo avec applications à l'inférence Bayésienne

FR  |  
EN
Auteur / Autrice : Maxime Vono
Direction : Nicolas DobigeonPierre Chainais
Type : Thèse de doctorat
Discipline(s) : Signal, Image, Acoustique et Optimisation
Date : Soutenance le 07/10/2020
Etablissement(s) : Toulouse, INPT
Ecole(s) doctorale(s) : École doctorale Mathématiques, informatique et télécommunications (Toulouse)
Partenaire(s) de recherche : Laboratoire : Institut de Recherche en Informatique de Toulouse (1995-....)
Jury : Président / Présidente : Éric Moulines
Examinateurs / Examinatrices : Nicolas Dobigeon, Pierre Chainais, Éric Moulines, Emilie Chouzenoux, Jean-Michel Marin
Rapporteurs / Rapporteuses : Florence Forbes, Jalal Fadili

Résumé

FR  |  
EN

De nombreuses tâches d'apprentissage statistique et de traitement du signal/de l'image peuvent être formulées comme des problèmes d'inférence statistique. Un exemple typique sont les systèmes de recommandation qui reposent sur la complétion d'une matrice utilisateur/objet partiellement observée, qui peut être réalisée par l'estimation conjointe de facteurs latents et de coefficients d'activation. Plus formellement, l'objet à estimer est généralement défini comme la solution d'un problème d'optimisation variationnelle ou stochastique. En particulier, dans un cadre bayésien, cette solution est définie comme le minimiseur d'une fonction de coût, appelée fonction de perte a posteriori. Dans le cas simple où cette fonction est choisie comme quadratique, l'estimateur bayésien est connu pour être la moyenne a posteriori qui minimise l'erreur quadratique moyenne et qui est définie comme une intégrale par rapport à la distribution a posteriori. Dans la plupart des contextes applicatifs du monde réel, le calcul de telles intégrales n'est pas simple. Une alternative consiste à utiliser l'intégration de Monte Carlo, qui se résume à approximer toute espérance selon la distribution a posteriori par une moyenne empirique impliquant des échantillons générés selon la distribution a posteriori. Cette intégration dite de Monte Carlo nécessite la disponibilité de schémas algorithmiques efficaces capables de générer des échantillons à partir d'une distribution a posteriori souhaitée. Une vaste littérature consacrée à la génération de variables aléatoires a proposé divers algorithmes de Monte Carlo. Par exemple, les méthodes de Monte Carlo à chaîne de Markov (MCMC), dont les exemples particuliers sont le célèbre échantillonneur de Gibbs et l'algorithme de Metropolis-Hastings, définissent une large classe d'algorithmes qui permettent de générer une chaîne de Markov avec la distribution stationnaire souhaitée. Malgré leur simplicité et leur caractère générique en apparence, les algorithmes MCMC classiques peuvent se révéler inefficaces pour les problèmes à grande dimension, distribués et/ou très structurés. L'objectif principal de cette thèse consiste à introduire de nouveaux modèles et approches MCMC pour pallier ces problèmes. L'intractabilité de la distribution a posteriori est abordée en proposant une classe de modèles augmentés approximés mais asymptotiquement exacts (AXDA). Ensuite, deux échantillonneurs de Gibbs ciblant des distributions a posteriori approximées construites dans le cadre AXDA sont proposés et leurs avantages sont illustrés sur des problèmes difficiles de traitement du signal, de traitement d'images et d'apprentissage statistique. Une étude théorique détaillée du taux de convergence associé à l'un de ces deux échantillonneurs de Gibbs est également menée et révèle des dépendances explicites en ce qui concerne la dimension, le conditionnement du potentiel de la loi de la posterior et de la précision prescrite. Dans ce travail, nous prêtons également attention à la faisabilité des étapes d'échantillonnage impliquées dans les échantillonneurs de Gibbs proposés. Comme l'une de ces étapes nécessite d'échantillonner selon une distribution gaussienne en grande dimension, nous passons en revue et unifions les approches existantes en introduisant un cadre qui s'interprète comme la contrepartie stochastique du célèbre algorithme du point proximal. Ce lien fort entre la simulation et l'optimisation n'est pas isolé dans cette thèse. En effet, nous montrons également que les échantillonneurs de Gibbs proposés partagent des liens étroits avec les méthodes de pénalité quadratique et que le cadre AXDA génère une classe de fonctions d'enveloppe liées à celle de Moreau.