Thèse soutenue

Contributions à la conception, l'étude et la mise en œuvre de méthodes de Monte Carlo par chaîne de Markov appliquées à l'inférence bayésienne

FR  |  
EN
Auteur / Autrice : Aurélien Enfroy
Direction : Randal Douc
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 15/07/2022
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : Etablissement opérateur d'inscription : Télécom SudParis (Evry ; 2012-....)
Laboratoire : Institut Polytechnique de Paris / IP PARIS - Traitement de l'Information Pour Images et Communications / TIPIC-SAMOVAR - Communications, Images et Traitement de l'Information / CITI
Jury : Président / Présidente : Tony Lelièvre
Examinateurs / Examinatrices : Florent Malrieu, Aguêmon Yves Atchadé, Dasha Loukianova, Nicolas Chopin
Rapporteurs / Rapporteuses : Florent Malrieu, Aguêmon Yves Atchadé

Résumé

FR  |  
EN

Cette thèse s'intéresse à l'analyse et la conception de méthodes de Monte Carlo par chaine de Markov (MCMC) utilisées dans l'échantillonnage en grande dimension. Elle est constituée de trois parties.La première introduit une nouvelle classe de chaînes de Markov et méthodes MCMC. Celles-ci permettent d'améliorer des méthodes MCMC à l'aide d'échantillons visant une restriction de la loi cible originale sur un domaine choisi par l'utilisateur. Cette procédure donne naissance à une nouvelle chaîne qui tire au mieux parti des propriétés de convergences des deux processus qui lui sont sous-jacents. En plus de montrer que cette chaîne vise toujours la mesure cible originale, nous établissons également des propriétés d'ergodicité sous des hypothèses faibles sur les noyaux de Markov mis en jeu.La seconde partie de ce document s'intéresse aux discrétisations de la diffusion de Langevin sous-amortie. Cette diffusion ne pouvant être calculée explicitement en général, il est classique de considérer des discrétisations. Cette thèse établie pour une large classe de discrétisations une condition de minoration uniforme en le pas de temps. Avec des hypothèses supplémentaires sur le potentiel, cela permet de montrer que ces discrétisations convergent géométriquement vers leur unique mesure de probabilité invariante en V-norme.La dernière partie étudie l'algorithme de Langevin non ajusté dans le cas où le gradient du potentiel est connu à une erreur uniformément bornée près. Cette partie fournie des bornes en V-norme et en distance de Wasserstein entre les itérations de l'algorithme avec le gradient exact et celle avec le gradient approché. Pour ce faire il est introduit une chaine de Markov auxiliaire qui borne la différence. Il est établi que cette chaîne auxiliaire converge en loi vers un processus dit collant déjà étudié dans la littérature pour la version continue de ce problème.