Thèse soutenue

Analyse d'Algorithmes Stochastiques pour l'Échantillonnage et l'Approximation Riemannienne

FR  |  
EN
Auteur / Autrice : Pablo Jimenez
Direction : Éric MoulinesAlain Durmus
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 30/06/2023
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : Laboratoire : Centre de mathématiques appliquées de l'Ecole polytechnique (Palaiseau ; 1974-....) - Centre de Mathématiques Appliquées - Ecole Polytechnique / CMAP
Jury : Président / Présidente : Anne Auger
Examinateurs / Examinatrices : Éric Moulines, Marc Arnaudon, Konstantinos Zygalakis, Aymeric Dieuleveut, Stéphanie Allassonnière
Rapporteurs / Rapporteuses : Marc Arnaudon, Konstantinos Zygalakis

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

Cette thèse porte sur l'analyse de deux algorithmes stochastiques : l'approximation stochastique sur une variété riemannienne et une méthode de Monte Carlo par chaîne de Markov. Pour les deux algorithmes, nous étendons la théorie existante pour une meilleure compréhension de l'efficacité de ces méthodes. Dans une première partie, nous nous intéressons à deux cadres pour l'approximation stochastique sur une variété riemannienne. D'une part, nous examinons le taux de convergence, en mettant en place des majorations non-asymptotiques avec des hypothèses plus faibles qu'auparavant, ainsi qu'avec une modélisation plus souple du bruit. D'une autre part, on s'intéresse de près au cas du pas constant, dans lequel on s'intéresse à la convergence de la loi stationnaire de la chaîne de Markov définie par le schéma stochastique. On effectue une décomposition asymptotique avec un équilibre biais-variance, ainsi qu'un théorème central limite. Nous apportons des applications de nos résultats sur des exemples classiques du domaine. Dans une deuxième partie, on s'intéresse au comportement en grande dimension d'une méthode de Monte Carlo par chaîne de Markov qui approche la distribution cible de façon lisse, afin d'utiliser le gradient pour accélérer la convergence. Dans le contexte classique de l'échelonnement optimal, nous trouvons des comportements similaires à la théorie existante pour des distributions lisses mais nouveaux pour des distributions ayant une dérivée discontinue en un point. Nous illustrons ces résultats par des simulations.