Approximation de mesures en grande dimension par des méthodes d'optimisation
Auteur / Autrice : | Christophe Vauthier |
Direction : | Quentin Merigot |
Type : | Projet de thèse |
Discipline(s) : | Mathématiques appliquées |
Date : | Inscription en doctorat le 01/09/2023 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale de mathématiques Hadamard |
Partenaire(s) de recherche : | Laboratoire : Laboratoire de mathématiques d'Orsay (1998-....) |
Equipe de recherche : Analyse numérique et équations aux dérivées partielles | |
Référent : Faculté des sciences d'Orsay |
Mots clés
Mots clés libres
Résumé
Un problème courant en machine learning est d'approcher une mesure avec une mesure à support fini en minimisant une perte qui est choisie comme étant une distance ou une divergence sur l'espace des mesures, relative à une distribution cible. En effet ce problème d'optimisation, typiquement non convexe, apparaît dans de nombreuses applications telles que l'inférence bayésienne ou bien l'optimisation de réseaux de neurones. Les algorithmes qui visent à optimiser la position des particules afin d'approcher la distribution cible, admettent comme limite continue lorsque le nombre de particules tend vers l'infini, le flot de gradient de la perte considérée, au sens de la distance de Wasserstein. L'objectif de cette thèse est d'utiliser ce point de vue pour comprendre le comportement qualitatif de ces algorithmes d'optimisation, et en particulier de comprendre à quel point ils arrivent à bien optimiser la perte malgré sa non convexité.