Thèse en cours

Approximation de mesures en grande dimension par des méthodes d'optimisation

FR  |  
EN
Auteur / Autrice : Christophe Vauthier
Direction : Quentin Merigot
Type : Projet de thèse
Discipline(s) : Mathématiques appliquées
Date : Inscription en doctorat le 01/09/2023
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard
Partenaire(s) de recherche : Laboratoire : Laboratoire de mathématiques d'Orsay (1998-....)
Equipe de recherche : Analyse numérique et équations aux dérivées partielles
Référent : Faculté des sciences d'Orsay

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Un problème courant en machine learning est d'approcher une mesure avec une mesure à support fini en minimisant une perte qui est choisie comme étant une distance ou une divergence sur l'espace des mesures, relative à une distribution cible. En effet ce problème d'optimisation, typiquement non convexe, apparaît dans de nombreuses applications telles que l'inférence bayésienne ou bien l'optimisation de réseaux de neurones. Les algorithmes qui visent à optimiser la position des particules afin d'approcher la distribution cible, admettent comme limite continue lorsque le nombre de particules tend vers l'infini, le flot de gradient de la perte considérée, au sens de la distance de Wasserstein. L'objectif de cette thèse est d'utiliser ce point de vue pour comprendre le comportement qualitatif de ces algorithmes d'optimisation, et en particulier de comprendre à quel point ils arrivent à bien optimiser la perte malgré sa non convexité.