Thèse en cours

Methodes de Monte Carlo en grande dimension

FR  |  
EN
Auteur / Autrice : Victor Priser
Direction : Pascal Bianchi
Type : Projet de thèse
Discipline(s) : Informatique, données, IA
Date : Inscription en doctorat le 01/02/2023
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de l'Institut polytechnique de Paris
Partenaire(s) de recherche : Laboratoire : Laboratoire de Traitement et Communication de l'Information
Equipe de recherche : S2A - Statistique et Apprentissage

Résumé

FR  |  
EN

La thèse porte sur les méthodes de Monte Carlo, c'est-à-dire les méthodes basées sur la simulation, face à des problèmes complexes dans lesquels la dimension de l'espace sous-jacent est grande. L'approche adoptée s'appuie sur des outils mathématiques issus de la théorie des probabilités. L'objectif général de la thèse est d'avoir un aperçu de certains algorithmes existants et d'en concevoir de nouveaux. Les applications incluent l'apprentissage par renforcement et l'estimation de modèles bayésiens complexes. L'utilisation des méthodes de simulation Monte-Carlo est devenue incontestablement utile dans de nombreux domaines de l'apprentissage automatique. Un aspect des plus pertinents pour comprendre le succès mais aussi la limitation des méthodes de Monte Carlo est la dimension de l'espace sous-jacent. En pratique, la dimension représente la complexité du problème d'intérêt et le contexte de grande dimension est souvent associé à un modèle complexe. Un autre aspect crucial des méthodes de Monte Carlo est la nature adaptative des algorithmes. Ces deux aspects, la dimensionnalité et l'adaptativité, sont les deux piliers du projet et sont maintenant présentés avec la littérature associée. L'objectif principal de l'échantillonnage adaptatif est d'apprendre/d'estimer avec précision au cours de l'algorithme une certaine distribution cible. La distribution cible peut prendre plusieurs formes dans la pratique en fonction du problème et de l'objectif. Il est souvent défini selon un certain critère d'optimalité comme par exemple dans le problème bayésien où la distribution cible est souvent la mesure de probabilité a posteriori. Au terme de cet apprentissage, on dispose d'une distribution de probabilité à partir de laquelle on peut déduire une solution satisfaisante du problème initial. Par exemple, dans le contexte bayésien, après avoir exécuté un algorithme d'échantillonnage d'importance, la distribution est caractérisée par une collection de particules et de poids.