Méthodes Monte Carlo pour l'apprentissage automatique : contributions pratiques et théoriques pour l'échantillonnage préferentiel et les méthodes séquentielles
Auteur / Autrice : | Yazid Janati el idrissi |
Direction : | Sylvain Le Corff, Yohan Petetin |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques appliquées |
Date : | Soutenance le 28/09/2023 |
Etablissement(s) : | Institut polytechnique de Paris |
Ecole(s) doctorale(s) : | École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....) |
Partenaire(s) de recherche : | Laboratoire : Télécom SudParis (Evry ; 2012-....) - Institut Polytechnique de Paris / IP Paris - Communications, Images et Traitement de l'Information / CITI - Information, Signal et Technologies des Communications / ISTeC-SAMOVAR |
Établissement d'opérateur d'inscription : Télécom SudParis (Evry ; 2012-....) | |
Jury : | Président / Présidente : Jean-Marc Bardet |
Examinateurs / Examinatrices : Jean-Michel Marin, Anthony Lee, Marylou Gabrié | |
Rapporteur / Rapporteuse : Jean-Michel Marin, Anthony Lee |
Mots clés
Résumé
Cette thèse contribue au vaste domaine des méthodes de Monte Carlo avec de nouveaux algorithmes visant à traiter l'inférence en grande dimension et la quantification de l'incertitude. Dans une première partie, nous développons deux nouvelles méthodes pour l'échantillonnage d'importance. Le premier algorithme est une nouvelle loi de proposition, basée sur sur des étapes d'optimisation et de coût de calcul faible, pour le calcul des constantes de normalisation. L'algorithme résultant est ensuite étendu en un nouvel algorithme MCMC. Le deuxième algorithme est un nouveau schéma pour l'apprentissage de propositions d'importance adaptées aux cibles complexes et multimodales. Dans une deuxième partie, nous nous concentrons sur les méthodes de Monte Carlo séquentielles. Nous développons de nouveaux estimateurs de la variance asymptotique du filtre à particules et fournissons le premier estimateur de la variance asymptotique d'un lisseur à particules. Ensuite, nous proposons une procédure d'apprentissage des paramètres dans les modèles de Markov cachés en utilisant un lisseur à particules dont le biais est réduit par rapport aux méthodes existantes. Enfin, nous concevons un algorithme de Monte Carlo séquentiel pour résoudre des problèmes inverses linéaires bayésiens avec des lois a priori obtenues par modèles génératifs.