Thèse soutenue

Méthodes Monte Carlo pour l'apprentissage automatique : contributions pratiques et théoriques pour l'échantillonnage préferentiel et les méthodes séquentielles

FR  |  
EN
Auteur / Autrice : Yazid Janati el idrissi
Direction : Sylvain Le CorffYohan Petetin
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 28/09/2023
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard
Partenaire(s) de recherche : Laboratoire : Télécom SudParis (Evry ; 2012-....) - Institut Polytechnique de Paris / IP Paris - Communications, Images et Traitement de l'Information / CITI - Information, Signal et Technologies des Communications / ISTeC-SAMOVAR
Établissement d'opérateur d'inscription : Télécom SudParis (Evry ; 2012-....)
Jury : Président / Présidente : Jean-Marc Bardet
Examinateurs / Examinatrices : Jean-Michel Marin, Anthony Lee, Marylou Gabrié
Rapporteurs / Rapporteuses : Jean-Michel Marin, Anthony Lee

Résumé

FR  |  
EN

Cette thèse contribue au vaste domaine des méthodes de Monte Carlo avec de nouveaux algorithmes visant à traiter l'inférence en grande dimension et la quantification de l'incertitude. Dans une première partie, nous développons deux nouvelles méthodes pour l'échantillonnage d'importance. Le premier algorithme est une nouvelle loi de proposition, basée sur sur des étapes d'optimisation et de coût de calcul faible, pour le calcul des constantes de normalisation. L'algorithme résultant est ensuite étendu en un nouvel algorithme MCMC. Le deuxième algorithme est un nouveau schéma pour l'apprentissage de propositions d'importance adaptées aux cibles complexes et multimodales. Dans une deuxième partie, nous nous concentrons sur les méthodes de Monte Carlo séquentielles. Nous développons de nouveaux estimateurs de la variance asymptotique du filtre à particules et fournissons le premier estimateur de la variance asymptotique d'un lisseur à particules. Ensuite, nous proposons une procédure d'apprentissage des paramètres dans les modèles de Markov cachés en utilisant un lisseur à particules dont le biais est réduit par rapport aux méthodes existantes. Enfin, nous concevons un algorithme de Monte Carlo séquentiel pour résoudre des problèmes inverses linéaires bayésiens avec des lois a priori obtenues par modèles génératifs.