Réseaux des neurones bayésiens pour la modélisation générative de la distribution de Boltzmann-Gibbs
Auteur / Autrice : | Dimitrios Tzivrailis |
Direction : | Alberto Rosso |
Type : | Projet de thèse |
Discipline(s) : | Physique |
Date : | Inscription en doctorat le 11/09/2023 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale Physique en Île-de-France (Paris ; 2014-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire de Physique Théorique et Modèles Statistiques |
Référent : Faculté des sciences d'Orsay |
Mots clés
Résumé
Les modèles génératifs profonds sont des distributions échantillonnables et/ou calculables dont la densité de probabilité est paramétrée par un réseau de neurones. Leur objectif d'entraînement peut être interprété comme une généralisation de l'approche champ moyen développée en physique statistique. En pratique, modéliser la distribution de Boltzmann-Gibbs d'un système physique par une distribution variationnelle dérivable permet d'accélérer des calculs numériques ou bien encore d'estimer des observables physiques. Il est alors crucial de correctement caractériser l'erreur induite par cette approximation : elle due d'une part au biais de représentation causé par le choix de la famille variationnelle et d'autre part à l'incertitude portant sur les paramètres du réseau de neurones. L'objectif de ce travail de thèse est de déterminer l'incertitude de prédiction d'un modèle génératif profond modélisant un système physique type systèmes de spins ou bien théorie de champ quantique. Cette incertitude épistémique pourra notamment être décrite au travers des méthodes d'inférence bayésienne. L'optimisation classique par descente de gradient stochastique sera alors remplacée par l'échantillonnage de la loi a posteriori des paramètres d'un réseaux de neurones bayésiens.