Thèse en cours

Réseaux des neurones bayésiens pour la modélisation générative de la distribution de Boltzmann-Gibbs

FR  |  
EN
Auteur / Autrice : Dimitrios Tzivrailis
Direction : Alberto Rosso
Type : Projet de thèse
Discipline(s) : Physique
Date : Inscription en doctorat le 11/09/2023
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale Physique en Île-de-France (Paris ; 2014-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire de Physique Théorique et Modèles Statistiques
Référent : Faculté des sciences d'Orsay

Résumé

FR  |  
EN

Les modèles génératifs profonds sont des distributions échantillonnables et/ou calculables dont la densité de probabilité est paramétrée par un réseau de neurones. Leur objectif d'entraînement peut être interprété comme une généralisation de l'approche champ moyen développée en physique statistique. En pratique, modéliser la distribution de Boltzmann-Gibbs d'un système physique par une distribution variationnelle dérivable permet d'accélérer des calculs numériques ou bien encore d'estimer des observables physiques. Il est alors crucial de correctement caractériser l'erreur induite par cette approximation : elle due d'une part au biais de représentation causé par le choix de la famille variationnelle et d'autre part à l'incertitude portant sur les paramètres du réseau de neurones. L'objectif de ce travail de thèse est de déterminer l'incertitude de prédiction d'un modèle génératif profond modélisant un système physique type systèmes de spins ou bien théorie de champ quantique. Cette incertitude épistémique pourra notamment être décrite au travers des méthodes d'inférence bayésienne. L'optimisation classique par descente de gradient stochastique sera alors remplacée par l'échantillonnage de la loi a posteriori des paramètres d'un réseaux de neurones bayésiens.