Modèles Génératifs Profonds pour la Simulation Spatiale Conditionnelle
Auteur / Autrice : | Ferdinand Bhavsar |
Direction : | Thomas Romary, Nicolas Desassis |
Type : | Thèse de doctorat |
Discipline(s) : | Géostatistique et probabilités appliquées |
Date : | Soutenance le 02/12/2024 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | Ecole doctorale Ingénierie des Systèmes, Matériaux, Mécanique, Énergétique (Paris) |
Partenaire(s) de recherche : | Laboratoire : Centre de géosciences (Fontainebleau, Seine et Marne) |
établissement de préparation de la thèse : École nationale supérieure des mines (Paris ; 1783-....) | |
Jury : | Président / Présidente : Edith Gabriel |
Examinateurs / Examinatrices : Thomas Romary, Nicolas Desassis, Pierre Latouche, Grégoire Mariethoz, Gérard Biau, Gabriel Victorino Cardoso | |
Rapporteurs / Rapporteuses : Pierre Latouche, Grégoire Mariethoz |
Mots clés
Résumé
L'objectif de cette thèse était de trouver des modèles d'apprentissage profond appropriés pour (i) simuler des réalisations d'un phénomène spatial, et (ii) conditionner les réalisations à certaines observations partielles du phénomène.Nous avons utilisé deux types de modèles génératifs : les Réseaux Antagonistes Génératifs (GANs) et les Modèles de Diffusion par Débruitage (DDMs).Tout au long de la thèse, l'application consistait à générer la distribution spatiale des lithofaciès dans le sous-sol, puis à générer des simulations conditionnées sur des observations de terrain (forages).Dans cette thèse, nous avons d'abord itéré sur une approche où la tâche de modélisation est formulée comme un problème bayésien, dont la première étape consiste à utiliser des GANs pour entraîner un réseau de neurones à approcher la distribution a priori pour la simulation des faciès et, ensuite, à approcher la distribution a posteriori avec une approche bayésienne variationnelle. Nous avons tenté d'adapter la formulation originale des GANs pour qu'ils soient plus stables, mais aussi stationnaires et capables d'adapter les réalisations en fonction d'une gamme de paramètres d'entrée.Avec les GANs, nous avons utilisé un modèle secondaire pour conditionner nos simulations aux observations. Dans la littérature précédente, le modèle d'inférence est un réseau de neurones secondaire. Nous avons proposé une amélioration en remplaçant le réseau de neurones par un mélange de Gaussiennes dans l'approche variationnelle.Ensuite, nous avons étudié les DDMs. Ces modèles ont été adaptés aux données discrètes en utilisant un Processus de Sauts de Markov. Le conditionnement a été réalisé en apprenant directement les distributions a priori et a posteriori au sein du réseau, en ajoutant une entrée secondaire correspondant à nos observations.