Émulation et prédiction de simulations de la toile cosmique par apprentissage profond
Auteur / Autrice : | Marion Ullmo |
Direction : | Nabila Aghanim, Aurélien Decelle |
Type : | Thèse de doctorat |
Discipline(s) : | Astronomie et Astrophysique |
Date : | Soutenance le 01/02/2022 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale Astronomie et astrophysique d'Île-de-France (Meudon, Hauts-de-Seine ; 1992-....) |
Partenaire(s) de recherche : | Laboratoire : Institut d'astrophysique spatiale (Orsay, Essonne ; 1990-....) - Institut national de recherche en informatique et en automatique (France). Unité de recherche (Saclay, Ile-de-France) |
Référent : Faculté des sciences d'Orsay | |
graduate school : Université Paris-Saclay. Graduate School Physique (2020-....) | |
Jury : | Président / Présidente : Laurent Verstraete |
Examinateurs / Examinatrices : Miguel Aragon-Calvo, Dominique Aubert, Alexandre Beelen | |
Rapporteur / Rapporteuse : Miguel Aragon-Calvo, Dominique Aubert |
Mots clés
Résumé
Le modèle cosmologique standard fournit une description de l'Univers dans son ensemble : son contenu, son évolution et sa dynamique. Une façon habituelle de déterminer l'évolution de la matière dans l'Univers repose sur l'utilisation de simulations numériques qui sont très coûteuses en termes de temps d'exécution, de stockage et de puissance de calcul. Nous explorons l'utilisation de réseaux neuronaux profonds (DNN) comme une alternative à ces simulations coûteuses. Dans une première partie, nous avons construit et entraîné un réseau antagoniste génératif (GAN) pour extraire la distribution sous-jacente d'un ensemble de données, construit à partir d'un champ de densité de matière noire simulé, et pour générer rapidement de nouvelles données de type simulation avec des statistiques identiques. Nous avons déterminé, en détail, les forces et les limites de l'utilisation des GAN à cette fin, et constaté que le GAN génère avec succès de nouvelles images et de nouveaux cubes de données qui sont statistiquement cohérents avec les données sur lesquelles il a été entraîné. Dans une deuxième partie, nous avons montré comment utiliser le GAN entraîné pour construire un autoencodeur (AE) réplicatif simple qui peut conserver les propriétés statistiques des données, et nous avons développé un AE prédictif pour déduire les données à z=0 (aujourd'hui) à partir des époques précédentes (z=1,2,3). Nous avons constaté que l'AE réplicatif peut extraire efficacement des informations des données de simulation pour les encoder dans un nombre réduit de paramètres. Par ce biais, l'AE peut récupérer les images et les cubes de manière satisfaisante, en conservant notamment leurs propriétés statistiques en termes de distribution de densité, de spectre de puissance et de nombre de pics. Enfin, nous montrons que l'AE prédictif, bien que montrant une faible capacité de prédiction dans sa forme la plus simple, réussit très bien à inférer l'évolution des données dès lors que nous lui fournissons suffisamment d'informations en entrée, notamment en utilisant le champ de vitesse associé. Avec ces preuves de concept, nous concluons que les DNNs sont des outils prometteurs pour générer rapidement de grands ensembles de données réalistes. De plus, lorsqu'ils sont entraînés et qu'on leur fournit les bonnes informations (par exemple, la dynamique du champ de densité), les DNN contiennent les informations nécessaires pour décrire l'évolution de la structure.