Nouvelles techniques dapprentissage automatique pour répondre au volume et à la complexité des données du relevé Rubin LSST:séparation dimages de galaxies superposées et classification dans les flux dalertes relatives aux événements transitoires
Auteur / Autrice : | Biswajit Biswas |
Direction : | Eric Aubourg |
Type : | Projet de thèse |
Discipline(s) : | Physique de l'Univers |
Date : | Inscription en doctorat le Soutenance le 26/09/2024 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | École doctorale Sciences de la terre et de l'environnement et physique de l'univers |
Partenaire(s) de recherche : | Laboratoire : AstroParticule et Cosmologie (Paris ; 2005-....) |
établissement opérateur d'inscription : Ecole normale supérieure | |
Jury : | Président / Présidente : Delphine Hardin |
Examinateurs / Examinatrices : Eric Aubourg, Junpeng Lao, Jean-Christophe Hamilton, Federica Bianco, Hironao Miyatake, Alexandre Allauzen, Marc Huertas-portocarrero company | |
Rapporteurs / Rapporteuses : Federica Bianco, Marc Huertas-portocarrero company |
Mots clés
Résumé
L'un des objectifs principaux des relevés de Stage IV, comme le Legacy Survey of Space and Time (LSST) de l'Observatoire Vera C. Rubin, est de comprendre la nature fondamentale de l'énergie noire. La profondeur et létendue sans précédent offerte par le LSST offriront des données dune immense richesse pour la cosmologie, bien que leur volume et leur complexité génère de nouveaux défis. Parmi les sondes cosmologiques, l'utilisation du cosmic shear devrait devenir centrale avec ces relevés. Or, l'augmentation de la densité dobjets pouvant être détectés entraînera plus de superpositions de leurs images lors des observations - un effet appelé blending - et imposer des contraintes fortes sur les paramètres cosmologiques avec le cosmic shear suppose que nous contrôlions très précisément les systématiques parmi lesquelles le blending joue un rôle majeur. Dans le cadre de LSST Dark Energy Science Collaboration (DESC), j'ai développé un algorithme, MADNESS, basé sur des modèles génératifs profonds tels que les auto-encodeurs variationnels et les normalizing flows pour apporter une nouvelle méthode de deblending. Une utilisation conjointe de ces réseaux neuronaux nous permet d'obtenir la solution maximale a posteriori dans l'espace latent. MADNESS est ainsi capable de modéliser des morphologies complexes de galaxies et de traiter conjointement plusieurs bandes photométriques au niveau des pixels. Par ailleurs, l'algorithme écrit en TensorFlow, peut facilement être parallélisé sur GPU, améliorant considérablement le temps de calcul. En utilisant des simulations de galaxies respectant a minima des caractéristiques de densité pour 10 ans de relevé LSST, j'ai caractérisé la photométrie d'ouverture, la couleur g-r et les indicateurs de morphologie des galaxies individuelles reconstruites par MADNESS. Dans le cadre dune comparaison directe avec les méthodes les plus couramment utilisées, MADNESS obtient de meilleures performances dans toutes les métriques. Par exemple, si on se place dans la bande r, la valeur absolue moyenne de lécart relatif sur le flux des objets reconstruits en utilisant MADNESS est inférieure de 29% à celle du deblender scarlet. Un autre aspect de mon travail a visé à la détection des événements transitoires. Depuis la naissance de l'astronomie multi-messagers avec la détection de l'événement GW170817, la communauté s'efforce de détecter davantage de contreparties électromagnétiques connues sous le nom de kilonovae (KNe). Pour cela, de grandes régions doivent être couvertes en quelques jours pour rechercher ces contreparties dans les zones probables de localisation obtenues à partir des signaux d'ondes gravitationnelles. Le LSST pourra répondre à ce besoin. Le relevé diffusera immédiatement des alertes par l'intermédiaire d'un logiciel intermédiaire appelé alert brokers, chaque fois qu'une variation de luminosité sera détectée. Les brokers devront traiter en temps réel des millions d'alertes par nuit, pour permettre un suivi spectroscopique pertinent. J'ai développé un algorithme de classification rapide pour le module scientifique KNe du broker FINK avec lequel jai traité les données préparatoires à LSST issues du Zwicky Transient Facility (ZTF). En utilisant des techniques danalyse en composantes principales, j'ai généré des quantités conçues pour saisir différents comportements de courbes de lumière afin de séparer les événements rapides (de type KN) des événements lents (non-KN). En simulant 30 jours de données ZTF, le classificateur a obtenu une précision de 69% et un rappel de 70% pour les KNe, avec la majorité de la contamination provenant d'autres transitoires rapides. Le modèle final est intégré dans le broker FINK et procure des alertes à la communauté. Ce module représente une étape crucialel dans une chaîne complexe d'éléments d'infrastructure pour l'astronomie multi-messagers, qui est actuellement mise en place par l'équipe du broker FINK en préparation de l'arrivée des données du LSST.