Thèse en cours

Nouvelles techniques d’apprentissage automatique pour répondre au volume et à la complexité des données du relevé Rubin LSST:séparation d’images de galaxies superposées et classification dans les flux d’alertes relatives aux événements transitoires

FR  |  
EN

Accès à la thèse

AttentionLa soutenance a eu lieu le 26/09/2024. Le document qui a justifié du diplôme est en cours de traitement par l'établissement de soutenance.
Auteur / Autrice : Biswajit Biswas
Direction : Eric Aubourg
Type : Projet de thèse
Discipline(s) : Physique de l'Univers
Date : Inscription en doctorat le
Soutenance le 26/09/2024
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : École doctorale Sciences de la terre et de l'environnement et physique de l'univers
Partenaire(s) de recherche : Laboratoire : AstroParticule et Cosmologie (Paris ; 2005-....)
établissement opérateur d'inscription : Ecole normale supérieure
Jury : Président / Présidente : Delphine Hardin
Examinateurs / Examinatrices : Eric Aubourg, Junpeng Lao, Jean-Christophe Hamilton, Federica Bianco, Hironao Miyatake, Alexandre Allauzen, Marc Huertas-portocarrero company
Rapporteurs / Rapporteuses : Federica Bianco, Marc Huertas-portocarrero company

Résumé

FR  |  
EN

L'un des objectifs principaux des relevés de Stage IV, comme le Legacy Survey of Space and Time (LSST) de l'Observatoire Vera C. Rubin, est de comprendre la nature fondamentale de l'énergie noire. La profondeur et l’étendue sans précédent offerte par le LSST offriront des données d’une immense richesse pour la cosmologie, bien que leur volume et leur complexité génère de nouveaux défis. Parmi les sondes cosmologiques, l'utilisation du cosmic shear devrait devenir centrale avec ces relevés. Or, l'augmentation de la densité d’objets pouvant être détectés entraînera plus de superpositions de leurs images lors des observations - un effet appelé blending - et imposer des contraintes fortes sur les paramètres cosmologiques avec le cosmic shear suppose que nous contrôlions très précisément les systématiques parmi lesquelles le blending joue un rôle majeur. Dans le cadre de LSST Dark Energy Science Collaboration (DESC), j'ai développé un algorithme, MADNESS, basé sur des modèles génératifs profonds tels que les auto-encodeurs variationnels et les normalizing flows pour apporter une nouvelle méthode de deblending. Une utilisation conjointe de ces réseaux neuronaux nous permet d'obtenir la solution maximale a posteriori dans l'espace latent. MADNESS est ainsi capable de modéliser des morphologies complexes de galaxies et de traiter conjointement plusieurs bandes photométriques au niveau des pixels. Par ailleurs, l'algorithme écrit en TensorFlow, peut facilement être parallélisé sur GPU, améliorant considérablement le temps de calcul. En utilisant des simulations de galaxies respectant a minima des caractéristiques de densité pour 10 ans de relevé LSST, j'ai caractérisé la photométrie d'ouverture, la couleur g-r et les indicateurs de morphologie des galaxies individuelles reconstruites par MADNESS. Dans le cadre d’une comparaison directe avec les méthodes les plus couramment utilisées, MADNESS obtient de meilleures performances dans toutes les métriques. Par exemple, si on se place dans la bande r, la valeur absolue moyenne de l’écart relatif sur le flux des objets reconstruits en utilisant MADNESS est inférieure de 29% à celle du deblender scarlet. Un autre aspect de mon travail a visé à la détection des événements transitoires. Depuis la naissance de l'astronomie multi-messagers avec la détection de l'événement GW170817, la communauté s'efforce de détecter davantage de contreparties électromagnétiques connues sous le nom de kilonovae (KNe). Pour cela, de grandes régions doivent être couvertes en quelques jours pour rechercher ces contreparties dans les zones probables de localisation obtenues à partir des signaux d'ondes gravitationnelles. Le LSST pourra répondre à ce besoin. Le relevé diffusera immédiatement des alertes par l'intermédiaire d'un logiciel intermédiaire appelé alert brokers, chaque fois qu'une variation de luminosité sera détectée. Les brokers devront traiter en temps réel des millions d'alertes par nuit, pour permettre un suivi spectroscopique pertinent. J'ai développé un algorithme de classification rapide pour le module scientifique KNe du broker FINK avec lequel j’ai traité les données préparatoires à LSST issues du Zwicky Transient Facility (ZTF). En utilisant des techniques d’analyse en composantes principales, j'ai généré des quantités conçues pour saisir différents comportements de courbes de lumière afin de séparer les événements rapides (de type KN) des événements lents (non-KN). En simulant 30 jours de données ZTF, le classificateur a obtenu une précision de 69% et un rappel de 70% pour les KNe, avec la majorité de la contamination provenant d'autres transitoires rapides. Le modèle final est intégré dans le broker FINK et procure des alertes à la communauté. Ce module représente une étape crucialel dans une chaîne complexe d'éléments d'infrastructure pour l'astronomie multi-messagers, qui est actuellement mise en place par l'équipe du broker FINK en préparation de l'arrivée des données du LSST.