Thèse soutenue

Exploitation des données du DESI Bright Galaxy Survey pour contraindre la nature de l’énergie noire et la relativité générale

FR  |  
EN
Auteur / Autrice : Svyatoslav Trusov
Direction : Christophe BallandPauline Zarrouk
Type : Thèse de doctorat
Discipline(s) : Physique de l'Univers
Date : Soutenance le 19/09/2024
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Sciences de la terre et de l'environnement et physique de l'univers (Paris ; 2014-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire Physique nucléaire et hautes énergies (Paris ; 1997-....)
Jury : Président / Présidente : Delphine Hardin
Examinateurs / Examinatrices : Etienne Burtin
Rapporteur / Rapporteuse : Jean-Paul Kneib, Alice Pisani

Résumé

FR  |  
EN

DESI (Dark Energy Spectroscopic Instrument, i.e. l'Instrument Spectroscopique de l'Énergie Noire) est un instrument spectroscopique attaché à un téléscope de 4m à l'observatoire Kitt Peak aux États-Unis. En collectant les spectres de plus de 40 millions de galaxies, on peut calculer leur distance radiale et ainsi créer une carte tri-dimensionnelle des grandes structures de notre Univers. Puisque la gravité est la force dominante à ces échelles, en mesurant la vitesse à laquelle la matière s'agglomère pour former des structures comme les galaxies, on peut contraindre les théories de la gravité. Cette thèse se concentre sur le relevé de galaxies brillantes (BGS), qui est l'échantillon de données le plus dense de DESI et qui est composé des galaxies les plus proches de nous (z < 0.4) et les plus lumineuses (avec une coupure en magnitude apparente dans la bande r à r < 19.5). Un problème avec une densité de galaxies aussi élevée à bas redshift est que l'information qu'on peut extraire d'un volume d'espace limité est aussi très limitée. Cela veut dire que les contraintes sur les paramètres cosmologiques ne sont pas dominées par la statistique de l'échantillon mais par une limite fondamentale liée à la quantité d'information accessible appelée 'variance cosmique'. Et pourtant, il y a une technique qui permet de contourner cet obstacle. On appelle cette technique l'analyse multi-traceur (ou ''multi-tracer analysis'' en anglais). Elle consiste à diviser le catalogue de données en deux (ou plusieurs) sous-catalogues différents avec des propriétés de clustering différentes et de prendre en compte les corrélations spatiales croisées entre les différents traceurs qui ajoutent une information supplémentaire, et permettent ainsi d'améliorer les contraintes sur certains paramètres cosmologiques. Un autre problème qui se pose à cause de la densité élevée du BGS est celui de l'estimation des erreurs de mesure au moyen d'une matrice de covariance. Habituellement, pour estimer la matrice de covariance, on crée des milliers de simulations cosmologiques qui doivent imiter la relevé, en créant ainsi plusieurs réalisations de différents univers observables et en nous permettant d'estimer les erreurs sur la mesure de statistiques de 2-point. Produire ce millier de simulations est très coûteux en temps de calcul et en mémoire. A ce jour, il n'en existe que 25, ce qui est insuffisant pour obtenir une matrice de covariance suffisamment précise. Dans cette thèse, nous proposons une nouvelle méthode, appelée FitCov, qui est une combinaison hybride entre la méthode d'estimation de covariance “jackknife” basée sur un échantillonnage des données, et la méthode classique basée sur des simulations.Un troisième problème que nous avons rencontré au cours de cette thèse concerne plus généralement les analyses clustering. Dans l'approche standard, on compresse l'information sur les paramètres cosmologiques contenue dans la statistique à deux-points sous la forme de paramètres intermédiaires tels que le taux de croissance des structures déjà mentionné et les paramètres géométriques d'Alcock-Paczynski qui permettent de mesurer le taux d'expansion de l'univers par exemple. Cette compression nous fait perdre de l'information cosmologique lorsque l'analyse des grandes structures, mais elle accélère significativement la détermination des paramètres cosmologiques. Dans cette thèse, nous présentons un moyen d'accélérer l'inférence des paramètres cosmologiques directement à partir de la statistique à deux points, sans passer par les paramètres compressés. Pour cela, nous avons développé un réseau de neurones qui remplace la partie du modèle analytique qui prend beaucoup de temps à prédire l'évolution non-linéaire de la statistique à deux-points et nous avons montré que notre modèle hybride est aussi précis que le modèle analytique.