Thèse soutenue

Assimilation de données en espace latent par des techniques de deep learning

FR  |  
EN
Auteur / Autrice : Mathis Peyron
Direction : Selime GürolSerge Gratton
Type : Thèse de doctorat
Discipline(s) : Informatique et Télécommunications
Date : Soutenance le 08/10/2024
Etablissement(s) : Université de Toulouse (2023-....)
Ecole(s) doctorale(s) : École doctorale Mathématiques, informatique et télécommunications (Toulouse)
Partenaire(s) de recherche : Laboratoire : Centre Européen de Recherche et Formation Avancées en Calcul Scientifique (Toulouse)
établissement délivrant conjointement le doctorat : Institut national polytechnique (Toulouse ; 1969-....)
Jury : Président / Présidente : Ronan Fablet
Examinateurs / Examinatrices : Selime Gürol, Serge Gratton, Ronan Fablet, Alban Farchi
Rapporteurs / Rapporteuses : Arthur Vidard, Tijana Janjic-Pfander

Résumé

FR  |  
EN

Cette thèse, située à l’intersection de l’assimilation de données (AD) et de l’apprentissage profond (AP), introduit un concept nouveau : l’assimilation de données en espace latent. Elle permet une réduction considérable des coûts de calcul et des besoins mémoire, tout en offrant le potentiel d’améliorer la précision des résultats.Il existe de nombreuses façons d’intégrer l’apprentissage profond dans les algorithmes d’assimilation de données, chacune visant des objectifs différents (Loh et al., 2018; Tang et al., 2020; Laloyaux et al., 2020; Bonavita and Laloyaux, 2020; Brajard et al., 2020; Farchi et al., 2021b; Pawar and San, 2021; Leutbecher, 2019; Ruckstuhl et al., 2021; Lin et al., 2019; Deng et al., 2018; Cheng et al., 2024). Nous étendons davantage l'intégration de l'apprentissage profond, en repensant le processus même d’assimilation. Notre approche s’inscrit dans la suite des méthodes à espace réduit (Evensen,1994; Bishop et al., 2001; Hunt et al., 2007; Courtier, 2007; Gratton and Tshimanga, 2009; Gratton et al., 2013; Lawless et al., 2008; Cao et al., 2007), qui résolvent le problème d’assimilation en effectuant des calculs dans un espace de faible dimension. Ces méthodes à espace réduit ont été principalement développées pour une utilisation opérationnelle, car la plupart des algorithmes d’assimilation de données s'avèrent être excessivement coûteux, lorsqu’ils sont implémentés dans leur forme théorique originelle.Notre méthodologie repose sur l’entraînement conjoint d’un autoencodeur et d’un réseau de neurone surrogate. L’autoencodeur apprend de manière itérative à représenter avec précision la dynamique physique considérée dans un espace de faible dimension, appelé espace latent. Le réseau surrogate est entraîné simultanément à apprendre la propagation temporelle des variables latentes. Une stratégie basée sur une fonction de coût chaînée est également proposée pour garantir la stabilité du réseau surrogate. Cette stabilité peut également être obtenue en implémentant des réseaux surrogate Lipschitz.L’assimilation de données à espace réduit est fondée sur la théorie de la stabilité de Lyapunov qui démontre mathématiquement que, sous certaines hypothèses, les matrices de covariance d’erreur de prévision et a posteriori se conforment asymptotiquement à l’espace instable-neutre (Carrassi et al., 2022), qui est de dimension beaucoup plus petite que l’espace d’état. Alors que l’assimilation de données en espace physique consiste en des combinaisons linéaires sur un système dynamique non linéaire, de grande dimension et potentiellement multi-échelle, l’assimilation de données latente, qui opère sur les dynamiques internes sous-jacentes, potentiellement simplifiées, est davantage susceptible de produire des corrections significatives.La méthodologie proposée est éprouvée sur deux cas tests : une dynamique à 400 variables - construite à partir d'un système de Lorenz chaotique de dimension 40 -, ainsi que sur le modèle quasi-géostrophique de la librairie OOPS (Object-Oriented Prediction System). Les résultats obtenus sont prometteurs.