Thèse soutenue

Méthodes variationnelles d'ensemble et optimisation variationnellepour les géosciences

FR  |  
EN
Auteur / Autrice : Anthony Fillion
Direction : Marc BocquetSerge Gratton
Type : Thèse de doctorat
Discipline(s) : Sciences et Techniques de l'Environnement
Date : Soutenance le 28/03/2019
Etablissement(s) : Paris Est
Ecole(s) doctorale(s) : École doctorale Sciences, Ingénierie et Environnement (Champs-sur-Marne, Seine-et-Marne ; 2015-....)
Partenaire(s) de recherche : Laboratoire : Centre d'Enseignement et de Recherche en Environnement Atmosphérique (Champs-sur-Marne, Seine-et-Marne) - Centre d'Enseignement et de Recherche en Environnement Atmosphérique / CEREA
Jury : Président / Présidente : Annick Sartenaer
Examinateurs / Examinatrices : Marc Bocquet, Serge Gratton, Maëlle Nodet, Selime Gürol
Rapporteurs / Rapporteuses : Étienne Mémin, Yann Michel

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

L'assimilation de données consiste à calculer une estimation de l'état d'un système physique. Cette estimation doit alors combiner de façon optimale des observations entachées d'erreurs de mesure et des modèles numériques imparfaits permettant de simuler le système physique. En pratique, l'assimilation de données sert à estimer l’état initial d’un système dynamique. Cet état analysé peut ensuite être utilisé pour prévoir le comportement de ce système, notamment dans les systèmes géophysiques où les jeux de données sont conséquents.Une première approche repose sur une estimation de l’état initial basée sur le principe du maximum a posteriori. Il s’agit alors de résoudre un problème d’optimisation, souvent par des techniques utilisant le gradient des opérateurs. Cette approche, appelée 4DVar, nécessite le calcul de l’adjoint du modèle et de l'opérateur d'observation, ce qui est une tâche consommatrice en temps de développement des systèmes de prévision. Une seconde approche permettant de résoudre séquentiellement le problème d’assimilation est basée sur les techniques dites « d’ensemble ». Ici, des perturbations a priori de l'état du système permettent d’estimer des statistiques. Ces moments sont alors utilisés dans les formules de Kalman pour obtenir des approximations de l’état du système a posteriori.Ces deux approches ont été récemment combinées avec succès dans les méthodes de type EnVar aujourd'hui utilisées dans les systèmes opérationnels de prévision. Elles bénéficient donc d'une gestion efficace de la non linéarité au travers des méthodes d'optimisation variationnelle et permettent l'estimation de statistiques et de dérivées à l'aide des ensembles. L'IEnKS est un archétype de ces méthodes EnVar. Pour combiner les deux approches précédentes, il utilise une fenêtre d'assimilation qui est translatée entre chaque cycle. Différents paramétrages de la fenêtre d'assimilation conduisent à différentes stratégies d'assimilation non équivalentes lorsque la dynamique du système est non linéaire.En particulier, les longues fenêtres d'assimilation réduisent la fréquence de l'approximation Gaussienne des densités a priori. Il en résulte une amélioration des performances jusqu'à un certain point. Au delà, la complexité structurelle de la fonction de coût met l'analyse variationnelle en défaut. Une solution nommée “quasi statique variational assimilation” (QSVA) permet d'atténuer ces problèmes en ajoutant graduellement les observations à la fonction de coût du 4DVar. Le second chapitre de thèse généralise cette technique aux méthodes EnVar et s'intéresse plus précisément aux aspects théoriques et numériques du QSVA appliqués à l'IEnKS.Cependant, l’intérêt du QSVA repose sur la perfection du modèle pour simuler l'évolution de l'état. En effet, la pertinence d'une observation temporellement éloignée pour estimer l'état peut être remise en cause en présence d'erreur modèle. Le troisième chapitre est consacré à l'introduction d'erreur modèle au sein de l'IEnKS. Il y sera donc construit l'IEnKS-Q, une méthode 4D variationnelle d'ensemble résolvant séquentiellement le problème de lissage en présence d'erreur modèle. Malheureusement, en présence d'erreur modèle, une trajectoire n'est plus déterminée par son état initial. Le nombre de paramètres nécessaires à la caractérisation de ses statistiques augmente alors avec la longueur de la fenêtre d'assimilation. Lorsque ce nombre va de pair avec le nombre d'évaluations du modèle, les conséquences pour le temps de calcul sont catastrophiques. La solution proposée est alors de découpler ces quantités avec une décomposition des matrices d'anomalies. Dans ce cas, l'IEnKS-Q n'est pas plus coûteux que l'IEnKS en nombre d'évaluations du modèle