Thèse en cours

Réduction de Dimension Couplée Entrée-Sortie pour la Quantification d'Incertitude

FR  |  
EN

Accès à la thèse

AttentionLa soutenance a eu lieu le 06/12/2024. Le document qui a justifié du diplôme est en cours de traitement par l'établissement de soutenance.
Auteur / Autrice : Qiao Chen
Direction : Elise Arnaud
Type : Projet de thèse
Discipline(s) : Mathématiques Appliquées
Date : Inscription en doctorat le
Soutenance le 06/12/2024
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale mathématiques, sciences et technologies de l'information, informatique
Partenaire(s) de recherche : Laboratoire : Laboratoire Jean Kuntzmann
Jury : Président / Présidente : Florence Forbes
Examinateurs / Examinatrices : Omar Ghattas, Olivier Roustant, Ricardo Baptista, Guillaume Perrin
Rapporteur / Rapporteuse : Omar Ghattas, Olivier Roustant

Résumé

FR  |  
EN

Les travaux de cette thèse s'articulent autour de la réduction de l’espace d’entrée et de l’espace de sortie d'une fonction agissant sur des espaces de grande dimension. Classiquement, les méthodes de réduction de dimension sont appliquées de manière indépendante sur l'espace d'entrée et/ou de sortie. Bien qu'il existe quelques méthodes de réduction conjointe, elles sont pensées de manière algorithmiques, et peu analysées dans la littérature. Dans ce travail, une nouvelle méthode pour une réduction couplée est introduite : le choix d'un sous-espace d'entrée influence le sous-espace de sortie, et vice versa. En pratique, l'identification de ces espaces se fait par optimisation de bornes basées sur le gradient de la fonction. Plus précisément, une inégalité de type Poincaré est utilisée pour déterminer une borne supérieure ; et une inégalité de type Cramèr-Rao est introduite pour déterminer une borne inférieure de l'erreur intuite par la réduction de dimension. Ces bornes nous fournissent des estimations d'erreur rapides à calculer et un algorithme d'optimisation facile à mettre en œuvre, basé sur une décomposition en valeurs propres alternée de deux matrices de diagnostic. Des approches dites ''goal-oriented'' sont aussi proposées pour l'identification d'un sous-espace d'entrée qui soit pertinent pour une sortie d'intérêt prescrite, et réciproquement. Dans le premier cas (entrée->sortie), nous nous intéressons au problème de placement optimal de capteurs goal-oriented. Le but est d'identifier quelles sorties du modèle contiennent le plus d'information pour l'identification d'un paramètre d'entrée spécifié. Pour cela, nous maximisons le *gain d'information* mesuré avec la distance Kullback-Leibler entre la distribution a priori et l'a posteriori. Ce critère étant trop coûteux à évaluer numériquement, nous dérivons une borne inférieure frugale basée sur le gradient du modèle. Une solution analytique peut être facilement calculée pour la maximisation de cette borne, ce qui est un avantage pratique important. Dans le second cas (sortie->entrée), nous explorons les liens avec l'analyse de sensibilité globale. Notre méthode s'apparente aux mesures de sensibilité globale basées sur la dérivée (DGSM), offrant une alternative efficace en termes de calcul aux indices de Sobol'. En particulier, nous pouvons identifier les entrées les plus (ou les moins) sensibles en analysant une matrice de diagnostic qui dépend de la sortie d'intérêt. Nous montrons que les DGSM sont des bornes supérieures aux indices de Sobol' totaux d'ordre arbitraire. Aussi, grâce à notre inégalité de type Cramér-Rao, nous améliorons les bornes inférieures existantes des indices de Sobol' totaux.