Réduction de Dimension Couplée Entrée-Sortie pour la Quantification d'Incertitude
Auteur / Autrice : | Qiao Chen |
Direction : | Elise Arnaud |
Type : | Projet de thèse |
Discipline(s) : | Mathématiques Appliquées |
Date : | Inscription en doctorat le Soutenance le 06/12/2024 |
Etablissement(s) : | Université Grenoble Alpes |
Ecole(s) doctorale(s) : | École doctorale mathématiques, sciences et technologies de l'information, informatique |
Partenaire(s) de recherche : | Laboratoire : Laboratoire Jean Kuntzmann |
Jury : | Président / Présidente : Florence Forbes |
Examinateurs / Examinatrices : Omar Ghattas, Olivier Roustant, Ricardo Baptista, Guillaume Perrin | |
Rapporteur / Rapporteuse : Omar Ghattas, Olivier Roustant |
Mots clés
Résumé
Les travaux de cette thèse s'articulent autour de la réduction de lespace dentrée et de lespace de sortie d'une fonction agissant sur des espaces de grande dimension. Classiquement, les méthodes de réduction de dimension sont appliquées de manière indépendante sur l'espace d'entrée et/ou de sortie. Bien qu'il existe quelques méthodes de réduction conjointe, elles sont pensées de manière algorithmiques, et peu analysées dans la littérature. Dans ce travail, une nouvelle méthode pour une réduction couplée est introduite : le choix d'un sous-espace d'entrée influence le sous-espace de sortie, et vice versa. En pratique, l'identification de ces espaces se fait par optimisation de bornes basées sur le gradient de la fonction. Plus précisément, une inégalité de type Poincaré est utilisée pour déterminer une borne supérieure ; et une inégalité de type Cramèr-Rao est introduite pour déterminer une borne inférieure de l'erreur intuite par la réduction de dimension. Ces bornes nous fournissent des estimations d'erreur rapides à calculer et un algorithme d'optimisation facile à mettre en uvre, basé sur une décomposition en valeurs propres alternée de deux matrices de diagnostic. Des approches dites ''goal-oriented'' sont aussi proposées pour l'identification d'un sous-espace d'entrée qui soit pertinent pour une sortie d'intérêt prescrite, et réciproquement. Dans le premier cas (entrée->sortie), nous nous intéressons au problème de placement optimal de capteurs goal-oriented. Le but est d'identifier quelles sorties du modèle contiennent le plus d'information pour l'identification d'un paramètre d'entrée spécifié. Pour cela, nous maximisons le *gain d'information* mesuré avec la distance Kullback-Leibler entre la distribution a priori et l'a posteriori. Ce critère étant trop coûteux à évaluer numériquement, nous dérivons une borne inférieure frugale basée sur le gradient du modèle. Une solution analytique peut être facilement calculée pour la maximisation de cette borne, ce qui est un avantage pratique important. Dans le second cas (sortie->entrée), nous explorons les liens avec l'analyse de sensibilité globale. Notre méthode s'apparente aux mesures de sensibilité globale basées sur la dérivée (DGSM), offrant une alternative efficace en termes de calcul aux indices de Sobol'. En particulier, nous pouvons identifier les entrées les plus (ou les moins) sensibles en analysant une matrice de diagnostic qui dépend de la sortie d'intérêt. Nous montrons que les DGSM sont des bornes supérieures aux indices de Sobol' totaux d'ordre arbitraire. Aussi, grâce à notre inégalité de type Cramér-Rao, nous améliorons les bornes inférieures existantes des indices de Sobol' totaux.