Calibration orientée des lois prédictives de processus gaussiens. Application à la multi-fidélité et à la descente d'échelle.
Auteur / Autrice : | Aurélien Pion |
Direction : | Emmanuel Vazquez |
Type : | Projet de thèse |
Discipline(s) : | Informatique mathématique |
Date : | Inscription en doctorat le 01/06/2023 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale Sciences et technologies de l'information et de la communication |
Partenaire(s) de recherche : | Laboratoire : Laboratoire des Signaux et Systèmes |
Equipe de recherche : Signaux | |
Référent : CentraleSupélec |
Mots clés
Résumé
Malgré la popularité de l'approche bayésienne par processus gaussiens et de très nombreux travaux sur ce sujet, certaines questions, pourtant importantes, restent relativement peu étudiées. Il s'agit en particulier du problème de la calibration des lois prédictives et de l'agrégation de modèles. Pour construire un métamodèle, l'approche usuelle consiste à sélectionner le vecteur des paramètres d'un processus paramétré par maximum de vraisemblance. Les travaux de T. Karvonen sur les deux dernières années donnent des renseignements importants d'un point de vue théorique sur les performances du maximum de vraisemblance. Par ailleurs, dans une étude récente, Petit et al., 2022 montrent empiriquement que l'estimation par maximum de vraisemblance permet de sélectionner de manière satisfaisante les paramètres d'un modèle, ainsi que le modèle lui-même, au regard de plusieurs critères de validation dérivés de scoring rules classiques (Murphy & Winkler 1970, Gneiting & Raftery, 2007). Toutefois, les trois questions suivantes restent à notre connaissance en suspens : 1. L'estimateur de maximum de vraisemblance fournit-il des lois bien calibrées ? 2. Est-il pertinent et possible de concevoir des procédures de calibration orientées, ou goal-oriented en anglais, notamment afin d'obtenir une meilleure calibration dans des régions d'intérêt de l'espace, quitte à dégrader la modélisation ailleurs ? 3. La combinaison / agrégation de modèles peut-elle permettre de construire de meilleurs modèles ? Dans le cadre de la multi-fidélité, les questions 1 et 2 ci-dessus prennent tout leur sens. Il est en effet important de quantifier l'erreur de prédiction par processus gaussien de la manière la plus précise possible, notamment dans les régions correspondant à la haute fidélité. Par ailleurs, dans ce contexte, il est acceptable de dégrader les performances des prédictions dans les régions de basse fidélité si cela permet d'améliorer les performances de prédiction en haute fidélité. Autour de ces deux questions, se pose aussi celle de la planification d'expériences : quelles simulations choisir pour améliorer la précision des lois prédictives ? Les approches usuelles se concentrent généralement sur l'estimation de quantité d'intérêt (pour l'optimisation, le dépassement d'un seuil ) mais étudient peu l'incertitude résultant de la sélection des paramètres du processus. Le travail envisagé dans cette thèse vise à fournir des outils de prédiction par processus gaussiens avec de meilleures garanties sur les performances de prédiction, en vue de l'intégration de ces outils dans les chaînes de calcul de Transvalor S.A..