Thèse soutenue

Indices de sensibilité via des méthodes à noyaux pour des problèmes d'optimisation en grande dimension

FR  |  
EN
Auteur / Autrice : Adrien Spagnol
Direction : Rodolphe Le RicheOlivier Roustant
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 02/07/2020
Etablissement(s) : Lyon
Ecole(s) doctorale(s) : Ed Sis 488
Partenaire(s) de recherche : établissement opérateur d'inscription : École nationale supérieure des mines (Saint-Etienne ; 1816-....)
Laboratoire : Institut Henri Fayol / FAYOL-ENSMSE
Jury : Examinateurs / Examinatrices : Olivier Roustant, Serge Gratton, Bertrand Looss, Bernd Bischl, Sébastien Da Veiga
Rapporteurs / Rapporteuses : Serge Gratton, Bertrand Looss

Résumé

FR  |  
EN

Cette thèse s'intéresse à l'optimisation sous contraintes de problèmes type « boite-noire » en grande dimension. Répandus dans les applications industrielles, elles ont généralement un coût élevé ce qui empêche d'utiliser la plupart des méthodes d'optimisation classiques. Afin de résoudre ces problèmes, la dimension de celui-ci est souvent réduite via différentes techniques telle que l'analyse de sensibilité. Un nouvel indice de sensibilité est proposé dans ces travaux afin de distinguer quelles sont les entrées du problèmes influentes et celles négligeables et d'obtenir un problème simplifié n’incluant que les premières. Notre indice, reposant sur le critère d'indépendance d'Hilbert Schmidt, fournit une connaissance de l'impact d'une variable sur la performance de la sortie ou le respect des contraintes, des aspects primordiaux dans notre cadre d'étude. Outre la caractérisation des variables influentes, plusieurs stratégies sont proposées pour traiter les paramètres négligeables. De plus, les applications industrielles coûteuses sont généralement remplacées par des modèles proxys moins coûteux qui sont optimisés de manière séquentielle. Afin de contourner les limitations dues au nombre élevé de paramètres, aussi connu sous le nom de fléau de la dimension, une extension de l'optimisation basée sur des métamodèles est proposée dans cette thèse. Grâce aux nouveaux indices de sensibilités susmentionnés, les paramètres influents sont détectés à chaque itération et l'optimisation est effectuée dans un espace de dimension inférieure.