Thèse soutenue

Sélection de modèle et échantillonnage séquentiel en métamodélisation : Krigeage et au-delà.

FR  |  
EN
Auteur / Autrice : Malek Ben salem
Direction : Olivier Roustant
Type : Thèse de doctorat
Discipline(s) : Mathematiques appliquees
Date : Soutenance le 19/03/2018
Etablissement(s) : Lyon
Ecole(s) doctorale(s) : École doctorale Sciences Ingénierie Santé (Saint-Etienne)
Jury : Président / Présidente : Clémentine Prieur
Examinateurs / Examinatrices : Olivier Roustant, Clémentine Prieur, Sonja Kuhnt, Raphael T. Haftka, Céline Helbert, Fabrice Gamboa, Lionel Tomaso
Rapporteurs / Rapporteuses : Sonja Kuhnt, Raphael T. Haftka

Résumé

FR  |  
EN

Les surfaces de réponses, dites aussi méta-modèles sont généralement utilisées pour remplacer une fonction coûteuse. Ces méta-modèles sont également utilisés pour accélérer l’estimation d’une caractéristique de cette fonction (un optimum, une ligne de niveau, …). Dans ce travail, nous nous sommes intéressés à trois aspects de la méta-modélisation.1/ Il est difficile de choisir le méta-modèle ainsi que ses paramètres les plus appropriés pour un plan d’expérience donné. En effet, il est difficile d'évaluer la qualité d'un méta-modèle sans des données de validation. Nous proposons un critère de qualité de méta-modèle et nous présentons deux algorithmes de sélection en se basant sur ce critère.2/ L’avantage principal de la régression par processus gaussiens (GP) est qu'elle fournit partout une mesure d'incertitude associée à la prédiction. C’est un outil efficace pour construire des stratégies d’échantillonnage séquentiel. Nous proposons un algorithme permettant d'estimer une distribution de prédiction pour n'importe quel méta-modèle, qui permet d’étendre les méthodes d’échantillonnage séquentielles basées sur les GP à tous les méta-modèles. On l'appelle la distribution universelle de prédiction.3/ De nombreux problèmes de conception font appel à un grand nombre de variables ce qui rend l'exploration de l’espace paramétrique difficile. Dans certains cas seules quelques variables sont influentes. Nous proposons un algorithme réalisant simultanément l'apprentissage d'une caractéristique et la réduction de dimension. La méthode est basée sur des résultats théoriques issus du cadre de la régression par processus gaussien. Notre méthode s'appelle l’algorithme Split-and-Doubt.