Thèse soutenue

Apprentissage statistique pour la réduction de modèle non-linéaire

FR  |  
EN
Auteur / Autrice : Thomas Daniel
Direction : David Ryckelynck
Type : Thèse de doctorat
Discipline(s) : Mécanique
Date : Soutenance le 24/09/2021
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : Ecole doctorale Ingénierie des Systèmes, Matériaux, Mécanique, Énergétique
Partenaire(s) de recherche : Laboratoire : ENSMP MAT. Centre des matériaux (Evry, Essonne)
établissement de préparation de la thèse : École nationale supérieure des mines (Paris ; 1783-....)
Jury : Président / Présidente : Yvon Maday
Examinateurs / Examinatrices : David Ryckelynck, Stefanie Reese, Kathrin Smetana, Fabien Casenave, Nissrine Akkari
Rapporteurs / Rapporteuses : Virginie Ehrlacher, Ioannis Stefanou

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

La quantification d’incertitudes dans les simulations numériques requiert de lancer un grand nombre de calculs. Pour certaines applications industrielles, la complexité des modèles physiques utilisés est incompatible avec le nombre de simulations requises. Accélérer la résolution d’équations décrivant un problème physique donné est essentiel dans l’optique de concevoir des systèmes fiables et sûrs. Dans cette thèse, nous proposons une nouvelle méthode combinant la réduction de modèle et l’apprentissage statistique pour prédire rapidement une solution approchée d’une équation aux dérivées partielles stochastique. Le comportement mécanique d’une pièce d’un turboréacteur a ainsi pu être calculé 636 fois plus vite qu’avec le modèle haute-fidélité d’origine avec moins de 3% d’erreur, ce qui a permis de quantifier les incertitudes engendrées par la thermique.