Thèse soutenue

Réseaux de neurones profonds et équations aux dérivées partielles

FR  |  
EN
Auteur / Autrice : Léon Migus
Direction : Julien SalomonPatrick Gallinari
Type : Thèse de doctorat
Discipline(s) : Mathématiques
Date : Soutenance le 01/12/2023
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire Jacques-Louis Lions (Paris ; 1997-....)
Jury : Président / Présidente : Rodolphe Turpault
Examinateurs / Examinatrices : Romain Tavenard, Olga Mula Hernandez
Rapporteur / Rapporteuse : Emmanuel Frénod, Gilles Louppe

Résumé

FR  |  
EN

L'étude des systèmes physiques, modélisés par des équations aux dérivées partielles, représente une pierre angulaire de la recherche scientifique. Ces équations, qui décrivent la relation entre une fonction et ses dérivées partielles à travers différentes variables, sont essentielles pour modéliser divers phénomènes avec des applications en climatologie ou astronomie par exemple. La récente accessibilité en masse des données a favorisé l'essor des méthodes basées sur les données et plus particulièrement des méthodes d'apprentissage profond (Deep Learning, DL), qui peuvent apprendre des modèles complexes en utilisant des grandes quantités de données. Cependant, pour les systèmes physiques, même avec une quantité apparemment importante de données, les données sont souvent rares par rapport à la complexité des problèmes, ce qui constitue un défi pour ces méthodes d'apprentissage profond. De plus, ces problèmes posent des défis particuliers aux algorithmes de DL, en pouvant être mal posés, chaotiques ou très sensibles aux conditions initiales. En plus de ces défis, des garanties théoriques ou expérimentales de convergence sont recherchées, ce que les méthodes DL peuvent ne pas avoir. Dans cette thèse, nous nous attaquons à certains de ces défis par trois approches distinctes. Dans la première partie de ce travail, nous appliquons des concepts de l'analyse numérique au DL, en offrant deux perspectives : - l'incorporation de schémas numériques multi-grilles dans une architecture DL multi-échelle, démontrant son efficacité dans la résolution de la loi de Darcy et des équations de Burgers 1D visqueuses et non stationnaires. - l'adaptation de schémas numériques implicites dans des réseaux de neurones profonds, garantissant la stabilité des prévisions pour les systèmes dynamiques par le biais de certaines contraintes sur les poids du réseau, conduisant à de meilleurs résultats de prévision à long terme pour deux équations de transport. Dans la deuxième partie de ce travail, nous concevons un modèle hybride pour aborder la conception de la loi de frottement dans les équations de Saint-Venant. Cela implique l'apprentissage de la loi de frottement à partir des observations à travers un schéma numérique. Les expériences consistent en une vaste analyse de la robustesse et de la convergence pour un cas stationnaire et confirment l'efficacité sur un cas dynamique. Dans la troisième partie de ce travail, nous explorons les méthodes continues à travers deux travaux basés sur les représentations neuronales implicites (Implicit Neural Representations, INR) : - INFINITY est une méthode fondée sur les INRs qui peut être appliquée aux problèmes statiques. Elle est testée sur les équations de RANS pour la modélisation de profils aérodynamiques, et conduit à une prédiction correcte des champs physiques et des coefficients de traînée et de portance. - TimeFlow est un algorithme général qui utilise les INR pour imputer et prévoir des séries temporelles. De par sa nature continue, TimeFlow peut gérer les données manquantes, l'échantillonnage irrégulier et les observations non alignées provenant de capteurs multiples.