Thèse soutenue

Méthodes numériques et réseaux de neurones pour le contrôle stochastique et les équations aux dérivées partielles

FR  |  
EN
Auteur / Autrice : Come Huré
Direction : Huyên PhamFrédéric Abergel
Type : Thèse de doctorat
Discipline(s) : Mathématiques. Mathématiques appliquées
Date : Soutenance le 27/06/2019
Etablissement(s) : Sorbonne Paris Cité
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : établissement de préparation : Université Paris Diderot - Paris 7 (1970-2019)
Laboratoire : Laboratoire de probabilités et modèles aléatoires (Paris ; 1997-2017)
Jury : Président / Présidente : Gilles Pagès
Examinateurs / Examinatrices : Huyên Pham, Frédéric Abergel, Gilles Pagès, Romuald Elie, John G. M. Schoenmakers, Charles-Albert Lehalle, Emmanuel Gobet, Jean-François Chassagneux
Rapporteur / Rapporteuse : Romuald Elie, John G. M. Schoenmakers

Résumé

FR  |  
EN

La thèse porte sur les schémas numériques pour les problèmes de décisions Markoviennes (MDPs), les équations aux dérivées partielles (EDPs), les équations différentielles stochastiques rétrogrades (ED- SRs), ainsi que les équations différentielles stochastiques rétrogrades réfléchies (EDSRs réfléchies). La thèse se divise en trois parties.La première partie porte sur des méthodes numériques pour résoudre les MDPs, à base de quan- tification et de régression locale ou globale. Un problème de market-making est proposé: il est résolu théoriquement en le réécrivant comme un MDP; et numériquement en utilisant le nouvel algorithme. Dans un second temps, une méthode de Markovian embedding est proposée pour réduire des prob- lèmes de type McKean-Vlasov avec information partielle à des MDPs. Cette méthode est mise en œuvre sur trois différents problèmes de type McKean-Vlasov avec information partielle, qui sont par la suite numériquement résolus en utilisant des méthodes numériques à base de régression et de quantification.Dans la seconde partie, on propose de nouveaux algorithmes pour résoudre les MDPs en grande dimension. Ces derniers reposent sur les réseaux de neurones, qui ont prouvé en pratique être les meilleurs pour apprendre des fonctions en grande dimension. La consistance des algorithmes proposés est prouvée, et ces derniers sont testés sur de nombreux problèmes de contrôle stochastique, ce qui permet d’illustrer leurs performances.Dans la troisième partie, on s’intéresse à des méthodes basées sur les réseaux de neurones pour résoudre les EDPs, EDSRs et EDSRs réfléchies. La convergence des algorithmes proposés est prouvée; et ces derniers sont comparés à d’autres algorithmes récents de la littérature sur quelques exemples, ce qui permet d’illustrer leurs très bonnes performances.