Thèse soutenue

Quelques contributions de l'apprentissage statistique à la finance : volatilité, nowcasting, compression de cva

FR  |  
EN
Auteur / Autrice : Marc Chataigner
Direction : Stéphane Crépey
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 18/10/2021
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard
Partenaire(s) de recherche : Laboratoire : Laboratoire de Mathématiques et Modélisation d'Évry (Evry, Essonne) - Laboratoire de Mathématiques et Modélisation d'Évry (Evry, Essonne)
Equipe de recherche : Laboratoire de Mathématiques et Modélisation d'Évry (Evry, Essonne)
référent : Université d'Évry-Val-d'Essonne (1991-....)
graduate school : Université Paris-Saclay. Graduate School Mathématiques (2020-....)
Jury : Président / Présidente : Olivier Guéant
Examinateurs / Examinatrices : Christoph Reisinger, Christa Cuchiero, Agathe Guilloux, Blanka Horvath, John C. Hull
Rapporteurs / Rapporteuses : Christoph Reisinger, Christa Cuchiero

Résumé

FR  |  
EN

La complexité des enjeux régulatoires a motivé l'usage intensif de l'apprentissage statistique en finance de marché. Cette thèse vise à démontrer les ponts possibles entre la finance quantitative et des outils récents en machine learning. On s'attache dans un premier temps à rendre compatible ces nouveaux outils que sont les réseaux de neurones avec des contraintes inhérentes à la valorisation de produits dérivés. Nous démontrons empiriquement que l'approche par pénalisations offre un contrôle suffisant des contraintes d'arbitrage tout en conservant une précision d'interpolation convenable.Le respect de ces contraintes d'arbitrage rend aussi possible l'obtention de la volatilité locale dont nous évaluons la validité par le biais de backtests.Cette obtention est d'autant plus rapide que nous calculons la formule de Dupire grâce à la rétro-propagation du gradient. Par ailleurs nous régularisons la volatilité locale associée au réseau de neurones ce qui n'est pas possible pour d'autres modèles non-paramétriques comme les processus gaussiens.Dans la deuxième partie, une variation des auto-encodeurs est introduite pour détecter des outliers et corriger des observations incomplètes si nécessaire. La nouveauté de cette approche réside dans sa capacité à traiter des données dont l'indexation varie au cours du temps.Nous caractérisons un outlier par une observation trop différente de sa reconstruction produite par l'auto-encodeur au sens où cette observation ne respecte la structure induite par une historique de données. Capitalisant sur cette structure en basse dimension, nous inférons les valeurs manquantes à l'instar des complétions de matrices de faible rang.La pertinence des surfaces complétées est validée, à partir de données financières, à l'aune de différentes méthodes d'interpolation.Enfin on optimise grâce à un algorithme génétique une mesure de risque de contrepartie, à savoir la CVA.Le trade incrémental est sélectionné de façon à réduire le risque de contrepartie tout en pénalisant son risque de marché.On détaille au passage les défis opérationnels liés à la mise en oeuvre des routines de compression de métriques XVA.