Thèse soutenue

Quelques applications de l’apprentissage statistique en finance quantitative : calibration de modèles, mécanisme de formation de la volatilité et filtrage des nouvelles

FR  |  
EN
Auteur / Autrice : Jianfei Zhang
Direction : Mathieu Rosenbaum
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 27/06/2023
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard
Partenaire(s) de recherche : Laboratoire : Centre de mathématiques appliquées (Palaiseau, Essonne) - Centre de Mathématiques Appliquées - Ecole Polytechnique / CMAP
Jury : Président / Présidente : Olivier Guéant
Examinateurs / Examinatrices : Mathieu Rosenbaum, Yu Jun, Ahmed Kebaier, Stefano De Marco, Sergio Pulido, Eduardo Abi Jaber, Sophie Laruelle
Rapporteurs / Rapporteuses : Yu Jun, Ahmed Kebaier

Résumé

FR  |  
EN

Nous commençons cette thèse au Chapitre I en présentant nos méthodologies basées sur l'apprentissage profond pour une calibration efficace du modèle quadratic rough Heston, qui est non-markovien et non-semimartingale. Une approximation multifactorielle du modèle est d'abord proposée. Deux réseaux neuronaux profonds sont ensuite entraînés sur des données simulées afin d'apprendre les fonctions de tarification des options SPX et VIX respectivement. Les résultats de la calibration jointe peuvent être obtenus instantanément. Des tests empiriques montrent que le modèle calibré peut très bien reproduire les surfaces de volatilité implicite du SPX et du VIX. Grâce à l'application de la différenciation adjointe automatique, ces deux réseaux neuronaux peuvent être utilisés pour calculer efficacement les quantités de couverture.Dans le cadre de quadratic rough Heston, nous formulons ensuite un problème de market making optimale sur un panier composé de plusieurs dérivés de SPX, tels que des contrats à terme SPX et VIX, des options SPX et VIX. Le market maker maximise son profit en capturant les écarts entre l'achat et la vente et pénalise le risque d'inventaire du portefeuille, qui peut être expliqué principalement par la variation de SPX. Nous abordons la haute dimensionnalité du problème avec plusieurs approximations pertinentes. Des solutions asymptotiques à forme fermée peuvent ensuite être déduites.Motivés par le fait largement établi que la volatilité est rough dans de nombreuses classes d'actifs et par les résultats prometteurs grâce à l'incorporation de l'effet Zumbach, nous nous intéressons à l'universalité des mécanismes de formation de la volatilité endogène au Chapitre III. Nous commençons par une approche quasi-nonparamétrique. Un réseau LSTM entraîné sur un ensemble de données regroupées couvrant des centaines d'actions liquides montre une performance de prévision de la volatilité supérieure aux autres dispositifs spécifiques à un actif ou à un secteur, ce qui suggère l'existence de l'universalité en question. Nous proposons ensuite une méthode de prévision paramétrique parcimonieuse combinant les principales caractéristiques des modèles rough fractional stochastic volatility et quadratic rough Heston. Avec des paramètres fixes, cette approche présente le même niveau de performance que le LSTM universel, confirmant à nouveau l'universalité d'un point de vue paramétrique.Enfin, nous nous concentrons sur le lien entre les publications des nouvelles et les changements des conditions de liquidité intrajournalière dans le marché financier. En particulier, en détectant les sauts significatifs de la volatilité et des volumes, nous proposons une approche systématique pour distinguer les nouvelles impactantes des neutres présentés massivement. Un prédicteur du sentiment des nouvelles apprendit sur les échantillons sélectionnés s'avère beaucoup plus efficace que celui calibré sur l'ensemble des données brutes en termes de prédiction des mouvements de prix à court terme pour les actifs associés.