Apprentissage statistique et algorithmes d'optimisation combinatoire, avec des applications à la planification ferroviaire
Auteur / Autrice : | Guillaume Dalle |
Direction : | Frédéric Meunier, Yohann de Castro |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques |
Date : | Soutenance le 16/12/2022 |
Etablissement(s) : | Marne-la-vallée, ENPC |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication |
Partenaire(s) de recherche : | Laboratoire : Centre d'enseignement et de recherche en mathématiques et calcul scientifique (Champs-sur-Marne, Seine-et-Marne) |
Jury : | Président / Présidente : Elisabeth Gassiat |
Examinateurs / Examinatrices : Frédéric Meunier, Yohann de Castro, Pierre Alquier, Éric Moulines, Axel Parmentier, Mathieu Blondel, Jérôme Malick | |
Rapporteurs / Rapporteuses : Pierre Alquier, Éric Moulines |
Mots clés
Mots clés contrôlés
Résumé
Cette thèse en mathématiques appliquées mélange l’apprentissage statistique et l’optimisation combinatoire. Elle associe des avancées théoriques à des algorithmes efficaces, introduisant au passage plusieurs librairies open source en Julia. Grâce à une collaboration avec la SNCF, plusieurs applications au transport ferroviaire sont présentées : prédiction des pannes, propagation des retards et allocation des voies. La Partie I décrit les fondements mathématiques et l’implémentation de plusieurs ingrédients utiles par la suite : différenciation implicite, processus ponctuels, modèles de Markov cachés, recherche d’itinéraires multi-agent. Notre code en libre accès remplit un vide dans l’écosystème Julia, combinant facilité d’usage et haute performance. La Partie II contient des contributions théoriques liées aux statistiques et à la prise de décision. Notre étude d’un processus autorégressif vectoriel partiellement observé met en évidence des bornes supérieure et inférieure cohérentes sur l’erreur d’estimation. Une exploration des couches d’optimisation combinatoire pour l’apprentissage profond nous permet de développer le package InferOpt.jl, qui unifie et approfondit l’état de l’art. Pour étendre ces méthodes à des couches d’optimisation multi-objectif, nous construisons une nouvelle théorie de l’optimisation lexicographique convexe. La Partie III s’inspire des deux précédentes pour traiter des problèmes ferroviaires concrets. Nous proposons un modèle hiérarchique les pannes de trains, une approche graphique pour la propagation des retards, et de nouvelles perspectives pour l’allocation des voies, avec le challenge Flatland comme terrain d’expérimentation.