Thèse soutenue

Apprentissage statistique et algorithmes d'optimisation combinatoire, avec des applications à la planification ferroviaire
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Guillaume Dalle
Direction : Frédéric MeunierYohann de Castro
Type : Thèse de doctorat
Discipline(s) : Mathématiques
Date : Soutenance le 16/12/2022
Etablissement(s) : Marne-la-vallée, ENPC
Ecole(s) doctorale(s) : École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication
Partenaire(s) de recherche : Laboratoire : Centre d'enseignement et de recherche en mathématiques et calcul scientifique (Champs-sur-Marne, Seine-et-Marne)
Jury : Président / Présidente : Elisabeth Gassiat
Examinateurs / Examinatrices : Frédéric Meunier, Yohann de Castro, Pierre Alquier, Éric Moulines, Axel Parmentier, Mathieu Blondel, Jérôme Malick
Rapporteurs / Rapporteuses : Pierre Alquier, Éric Moulines

Résumé

FR  |  
EN

Cette thèse en mathématiques appliquées mélange l’apprentissage statistique et l’optimisation combinatoire. Elle associe des avancées théoriques à des algorithmes efficaces, introduisant au passage plusieurs librairies open source en Julia. Grâce à une collaboration avec la SNCF, plusieurs applications au transport ferroviaire sont présentées : prédiction des pannes, propagation des retards et allocation des voies. La Partie I décrit les fondements mathématiques et l’implémentation de plusieurs ingrédients utiles par la suite : différenciation implicite, processus ponctuels, modèles de Markov cachés, recherche d’itinéraires multi-agent. Notre code en libre accès remplit un vide dans l’écosystème Julia, combinant facilité d’usage et haute performance. La Partie II contient des contributions théoriques liées aux statistiques et à la prise de décision. Notre étude d’un processus autorégressif vectoriel partiellement observé met en évidence des bornes supérieure et inférieure cohérentes sur l’erreur d’estimation. Une exploration des couches d’optimisation combinatoire pour l’apprentissage profond nous permet de développer le package InferOpt.jl, qui unifie et approfondit l’état de l’art. Pour étendre ces méthodes à des couches d’optimisation multi-objectif, nous construisons une nouvelle théorie de l’optimisation lexicographique convexe. La Partie III s’inspire des deux précédentes pour traiter des problèmes ferroviaires concrets. Nous proposons un modèle hiérarchique les pannes de trains, une approche graphique pour la propagation des retards, et de nouvelles perspectives pour l’allocation des voies, avec le challenge Flatland comme terrain d’expérimentation.