Algorithmes d'apprentissage par renforcement pour le contrôle de systèmes de files d'attente
Auteur / Autrice : | Louis-Sébastien Rebuffi |
Direction : | Bruno Gaujal, Jonatha Anselmi |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques et informatique |
Date : | Soutenance le 11/12/2023 |
Etablissement(s) : | Université Grenoble Alpes |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, sciences et technologies de l'information, informatique (Grenoble ; 1995-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'informatique de Grenoble (2007-....) |
Equipe de recherche : Équipe-projet Évaluation et optimisation des performances des grandes infrastructures (Montbonnot-Saint-Martin, Isère ; 2016-....) | |
Jury : | Président / Présidente : Nadia Brauner |
Examinateurs / Examinatrices : Alain Jean-Marie | |
Rapporteurs / Rapporteuses : Gerhardus Martinus Koole, Matthieu Jonckheere |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Bien que l'apprentissage par renforcement ait été récemment principalement étudié dans le cas générique des processus de décisions markoviens, le cas des systèmes de files d'attente se dinstigue particulièrement. Pour compenser la taille de l'espace d'état qui peut être extrêmement grande a priori, les algorithmes d'apprentissage doivent tenir compte de la structure des systèmes afin d'en extraire le plus d'information et de choisir le meilleur contrôle afin d'optimiser au mieux le système sur le long terme.Dans cette thèse, nous présentons des algorithmes construits à partir d'algorithmes classiques, adaptés au contexte des système de file d'attente, et nous étudions les performances de ceux-ci pour montrer une dépendance faible à l'espace d'états comparativement aux résultats obtenus dans le cas général.