Thèse soutenue

Politiques quasi-optimales de bandits Markoviens

FR  |  
EN
Auteur / Autrice : Yan Chen
Direction : Bruno GaujalNicolas Gast
Type : Thèse de doctorat
Discipline(s) : Mathématiques Appliquées
Date : Soutenance le 15/12/2022
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale Mathématiques, sciences et technologies de l'information, informatique (Grenoble ; 1995-....)
Partenaire(s) de recherche : Laboratoire : Institut national de recherche en informatique et en automatique (France). Centre de recherche de l'université Grenoble Alpes
Jury : Président / Présidente : Jérôme Malick
Examinateurs / Examinatrices : Kim Thang Nguyen, Benjamin Legros
Rapporteurs / Rapporteuses : David, Alan Golberg, Bruno Scherrer

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

Les bandits à bras multiples sont des modèles classiques de problèmes de prise de décisions séquentiels dans lesquels un contrôleur (ou un apprenant) doit décider à chaque pas comment allouer ses ressources à un ensemble fini d'alternatives (appelées bras ou agents dans la suite). Aujourd'hui, ils sont largement utilisés dans l'apprentissage en ligne car ils fournissent des outils théoriques pour résoudre des problèmes pratiques (placement d'annonces, routage ou réponse à la demande, par exemple). Lorsque certaines informations sur les différents bras sont disponibles, ils appartiennent à la classe des bandits markoviens pour lesquels les politiques d'allocation optimales sont difficiles à résoudre à mesure que le nombre de bras augmente.L'objectif principal de cette thèse est de fournir un cadre innovant pour un contrôle optimal des agents stochastiques distribués. Le problème de bandits sans repos est un exemple particulier où le contrôle de chaque bras est limité à un signal marche / arrêt. L'originalité de ce cadre réside dans l'utilisation d'une nouvelle méthode, appelée approximation champ moyen raffinée, développée dans le contexte de l'évaluation de la performance [3]. Ce cadre permettra de développer des heuristiques de contrôle asymptotiquement optimales lorsque le nombre de bras ira à l'infini en offrant également de meilleures performances que les heuristiques existantes [4] pour un nombre modéré de bras. Pour démontrer l'efficacité de notre approche, nous proposons d'appliquer ce cadre dans le contexte des réseaux intelligents, afin d'élaborer des politiques de contrôle des appareils électriques distribués [1].References[1] Y. Chen, A. Buˇsi ́c, and S. P. Meyn. “State estimation for the individual and the population in mean field control with application to demand dispatch”. In: IEEE Transactions on Automatic Control 62.3 (2017), pp. 1138–1149.[2] N. Gast, L. Bortolussi, and M. Tribastone. “Size Expansions of Mean Field Approximation: Transient and Steady-State Analysis.” In: Performance Evaluation (2018).[3] N. Gast and B. Van Houdt. “A Refined Mean Field Approximation”. In: Proceedings of the ACM on Measurement and Analysis of Computing Systems - SIGMETRICS 1.2 (Dec. 2017), 33:1–33:28. issn: 2476-1249. doi: 10.1145/3154491. url: http://doi.acm.org/10.1145/3154491.[4] I. M. Verloop. “Asymptotically optimal priority policies for indexable and nonindexable restless bandits”. In: Ann. Appl. Probab. 26.4 (Aug. 2016), pp. 1947–1995. doi: 10.1214/15-AAP1137. url: https://doi.org/10.1214/15-AAP1137.