Thèse en cours

Apprentissage par renforcement profond pour les systèmes distribués

FR  |  
EN
Auteur / Autrice : Zhuofan Xu
Direction : Matthias Fuegger
Type : Projet de thèse
Discipline(s) : Informatique
Date : Inscription en doctorat le 01/10/2022
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale Sciences et technologies de l'information et de la communication
Partenaire(s) de recherche : Laboratoire : Laboratoire Méthodes Formelles
Référent : Ecole Normale Supérieure Paris-Saclay

Résumé

FR  |  
EN

Étant donné un ensemble de n > 1 agents dans un environnement, une question naturelle est de savoir comment concevoir un algorithme distribué pour les agents, tel que le comportement collectif des agents réponde à une certaine spécification. De tels problèmes ont été étudiés sous diverses formes dans le contexte de l'informatique distribuée. Des exemples de problèmes sont l'obtention d'un accord entre les agents malgré des états initiaux incohérents, l'exécution d'actions synchronisées malgré une communication peu fiable et l'obtention d'un instantané cohérent à l'échelle du système, entre autres. Classiquement, les solutions en termes d'algorithmes distribués ont été conçues à la main et ont ensuite fait leurs preuves. Motivés par la difficulté à trouver des solutions, la synthèse automatisée d'algorithmes distribués a été abordée. Cependant, les méthodes proposées sont soit d'un coût prohibitif en termes de complexité de calcul, et/ou les algorithmes et les environnements sont trop restreints pour être appliqués à des problèmes du monde réel. Dans ce projet de thèse, nous travaillerons sur des solutions approchées alternatives. Nous étudierons l'apprentissage par renforcement profond comme méthode de synthèse d'algorithmes distribués. Un défi majeur, et un objectif, de ce projet de recherche réside dans le fait que les techniques classiques d'apprentissage par renforcement nécessitent un petit espace d'action et ne s'adaptent donc pas aux systèmes distribués avec un grand n. L'objectif du projet est de proposer de nouvelles techniques d'apprentissage par renforcement profond particulièrement adaptées aux systèmes distribués, là où les méthodes classiques échouent. Les méthodes proposées seront ensuite appliquées à des exemples réels, en mettant l'accent sur les systèmes biologiques distribués (contrôle des infections, compilation de circuits génétiques), où nous considérons un environnement stochastique et recherchons des algorithmes distribués probabilistes optimaux.