Apprentissage dans les jeux à champ moyen

par Saeed Hadikhanloo

Thèse de doctorat en Informatique

Sous la direction de Pierre Cardaliaguet et de Rida Laraki.

Soutenue le 29-01-2018

à Paris Sciences et Lettres , dans le cadre de Ecole doctorale de Dauphine (Paris) , en partenariat avec Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) (laboratoire) et de Université Paris Dauphine-PSL (Etablissement de préparation de la thèse) .

Le président du jury était Yves Achdou.

Le jury était composé de Pierre Cardaliaguet, Rida Laraki, Yves Achdou, Fabio Camilli, Sylvain Sorin, Daniela Tonon, Catherine Rainer.

Les rapporteurs étaient Fabio Camilli, Sylvain Sorin.


  • Résumé

    Les jeux à champ moyen (MFG) sont une classe de jeux différentiels dans lequel chaque agent est infinitésimal et interagit avec une énorme population d'agents. Dans cette thèse, nous soulevons la question de la formation effective de l'équilibre MFG. En effet, le jeu étant très complexe, il est irréaliste de supposer que les agents peuvent réellement calculer la configuration d'équilibre. Cela semble indiquer que si la configuration d'équilibre se présente, c'est parce que les agents ont appris à jouer au jeu. Donc, la question principale est de trouver des procédures d'apprentissage dans les jeux à champ moyen et d'analyser leurs convergences vers un équilibre. Nous nous sommes inspirés par des schémas d'apprentissage dans les jeux statiques et avons essayé de les appliquer à notre modèle dynamique de MFG. Nous nous concentrons particulièrement sur les applications de fictitious play et online mirror descent sur différents types de jeux de champs moyens : Potentiel, Monotone ou Discret.

  • Titre traduit

    Learning in Mean Field Games


  • Résumé

    Mean Field Games (MFG) are a class of differential games in which each agent is infinitesimal and interacts with a huge population of other agents. In this thesis, we raise the question of the actual formation of the MFG equilibrium. Indeed, the game being quite involved, it is unrealistic to assume that the agents can compute the equilibrium configuration. This seems to indicate that, if the equilibrium configuration arises, it is because the agents have learned how to play the game. Hence the main question is to find learning procedures in mean field games and investigating if they converge to an equilibrium. We have inspired from the learning schemes in static games and tried to apply them to our dynamical model of MFG. We especially focus on fictitious play and online mirror descent applications on different types of mean field games; those are either Potential, Monotone or Discrete.


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Autre version

Apprentissage dans les jeux à champ moyen


Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse\u00a0?

  • Bibliothèque : PARIS-PSL (Paris). Université Paris-Dauphine. Service commun de la documentation : Thèses électroniques Dauphine.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.

Consulter en bibliothèque

à

Informations

  • Sous le titre : Apprentissage dans les jeux à champ moyen
  • Détails : 1vol. (111p.)
La version de soutenance de cette thèse existe aussi sous forme papier.

Où se trouve cette thèse\u00a0?

Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.