Théorie des jeux et apprentissage séquentiel : montée-descente de gradient, optimisation, approximation et certification
Auteur / Autrice : | Etienne De Montbrun |
Direction : | Jerôme Renault, Sébastien Gerchinovitz |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques appliquées |
Date : | Soutenance le 13/11/2023 |
Etablissement(s) : | Toulouse 1 |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, informatique et télécommunications (Toulouse) |
Partenaire(s) de recherche : | Equipe de recherche : TSE-R (Toulouse) |
Mots clés
Mots clés contrôlés
Résumé
Cette thèse se situe dans les domaines de la théorie des jeux et de l'apprentissage séquentiel, en abordant trois problèmes distincts par l'étude de trois algorithmes optimistes différents.Tout d'abord, nous approfondissons l'étude d'OGDA, une variante de l'algorithme de montée-descente de gradient, dans le cadre des jeux bilinéaires sans contraintes. OGDA améliore ses performances grâce à un terme de gradient supplémentaire dans la mise à jour.Notre deuxième domaine de recherche est l'optimisation multi-fidélité pour les fonctions lipschitziennes, où nous nous intéressons plus particulièrement à la notion de certificat.Nous introduisons c.MF-DOO, un algorithme certifié s'appuyant sur la maximisation de bornes supérieures de la fonction à optimiser.Enfin, nous examinons GreedyBox, un algorithme qui minimise les erreurs d'approximation Lp des fonctions monotones grâce à une approche dite ``gourmande''.Notre étude examine les dynamiques, les vitesses de convergence, les limites ainsi que certaines améliorations de ces trois algorithmes, et conduit à de nouvelles perspectives sur les avantages de la certification et de l'optimisme.