Thèse soutenue

Théorie des jeux et apprentissage séquentiel : montée-descente de gradient, optimisation, approximation et certification

FR  |  
EN
Auteur / Autrice : Etienne De Montbrun
Direction : Jerôme RenaultSébastien Gerchinovitz
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 13/11/2023
Etablissement(s) : Toulouse 1
Ecole(s) doctorale(s) : École doctorale Mathématiques, informatique et télécommunications (Toulouse)
Partenaire(s) de recherche : Equipe de recherche : TSE-R (Toulouse)

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Cette thèse se situe dans les domaines de la théorie des jeux et de l'apprentissage séquentiel, en abordant trois problèmes distincts par l'étude de trois algorithmes optimistes différents.Tout d'abord, nous approfondissons l'étude d'OGDA, une variante de l'algorithme de montée-descente de gradient, dans le cadre des jeux bilinéaires sans contraintes. OGDA améliore ses performances grâce à un terme de gradient supplémentaire dans la mise à jour.Notre deuxième domaine de recherche est l'optimisation multi-fidélité pour les fonctions lipschitziennes, où nous nous intéressons plus particulièrement à la notion de certificat.Nous introduisons c.MF-DOO, un algorithme certifié s'appuyant sur la maximisation de bornes supérieures de la fonction à optimiser.Enfin, nous examinons GreedyBox, un algorithme qui minimise les erreurs d'approximation Lp des fonctions monotones grâce à une approche dite ``gourmande''.Notre étude examine les dynamiques, les vitesses de convergence, les limites ainsi que certaines améliorations de ces trois algorithmes, et conduit à de nouvelles perspectives sur les avantages de la certification et de l'optimisme.