Thèse soutenue

Apprentissage séquentiel et optimisation stochastique de fonctions convexes

FR  |  
EN
Auteur / Autrice : Xavier Fontaine
Direction : Vianney Perchet
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 11/12/2020
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard
Partenaire(s) de recherche : Laboratoire : Centre de mathématiques et de leurs applications (1990-2019 ; Cachan, Val-de-Marne) - Centre Borelli (Gif-sur-Yvette, Essonne ; 2020-...)
référent : École normale supérieure Paris-Saclay (Gif-sur-Yvette, Essonne ; 1912-....)
Jury : Président / Présidente : Gilles Stoltz
Examinateurs / Examinatrices : Antoine Chambaz, Panayotis Mertikopoulos, Olivier Cappé, Gersende Fort
Rapporteurs / Rapporteuses : Antoine Chambaz, Panayotis Mertikopoulos

Résumé

FR  |  
EN

Dans cette thèse nous étudions plusieurs problèmes d'apprentissage automatique qui sont tous liés à la minimisation d'une fonction bruitée, qui sera souvent convexe.Du fait de leurs nombreuses applications nous nous concentrons sur des problèmes d'apprentissage séquentiel, qui consistent à traiter des données ``à la volée'', ou en ligne.La première partie de cette thèse est ainsi consacrée à l'étude de trois différents problèmes d'apprentissage séquentiel dans lesquels nous rencontrons le compromis classique ``exploration vs. exploitation''.Dans chacun de ces problèmes un agent doit prendre des décisions pour maximiser une récompense ou pour évaluer un paramètre dans un environnement incertain, dans le sens où les récompenses ou les résultats des différentes actions sont inconnus et bruités.Nous étudions tous ces problèmes à l'aide de techniques d'optimisation stochastique convexe, et nous proposons et analysons des algorithmes pour les résoudre.Dans la deuxième partie de cette thèse nous nous concentrons sur l'analyse de l'algorithme de descente de gradient stochastique qui est vraisemblablement l'un des algorithmes d'optimisation stochastique les plus utilisés en apprentissage automatique.Nous en présentons une analyse complète dans le cas convexe ainsi que dans certaines situations non convexes en étudiant le modèle continu qui lui est associé, et obtenons de nouveaux résultats de convergence optimaux.