Thèse soutenue

Approches constructives pour l'analyse de pire cas des méthodes de gradient en optimisation convexe : contributions, éléments de compréhension, et nouveaux résultats.

FR  |  
EN
Auteur / Autrice : Baptiste Goujaud
Direction : Aymeric DieuleveutAdrien Taylor
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 05/04/2024
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : Laboratoire : CMAP - Centre de Mathématiques appliquées - Centre de Mathématiques Appliquées de l'Ecole polytechnique / CMAP
Jury : Président / Présidente : Andrea Simonetto
Examinateurs / Examinatrices : Aymeric Dieuleveut, Adrien Taylor, Antonin Chambolle, Laurent Lessard, Hamza Fawzi Altakroury, Jelena Diakonikolas
Rapporteur / Rapporteuse : Antonin Chambolle, Laurent Lessard

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

À l'heure actuelle, caractérisée par une croissance sans précédent des données disponibles et des capacités computationnelles,le domaine de l'apprentissage automatique, et plus particulièrement de l'apprentissage profond, a connu une évolution exceptionnelle.Les algorithmes d'apprentissage automatique reposent largement sur des techniques d'optimisation pour ajuster leurs paramètres et améliorer leurs prédictions.Parmi les différentes approches d'optimisation, les méthodes du premier ordre ont émergé comme des fondements incontournables, démontrant un équilibre notable entre rapidité et précision.Il est aujourd'hui crucial de développer une théorie solide de l'optimisation du premier ordre pour en exploiter pleinement le potentiel.Ces fondements théoriques approfondissent notre compréhension des algorithmes d'optimisation actuels et ouvrent la voie à la création d'algorithmes innovants.L'efficacité démontrée du concept de momentum dans l'accélération significative de la convergence de problèmes réels témoigne de l'importance de la théorie de l'optimisation.Cette théorie a permis la formulation du momentum, transformant des intuitions théoriques en un outil d'optimisation pratique, largement adopté.Cette thèse vise à poursuivre et accélérer les efforts visant à développer une base théorique solide de l'optimisation du premier ordre.Nous avons présenté plusieurs résultats en exploitant les structures générales des certificats de preuves.(i) Le lien entre l'optimisation quadratique et la théorie des polynômes a été utilisé pour expliquer des phénomènes observés empiriquement.(ii) Un package Python a été mis en place pour faciliter l'utilisation du framework d'emph{estimation de performance}.(iii) Un tutoriel détaillé expliquant la dérivation de preuves naturelles en optimisation basée sur ce cadre a été rédigé.(iv) En utilisant notre package Python, nous avons appliqué cette méthodologie pour dériver une théorie complète de l'optimisation du premier ordre sur une vaste classe de fonctions.(v) Le framework théorique d'emph{estimation de performance} a été étendu pour réfuter la convergence d'une famille spécifique de méthodes, démontrant finalement la non-accélération de la célèbre méthode ``Heavy-ball'' sur la classe des fonctions lisses et fortement convexes.