Thèse en cours

Algorithmes à complexité réduite pour statistiques à haute dimension

FR  |  
EN

Accès à la thèse

Triangle exclamation pleinLa soutenance a eu lieu le 14/06/2024. Le document qui a justifié du diplôme est en cours de traitement par l'établissement de soutenance.
Auteur / Autrice : Sasila Ilandarideva
Direction : Anatoli JuditskyVianney Perchet
Type : Projet de thèse
Discipline(s) : Mathématiques Appliquées
Date : Inscription en doctorat le
Soutenance le 14/06/2024
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale Mathématiques, sciences et technologies de l'information, informatique (Grenoble ; 1995-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire Jean Kuntzmann
Jury : Président / Présidente : Jerôme Lelong
Examinateurs / Examinatrices : Anatoli Iouditski, Antonin Chambolle, Niao He, Vianney Perchet, Alexandre D'aspremont, Jerôme Malick, Guanghui Lan
Rapporteurs / Rapporteuses : Antonin Chambolle, Niao He

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

L'objectif de cette thèse est d'étudier des algorithmes d'optimisation stochastique de premier ordre appliquées à la résolution de problème de récupération statistique en haute dimension. Plus précisément, nous examinerons la mise en œuvre d'algorithmes d'approximation stochastique multi-étape basés sur une stratégie de redémarrage. Lorsqu'ils sont appliqués au problème de récupération parcimonieuse, les estimateurs fournis par nos méthodes stochastiques doivent vérifier des bornes statistiques optimales sur la performance de l'estimation, généralement mesurée par le risque d'estimation ou le risque de prédiction, avec pour objectif final de supprimer les limitations existantes des algorithmes connus. Les algorithmes doivent être robustes aux distributions à queue lourde des observations bruitées et aux observations erronées des régresseurs. Les algorithmes étudiés devront s'adapter à une implémentation parallélisée, leurs performances numériques devant évoluer en fonction de la mémoire disponible ou des ressources de traitement et de l'architecture. Dans la première partie de ce manuscrit, nous développerons et analyseront une méthode multi-étapes basée sur l'algorithme Stochastique de Descente Miroir basé sur une divergence de Bregman utilisant une fonction potentiel posédant une structure géométrique non Euclidienne. Nous fournirons des bornes pour les larges déviations sous l'hypothèse que le bruit stochastique suit une distribution sous-Gaussienne. Cette méthode est étendue avec des garanties théoriques sous une hypothèse de convexité uniforme autour de l'optimum, incluant également une analyse de robustesse de l'algorithme vis à vis de ses paramètres inconnus basée sur la procédure d'adaptation de Lepski. Dans la seconde partie, nous explorons une variante de la méthode du gradient accéléré de Nesterov, qui utilise une estimation du vrai gradient par moyennation des gradients stochastiques. Nous montrerons que cette méthode accelerée atteint à la fois la complexité optimale en terme d'itération mais également la complexité optimale en terme d'échantillon, tout celà, sous l'hypothèse d'un bruit stochastique dependant du point de recherche en cours. Notre analyse comprend des vitesses de convergences valide en espérance, ainsi que des bornes pour de larges déviations en présence de bruit stochastic suivant des distributions sous-exponentielle. Cette méthode est ensuite adaptée en une procédure multi-étapes, ciblant spécifiquement les problèmes de récupération de vecteurs parcimonieux en grande dimension. Tout au long de ce manuscrit, l'efficacité des méthodes proposées est constamment évaluée dans le contexte des modèles de régression linéaire généralisée parcimonieuse, un problème important dans la récupération statistique.