Thèse en cours

Représentations invariantes de réseaux de neurones et dynamique de leur optimisation

FR  |  
EN
Auteur / Autrice : Sibylle Marcotte
Direction : Gabriel PeyreRémi Gribonval
Type : Projet de thèse
Discipline(s) : Mathématiques
Date : Inscription en doctorat le 01/09/2022
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre
Partenaire(s) de recherche : Laboratoire : DMA - Département de Mathématiques et Applications
établissement opérateur d'inscription : Ecole normale supérieure

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Analyser les performances des architectures profondes est le défi majeur du machine learning moderne. Cette analyse théorique va de pair avec le développement de nouvelles architectures très profondes, et d'algorithmes d'optimisation exploitant les propriétés de ces réseaux. Le point crucial, qui est le cœur de ce sujet de thèse, est de comprendre les compromis entre la sur-paramétrisation des réseaux et la prise en compte des invariances. L'objectif d'ensemble est de développer des méthodes d'apprentissage au comportement maîtrisé tant en termes de complexité algorithmique que de performance statistique. Les pistes envisagées combineront représentations invariantes profondes, approches champ moyen, et exploitation des biais implicites des dynamiques d'apprentissage.