Tirer parti de l'aléatoire (physique) dans les algorithmes d'apprentissage automatique
Auteur / Autrice : | Ruben Ohana |
Direction : | Florent Krzakala, Alessandro Rudi |
Type : | Thèse de doctorat |
Discipline(s) : | Physique |
Date : | Soutenance le 16/09/2022 |
Etablissement(s) : | Sorbonne université |
Ecole(s) doctorale(s) : | École doctorale Physique en Île-de-France (Paris ; 2014-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire de physique de l'ENS (Paris ; 2019-....) |
Jury : | Président / Présidente : Julie Grollier |
Examinateurs / Examinatrices : Liva Ralaivola, Claire Boyer | |
Rapporteurs / Rapporteuses : Rémi Gribonval, Joan Bruna |
Résumé
Dans cette thèse, nous tirerons parti de l’usage de l’aléatoire dans différents aspects de l’apprentissage automatique. Nous commencerons par montrer le lien entre le calcul par réservoir et les noyaux récurrents sous le prisme des caractéristiques aléatoires, et introduirons les transformées structurées afin d’améliorer la complexité computationnelle du calcul par réservoir. Par la suite, nous montrerons comment tirer parti de calculs optiques afin de mettre à l’échelle les caractéristiques aléatoires pour l’approximation de noyaux, à bas coût énergétique. Nous continuerons par montrer comment combiner le Processeur de Calcul Optique avec des méthodes d’entraînement alternatives à la rétropropagation du gradient tel que l’alignement par retour direct, afin de rendre adversariallement robuste des réseaux de neurones entraînés depuis le début ou d’augmenter la robustesse des défenses les plus robustes. Par ailleurs, nous entraînerons un réseau de neurones de façon optique et tirerons parti du bruit expérimental afin de démontrer comment cela induit une confidentialité différentielle. Nous finirons par utiliser les bornes PAC-Bayésiennes afin d’optimiser la distribution des projections aléatoires de la distance de Sliced-Wasserstein, tout en s’appuyant sur des fondations théoriques.