Thèse soutenue

Repenser les algorithmes d’apprentissage inspirés de la biologie pour estimer les gradients par la physique des systèmes neuromorphiques

FR  |  
EN
Auteur / Autrice : Maxence Ernoult
Direction : Julie Grollier
Type : Thèse de doctorat
Discipline(s) : Physique
Date : Soutenance le 30/06/2020
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Physique en Île-de-France (Paris ; 2014-....)
Partenaire(s) de recherche : Equipe de recherche : Laboratoire de physique théorique et hautes énergies (Paris ; 1997-....)
Laboratoire : Centre de nanosciences et de nanotechnologies (Palaiseau, Essonne ; 2016-....) - Laboratoire Albert Fert (Palaiseau, Essonne ; 1995-....)
Jury : Président / Présidente : Pierre Bessière
Examinateurs / Examinatrices : Laurent Daudet, Claudia Teodora Petrisor
Rapporteurs / Rapporteuses : Timothée Masquelier, Blake Richards

Résumé

FR  |  
EN

Le deep learning s’est imposé à l’ensemble de la société grâce à l’utilisation des GPUs (Graphical Processing Units). Aller au-delà de la capacité des GPUs pour l’entraînement des réseaux de neurones est la motivation principale de cette thèse. Une approche possible est le calcul neuromorphique consistant à repenser l’ordinateur à partir de zéro en imitant les caractéristiques du cerveau. En particulier, les memristors, qui peuvent stocker des valeurs de poids sous forme d’états de conductance, sont des candidats prometteurs pour les synapses artificielles. Une approche excitante pour réaliser des réseaux de neurones physiques utilisant memristors serait l’apprentissage sur puce : un tel dispositif pourrait réaliser à la fois l’inférence, le calcul de gradient et la mise à jour correspondante des conductances des memristors. Cependant, l’apprentissage sur puce est extrêmement difficile pour deux raisons. Tout d’abord, le calcul du gradient de la fonction objectif appelle à première vue à l’utilisation de l’algorithme de « backpropagation », qui est intrinsèquement difficile à implémenter sur puce. Le deuxième défi de l’apprentissage sur puce est l’incrément de conductance à réaliser étant donnée une valeur de gradient : les memristors présentent de nombreuses imperfections qui entravent considérablement l’apprentissage sur puce. Dans cette thèse, nous proposons de démêler ces deux aspects de l’apprentissage sur puce. D’une part, nous étudions l’effet des imperfections des memristors sur l’apprentissage des machines Boltzmann restreintes et proposons des stratégies de programmation appropriées. D’autre part, nous nous appuyons sur l’algorithme de « Equilibrium Propagation », un équivalent de la backpropagation dont la règle d’apprentissage, calculée par la physique du système lui-même, est spatialement locale et mathématiquement fondée.