Thèse soutenue

Réduction de l’oubli catastrophique à l’aide de méthodes de distillation et de transfert de caractéristiques pour l’apprentissage incremental profond

FR  |  
EN
Auteur / Autrice : Quentin Ferdinand
Direction : Benoît ClémentPanagiotis Papadakis
Type : Thèse de doctorat
Discipline(s) : Sciences et technologies de l’information et de la communication - Informatique
Date : Soutenance le 22/11/2023
Etablissement(s) : Brest, École nationale supérieure de techniques avancées Bretagne
Ecole(s) doctorale(s) : École doctorale Sciences pour l'ingénieur et le numérique
Partenaire(s) de recherche : Laboratoire : Laboratoire des sciences et techniques de l'information- de la communication et de la connaissance / Lab-STICC
Jury : Président / Présidente : Romain Billot
Examinateurs / Examinatrices : David Filliat, Gilles Le Chenadec, Quentin Oliveau
Rapporteur / Rapporteuse : Céline Hudelot, Sébastien Lefèvre

Résumé

FR  |  
EN

Les méthodes d’apprentissage profond actuelles sont conçues de manière statique, avec un certain nombre de classes à reconnaître connu et prédéfini à l’avance. L’apprentissage incrémental, en revanche, étudie le scénario plus réaliste dans lequel certaines classes inconnues peuvent arriver au fur et à mesure et le modèle doit s’adapter et apprendre à reconnaître ces nouvelles catégories. Malheureusement, les réseaux neuronaux profonds entrainés de cette manière souffrent d’un oubli catastrophique, provoquant une dégradation significative des performances sur les classes précédemment rencontrées. Diverses méthodes ont été explorées pour atténuer ce problème en rectifiant la couche de classification des modèles incrémentaux. Cependant, un aspect tout aussi important réside dans la dégradation de la qualité des caractéristiques que le modèle extrait des images. Cette thèse se concentre spécifiquement sur l’exploration de diverses approches visant à améliorer leur pouvoir discriminant, facilitant ainsi l’adaptation à de nouvelles classes tout en préservant les caractéristiques discriminatives des classes précédentes lors de l’entraînement incrémental. Plus précisément, deux méthodes ont été proposées et rigoureusement évaluées, atteignant des performances comparables où supérieures à l’état de l’art. La première approche présentée explore l’utilisation de méthodes contrastives pendant l’apprentissage incrémental afin d’améliorer les caractéristiques extraites par le modèle, tandis que la seconde utilise une stratégies d’expansion et de compression de la partie responsable de l’extraction des caractéristiques dans le réseau de neurone afin de réduire significativement l'oubli.