Thèse soutenue

Optimisation de réseaux profonds multi-tâches

FR  |  
EN
Auteur / Autrice : Lucas Pascal
Direction : Maria Alejandra Zuluaga Valencia
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 08/11/2021
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Informatique, télécommunications et électronique de Paris (1992-...)
Partenaire(s) de recherche : Laboratoire : Institut EURECOM (Sophia-Antipolis, Alpes-Maritimes)
Jury : Président / Présidente : François Brémond
Examinateurs / Examinatrices : Ender Konukoğlu, Pietro Michiardi
Rapporteur / Rapporteuse : Pablo Andrés Arbelaez Escalante, Marcel Worring

Résumé

FR  |  
EN

L'apprentissage multi-tâches est un paradigme d'apprentissage impliquant l’optimisation de paramètres par rapport à plusieurs tâches simultanément. En apprenant plusieurs tâches liées, un modèle d'apprentissage dispose d'un ensemble d'informations plus complet concernant le domaine dont les tâches sont issues, lui permettant ainsi de construire un meilleur ensemble d’hypothèse sur ce domaine. Cependant, en pratique, les gains de performance obtenus par les réseaux multi-tâches sont loin d'être systématiques. Il arrive au contraire que ces réseaux subissent une perte de performance liée à des phénomènes d’interférences entre les différentes tâches. Cette thèse traite du problème d'interférences en apprentissage multi-tâches, afin d'améliorer les capacités de généralisation des réseaux de neurones profonds.