Thèse en cours

Garanties théoriques et optimisation de l'apprentissage distribué

FR  |  
EN
Auteur / Autrice : Victor Leger
Direction : Romain CouilletDenis Trystram
Type : Projet de thèse
Discipline(s) : Mathématiques Appliquées
Date : Inscription en doctorat le 01/10/2021
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale mathématiques, sciences et technologies de l'information, informatique
Partenaire(s) de recherche : Laboratoire : Laboratoire d'Informatique de Grenoble

Résumé

FR  |  
EN

Avec leurs très bons résultats obtenus récemment pour les tâches de classification, les réseaux de neurones profond attirent de plus en plus l'attention. L'une des tâches particulièrement intéressante réalisée par ces réseaux est appelé 'apprentissage par transfert', également liée à l'apprentissage fédéré et l'apprentissage multitâches, consiste à apprendre une tâche avec peu de données labellisées à partir d'une autre tâche pour laquelle un grand nombre de données labellisées est disponible, ou bien d'utiliser un réseau déjà entraîné pour une tâche pour apprendre une autre tâche. Grâce aux avancées techniques issues de la théorie des matrices aléatoires (statistiques en grande dimension), il est apparaît clairement désormais que l'apprentissage par transfert peut être effectué intelligemment, être complètement compris et largement amélioré, sans faire appel aux structures complexes et coûteuses en calcul que sont les réseaux de neurones. Pour autant, les études actuelles concernent principalement une application triviale de l'apprentissage par transfert basé sur une régression linéaire, avec des données sources et cibles de mêmes tailles, ainsi que tâches identiques. Pendant le stage actuel de Victor LEGER (master MVA) et Sami Fahkri (1ère année à l'Ensimag) au sein de la chair MIAI LargeDATA, nous avons étendu l'analyse décrite précédemment à un apprentissage par transfert plus ambitieux impliquant plusieurs tâches et jeux de données (i) avec potentiellement très peu de données labellisées par tâche (donc avec une approche semi-supervisée) et (ii) limitant au maximum les échanges de données entre les lieux distants (donc avec une approche d'informatique en périphérie). Cela a été fait en utilisant les méthodes, techniques et résultats développés ces dernières années dans le domaine des matrices aléatoires. L'objectif de la thèse est de continuer dans la même voie pour développer des algorithmes distribués simples et efficaces en terme de calcul pour des problèmes réels qui se posent concernant l'apprentissage par transfert/multitâches, et leur garanties théoriques (distance à l'optimum). De plus, en parallèle de la thèse en cours de Minh-Toan NGUYEN sur les bornes de théorie de l'information appliquées à l'apprentissage, la thèse se concentrera sur la réduction systématique des coûts de calcul et de l'échange de données, tout en gardant une perte minimale de l'optimalité, s'engageant ainsi dans une entreprise soutenue par la théorie. Des applications pratiques au secteur médical (MRI ou EEG utilisant des données à distance) et à d'autres domaines ayant un impact sociétal positif serviront à valider concrètement les résultats.