Apprentissage décentralisé efficace en matière de communication pour les systèmes en réseaux intelligents
Auteur / Autrice : | Eunjeong Jeong |
Direction : | Marios Kountouris |
Type : | Thèse de doctorat |
Discipline(s) : | Sciences de l'ingénieur |
Date : | Soutenance le 27/09/2024 |
Etablissement(s) : | Sorbonne université |
Ecole(s) doctorale(s) : | École doctorale Informatique, télécommunications et électronique de Paris (1992-...) |
Partenaire(s) de recherche : | Laboratoire : Institut EURECOM (Sophia-Antipolis, Alpes-Maritimes ; 1992-....) |
Jury : | Président / Présidente : Navid Nikaein |
Examinateurs / Examinatrices : Zheng Chen, Giovanni Neglia | |
Rapporteurs / Rapporteuses : Carlo Fischione, Jemin Lee |
Mots clés
Résumé
L'avènement de l'Internet des Objets (IoT) a mis en évidence l'importance de l'apprentissage entièrement décentralisé (sans serveur), permettant aux modèles individuels de préserver des valeurs spécifiques telles que la préférence locale, la préservation de la vie privée ou la gestion d'une connectivité instable. Cette thèse vise à fournir un guide complet pour aborder les problèmes et comportements intrigants dans les réseaux décentralisés, où les participants utilisent des réseaux neuronaux pour effectuer diverses tâches. La première partie de la thèse explore la communication asynchrone dans l'apprentissage décentralisé sur des réseaux peu fiables. Deux types de défaillances menant au problème des traînards, à savoir le retard de communication et le retard de calcul, sont discutés et analysés. L'objectif est d'atteindre un consensus global dans de tels systèmes. La deuxième partie de la thèse se penche sur l'apprentissage fédéré décentralisé asynchrone via des communications sans fil row-stochastic. Nous soulignons le découplage des chronologies pour la communication et le calcul, conduisant à une autonomie complète des utilisateurs du réseau, contrairement aux méthodes couplées où la mise à jour des gradients et l'échange de potins se produisent soit dans un ordre prédéfini, soit de manière séquentielle. En particulier, notre schéma est le premier à considérer des mises à jour collaboratives de modèles sur une chronologie continue. L'analyse de convergence et les expériences numériques soutiennent la validité du schéma, accompagnées de plusieurs questions ouvertes intrigantes pour des recherches futures qui pourraient développer et améliorer les performances et la philosophie du cadre.Dans la troisième partie, la thèse aborde la personnalisation dans les réseaux collaboratifs décentralisés. Il est reconnu que chaque agent présente des comportements ou des motifs distincts pendant son processus d'apprentissage, plutôt que de poursuivre aveuglément un modèle global appliqué uniformément à tous les agents. Pour relever ce défi, un nouvel algorithme exploitant la distillation des connaissances pour la mesure de similarité est proposé. Cette approche permet de quantifier la distance statistique entre les modèles locaux, améliorant finalement les connexions entre les agents ayant une plus grande pertinence et améliorant de manière significative la performance par client. En combinant ces trois aspects clés, la thèse vise à fournir des orientations complètes pour le développement d'approches d'apprentissage décentralisé efficaces en termes de communication pour les systèmes réseau intelligents. Cette recherche s'efforce de repousser les limites de l'apprentissage entièrement décentralisé, contribuant à l'avancement des techniques d'apprentissage machine distribué.