Thèse soutenue

Vers un Apprentissage fédéré robuste et préservant la confidentialité

FR  |  
EN
Auteur / Autrice : Fatima Elhattab
Direction : Sara Bouchenak
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 27/10/2023
Etablissement(s) : Lyon, INSA
Ecole(s) doctorale(s) : École doctorale en Informatique et Mathématiques de Lyon (Lyon ; 2009-....)
Partenaire(s) de recherche : Membre de : Université de Lyon (2015-....)
Laboratoire : LIRIS - Laboratoire d'Informatique en Image et Systèmes d'information (Rhône ; 2003-....) - Laboratoire d'InfoRmatique en Image et Systèmes d'information / LIRIS
Equipe de recherche : DRIM - Distribution, Recherche d'Information et Mobilité
Jury : Président / Présidente : Véronique Eglin
Examinateurs / Examinatrices : Sara Bouchenak, Véronique Eglin, Romain Rouvoy, François Taïani, Aurélien Bellet
Rapporteurs / Rapporteuses : Romain Rouvoy, François Taïani

Résumé

FR  |  
EN

Dans le monde numérique en perpétuelle mutation d’aujourd’hui, l’apprentissage automatique est désormais une puissance essentielle et révolutionnaire, comme le démontrent de multiples recherches. Son impact profond s’étend à travers diverses industries, offrant des solutions et des innovations révolutionnaires qui ont remodelé la manière dont nous interagissons avec la technologie et prenons des décisions. Des systèmes de recommandation améliorant la diffusion de contenu sur les plateformes à la présence d’assistants personnels virtuels comme Siri et Alexa, capables de comprendre et de répondre à des commandes en langage naturel. Dans des domaines tels que la santé, il contribue au diagnostic des maladies, tandis que dans la finance, il renforce la détection de la fraude et l’évaluation des risques. Cette ubiquité de l’apprentissage automatique signifie non seulement une tendance technologique, mais aussi un changement fondamental dans les approches de résolution de problèmes et de prise de décisions. Cependant, cette vague d’innovation axée sur les données a soulevé une préoccupation primordiale : la protection de la vie privée des individus et de leurs données personnelles. Le Règlement général sur la protection des données (RGPD) illustre l’importance accrue de la protection des données à l’ère moderne. L’apprentissage fédéré représente un paradigme prometteur en apprentissage automatique, permettant la formation collaborative de modèles entre des appareils décentralisés. Cependant, il présente une vulnérabilité à diverses attaques. Cette recherche est divisée en deux axes principaux, chacun abordant des défis cruciaux en matière de sécurité et de confidentialité dans le contexte de l’apprentissage fédéré. Le premier axe se concentre sur la lutte contre les attaques d’empoisonnement pour un apprentissage fédéré robuste, où les adversaires cherchent à introduire des tâches nuisibles dans les modèles fédérés en plus de leurs tâches principales. Pour détecter ces attaques, on introduit ARMOR, un nouveau système de détection d’attaque basé sur GAN qui analyse les informations intégrées dans les mises à jour du modèle. Le deuxième axe concerne la lutte contre les attaques d’inférence pour l’apprentissage fédéré préservant la vie privée, en particulier les attaques d’inférence d’appartenance. Pour renforcer la confidentialité en apprentissage fédéré, deux approches novatrices sont introduites : PASTEL, qui améliore la résilience des systèmes d’apprentissage fédéré contre les MIAs en minimisant la différence de généralisation interne, et DINAR, une méthode d’apprentissage fédéré préservant la confidentialité à grain fin qui obscurcit les couches sensibles à la confidentialité et utilise une descente de gradient adaptative pour améliorer l’utilité du modèle. Ces objectifs de recherche visent collectivement à relever les défis en matière de sécurité et de confidentialité et à faire progresser le domaine de l'apprentissage fédéré.