Thèse en cours

Vers une protection de la vie privée équitable pour les services de santé

FR  |  
EN
Auteur / Autrice : Adda Bendoukha
Direction : Nesrine Kaaniche
Type : Projet de thèse
Discipline(s) : Informatique, données, IA
Date : Inscription en doctorat le 09/01/2023
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de l'Institut polytechnique de Paris
Partenaire(s) de recherche : Laboratoire : Télécom SudParis (Evry ; 2012-....)

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Les objectifs de ce projet de thèse consiste à, tout d'abord, étudier l'état de l'art sur les attaques contre les algorithmes d'apprentissage automatique et enquêter sur les problèmes d'équité et les différentes mesures. Ensuite, il s'agit de proposer une méthode de prétraitement distribuée préservant la vie privée qui identifiera les participants appropriés, en tenant en considération les caractéristiques de leurs jeux de données locaux. Par approprié, nous nous référons aux entités qui possèdent des ensembles de données également répartis et divers par rapport aux exigences d'équité du modèle. L'un des objectifs de la thèse consiste à introduire une nouvelle méthode permettant de sélectionner des clients « aptes » à fournir une réponse valide à l'entité de traitement. Les performances de la méthode proposée ne seront pas seulement évaluées en termes de précision, mais prendront également en compte les risques de fuite de données et les mesures d'équité. Différentes approches de conception d'un protocole d'appariement seront étudiées, telles que l'utilisation de la récupération d'informations privées (PIR), du chiffrement homomorphe (HE), de la confidentialité différentielle (DP) ou du chiffrement basé sur les attributs (ABE) pour spécifier une structure d'accès sur la distribution requise de attributs correspondants (cachés). Il est donc convenu de spécifier une architecture d'apprentissage fédérée à plusieurs niveaux adaptée aux cas d'utilisation réels des soins de santé en ligne et analyser la résistance des algorithmes proposés contre les attaques contre la vie privée dans le modèle d'apprentissage fédéré décentralisé, proposé par rapport à différents modèles de menace.