Secure Machine Learning by means of Homomorphic Encryption and Verifiable Computing - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2022

Secure Machine Learning by means of Homomorphic Encryption and Verifiable Computing

Apprentissage machine sécurisé à l'aide de chiffrement homomorphe et de calcul vérifiable

Résumé

Machine Learning (ML) represents a new trend in science because of its power to solve problems automatically and its wide spectrum of applications (e.g., business, healthcare domain, etc.). This attractive technology caught our attention from a cryptography point of view in the sense that we worked during this Ph.D. to ensure secure usage of ML setups. Our Ph.D. work proposes a secure remote evaluation over different ML setups (for inference and for training). This thesis addresses two cornerstones: confidentiality of training or inference data and remote evaluation integrity in different ML setups (federated learning or transfer learning-based inference). In contrast, most other works focus only on data confidentiality. In our thesis, we proposed three architectures/frameworks to ensure a secure remote evaluation for the following ML setups: Neural Networks (NN), Federated Learning (FL), and Transfer Learning (TL). Particularly, our FL and TL architectures are the first that treat both the confidentiality and integrity security properties. We built these architectures using or modifying pre-existing VC schemes over homomorphic encrypted data: mainly we use VC protocols for BFV and Paillier schemes. An essential characteristic for our architectures is their generality, in the sense, if there are improvements in VC protocols and HE schemes, our frameworks can easily take into account these new approaches. This work opens up many perspectives, not only in privacy-preserving ML architectures, but also for the tools used to ensure the security properties. For example, one important perspective is to add differential privacy (DP) to our FL architecture.
L’apprentissage automatique (ou le Machine Learning) est un domaine scientifique très en vogue en raison de sa capacité à résoudre les problèmes automatiquement et de son large spectre d’applications (par exemple, le domaine de la finance, le domaine médical, etc.). Les techniques de Machine Learning (ML) ont attiré mon attention du point de vue cryptographique dans le sens où les travaux de ma thèse ont eu comme objectif une utilisation sécurisée des méthodes de ML. Cette thèse traite l'utilisation sécurisée des techniques de ML sous deux volets : la confidentialité des données d’apprentissage ou des données pour l’inférence et l’intégrité de l’évaluation à distance des différentes méthodes de ML. La plupart des autres travaux traitent que la confidentialité des données et que pour la phase d’inférence. Dans ma thèse, j’ai proposé trois architectures pour assurer une évaluation à distance sécurisée pour les configurations suivantes de ML: la classification à distance grâce à un réseau de neurones (NN), l’apprentissage fédéré (FL) et l’apprentissage par transfert (TL). Notamment, les architectures pour l’apprentissage fédéré et l’apprentissage par transfert sont les premiers approches qui traitent à la fois la confidentialité de données et l'intégrité du calcul. Ces architectures ont été construites en utilisant ou en modifiant un schéma de calcul vérifiable pré-existant pour des données chiffrées en homomorphe. Nos travaux ouvrent des nombreuses perspectives, qui ne concernent pas forcément que les architectures de ML, mais aussi les outils utilisés pour assurer les propriétés de sécurité. Par exemple, une perspective importante est de rajouter de la confidentialité différentielle (DP) à notre architecture d’apprentissage fédéré.
Fichier principal
Vignette du fichier
107442_MADI_2022_archivage.pdf (2.47 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03629984 , version 1 (04-04-2022)

Identifiants

  • HAL Id : tel-03629984 , version 1

Citer

Abbass Madi. Secure Machine Learning by means of Homomorphic Encryption and Verifiable Computing. Cryptography and Security [cs.CR]. Université Paris-Saclay, 2022. English. ⟨NNT : 2022UPASG019⟩. ⟨tel-03629984⟩
472 Consultations
467 Téléchargements

Partager

Gmail Facebook X LinkedIn More