Rapprochement de l'apprentissage profond et des attaques par canaux auxiliaires
Auteur / Autrice : | Gabriel Zaid |
Direction : | Lilian Bossuet, Amaury Habrard |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 30/11/2021 |
Etablissement(s) : | Lyon |
Ecole(s) doctorale(s) : | École doctorale Sciences Ingénierie Santé (Saint-Etienne) |
Partenaire(s) de recherche : | établissement opérateur d'inscription : Université Jean Monnet (Saint-Étienne ; 1969-....) |
Laboratoire : Laboratoire Hubert Curien (Saint-Etienne ; 1995-....) | |
Jury : | Président / Présidente : Thierry Artières |
Examinateurs / Examinatrices : Benoît Gérard, Sonia Belaïd, Marc Joye, Alexandre Venelli | |
Rapporteurs / Rapporteuses : François-Xavier Standaert, Emmanuel Prouff |
Mots clés
Résumé
Au travers de cette thèse CIFRE, nous cherchons à mieux comprendre l’intérêt d’utiliser les techniques d’apprentissage profond dans la mise en place d’attaques par canaux auxiliaires. Difficile à configurer et à optimiser, les techniques d’apprentissage profond, très exploratoires, sont considérées comme des « boites-noires », ce qui est problématique dans le cadre d’une évaluation de sécurité où l’explicabilité et l’interprétabilité des résultats est primordial.A travers cette thèse, nous lions les paradigmes d’apprentissage profond et d’attaque par canaux auxiliaires via l’identification d’approches communes, dite générative et discriminative. Nous montrons que l’adaptation d’approches génératives, utilisées en apprentissage profond, peuvent être une première étape vers une meilleure compréhension et interprétabilité des résultats. Cela permet de réduire les limitations de « boites-noires » et ainsi, de résulter en une meilleure évaluation de sécurité. Cependant, nous montrons que ces approches ont encore quelques limitations pratiques.Considérées comme une alternative concrète, nous nous intéressons ensuite aux approches discriminatives et nous proposons de nouvelles métriques d’apprentissage, appelée Ranking Loss et Ensembling Loss, visant à optimiser une attaque basée sur de l’apprentissage profond. Par ailleurs, pour pleinement exploiter l’information secrète, nous montrons qu’il n’est pas nécessaire d’avoir des réseaux de neurones avec une forte complexité. Cela permet notamment de réduire considérablement la phase de conception de ces réseaux, souvent exploratoire, et ainsi, réduire le temps nécessaire d’une évaluation de sécurité.