Thèse soutenue

Rapprochement de l'apprentissage profond et des attaques par canaux auxiliaires

FR  |  
EN
Auteur / Autrice : Gabriel Zaid
Direction : Lilian BossuetAmaury Habrard
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 30/11/2021
Etablissement(s) : Lyon
Ecole(s) doctorale(s) : École doctorale Sciences Ingénierie Santé (Saint-Etienne)
Partenaire(s) de recherche : établissement opérateur d'inscription : Université Jean Monnet (Saint-Étienne ; 1969-....)
Laboratoire : Laboratoire Hubert Curien (Saint-Etienne ; 1995-....)
Jury : Président / Présidente : Thierry Artières
Examinateurs / Examinatrices : Benoît Gérard, Sonia Belaïd, Marc Joye, Alexandre Venelli
Rapporteurs / Rapporteuses : François-Xavier Standaert, Emmanuel Prouff

Résumé

FR  |  
EN

Au travers de cette thèse CIFRE, nous cherchons à mieux comprendre l’intérêt d’utiliser les techniques d’apprentissage profond dans la mise en place d’attaques par canaux auxiliaires. Difficile à configurer et à optimiser, les techniques d’apprentissage profond, très exploratoires, sont considérées comme des « boites-noires », ce qui est problématique dans le cadre d’une évaluation de sécurité où l’explicabilité et l’interprétabilité des résultats est primordial.A travers cette thèse, nous lions les paradigmes d’apprentissage profond et d’attaque par canaux auxiliaires via l’identification d’approches communes, dite générative et discriminative. Nous montrons que l’adaptation d’approches génératives, utilisées en apprentissage profond, peuvent être une première étape vers une meilleure compréhension et interprétabilité des résultats. Cela permet de réduire les limitations de « boites-noires » et ainsi, de résulter en une meilleure évaluation de sécurité. Cependant, nous montrons que ces approches ont encore quelques limitations pratiques.Considérées comme une alternative concrète, nous nous intéressons ensuite aux approches discriminatives et nous proposons de nouvelles métriques d’apprentissage, appelée Ranking Loss et Ensembling Loss, visant à optimiser une attaque basée sur de l’apprentissage profond. Par ailleurs, pour pleinement exploiter l’information secrète, nous montrons qu’il n’est pas nécessaire d’avoir des réseaux de neurones avec une forte complexité. Cela permet notamment de réduire considérablement la phase de conception de ces réseaux, souvent exploratoire, et ainsi, réduire le temps nécessaire d’une évaluation de sécurité.