Thèse soutenue

Vers une meilleure compréhension de l'apprentissage profond appliqué aux attaques par observations

FR  |  
EN
Auteur / Autrice : Loïc Masure
Direction : Emmanuel ProuffCécile Dumas
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 18/12/2020
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Informatique, télécommunications et électronique de Paris (1992-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire d'électronique et de technologie de l'information (Grenoble, Isère, France ; 1967-....) - LIP6 (1997-....)
Jury : Président / Présidente : Hichem Sahbi
Examinateurs / Examinatrices : Vanessa Vitse, Annelie Heuser
Rapporteurs / Rapporteuses : François-Xavier Standaert, Lilian Bossuet

Résumé

FR  |  
EN

Les récents progrès en apprentissage profond ont bouleversé l'état de l'art des attaques par observations en sécurité embarquée. Mais leur aspect « boîte-noire » empêche à ce jour l'identification des failles implicitement exploitées dans l'implémentation. De même, il est difficile d'interpréter les résultats de telles attaques sur le niveau de sécurité de l'implémentation-cible. Toutes ces raisons ont rendu la communauté scientifique sceptique quant à l’intérêt de ces techniques dans le cadre d'une évaluation de sécurité. Cette thèse se propose de dresser une meilleure compréhension de l'apprentissage profond dans un tel contexte. Nous montrons comment l’entraînement de tels estimateurs peut être analysé à travers le prisme d'une évaluation de sécurité, de façon à estimer a priori la complexité d’une attaque à base de réseaux de neurones sans avoir toutefois à la mener. Nous observons également sur des simulations que ces modèles entraînés sans connaissance a priori des contre-mesures peuvent atteindre les bornes de sécurité théoriques prévues par la littérature, validant la pertinence ou non de certaines contre-mesures comme le partage de secret ou la dissimulation contre les réseaux de neurones. Par ailleurs, nous expliquons comment exploiter un réseau entraîné pour effectuer une caractérisation efficace des fuites d'information dans les observations, et ce même en présence de contre-mesures rendant d'autres techniques classiques inopérantes. Cela permet une meilleure compréhension des fuites d’information exploitées par le réseau et d’affiner le diagnostic de l’évaluateur ou du développeur, afin de proposer des corrections.