Vers une meilleure compréhension de l'apprentissage profond appliqué aux attaques par observations
| Auteur / Autrice : | Loïc Masure |
| Direction : | Emmanuel Prouff, Cécile Dumas |
| Type : | Thèse de doctorat |
| Discipline(s) : | Informatique |
| Date : | Soutenance le 18/12/2020 |
| Etablissement(s) : | Sorbonne université |
| Ecole(s) doctorale(s) : | École doctorale Informatique, télécommunications et électronique de Paris (1992-....) |
| Partenaire(s) de recherche : | Laboratoire : Laboratoire d'électronique et de technologie de l'information (Grenoble, Isère, France ; 1967-....) - LIP6 (1997-....) |
| Jury : | Président / Présidente : Hichem Sahbi |
| Examinateurs / Examinatrices : Vanessa Vitse, Annelie Heuser | |
| Rapporteurs / Rapporteuses : François-Xavier Standaert, Lilian Bossuet |
Mots clés
Mots clés contrôlés
Résumé
Les récents progrès en apprentissage profond ont bouleversé l'état de l'art des attaques par observations en sécurité embarquée. Mais leur aspect « boîte-noire » empêche à ce jour l'identification des failles implicitement exploitées dans l'implémentation. De même, il est difficile d'interpréter les résultats de telles attaques sur le niveau de sécurité de l'implémentation-cible. Toutes ces raisons ont rendu la communauté scientifique sceptique quant à l’intérêt de ces techniques dans le cadre d'une évaluation de sécurité. Cette thèse se propose de dresser une meilleure compréhension de l'apprentissage profond dans un tel contexte. Nous montrons comment l’entraînement de tels estimateurs peut être analysé à travers le prisme d'une évaluation de sécurité, de façon à estimer a priori la complexité d’une attaque à base de réseaux de neurones sans avoir toutefois à la mener. Nous observons également sur des simulations que ces modèles entraînés sans connaissance a priori des contre-mesures peuvent atteindre les bornes de sécurité théoriques prévues par la littérature, validant la pertinence ou non de certaines contre-mesures comme le partage de secret ou la dissimulation contre les réseaux de neurones. Par ailleurs, nous expliquons comment exploiter un réseau entraîné pour effectuer une caractérisation efficace des fuites d'information dans les observations, et ce même en présence de contre-mesures rendant d'autres techniques classiques inopérantes. Cela permet une meilleure compréhension des fuites d’information exploitées par le réseau et d’affiner le diagnostic de l’évaluateur ou du développeur, afin de proposer des corrections.