Thèse soutenue

Enhancing detection and explainability in cybersecurity : a shift from machine learning to graph learning

FR  |  
EN
Auteur / Autrice : Amani Abou Rida
Direction : Pierre ParrendAline Deruyver
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 24/01/2024
Etablissement(s) : Strasbourg
Ecole(s) doctorale(s) : École doctorale Mathématiques, sciences de l'information et de l'ingénieur (Strasbourg ; 1997-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (Strasbourg ; 2013-....)
Jury : Président / Présidente : Cristel Pelsser
Examinateurs / Examinatrices : Cristel Pelsser, Marc-Oliver Pahl, Anne Jeannin, Martin Husak
Rapporteur / Rapporteuse : Hervé Debar, Valeria Loscri

Résumé

FR  |  
EN

Cette thèse examine la transition de l'apprentissage machine (ML) traditionnel à l'apprentissage par graphes (GL) en cybersécurité, se concentrant sur la complexité des connexions de données dans les cyberattaques. Le défi principal est de rendre les processus GL compréhensibles pour renforcer la confiance parmi les analystes de sécurité. Elle introduit un processus de benchmarking utilisant le workflow ComGLSec, comparant diverses méthodes GL à travers un modèle de représentation de graphes pour la classification de nœuds dans les cyberattaques. Les résultats soulignent la supériorité des réseaux neuronaux graphiques inductifs (GNNs) en termes de performance et d'inductivité par rapport à d'autres méthodes, plaidant pour une exploration plus poussée de l'explicabilité. Les défis de l'extension de l'explicabilité du ML au GL sont discutés, soulignant le besoin de nouvelles métriques d'évaluation pour l'explicabilité dans le GL. La thèse propose le cadre XAIMetrics pour évaluer de manière complète l'explicabilité dans le ML, potentiellement extensible au GL, soulignant des avancées significatives dans le domaine.