Explicabilité des algorithmes de classification des images SAS en guerre des mines
Auteur / Autrice : | Guy Junior Richard |
Direction : | Jean-Marc Le Caillec |
Type : | Thèse de doctorat |
Discipline(s) : | Signal, Image, Vision |
Date : | Soutenance le 15/12/2022 |
Etablissement(s) : | Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire |
Ecole(s) doctorale(s) : | École doctorale Mathématiques et sciences et technologies de l'information et de la communication (Rennes) |
Partenaire(s) de recherche : | Laboratoire : Equipe Marine Mapping & Metrology - Département lmage et Traitement Information - Laboratoire en sciences et techniques de l'information, de la communication et de la connaissance |
Entreprise : Thales DMS | |
Jury : | Président / Présidente : Benoît Zerr |
Examinateurs / Examinatrices : Jean-Marc Le Caillec, Armelle Brun, Lionel Fillatre, Jérôme Habonneau, Didier Gueriot, Fabien Novella, Jean-Philippe Malkasse | |
Rapporteurs / Rapporteuses : Armelle Brun, Lionel Fillatre |
Mots clés
Mots clés contrôlés
Résumé
Qu’elles soient historiques, vestiges d’anciens conflits ou modernes, les mines sous-marines sont une menace constante pour les marines. Malgré l’amélioration des images fournies par les sonars, la reconnaissance de mine reste une tâche complexe même pour un opérateur expérimenté. Afin d’améliorer les performances de classification d’images sonar, des techniques de Reconnaissance Automatique de Cible (ATR) sont utilisées. Celles à base d’apprentissage profond (Deep Learning) permettent notamment d’obtenir des performances en classification d’images jusqu’alors inégalées. Cependant ils possèdent l’inconvénient majeur d’être très peu compréhensibles. Cette incompréhension limite la confiance qui leur est accordée, notamment dans des domaines à risque, et freine donc leur implémentation. Dans un but de compréhension, le domaine de l’Explicabilité des Intelligences Artificielles (XAI) se développe de façon conséquente. Dans cette thèse, une étude des différentes méthodes d’XAI en fonction de l’utilisateur final, de ses attentes et ses tâches est proposée. Cette étude se place à la frontière entre la compréhension de l’humain, de ses attentes et ses propres processus cognitifs ; et l’explication de réseaux profonds convolutifs (CNN). Pour ce faire, différentes approches sont proposées allant de l’explication de réseaux existants (SHAP, LIME, etc.) à la création de nouvelles architectures explicables (Extraction de caractéristiques). L’utilité des explications est étudiée sur différents profils avec des besoins propres comme les développeurs pour vérifier la cohérence du réseau, ou l’utilisateur final pour comprendre la prédiction. Pour ce faire, des tests utilisateurs sont menés.