Thèse soutenue

Explicabilité des algorithmes de classification des images SAS en guerre des mines

FR  |  
EN
Auteur / Autrice : Guy Junior Richard
Direction : Jean-Marc Le Caillec
Type : Thèse de doctorat
Discipline(s) : Signal, Image, Vision
Date : Soutenance le 15/12/2022
Etablissement(s) : Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire
Ecole(s) doctorale(s) : École doctorale Mathématiques et sciences et technologies de l'information et de la communication (Rennes)
Partenaire(s) de recherche : Laboratoire : Equipe Marine Mapping & Metrology - Département lmage et Traitement Information - Laboratoire en sciences et techniques de l'information, de la communication et de la connaissance
Entreprise : Thales DMS
Jury : Président / Présidente : Benoît Zerr
Examinateurs / Examinatrices : Jean-Marc Le Caillec, Armelle Brun, Lionel Fillatre, Jérôme Habonneau, Didier Gueriot, Fabien Novella, Jean-Philippe Malkasse
Rapporteurs / Rapporteuses : Armelle Brun, Lionel Fillatre

Résumé

FR  |  
EN

Qu’elles soient historiques, vestiges d’anciens conflits ou modernes, les mines sous-marines sont une menace constante pour les marines. Malgré l’amélioration des images fournies par les sonars, la reconnaissance de mine reste une tâche complexe même pour un opérateur expérimenté. Afin d’améliorer les performances de classification d’images sonar, des techniques de Reconnaissance Automatique de Cible (ATR) sont utilisées. Celles à base d’apprentissage profond (Deep Learning) permettent notamment d’obtenir des performances en classification d’images jusqu’alors inégalées. Cependant ils possèdent l’inconvénient majeur d’être très peu compréhensibles. Cette incompréhension limite la confiance qui leur est accordée, notamment dans des domaines à risque, et freine donc leur implémentation. Dans un but de compréhension, le domaine de l’Explicabilité des Intelligences Artificielles (XAI) se développe de façon conséquente. Dans cette thèse, une étude des différentes méthodes d’XAI en fonction de l’utilisateur final, de ses attentes et ses tâches est proposée. Cette étude se place à la frontière entre la compréhension de l’humain, de ses attentes et ses propres processus cognitifs ; et l’explication de réseaux profonds convolutifs (CNN). Pour ce faire, différentes approches sont proposées allant de l’explication de réseaux existants (SHAP, LIME, etc.) à la création de nouvelles architectures explicables (Extraction de caractéristiques). L’utilité des explications est étudiée sur différents profils avec des besoins propres comme les développeurs pour vérifier la cohérence du réseau, ou l’utilisateur final pour comprendre la prédiction. Pour ce faire, des tests utilisateurs sont menés.