Interprétabilité de l’apprentissage profond via analyse visuelle : Exploration de raisonnements et de l’exploitation de biais
Auteur / Autrice : | Théo Jaunet |
Direction : | Christian Wolf |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 16/05/2022 |
Etablissement(s) : | Lyon |
Ecole(s) doctorale(s) : | École doctorale InfoMaths (Lyon ; 2009-....) |
Partenaire(s) de recherche : | établissement opérateur d'inscription : Institut national des sciences appliquées (Lyon ; 1957-....) |
Laboratoire : Laboratoire d'InfoRmatique en Images et Systèmes d'information (Ecully, Rhône ; 2003-....) - Laboratoire d'InfoRmatique en Image et Systèmes d'information / LIRIS | |
Equipe de recherche : SICAL - Situated Interaction, Collaboration, Adaptation and Learning - imagine - Extraction de Caractéristiques et Identification | |
Jury : | Président / Présidente : Liming Chen |
Examinateurs / Examinatrices : Christian Wolf, Liming Chen, David Auber, Céline Hudelot, Shixia Liu, Hendrik Strobelt, Romain Vuillemot | |
Rapporteur / Rapporteuse : David Auber, Céline Hudelot |
Mots clés
Résumé
Au cours des dernières années, l’IA et l’apprentissage automatique ont évolué, passant de domaines de recherche reclus dans des laboratoires éloignés du public à des technologies déployées à l’échelle industrielle ayant un impact considérable sur notre vie quotidienne. Étant donné que ces technologies sont également utilisées pour résoudre des problèmes critiques tels que la finance et la conduite de voitures autonomes, dans lesquels leurs décisions peuvent mettre des personnes en danger, cette tendance a commencé à susciter des inquiétudes légitimes. Puisqu’une grande partie de la complexité sous-jacente du processus de décision est apprise à partir de quantités massives de données, la manière dont ces modèles prennent des décisions reste inconnue tant pour leurs créateurs que pour les personnes impactées par de telles décisions. Cela a conduit au nouveau domaine de l’eXplainable AI (XAI) et au problème de l’analyse du comportement des modèles entraînés, pour mettre en lumière leurs capacité raisonnement et les biais auxquels ils sont soumis. Dans cette thèse, nous avons contribué à ce domaine émergent avec la conception de systèmes d’analyse visuelle destinés à l’étude et à l’amélioration de l’interprétabilité des réseaux de neurones profonds. Notre objectif était de permettre aux experts de disposer d’outils les aidant à mieux interpréter les décisions de leurs modèles et éventuellement les améliorer. Nous avons également proposé des applications explorables conçues pour présenter des méthodes d’apprentissage profond à un public non-expert. Durant cette thèse, nous nous sommes concentrés sur le défi sous-exploré de l’interprétation et de l’amélioration des modèles pour différentes applications de la robotique, où des décisions importantes doivent être prises à partir de données d’entrées de haut niveau et de haute dimension telles que des images. Tous les outils conçus au cours de cette thèse ont été publiés en tant que projets open-source, et lorsque cela était possible, nos visualisations ont été mises à disposition en ligne en tant que prototypes. Ces outils sont hautement interactifs et peuvent contribuer à encourager la poursuite de l’interprétation de décisions de modèles par la communauté de recherche