Classification et annotation explicable par apprentissage de relations et raisonnement
Auteur / Autrice : | Régis Pierrard |
Direction : | Céline Hudelot |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 15/09/2020 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale INTERFACES : approches interdisciplinaires, fondements, applications et innovation |
Partenaire(s) de recherche : | Laboratoire : Mathématiques et informatique pour la complexité et les systèmes (Gif-sur-Yvette, Essonne ; 2006-....) - Laboratoire d'intégration des systèmes et des technologies (Gif-sur-Yvette, Essonne ; 2001-....) |
référent : CentraleSupélec (2015-....) | |
Jury : | Président / Présidente : Hugues Talbot |
Examinateurs / Examinatrices : Freddy Lécué, Yann Chevaleyre, Isabelle Bloch, Jean-Philippe Poli | |
Rapporteurs / Rapporteuses : Freddy Lécué, Yann Chevaleyre |
Mots clés
Mots clés contrôlés
Résumé
Avec les succés récents de l’apprentissage profond et les interactions toujours plus nombreuses entre êtres humains et intelligences artificielles, l’explicabilité est devenue une préoccupation majeure. En effet, il est difficile de comprendre le comportement des réseaux de neurones profonds, ce qui les rend inadaptés à une utilisation dans les systèmes critiques. Dans cette thèse, nous proposons une approche visant à classifier ou annoter des signaux tout en expliquant les résultats obtenus. Elle est basée sur l’utilisation d’un modèle transparent, dont le raisonnement est clair, et de relations floues interprétables qui permettent de représenter l’imprécision du langage naturel.Au lieu d’apprendre sur des exemples sur lesquels les relations ont été annotées, nous proposons de définir un ensemble de relations au préalable. L’évaluation de ces relations sur les exemples de la base d’entrainement est accélérée grâce à deux heuristiques que nous présentons. Ensuite, les relations les plus pertinentes sont extraites en utilisant un nouvel algorithme de frequent itemset mining flou. Ces relations permettent de construire des règles pour la classification ou des contraintes pour l’annotation. Ainsi, une explication en langage naturel peut être générée.Nous présentons des expériences sur des images et des séries temporelles afin de montrer la généricité de notre approche. En particulier, son application à l’annotation d’organe explicable a été bien évaluée par un ensemble de participants qui ont jugé les explications convaincantes et cohérentes.