Thèse soutenue

Classification et annotation explicable par apprentissage de relations et raisonnement

FR  |  
EN
Auteur / Autrice : Régis Pierrard
Direction : Céline Hudelot
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 15/09/2020
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale INTERFACES : approches interdisciplinaires, fondements, applications et innovation
Partenaire(s) de recherche : Laboratoire : Mathématiques et informatique pour la complexité et les systèmes (Gif-sur-Yvette, Essonne ; 2006-....)
référent : CentraleSupélec (2015-....)
Jury : Président / Présidente : Hugues Talbot
Examinateurs / Examinatrices : Freddy Lécué, Yann Chevaleyre, Isabelle Bloch, Jean-Philippe Poli
Rapporteurs / Rapporteuses : Freddy Lécué, Yann Chevaleyre

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Avec les succés récents de l’apprentissage profond et les interactions toujours plus nombreuses entre êtres humains et intelligences artificielles, l’explicabilité est devenue une préoccupation majeure. En effet, il est difficile de comprendre le comportement des réseaux de neurones profonds, ce qui les rend inadaptés à une utilisation dans les systèmes critiques. Dans cette thèse, nous proposons une approche visant à classifier ou annoter des signaux tout en expliquant les résultats obtenus. Elle est basée sur l’utilisation d’un modèle transparent, dont le raisonnement est clair, et de relations floues interprétables qui permettent de représenter l’imprécision du langage naturel.Au lieu d’apprendre sur des exemples sur lesquels les relations ont été annotées, nous proposons de définir un ensemble de relations au préalable. L’évaluation de ces relations sur les exemples de la base d’entrainement est accélérée grâce à deux heuristiques que nous présentons. Ensuite, les relations les plus pertinentes sont extraites en utilisant un nouvel algorithme de frequent itemset mining flou. Ces relations permettent de construire des règles pour la classification ou des contraintes pour l’annotation. Ainsi, une explication en langage naturel peut être générée.Nous présentons des expériences sur des images et des séries temporelles afin de montrer la généricité de notre approche. En particulier, son application à l’annotation d’organe explicable a été bien évaluée par un ensemble de participants qui ont jugé les explications convaincantes et cohérentes.