Classification interprétable de séries temporelles
Auteur / Autrice : | Yichang Wang |
Direction : | Élisa Fromont |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 20/09/2021 |
Etablissement(s) : | Rennes 1 |
Ecole(s) doctorale(s) : | MATHSTIC |
Partenaire(s) de recherche : | Laboratoire : Institut de recherche en informatique et systèmes aléatoires (Rennes) - LACODAM |
Jury : | Président / Présidente : Alexandre Termier |
Examinateurs / Examinatrices : Mikaela Keller, Vincent Lemaire, Rémi Emonet, Romain Tavenard | |
Rapporteur / Rapporteuse : Miguel Couceiro, Céline Robardet |
Mots clés
Résumé
Nous étudions différentes méthodes pouvant être utilisées pour expliquer les décisions prises par les modèles de classification des séries temporelles. Nous supposons que, dans le cas des séries temporelles, les meilleures explications doivent prendre la forme de sous-séries (également appelées shapelets) puisqu'il s'agit d'un ''langage'' intelligible et expressif pour un utilisateur s'intéressant à ce type de séries. Nous passons en revue les méthodes de classification de l'état de l'art qui peuvent apprendre conjointement une représentation basée sur des shapelets et classer les séries en fonction de cette représentation. Bien que certaines méthodes de l'état de l'art permettent d'apprendre des shapelets discriminantes automatiquement, nous constatons qu'elles ne sont pas toujours similaires aux morceaux d'une série réelle existante. Il est donc difficile de les utiliser pour expliquer la décision du classificateur à un utilisateur qui pourrait être dérouté par ce langage d'explication éloigné des séries qu'il connaît. Nous proposons une méthode innovante qui permet, grâce à un réseau convolutif simple, de classer des séries temporelles et nous introduisons une régularisation antagoniste pour contraindre le modèle à apprendre des shapelets interprétables. Nos résultats de classification sur de nombreux jeux de données de séries temporelles univariées, sont comparables, en terme de précision, aux meilleurs résultats obtenus par les algorithmes de classification basés sur les shapelets. Cependant, nous montrons, en comparant avec d'autres méthodes d'explication sur des modèles de type ''boîte noire'', que notre régularisation antagoniste permet d'apprendre des shapelets qui sont, par conception, mieux adaptées pour expliquer les décisions et cela pour plusieurs niveaux d'explication.