Thèse soutenue

Classification interprétable de séries temporelles

FR  |  
EN
Auteur / Autrice : Yichang Wang
Direction : Élisa Fromont
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 20/09/2021
Etablissement(s) : Rennes 1
Ecole(s) doctorale(s) : MATHSTIC
Partenaire(s) de recherche : Laboratoire : Institut de recherche en informatique et systèmes aléatoires (Rennes) - LACODAM
Jury : Président / Présidente : Alexandre Termier
Examinateurs / Examinatrices : Mikaela Keller, Vincent Lemaire, Rémi Emonet, Romain Tavenard
Rapporteur / Rapporteuse : Miguel Couceiro, Céline Robardet

Résumé

FR  |  
EN

Nous étudions différentes méthodes pouvant être utilisées pour expliquer les décisions prises par les modèles de classification des séries temporelles. Nous supposons que, dans le cas des séries temporelles, les meilleures explications doivent prendre la forme de sous-séries (également appelées shapelets) puisqu'il s'agit d'un ''langage'' intelligible et expressif pour un utilisateur s'intéressant à ce type de séries. Nous passons en revue les méthodes de classification de l'état de l'art qui peuvent apprendre conjointement une représentation basée sur des shapelets et classer les séries en fonction de cette représentation. Bien que certaines méthodes de l'état de l'art permettent d'apprendre des shapelets discriminantes automatiquement, nous constatons qu'elles ne sont pas toujours similaires aux morceaux d'une série réelle existante. Il est donc difficile de les utiliser pour expliquer la décision du classificateur à un utilisateur qui pourrait être dérouté par ce langage d'explication éloigné des séries qu'il connaît. Nous proposons une méthode innovante qui permet, grâce à un réseau convolutif simple, de classer des séries temporelles et nous introduisons une régularisation antagoniste pour contraindre le modèle à apprendre des shapelets interprétables. Nos résultats de classification sur de nombreux jeux de données de séries temporelles univariées, sont comparables, en terme de précision, aux meilleurs résultats obtenus par les algorithmes de classification basés sur les shapelets. Cependant, nous montrons, en comparant avec d'autres méthodes d'explication sur des modèles de type ''boîte noire'', que notre régularisation antagoniste permet d'apprendre des shapelets qui sont, par conception, mieux adaptées pour expliquer les décisions et cela pour plusieurs niveaux d'explication.