Thèse en cours

Apprentissage profond explicable pour l'analyse de séries temporelles (Classification, Prédiction et Détection d'Anomalies)
FR  |  
EN
Auteur / Autrice : Etienne Vareille
Direction : Vassilis Christophides
Type : Projet de thèse
Discipline(s) : Stic - ed em2psi
Date : Inscription en doctorat le 01/10/2022
Etablissement(s) : CY Cergy Paris Université
Ecole(s) doctorale(s) : Ecole doctorale Économie, Management, Mathématiques , Physique et Sciences Informatiques (EM2PSI)
Partenaire(s) de recherche : Laboratoire : Equipes Traitement de l'Information et Systèmes (Cergy-Pontoise, Val d'Oise)

Résumé

FR  |  
EN

Au cours des deux ou trois dernières années, nous avons assisté à un effort constant pour fournir un procédé automatique d'explication des modèles d'apprentissage profond, ou plus précisément la capacité de mettre en évidence les sous-espaces d'attributs qui conduisent un algorithme vers une certaine décision. Plusieurs travaux ont tenté d'adapter les techniques d'explicabilité nativement utilisées pour les images à l'analyse des séries temporelles multivariées. Nous notons que ces adaptations ne correspondent pas entièrement aux exigences de l'interprétation des données temporelles. Le doctorant travaillera à la proposition de nouveaux modèles qui peuvent répondre aux exigences de l'analyse temporelle multivariée et sont capables d'expliquer les décisions produites. Nous voulons concevoir des solutions pour les modèles d'apprentissage profond, capables de tirer parti du Complex Networks learning et des modèles de causalité tels que les réseaux bayésiens dynamiques. Plus précisément, nous voulons étudier l'explicabilité ante-hoc (intégrée au modèle) et posthoc (appliquée aux résultats finaux). En outre, nous souhaitons étudier et évaluer de manière approfondie l'applicabilité de nos solutions dans différents cas d'utilisation hétérogènes qui nécessitent une interprétabilité efficace (par exemple, la télédétection, les chaînes d'approvisionnement, les données climatiques et les soins de santé).