Découvertes de relations causales entre séries temporelles

par Charles Assaad

Thèse de doctorat en Informatique

Sous la direction de Éric Gaussier et de Emilie Devijver.

Le président du jury était Gregor Gössler.

Le jury était composé de Michèle Sebag.

Les rapporteurs étaient Hervé Isambert, Philippe Leray.


  • Résumé

    Cette thèse a pour but d'expliquer les concepts et principes centraux de la causalité. Nous nous intéresserons particulièrement à la découverte causale à partir de séries temporelles, domaine émergent aujourd’hui avec, notamment, les données industrielles de capteurs. Dans les deux premiers chapitres, nous présentons les concepts puis les algorithmes existants dans ce domaine. Ensuite, nous présentons une nouvelle approche qui infère un graphe récapitulatif du système causal sous-jacent aux séries temporelles tout en assouplissant le cadre idéalisé de fréquences d'échantillonnage égaux, tout en discutant ses hypothèses et sa validité. La principale nouveauté dans cette méthode réside dans l'introduction de la mesure d'information mutuelle temporelle causale qui permet de détecter l'indépendance et l'indépendance conditionnelle entre deux séries temporelles, et l’établissement d'un lien apparent entre l'entropie et le principe d'augmentation de la probabilité d'un effet sachant sa cause, lien qui peut être utilisé pour construire de nouvelles règles pour l'orientation de la direction de la causalité. De plus, à travers le développement de la première méthode, nous proposons plusieurs extensions qui permettent de gérer les causes communes cachées, de déduire un graphe causal temporel à partir d'un graphe récapitulatif et de pouvoir s’adapter aux données ordonnées (pas nécessairement temporelles). Puis, nous nous concentrons sur la découverte de relations causales à partir d'une distribution statistique qui n'est pas entièrement fidèle au graphe causal réel et sur la distinction entre une cause commune et une cause intermédiaire même, en absence d'indicateur de temps. L'aspect clé de notre réponse à ce problème est le recours au principe du bruit additif pour déduire un supergraphe dirigé contenant le graphe causal. Pour converger vers le graphe causal, nous utilisons une nouvelle mesure appelée l'entropie de causalité temporelle qui élague pour chaque nœud du supergraphe dirigé, les parents qui en sont conditionnellement indépendants. En outre, nous explorons des extensions complémentaires de notre deuxième méthode qui impliquent une stratégie par paires et une stratégie multitâche. Nous effectuons une comparaison expérimentale approfondie des algorithmes proposés sur des ensembles de données à la fois synthétiques et réels et nous montrons leurs performances pratiques prometteuses: gain en complexité temporelle tout en préservant la précision.

  • Titre traduit

    Causal Discovery between time series


  • Résumé

    This thesis aims to give a broad coverage of central concepts and principles of causation and in particular the ones involved in the emerging approaches to causal discovery from time series.After reviewing concepts and algorithms, we first present a new approach that infer a summary graph of the causal system underlying the observational time series while relaxing the idealized setting of equal sampling rates and discuss the assumptions underlying its validity. The gist of our proposal lies in the introduction of the causal temporal mutual information measure that can detect the independence and the conditional independence between two time series, and in making an apparent connection between entropy and the probability raising principle that can be used for building new rules for the orientation of the direction of causation. Moreover, through the development of this base method, we propose several extensions, namely to handle hidden confounders, to infer a window causal graph given a summary graph, and to consider sequences instead of time series.Secondly, we focus on the discovery of causal relations from a statistical distribution that is not entirely faithful to the real causal graph and on distinguishing a common cause from an intermediate cause even in the absence of a time indicator. The key aspect of our answer to this problem is the reliance on the additive noise principle to infer a directed supergraph that contains the causal graph. To converge toward the causal graph, we use in a second step a new measure called the temporal causation entropy that prunes for each node of the directed supergraph, the parents that are conditionally independent of their child. Furthermore, we explore complementary extensions of our second base method that involve a pairwise strategy which reduces through multitask learning and a denoising technique, the number of functions that need to be estimated. We perform an extensive experimental comparison of the proposed algorithms on both synthetic and real datasets and demonstrate their promising practical performance: gaining in time complexity while preserving accuracy.


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse\u00a0?

  • Bibliothèque : Université Grenoble Alpes. Bibliothèque et Appui à la Science Ouverte. Bibliothèque électronique.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.