Analyse de séries temporelles massives d'images satellitaires : Applications à la cartographie des écosystèmes
Auteur / Autrice : | Alexandre Constantin |
Direction : | Stéphane Girard, Mathieu Fauvel |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques appliquées |
Date : | Soutenance le 13/12/2021 |
Etablissement(s) : | Université Grenoble Alpes |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, sciences et technologies de l'information, informatique (Grenoble ; 1995-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire Jean Kuntzmann (Grenoble) |
Equipe de recherche : Equipe-projet Modelling and inference of complex and structured stochastic systems (Montbonnot, Isère, France ; 200.-2020) | |
Jury : | Président / Présidente : Marie Chabert |
Examinateurs / Examinatrices : Lionel Bombrun | |
Rapporteurs / Rapporteuses : Gabriele Moser, Julien Jacques |
Mots clés
Résumé
Cette thèse s’inscrit dans le contexte de l’exploitation des données issues de la mission Sentinel-2. Cette mission, initiée par l’Agence spatiale européenne et lancée en 2017, produit massivement des séries temporelles d’images satellite (SITS). Parmi les axes d’analyse de ces images, cette thèse se concentre plus particulièrement sur la classification, c’est-à-dire la production de cartes d’occupation ou d’utilisation des sols en utilisant l’aspect spectro-temporel des SITS issues de Sentinel-2.Les deux principales difficultés auxquelles ces travaux de thèse se confrontent sont les suivantes. Tout d’abord, la quantité sans précédent de données nécessite à la fois la mise en œuvre de classifieurs capables de passer à l’échelle et l’utilisation de techniques d’optimisation de code (telles que le traitement parallèle). Deuxièmement, le bruit d’acquisition (nuages, ombres) combiné à l’aspect temporel des données résulte en un échantillonnage irrégulier des séries temporelles. Les approches conventionnelles ré-échantillonnent les séries temporelles sur une grille unique, puis elles utilisent des méthodes d’apprentissage vectorielles pour classer à grande échelle (échelle nationale). Cette démarche en deux étapes a pour inconvénient principal d’alourdir le nombre de traitements appliqués aux SITS, rendant les traitements plus complexes. Dans une moindre mesure, l’étape de ré-échantillonnage peut légèrement altérer les caractéristiques temporelles de la donnée.Les contributions présentées dans cette thèse sont les suivantes. Nous introduisons une nouvelle approche statistique ayant la capacité de classer des séries temporelles avec un échantillonnage irrégulier basée sur un mélange de processus gaussiens multivariés. Une approche en deux étapes a été proposée, en définissant dans un premier temps un modèle sur des séries temporelles uni-dimensionnelles et indépendantes au sens de l’indépendance spectrale, puis en considérant dans un second temps conjointement les informations spectrales et temporelles des SITS. Ces modèles permettent, de surcroît, une reconstruction de données à des instants non observés ou bruités.L’estimation des deux modèles repose sur un code python parallélisé afin d’être exploitable sur les données de très grande taille. Les deux modèles sont évalués numériquement sur les SITS issues de Sentinel-2 en terme de classification et de reconstruction et sont comparés aux approches conventionnelles. L’analyse des résultats illustre la pertinence des deux modèles et le bénéfice de disposer de modèles paramétriques interprétables.