Thèse soutenue

Comportement des estimateurs des moindres carrés du modèle linéaire dans un contexte dépendant : Étude asymptotique, implémentation, exemples

FR  |  
EN
Auteur / Autrice : Emmanuel Caron
Direction : Jérôme DedeckerBertrand Michel
Type : Thèse de doctorat
Discipline(s) : Mathématiques et leurs interactions
Date : Soutenance le 17/10/2019
Etablissement(s) : Ecole centrale de Nantes
Ecole(s) doctorale(s) : École doctorale Mathématiques et sciences et technologies de l'information et de la communication (Rennes)
Partenaire(s) de recherche : Laboratoire : Laboratoire de Mathématiques Jean Leray (Nantes)
Jury : Président / Présidente : Fabienne Comte
Examinateurs / Examinatrices : Jérôme Dedecker, Bertrand Michel, Fabienne Comte, Pierre Alquier, Jean-Marc Bardet, Anne Philippe, Clémentine Prieur
Rapporteurs / Rapporteuses : Pierre Alquier, Jean-Marc Bardet

Résumé

FR  |  
EN

Dans cette thèse, nous nous intéressons au modèle de régression linéaire usuel dans le cas où les erreurs sont supposées strictement stationnaires. Nous utilisons un résultat de Hannan (1973) qui a prouvé un Théorème Limite Central pour l’estimateur des moindres carrés sous des conditions très générales sur le design et le processus des erreurs. Pour un design et un processus d’erreurs vérifiant les conditions d’Hannan, nous définissons un estimateur de la matrice de covariance asymptotique de l’estimateur des moindres carrés et nous prouvons sa consistance sous des conditions très générales. Ensuite nous montrons comment modifier les tests usuels sur le paramètre du modèle linéaire dans ce contexte dépendant. Nous proposons différentes approches pour estimer la matrice de covariance afin de corriger l’erreur de première espèce des tests. Le paquet R slm que nous avons développé contient l’ensemble de ces méthodes statistiques. Les procédures sont évaluées à travers différents ensembles de simulations et deux exemples particuliers de jeux de données sont étudiés. Enfin, dans le dernier chapitre, nous proposons une méthode non-paramétrique par pénalisation pour estimer la fonction de régression dans le cas où les erreurs sont gaussiennes et corrélées.