Thèse soutenue

Asymptotiques à temps long de fluctuations anormales pour des processus de renouvellement-récompense à queue lourde

FR  |  
EN
Auteur / Autrice : Hiroshi Horii
Direction : Raphaël LefévèreTakahiro Nemoto
Type : Thèse de doctorat
Discipline(s) : Mathématiques
Date : Soutenance le 07/07/2022
Etablissement(s) : Université Paris Cité
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire de probabilités, statistique et modélisation (Paris ; 2018-....)
Jury : Président / Présidente : Cédric Bernardin
Examinateurs / Examinatrices : Cédric Bernardin, Mauro Mariani, Raphaël Chetrite, Sandrine Péché
Rapporteurs / Rapporteuses : Mauro Mariani, Raphaël Chetrite

Résumé

FR  |  
EN

Dans cette thèse, nous étudions principalement le comportement en temps fini des fluctuations anormales dans les processus de renouvellement-récompense à queue lourde. Une distribution à queue lourde produit plus d'événements rares qu'une distribution exponentielle dans un système. En général, la queue des distributions de probabilité est liée à un événement rare et a un faible impact sur l'ensemble du système. Cependant, lorsque les distributions de probabilité sont à queue lourde, cette idée ne fonctionne pas. Par exemple, sur le marché financier, l'effondrement ou le choc du marché est un événement rare à la suite d'une distribution à queue lourde. Dans la propagation des maladies infectieuses, un super-épandeur est un événement rare dans le système, dont l'occurrence est également distribuée par une distribution à queue lourde. De plus, le comportement du processus stochastique contient des fluctuations anormales à cause des effets de mémoire. Dans cette thèse, nous étudions le comportement anormal des processus de récompense de renouvellement à queue lourde en utilisant le principe de grande déviation (LDP), le principe variationnel et une équation de renouvellement. Dans cette thèse, nous présentons d'abord le contexte de nos recherches au chapitre 2. Dans le chapitre 3, nous donnons la preuve de l'asymptotique en temps long d'une fonction génératrice de moment (ou fonction génératrice de cumulant) dans un processus de renouvellement-récompense à queue lourde. Cette fonction génératrice de moment a sa singularité dans la plage spécifique du champ de polarisation. Nous avons clarifié le comportement de la partie singularité dans une plage de temps finie. De plus, nous avons analysé la fonction de taux de temps fini en utilisant la simulation numérique. La survenue de nombreux événements rares affecte la loi de convergence de LDF et la fonction génératrice de moment se comporte comme une loi de puissance dans la partie affine. Dans le chapitre 4, nous redérivons une partie affine dans les fonctions génératrices cumulantes (CGF) en utilisant un principe variationnel développé en théorie des grandes déviations. Ce principe variationnel a été appliqué pour étudier une singularité apparaissant dans le LDF dans, entre autres, des modèles à contraintes cinétiques (KCM) et des matières actives. Ces modèles sont définis à l'aide de processus de Markov, à cause desquels le LDF des quantités moyennées dans le temps n'a pas de singularité chaque fois que la taille du système (non le temps de moyenne) est finie. Nous nous concentrons sur la façon dont la même méthodologie peut être étendue à notre problème non-markovien pour dériver la partie affine. Dans le chapitre 5, nous avons d'abord étudié un processus de comptage avec deux distributions de temps d'attente à queue lourde : la distribution de Pareto (l'exposant de la loi de puissance est -3) avec et la distribution de Rayleigh inverse. Ces deux distributions de temps d'attente ont une forme asymptotique dont l'exposant de la loi de puissance est -3 lorsque le temps d'attente est grand, ce qui implique que la variance du temps d'attente diverge. En raison de cette divergence, nous avons discuté du fait que la variance mise à l'échelle du processus de comptage diverge également dans la grande limite de temps. Nous avons en effet déduit que la variance mise à l'échelle est asymptotiquement proportionnelle à log(t), divergeant lorsque le temps tend vers l'infini. Deuxièmement, comme pour la conclusion d'un processus de comptage, nous avons clarifié le comportement asymptotique de la variance du courant moyenné dans le temps. Ce temps entre les arrivées suit la distribution de Rayleigh inverse, nous pouvons donc obtenir que la variance mise à l'échelle est asymptotiquement proportionnelle à log(t), divergeant lorsque le temps va vers l'infini. L'effet mémoire d'un processus stochastique est lié à la divergence anormale des moments.