Auteur / Autrice : | Junior Dongo |
Direction : | Fabrice Mourlin, Charif Mahmoudi |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 22/05/2020 |
Etablissement(s) : | Paris Est |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication (Champs-sur-Marne, Seine-et-Marne ; 2015-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'algorithmique, complexité et logique (Créteil) - Laboratoire d'Algorithmique Complexité et Logique / LACL |
Jury : | Président / Présidente : Daniele Varacca |
Examinateurs / Examinatrices : Fabrice Mourlin, Charif Mahmoudi, Pascal Lorenz, Martin Theobald, Chantal Keller | |
Rapporteurs / Rapporteuses : Pascal Lorenz, Martin Theobald |
Mots clés
Résumé
Dans la communauté du Big Data, le squelette MapReduce a été considéré comme l’une des principales approches permettant de répondre à une demande permanente et croissante des ressources informatiques imposées par des données massives. Son importance peut être expliquée par l’évolutivité du paradigme MapReduce qui permet une exécution massivement parallèle et distribué sur un grand nombre de noeuds de calcul. Le réseau centré sur l’information (ICN) vise à être la prochaine architecture Internet. Il apporte de nombreuses fonctionnalités telles que la mise à l’échelle du réseau et l’utilisation de cache réseau en déplaçant le paradigme de communication actuel centré sur l’hôte, vers une approche de communication centrée sur la donnée, où les ressources sont importantes et non leur emplacement. Pour tirer profit des propriétés des réseaux ICN dans le domaine Big Data, l’approche d’architecture Big Data doit être adaptée pour se conformer à cette nouvelle architecture réseau.L’une des dominantes de ces architectures ICN est Named Data Networking (NDN) qui a été financée par l’American National Science Foundation (NSF) dans le cadre du projet d’architecture de l’Internet du Future (FIA).Notre objectif est de définir une architecture Big Data fonctionnant sur NDN et capitalisant sur ses propriétés. Premièrement, nous concevons un système de fichiers distribués NDFS (NDNDistributed File System) entièrement distribué, résilient, sécurisé et adaptable qui est la première couche (Data Layer) de la pile Big Data. Pour effectuer le calcul sur les données répliquées à l’aide d’un système de fichiers distribués, une architecture Big Data doit inclure une couche de calcul. Basé sur NDN, N-MapReduce est une nouvelle façon de distribuer le calcul de données pour traiter de grands volume de données. Il a été conçu pour tirer profit des fonctionnalités de la couche de données. Enfin, grâce à l’utilisation de la vérification formelle, nous vérifions un ensemble de propriétés temporelles sur notre architecture Big Data.