Fusion de données capteurs étendue pour applications vidéo embarquées
Auteur / Autrice : | Manu Alibay |
Direction : | Philippe Fuchs |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique, temps réel, robotique et automatique |
Date : | Soutenance le 18/12/2015 |
Etablissement(s) : | Paris, ENMP |
Ecole(s) doctorale(s) : | École doctorale Sciences des métiers de l'ingénieur (Paris) |
Partenaire(s) de recherche : | Laboratoire : Centre de robotique (Paris) |
Jury : | Président / Présidente : Didier Aubert |
Examinateurs / Examinatrices : Philippe Fuchs, Stéphane Auberger, Bogdan Stanciulescu | |
Rapporteurs / Rapporteuses : Gustavo Marrero callico, Mounim El Yacoubi |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Le travail réalisé au cours de cette thèse se concentre sur la fusion des données d'une caméra et de capteurs inertiels afin d'effectuer une estimation robuste de mouvement pour des applications vidéos embarquées. Les appareils visés sont principalement les téléphones intelligents et les tablettes. On propose une nouvelle technique d'estimation de mouvement 2D temps réel, qui combine les mesures visuelles et inertielles. L'approche introduite se base sur le RANSAC préemptif, en l'étendant via l'ajout de capteurs inertiels. L'évaluation des modèles de mouvement se fait selon un score hybride, un lagrangien dynamique permettant une adaptation à différentes conditions et types de mouvements. Ces améliorations sont effectuées à faible coût, afin de permettre une implémentation sur plateforme embarquée. L'approche est comparée aux méthodes visuelles et inertielles. Une nouvelle méthode d'odométrie visuelle-inertielle temps réelle est présentée. L'interaction entre les données visuelles et inertielles est maximisée en effectuant la fusion dans de multiples étapes de l'algorithme. A travers des tests conduits sur des séquences acquises avec la vérité terrain, nous montrons que notre approche produit des résultats supérieurs aux techniques classiques de l'état de l'art.