Thèse soutenue

Localisation collaborative visuelle-inertielle de robots hétérogènes communicants

FR  |  
EN
Auteur / Autrice : Bilel Chenchana
Direction : Ouiddad Labbani-IgbidaStéphane RenaultSébastien Boria
Type : Thèse de doctorat
Discipline(s) : Electronique des hautes fréquences, photonique et systèmes
Date : Soutenance le 22/03/2019
Etablissement(s) : Limoges
Ecole(s) doctorale(s) : École doctorale Sciences et Ingénierie des Systèmes, Mathématiques, Informatique (Limoges ; 2018-2022)
Partenaire(s) de recherche : Laboratoire : XLIM
Jury : Président / Présidente : Olivier Simonin
Examinateurs / Examinatrices : Ouiddad Labbani-Igbida, Stéphane Renault, Isabelle Fantoni-Coichot
Rapporteurs / Rapporteuses : Roland Chapuis, Pascal Morin

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

La capacité à se localiser est d’une importance cruciale pour la navigation des robots. Cette importance a permis le développement de plusieurs techniques de localisation de grande précision. Notre contribution consiste à proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif d’aboutir à une localisation collaborative aussi rapide, robuste et précise que la technique individuelle de départ. Notre approche se base sur le filtrage en couplage serré Multi State Constraint Kalman Filter (MSCKF) pour la fusion de données. Les caractéristiques de ce filtrage sont d’abord étudiées dans le cas individuel pour tester la robustesse et la précision dans différentes conditions et avec différents modèles d’observation. Les résultats de cette étude nous ont orienté vers la structure la mieux adaptée à une augmentation au cas de localisation collaborative. L’algorithme collaboratif proposé, est basé sur un processus hiérarchique en trois étapes. Une localisation collaborative est initialisée sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative améliorée se base ensuite sur le chevauchement des images en utilisant un modèle de mesure adapté, et une structure de fusion de données qui absorbe l’excédent en temps de calcul provoqué par le traitement collaboratif. Enfin, pour augmenter la précision, une extraction des contraintes de structure environnement, suivie d’une intégration à l’aide d’une troncature dans le filtre sont proposées.