Thèse soutenue

Modélisation adaptée des images omnidirectionnelles pour agrandir le domaine de convergence de l'asservissement visuel virtuel direct

FR  |  
EN
Auteur / Autrice : Seif Eddine Guerbas
Direction : El Mustapha MouaddibGuillaume Caron
Type : Thèse de doctorat
Discipline(s) : Sciences pour l'Ingénieur. Robotique
Date : Soutenance le 13/07/2022
Etablissement(s) : Amiens
Ecole(s) doctorale(s) : École doctorale Sciences, technologie et santé (Amiens)
Partenaire(s) de recherche : Laboratoire : Modélisation, Information et Systèmes (Amiens ; 2008-....)
Jury : Président / Présidente : Cédric Demonceaux
Examinateurs / Examinatrices : Samia Ainouz, Marie Babel
Rapporteurs / Rapporteuses : Cédric Demonceaux, Olivier Strauss

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

La vision omnidirectionnelle capture dans toutes les directions une scène en temps réel grâce à un champ de vision plus étendu que celui offert par une caméra conventionnelle. Au sein de l'environnement, relier les caractéristiques visuelles contenues dans les images de la caméra à ses mouvements est une problématique centrale pour l'asservissement visuel. Les approches directes se caractérisent cependant par un domaine de convergence limité. La thèse que nous présentons a pour premier objectif d'étendre significativement ce dernier dans le cadre de l'asservissement visuel virtuel en représentant l'image omnidirectionnelle par un Mélange de Gaussiennes Photométriques (MGP). Cette approche est étendue dans un deuxième temps au recalage et au suivi direct basé modèle 3D dans les images omnidirectionnelles. Cela permet d'étudier la localisation d'un robot mobile équipé d'une caméra panoramique dans un modèle urbain 3D. Les expérimentations ont été conduites en environnement virtuel et en utilisant des images réelles capturées à l'aide d'un robot mobile et d'un véhicule. Les résultats montrent un agrandissement significatif du domaine de convergence qui permet alors une grande robustesse face à d'importants mouvements inter-images