Raffinement de la localisation d’images provenant de sites participatifs pour la mise à jour de SIG urbain
Auteur / Autrice : | Bernard Semaan |
Direction : | Guillaume Moreau, Bilal Chebaro, Myriam Servières |
Type : | Thèse de doctorat |
Discipline(s) : | Architecture et Etudes Urbaines |
Date : | Soutenance le 14/12/2018 |
Etablissement(s) : | Ecole centrale de Nantes en cotutelle avec Université Libanaise |
Ecole(s) doctorale(s) : | Sciences de l'ingénierie et des systèmes (Nantes Université) |
Partenaire(s) de recherche : | Laboratoire : Centre de recherche nantais architectures urbanités |
Jury : | Président / Présidente : Luce Morin |
Examinateurs / Examinatrices : Guillaume Moreau, Bilal Chebaro, Myriam Servières, Luce Morin, Thierry Joliveau, Eric Saux | |
Rapporteurs / Rapporteuses : Thierry Joliveau, Eric Saux |
Mots clés
Résumé
Les villes sont des zones actives : tous les jours de nouvelles constructions ont lieu, des immeubles sont démolis ou des locaux commerciaux changent d'enseigne. Les gestionnaires des Systèmes d'information géographique de la ville ont pour but de mettre le plus à jour possible leurs modèles numériques de la ville. Ces modèles peuvent se composer de cartes en 2D mais aussi de modèles en 3D qui peuvent provenir d'une reconstruction à partir d'images. Ces dernières peuvent avoir été prises depuis le ciel comme depuis le sol. La cartographie participative, comme le permet la plateforme "OpenStreetMap.org", a émergé pour mettre à disposition de tous l'information géographique et maintenir les cartes 2D à jour par les utilisateurs de la plateforme. Dans le but d'améliorer le processus de mise à jour et suivant le même esprit que les approches participatives, nous proposons d'utiliser les plateformes de partage de photos comme "Flickr", "Twitter", etc. Les images téléchargées sur ces plates-formes possèdent une localisation imprécise de l'image sans information sur l'orientation de la photographie. Nous proposons alors un système qui aide à trouver une meilleure localisation et retrouve une information d'orientation de la photographie. Le système utilise les informations visuelles de l'image ainsi que les informations sémantiques. Pour cela nous présentons une chaîne de traitement automatisée composée de trois couches : la couche d'extraction et de pré-traitement des données, la couche d'extraction et de traitement des primitives, la couche de prise de décision. Nous présentons ensuite les résultats de l'ensemble de ce système que nous appelons "Data Gathering system for image Pose Estimation"(DGPE). Nous présentons aussi dans cette thèse une méthode que nous avons appelée "Segments Based Building Detection"(SBBD) pour la détection d'immeubles simples. Nous avons aussi testé cette méthode sous diverses conditions de prise de vue (occultations, variations climatiques, etc.). Nous comparons cette méthode de détection à une autre méthode de l'état de l'art en utilisant plusieurs bases d'images.