Thèse soutenue

Modélisation et apprentissage de relations spatiales pour la reconnaissance et l’interprétation d’images

FR  |  
EN
Auteur / Autrice : Michaël Clément
Direction : Laurent Wendling
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 26/09/2017
Etablissement(s) : Sorbonne Paris Cité
Ecole(s) doctorale(s) : École doctorale Informatique, télécommunications et électronique de Paris (1992-...)
Partenaire(s) de recherche : établissement de préparation : Université Paris Descartes (1970-2019)
Laboratoire : Laboratoire d'Informatique Paris Descartes
Jury : Président / Présidente : Cédric Wemmert
Examinateurs / Examinatrices : Laurent Wendling, Cédric Wemmert, Isabelle Debled-Rennesson, Christophe Garcia, Valérie Gouet-Brunet, Rolf Ingold, Camille Kurtz
Rapporteur / Rapporteuse : Isabelle Debled-Rennesson, Christophe Garcia

Résumé

FR  |  
EN

Ces dernières années, la quantité de données visuelles produites par divers types de capteurs est en augmentation permanente. L'interprétation et l'indexation automatique de telles données constituent des défis importants pour les domaines liés à la reconnaissance de formes et la vision par ordinateur. Dans ce contexte, la position relative des différents objets d'intérêt composant les images représente une information particulièrement importante pour interpréter leur contenu. Les relations spatiales sont en effet porteuses d'une sémantique riche, qui est fortement liée à la perception humaine. Les travaux de recherche présentés dans cette thèse proposent ainsi d'explorer différentes approches génériques de description de l'information spatiale, en vue de les intégrer dans des systèmes de reconnaissance et d'interprétation d'images de haut niveau. Tout d'abord, nous présentons une approche pour la description de configurations spatiales complexes, où les objets peuvent être imbriqués les uns dans les autres. Cette notion est formalisée par deux nouvelles relations spatiales, nommées enlacement et entrelacement. Nous proposons un modèle qui permet de décrire et de visualiser ces configurations avec une granularité directionnelle. Ce modèle est validé expérimentalement pour des applications en imagerie biomédicale, en télédétection et en analyse d'images de documents. Ensuite, nous présentons un cadre d'apprentissage de relations spatiales composites à partir d'ensembles d'images. Inspirée des approches par sacs de caractéristiques visuelles, cette stratégie permet de construire des vocabulaires de configurations spatiales apparaissant dans les images, à différentes échelles. Ces caractéristiques structurelles peuvent notamment être combinées avec des descriptions locales, conduisant ainsi à des représentations hybrides et complémentaires. Les résultats expérimentaux obtenus sur différentes bases d'images structurées permettent d'illustrer l'intérêt de cette approche pour la reconnaissance et la classification d'images.