Thèse en cours

Compression de nuages de points à trois dimensions basées sur l'apprentissage profond de réseaux de neurones

FR  |  
EN
Auteur / Autrice : Rodrigo Borba pinheiro
Direction : Giuseppe Valenzise
Type : Projet de thèse
Discipline(s) : Sciences des réseaux, de l'information et de la communication
Date : Inscription en doctorat le 15/11/2021
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale Sciences et technologies de l'information et de la communication
Partenaire(s) de recherche : Laboratoire : Laboratoire des Signaux et Systèmes
Equipe de recherche : Télécoms et Réseaux
Référent : CentraleSupélec

Résumé

FR  |  
EN

Ce sujet concerne l'étude et la mise en œuvre de solutions permettant la compression de nuages de points en trois dimensions. Dans ce contexte nous souhaitons étudier et proposer des solutions basées apprentissage profond de réseaux de neurones (Deep Learing) dans le but d'améliorer les solutions traditionnelles existantes. Les récents résultats dans ce domaine [3,4,6] sont très prometteurs en termes de performance de compression par rapport aux solutions traditionnelles mais présentent encore beaucoup de limitations, notamment en termes de nature des données d'entrée et de volume de ces mêmes données. En effet aucune solution basée deep-learning existante ne permet le codage de la géométrie (coordonnées spatiales des points) et de la photométrie (couleurs de ces points, normales, etc.) de manière unifiée et performante. La problématique consiste donc à faire converger ces différentes approches afin d'obtenir des solutions viables en termes d'utilisation industrielle. Cette convergence sera notamment obtenue via la définition de nouvelles représentations des données géométriques et photométriques d'entrée permettant une consommation en structures de données régulières compatibles avec les modèles de deep-learning, ainsi que par la définition de nouvelles métriques de coût (basées perception) permettant d'obtenir des convergences de modèles pertinentes en termes de compression et de qualité visuelle. En termes de taille de données, les solutions basées deep-learning existantes sont généralement appliquées sur des modélisations régulières du nuage de point. Ce type de représentation introduit des biais sur les modèles d'origines (quantification, discontinuités de tuiles, etc.) et permettent rarement un passage à l'échelle. Nous proposons donc de faire évoluer les algorithmes existant dans le but d'exploiter au mieux des structures de données multi-résolution, type arbre octal, permettant le passage à l'échelle via un raffinement progressif ainsi que la consommation du flux de données en fonction du point de vue virtuel. Là encore, une adaptation des données de contexte, issues du parcours descendant de l'arbre, devra être effectuée afin d'être fournies au modèle d'apprentissage. Finalement nous proposons, dans une dernière phase, d'étudier la possibilité d'extension de notre modèle vers des nuages de points animés, en prenant en compte l'aspect temporel et donc la compression inter-trames. À la suite d'un état de l'art approfondi l'étudiant aura donc à développer de nouvelles métriques basées perception, de nouvelles structures de données ainsi que les algorithmes permettant la mise en place de ces différents aspects.