Thèse soutenue

Méthodes eulériennes pour les problèmes inverses en transport optimal

FR  |  
EN
Auteur / Autrice : Matthieu Heitz
Direction : David CoeurjollyNicolas Bonneel
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 18/05/2020
Etablissement(s) : Lyon
Ecole(s) doctorale(s) : École doctorale InfoMaths (Lyon ; 2009-....)
Partenaire(s) de recherche : établissement opérateur d'inscription : Université Claude Bernard (Lyon ; 1971-....)
Laboratoire : LIRIS - Laboratoire d'Informatique en Image et Systèmes d'information (Rhône ; 2003-....)
Jury : Président / Présidente : Raphaëlle Chaine
Examinateurs / Examinatrices : David Coeurjolly, Nicolas Bonneel, Quentin Mérigot, Nicolas Courty, Julie Delon
Rapporteur / Rapporteuse : Quentin Mérigot, Nicolas Courty

Résumé

FR  |  
EN

Cette thèse a pour but de développer de nouvelles méthodes numériques pour résoudre des problèmes inverses en transport optimal. On trouve les problèmes inverses dans divers disciplines telles que l’astronomie, la géophysique, ou l’imagerie médicale, mais aussi dans des domaines plus proches du sujet de cette thèse, à savoir la vision par ordinateur, l’informatique graphique, et l’apprentissage automatique. Les problèmes inverses sont en général difficiles à résoudre car ils sont souvent mal posés (nombre infini de solutions, instabilités), et les modèles non-linéaires du transport optimal apportent des défis supplémentaires. Cependant, ces problèmes sont importants à résoudre car ils nous permettent d’obtenir des résultats sur des quantités qui ne sont pas directement observables, ce qui peut apporter de précieuses informations dans de nombreux cas. Les techniques existantes pour résoudre les problèmes en traitement d’image et du signal et en apprentissage automatique considèrent souvent les histogrammes comme des vecteurs euclidiens. Elles ne parviennent donc pas à saisir et traiter correctement les relations sous-jacentes entre les bins des histogrammes, définies par la géométrie du domaine. Le transport optimal résout ce problème en définissant une distance entre histogrammes (et plus généralement entre distributions de probabilité) basée sur les distances entre les bins. Dans cette thèse, nous adaptons deux tâches classiques de l’apprentissage automatique à la géométrie du transport optimal : l’apprentissage de dictionnaire et l’apprentissage de métrique. Nos méthodes résolvent ces tâches en tant que problèmes d’optimisation et sont fondées sur la régularisation entropique du transport optimal, et la différentiation automatique. La régularisation fournit des approximations rapides, robustes et régulières (lisses) du transport, ce qui est essentiel pour obtenir des algorithmes d’optimisation efficaces. La différentiation automatique apporte une alternative rapide et fiable à la dérivation analytique manuelle, ce qui conduit à des méthodes flexibles. Nous illustrons nos deux algorithmes sur des applications en traitement d’image et en traitement du langage naturel