Thèse soutenue

Transport Optimal pour l'Apprentissage Automatique

FR  |  
EN
Auteur / Autrice : Aude Genevay
Direction : Gabriel Peyré
Type : Thèse de doctorat
Discipline(s) : Mathématiques
Date : Soutenance le 13/03/2019
Etablissement(s) : Paris Sciences et Lettres (ComUE)
Ecole(s) doctorale(s) : Ecole doctorale SDOSE (Paris)
Partenaire(s) de recherche : Laboratoire : Centre de recherche en mathématiques de la décision (Paris) - Institut de Recherche Interdisciplinaire en Sciences Sociales / IRISSO
établissement de préparation de la thèse : Université Paris Dauphine-PSL (1968-....)
Jury : Président / Présidente : Jean-Michel Loubès
Examinateurs / Examinatrices : Gabriel Peyré, Jean-Michel Loubès, Stefanie Jegelka, Lorenzo Rosasco, Olivier Bousquet, Francis Bach, Jean-David Benamou, Jérémie Bigot, Marco Cuturi, Rémi Flamary
Rapporteur / Rapporteuse : Stefanie Jegelka, Lorenzo Rosasco

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

Le Transport Optimal régularisé par l’Entropie (TOE) permet de définir les Divergences de Sinkhorn (DS), une nouvelle classe de distance entre mesures de probabilités basées sur le TOE. Celles-ci permettent d’interpoler entre deux autres distances connues : le Transport Optimal (TO) et l’Ecart Moyen Maximal (EMM). Les DS peuvent être utilisées pour apprendre des modèles probabilistes avec de meilleures performances que les algorithmes existants pour une régularisation adéquate. Ceci est justifié par un théorème sur l’approximation des SD par des échantillons, prouvant qu’une régularisation sus ante permet de se débarrasser de la malédiction de la dimension du TO, et l’on retrouve à l’infini le taux de convergence des EMM. Enfin, nous présentons de nouveaux algorithmes de résolution pour le TOE basés sur l’optimisation stochastique « en-ligne » qui, contrairement à l’état de l’art, ne se restreignent pas aux mesures discrètes et s’adaptent bien aux problèmes de grande dimension.