Transport Optimal pour l'Apprentissage Automatique
Auteur / Autrice : | Aude Genevay |
Direction : | Gabriel Peyré |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques |
Date : | Soutenance le 13/03/2019 |
Etablissement(s) : | Paris Sciences et Lettres (ComUE) |
Ecole(s) doctorale(s) : | Ecole doctorale SDOSE (Paris) |
Partenaire(s) de recherche : | Laboratoire : Centre de recherche en mathématiques de la décision (Paris) - Institut de Recherche Interdisciplinaire en Sciences Sociales / IRISSO |
établissement de préparation de la thèse : Université Paris Dauphine-PSL (1968-....) | |
Jury : | Président / Présidente : Jean-Michel Loubès |
Examinateurs / Examinatrices : Gabriel Peyré, Jean-Michel Loubès, Stefanie Jegelka, Lorenzo Rosasco, Olivier Bousquet, Francis Bach, Jean-David Benamou, Jérémie Bigot, Marco Cuturi, Rémi Flamary | |
Rapporteur / Rapporteuse : Stefanie Jegelka, Lorenzo Rosasco |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Le Transport Optimal régularisé par l’Entropie (TOE) permet de définir les Divergences de Sinkhorn (DS), une nouvelle classe de distance entre mesures de probabilités basées sur le TOE. Celles-ci permettent d’interpoler entre deux autres distances connues : le Transport Optimal (TO) et l’Ecart Moyen Maximal (EMM). Les DS peuvent être utilisées pour apprendre des modèles probabilistes avec de meilleures performances que les algorithmes existants pour une régularisation adéquate. Ceci est justifié par un théorème sur l’approximation des SD par des échantillons, prouvant qu’une régularisation sus ante permet de se débarrasser de la malédiction de la dimension du TO, et l’on retrouve à l’infini le taux de convergence des EMM. Enfin, nous présentons de nouveaux algorithmes de résolution pour le TOE basés sur l’optimisation stochastique « en-ligne » qui, contrairement à l’état de l’art, ne se restreignent pas aux mesures discrètes et s’adaptent bien aux problèmes de grande dimension.