Quelques applications de l’optimisation numérique aux problèmes d’inférence et d’apprentissage
Auteur / Autrice : | Hariprasad Kannan |
Direction : | Nikos Paragios |
Type : | Thèse de doctorat |
Discipline(s) : | Traitement du signal et des images |
Date : | Soutenance le 28/09/2018 |
Etablissement(s) : | Université Paris-Saclay (ComUE) |
Ecole(s) doctorale(s) : | École doctorale Sciences et technologies de l'information et de la communication (Orsay, Essonne ; 2015-....) |
Partenaire(s) de recherche : | établissement opérateur d'inscription : CentraleSupélec (2015-....) |
Laboratoire : Centre de vision numérique (Gif-sur-Yvette, Essonne) | |
Jury : | Président / Présidente : Josiane Zerubia |
Examinateurs / Examinatrices : Nikos Paragios, Nikos Komodakis, Yuliya Tarabalka | |
Rapporteurs / Rapporteuses : Pawan Kumar Mudigonda, Laurent Najman |
Mots clés
Résumé
Les relaxations en problème d’optimisation linéaire jouent un rôle central en inférence du maximum a posteriori (map) dans les champs aléatoires de Markov discrets. Nous étudions ici les avantages offerts par les méthodes de Newton pour résoudre efficacement le problème dual (au sens de Lagrange) d’une reformulation lisse du problème. Nous comparons ces dernières aux méthodes de premier ordre, à la fois en terme de vitesse de convergence et de robustesse au mauvais conditionnement du problème. Nous exposons donc un cadre général pour l’apprentissage non-supervisé basé sur le transport optimal et les régularisations parcimonieuses. Nous exhibons notamment une approche prometteuse pour résoudre le problème de la préimage dans l’acp à noyau. Du point de vue de l’optimisation, nous décrivons le calcul du gradient d’une version lisse de la norme p de Schatten et comment cette dernière peut être utilisée dans un schéma de majoration-minimisation.