Thèse soutenue

Quelques applications de l’optimisation numérique aux problèmes d’inférence et d’apprentissage

FR  |  
EN
Auteur / Autrice : Hariprasad Kannan
Direction : Nikos Paragios
Type : Thèse de doctorat
Discipline(s) : Traitement du signal et des images
Date : Soutenance le 28/09/2018
Etablissement(s) : Université Paris-Saclay (ComUE)
Ecole(s) doctorale(s) : École doctorale Sciences et technologies de l'information et de la communication (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : établissement opérateur d'inscription : CentraleSupélec (2015-....)
Laboratoire : Centre de vision numérique (Gif-sur-Yvette, Essonne)
Jury : Président / Présidente : Josiane Zerubia
Examinateurs / Examinatrices : Nikos Paragios, Nikos Komodakis, Yuliya Tarabalka
Rapporteurs / Rapporteuses : Pawan Kumar Mudigonda, Laurent Najman

Résumé

FR  |  
EN

Les relaxations en problème d’optimisation linéaire jouent un rôle central en inférence du maximum a posteriori (map) dans les champs aléatoires de Markov discrets. Nous étudions ici les avantages offerts par les méthodes de Newton pour résoudre efficacement le problème dual (au sens de Lagrange) d’une reformulation lisse du problème. Nous comparons ces dernières aux méthodes de premier ordre, à la fois en terme de vitesse de convergence et de robustesse au mauvais conditionnement du problème. Nous exposons donc un cadre général pour l’apprentissage non-supervisé basé sur le transport optimal et les régularisations parcimonieuses. Nous exhibons notamment une approche prometteuse pour résoudre le problème de la préimage dans l’acp à noyau. Du point de vue de l’optimisation, nous décrivons le calcul du gradient d’une version lisse de la norme p de Schatten et comment cette dernière peut être utilisée dans un schéma de majoration-minimisation.