Thèse soutenue

Contributions à l'adaptation de domaine non supervisée : Fonctions de similarité, transport optimal et garanties théoriques

FR  |  
EN
Auteur / Autrice : Sofiane Dhouib
Direction : Carole Lartizien
Type : Thèse de doctorat
Discipline(s) : Traitement du signal et des images
Date : Soutenance le 23/11/2020
Etablissement(s) : Lyon
Ecole(s) doctorale(s) : École doctorale Électronique, électrotechnique, automatique (Lyon)
Partenaire(s) de recherche : établissement opérateur d'inscription : Institut national des sciences appliquées (Lyon ; 1957-....)
Laboratoire : CREATIS - Centre de Recherche et d'Application en Traitement de l'Image pour la Santé (Lyon ; 2007-....) - Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé / CREATIS
Equipe de recherche : Modeling & analysis for medical imaging and Diagnosis
Jury : Président / Présidente : Michèle Sebag
Examinateurs / Examinatrices : Carole Lartizien, Michèle Sebag, Shai Ben-David, Rémi Flamary, Levgen Redko
Rapporteurs / Rapporteuses : Shai Ben-David, Rémi Flamary

Résumé

FR  |  
EN

L'explosion de la quantité de données produites chaque jour a fait de l' l'Apprentissage Automatique un outil vital pour extraire des motifs de haute valeur à partir de celles-là. Concrètement, un algorithme d'apprentissage automatique apprend de tels motifs après avoir été entraîné sur un jeu de données appelé données d'entraînement, et sa performance est évaluée sur échantillon différent, appelé données de test. L'Adaptation de Domaine est une branche de l'apprentissage automatique, dans lequel les données d'entraînement et de test ne sont plus supposées provenir de la même distribution de probabilité. Dans ce cas, les deux distributions des données d'entraînement et de test correspondent respectivement aux domaines source et cible. Nos contributions se focalisent sur trois aspects théoriques en relation avec l'adaptation de domaine pour les tâches de classification. Le premier est l'apprentissage avec des fonctions de similarité, qui traite les algorithmes de classification basés sur la comparaison d'une instance à d'autres exemples pour décider sa classe. Le deuxième est la classification à vaste marge qui concerne l'apprentissage d'un classifieur maximisant la séparation entre classes. Le troisième aspect est le Transport Optimal qui formalise un principe d'effort minimal pour le transport de masses de probabilité entre distributions. Au début de cette thèse, nous nous intéressions à l'apprentissage avec ce que l'on appelle fonctions de similarités (epsilon,gamma,tau)-bonnes dans le cadre de l'adaptation de domaine, puisque ces fonctions ont été introduites dans la littérature dans le cadre classique de l'apprentissage supervisé. C'est le sujet de notre première contribution dans laquelle nous étudions théoriquement la performance d'une fonction de similarité sur une distribution cible, étant donné qu'elle est adéquate pour la source. Puis, nous abordons plus généralement le thème de la classification à vaste marge pour l'adaptation de domaine, avec des hypothèses de départ plus faibles que celles adoptées dans la première contribution. Dans ce contexte, nous proposons une nouvelle étude théorique et un algorithme d'adaptation de domaine, ce qui constitue notre deuxième contribution. Nous dérivons de nouvelles bornes prenant en compte la marge de classification dans le domaine cible, que nous convexifions en tirant profit de la théorie du Transport Optimal, en vue de dériver un algorithme d'adaptation de domaine présentant une variation adversariale du problème classique de Kantorovitch. Finalement, nous dédions notre dernière contribution aux variations adversariales ou minimax du problème du transport optimal, où nous démontrons l'adaptabilité de notre approche.