Thèse soutenue

Configuration algorithmique par apprentissage et optimisation

FR  |  
EN
Auteur / Autrice : Gabriele Iommazzo
Direction : Leo LibertiAntonio Frangioni
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 10/12/2021
Etablissement(s) : Institut polytechnique de Paris en cotutelle avec Università degli studi (Pise, Italie)
Ecole(s) doctorale(s) : École doctorale de l'Institut polytechnique de Paris
Partenaire(s) de recherche : établissement opérateur d'inscription : École polytechnique (Palaiseau, Essonne ; 1795-....)
Laboratoire : Laboratoire d'informatique de l'École polytechnique (Palaiseau, Essonne)
Jury : Président / Présidente : Frédéric Messine
Examinateurs / Examinatrices : Leo Liberti, Antonio Frangioni, Emilio Carrizosa, Clarisse Dhaenens, Sonia Vanier
Rapporteurs / Rapporteuses : Emilio Carrizosa, Dominique Orban

Résumé

FR  |  
EN

Les sujets de recherche décrits dans cette thèse de doctorat se situent à l'intersection du Machine Learning (ML) et de la Programmation Mathématique (PM). Les principales contributions concernent le problème de la configuration des algorithmes (ACP) et le problème de la géométrie des distances (DGP).Dans la première partie du manuscrit, nous présentons la PM et le ML.Dans la deuxième partie, nous passons en revue la littérature sur le ACP. Étant donné un algorithme configurable A et une entrée P pour A, le ACP aborde l'identification de la configuration des paramètres c* de A assurant la meilleure performance algorithmique p dans la résolution de P. Comme la plupart des algorithmes ont un très grand nombre de paramètres, cette tâche est très difficile en pratique.Nous proposons deux nouvelles méthodologies fondées sur la PM, utilisant les paradigmes de ML comme éléments apparaissant dans une formulation de PM, pour résoudre l'ACP. Puisque la performance algorithmique est généralement une fonction boîte noire (son expression analytique est inconnue), nous construisons d'abord un prédicteur ML pour estimer le comportement de A. Notamment, nous apprenons soit: a) une approximation de p, soit b) une approximation d'une fonction reliant P et un niveau de performance requis à toute configuration l'atteignant. Dans une deuxième phase, nous traduisons les propriétés mathématiques sous-jacentes à l'approximation apprise en termes de PM. Nous intégrons ces composants dans une formulation de PM. Son objectif optimise le prédicteur dérivé de ML ; ses contraintes encodent les conditions de dépendance/compatibilité sur les paramètres et, potentiellement, d'autres conditions sur le prédicteur. Cela nous permet de formuler l'ACP par PM et de l'optimiser, à l'arrivée d'une nouvelle instance P', pour récupérer la configuration algorithmique c* réalisant la meilleure performance algorithmique pour P'. On espère que c* est une bonne configuration pour résoudre effectivement l'instance P' avec A. Ce cadre peut être adapté pour fonctionner avec de nombreux paradigmes ML. Les méthodologies les plus importantes de la littérature, qui traitent l'ACP comme un problème de boîte noire, ne peuvent trouver que des configurations qui sont bonnes pour un ensemble d'instances ayant des caractéristiques similaires. Alors que les méthodologies de type boîte noire pourraient ne pas être adaptées à des situations où l'ensemble des configurations admissibles est large et où c* dépend de l'instance en question, les algorithmes de solution de PM devraient être plus efficaces, puisqu'ils utilisent une structure de problème. Notre travail sur la configuration des algorithmes est motivé par le problème de la recherche de la meilleure paramétrisation d'un algorithme de solution de PM (un solveur d’optimisation), déployé sur un problème de décision ou d'optimisation donné. En particulier, nous étudions comment les choix d'implémentation dans la phase d'apprentissage influencent non seulement la précision du prédicteur appris, mais aussi le coût de la résolution de la formulation de PM dérivé, donnant lieu à des compromis non triviaux.Dans la troisième partie du manuscrit, nous considérons une méthodologie pour résoudre le DGP, c’est à dire pour trouver une réalisation d'un graphe dans un espace euclidien de dimension donnée, où les arêtes sont réalisées comme des segments droits de longueur égale aux poids des arêtes. Une approche habituelle consiste à résoudre une formulation de PM pour déterminer la position des sommets dans l'espace euclidien donné. Nous proposons une nouvelle formulation de PM où, à la place, nous considérons les cycles du graphe, et nous décidons de la longueur des segments modélisant les arêtes de chaque cycle. Notre recherche est en partie motivée par le fait qu'elle peut servir de méthodologie de plongement de graphes, en vue d'appliquer aux graphes des paradigmes de ML basés sur les vecteurs.