Méthodes d'analyse précise des algorithmes évolutifs basés sur la population
Auteur / Autrice : | Denis Antipov |
Direction : | Benjamin Doerr, Maxim Buzdalov |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique, données, IA |
Date : | Soutenance le 05/11/2020 |
Etablissement(s) : | Institut polytechnique de Paris en cotutelle avec ITMO University |
Ecole(s) doctorale(s) : | École doctorale de l'Institut polytechnique de Paris |
Partenaire(s) de recherche : | établissement opérateur d'inscription : École polytechnique (Palaiseau, Essonne ; 1795-....) |
Laboratoire : Laboratoire d'informatique de l'École polytechnique (Palaiseau ; 1988-....) | |
Jury : | Président / Présidente : Christoph Dürr |
Examinateurs / Examinatrices : Benjamin Doerr, Maxim Buzdalov, Laetitia Jourdan, Anton Eremeev, Jesse Read, Alberto Tonda, Alexander Boukhanovsky | |
Rapporteur / Rapporteuse : Laetitia Jourdan, Anton Eremeev |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Les algorithmes évolutifs (AÉs pour la brièveté) sont une large classe d'algorithmes d'optimisation qui sont inspirés par l'évolution naturelle. Ils sont souvent utilisés pour résoudre des problèmes pratiques qui ne peuvent pas être résolus avec précision dans un délai raisonnable, car ils peuvent trouver des solutions satisfaisantes sans dépenser trop de ressources de calcul. L'efficacité pratique des AÉ est soutenue par la théorie du calcul évolutif, qui a produit un grand nombre de résultats impressionnants au cours des deux dernières décennies. Ces résultats donnent de précieuses recommandations sur la façon de configurer les paramètres des algorithmes ou même proposent des nouvaux AÉs.Les études théoriques observent principalement comment des algorithmes simples optimisent des problèmes de modèle. Il est difficile d'analyser problèmes du monde réel, car même les algorithmes les plus simples sont souvent décrits via des processus stochastiques très compliqués. En particulier, on en sait peu sur le comportement des algorithmes basés sur des populations. En même temps les populations sont considérées comme essentielles par la plupart des praticiens. Le manque de compréhension théorique du fonctionnement des populations soulève le risque que les populations ne sont pas utilisées de la manière la plus efficace.Les outils d'analyse existants ne sont cependant pas adaptés pour donner une meilleure compréhension des populations. Ainsi, l'objectif principal de cette thèse est de développer de nouvelles méthodes d'analyse qui permettraient de fournir de nouvelles limites d'exécution pour les algorithmes évolutifs et d'étendre nos connaissances sur le rôle des populations. Nous proposons les méthodes d'analyse pour les AÉs basées sur la population.- La méthode des arbres complets pour fournir les limites inférieures au temps d'exécution des AÉs basées sur la population.- La méthode de l'analyse des processus sans dérive.- La méthode pour fournir les limites précises sur la distribution des temps d'exécution pour les AÉs sur plateaux.- Le théorème de dérive additif avec limites de la distribution.Avec ces méthodes d'analyse, nous effectuons une analyse d'exécution des algorithmes suivants.- Avec la méthode des arbres complets, nous dérivons une limite étroite sur l'exécution de l'AÉ (mu + lambda) sur le problème OneMax.- Avec la méthode d'analyse des processus sans dérive, nous analysons l'AÉ (mu, lambda) sur OneMax avec les valeurs de paramètre de seuil lambda est d'environ emu.- Avec la méthode d'analyse des AÉs sur plateaux nous délivrons des estimations précises sur l'exécution de l'AÉ (1 + 1) et l'AÉ (lambda + lambda) sur Plateau_k.Nous proposons également un nouvel algorithme basé sur le croisement avec une population de descendants non triviale --- le queue-lourde l'algorithme génétique (1 + (lambda, lambda)). Notre analyse de cet algorithme sur les fonctions OneMax, LeadingOnes et Jump_k révèle l'efficacité des choix de paramètres aléatoires à partir d'une loi de puissance. Alors que sur Jump_k ce choix de paramètre aléatoire nous donne un algorithme universel, ce qui nous dispense de choisir les paramètres statiques optimaux (qui dépendent du paramètre de fonction k, probablement inconnu à l'avance), sur OneMax nous observons un temps d'exécution meilleur que le temps d'exécution pour le meilleur choix de paramètre statique. Sur le fonction LeadingOnes (avec l'aide du théorème de dérive additif avec limites de la distribution), nous montrons que le temps d'exécution asymptotique est le même pour tout choix statique ou dynamique des paramètres et est le même que pour les algorithmes basés sur des mutations les plus standards.