optimisation robuste en environnement incertain

par Chifaa Dahik

Projet de thèse en Automatique

Sous la direction de Jean-Marc Nicod, Landy Rabehasaina et de Zeina Al masry.

Thèses en préparation à Bourgogne Franche-Comté , dans le cadre de SPIM - Sciences Physiques pour l'Ingénieur et Microtechniques , en partenariat avec FEMTO-ST Franche Comté Electronique Mécanique Thermique et Optique - Sciences et Technologies (laboratoire) et de AS2M - Département Automatique et Systèmes Micro-Mécatroniques (equipe de recherche) depuis le 01-10-2018 .


  • Résumé

    L'optimisation robuste est une approche extrêmement naturelle avec la prise en compte de l'incertitude dans les paramètres du problème étudié. Cette approche consiste à considérer une famille de solutions plutôt qu'une seule, chacune correspondant à des valeurs probables des paramètres. Cette famille de solutions peut provenir de la considération d'une ellipse de confiance autour des données d'entrée du problème initial. Un autre point de vue consiste à considérer que les données sont des variables aléatoires (de lois a priori connues) et que la solution est par ce fait également une variable aléatoire, de distribution inconnue. Le problème d'optimisation robuste qui en résulte est alors de type « minimax », ou « pire cas ». Cette approche a été vigoureusement développée par de nombreux auteurs de très haut niveau scientifique, initiée par Nemirovsky, Ben Tal, El Ghaoui, etc . Des contributions dans le domaine concernent des résultats rigoureux de complexité où un programme linéaire devient sous forme robuste un SDP (semi-definite program), les SDP étant résolubles en temps polynômial. Récemment, l'attention s'est progressivement tournée vers une approche plus probabiliste fondée sur l'intuition que l'approche « pire cas » n'était pas en général la plus pertinente. Il est maintenant possible de résoudre des problèmes sous la contrainte que la probabilité de ne pas satisfaire les contraintes est faible. Des travaux remarquables ont été faits en ce sens par Bertsimas, Caramanis et également par Van Ackooij et Malick . Cette approche est plus délicate d'un point de vue théorique et algorithmique que l'approche « pire cas » mais est extrêmement prometteuse. Une approche particulièrement plus flexible que celles décrites plus haut consiste à considérer la minimisation de l'espérance du coût (à définir de manière précise, tenant compte de l'aléa) plutôt que la minimisation du pire coût. Cela est fait par des algorithmes stochastiques ne requérant que la simulation des paramètres suivant la loi de probabilité que nous soupçonnons de gouverner les fluctuations du problème. Ces algorithmes sont souvent regroupés sous l'étiquette d'« approximation stochastique » et ont eux aussi une longue histoire . Une approche très intéressante dans le même esprit a été proposée par Nesterov et Vial . Elle est particulièrement intéressante pour nos objectifs. La méthode introduite dans [1] consiste en un mélange de simulations et d'optimisations qui permet d'obtenir un contrôle de la probabilité que la valeur du coût encouru par la solution de notre problème dépasse pas un certain niveau au dessus de son espérance. L'objectif de la thèse est de proposer une extension de l'approche développée dans [1] qui soit adaptée à la problématique d'optimisation étudiée et à la distribution des données, par exemple une distribution gaussienne ou uniforme, ou plus généralement appartenant à une famille paramétrée de distributions. Ainsi, une cartographie des approches robustes sera développée en fonction des problèmes et des données, chacune avec le niveau de robustesse attendu. Une mise en œuvre des approches proposées dans la thèse sera faite pour des cas d'application réels, de nature industrielle, médicale, etc. [1] Aharon Ben-Tal and Arkadi Nemirovski. Robust optimization–methodology and applications. Mathematical Programming, 92(3) :453–480, 2002.

  • Titre traduit

    robust optimization with uncertainty


  • Résumé

    Robust optimization is an extremely natural approach when taking into account the uncertainty in the parameters of the studied problem. This approach consists of considering a family of solutions rather than only one, each one of these solutions corresponding to some expected values of the parameters. This family of solutions can be due to taking into account a confidence ellipse around the inputs of the initial problem. An other point of vue is to consider that data is a set of random variables (with a known law). So the solution is a random variable too, with an unknown distribution. The resulting robust optimization problem has the «minimax » type, or the « worst case ». This approach has been vigorously developed by many high scientific level authors, initiated by Nemirovsky, Ben Tal, El Ghaoui … Some contributions in the field is about rigorous complex results, where a linear program becomes a SDP (semi-definite program) in its robust form, knowing that the SDPs are solved in a polynomial time. Recently, the attention is progressively turning to a more probabilistic approach founded on the intuition that the « worst case » isn't the most relevant. It is now possible to solve some problems with the constraint that the probability to not satisfy the constraints is weak. Some remarkable work has been done in this direction by Bertsimas, Caramanis, as well as Van Ackooij and Malick. A more flexible approach is to minimize the cost expectation (that we need to define precisely, taking into account the randomness) rather than minimizing the worst cost. This is done with stochastic algorithms that only requires parameter simulation following the probability law that we think may lead the problem's fluctuations. These algorithms are often known as « stochastic approximations », and they equally have a long history. A very interesting approach , with the same spirit, was suggested by Nesterov and Vial. It is particularly interesting for our goals. The introduced method in [1] is a mixture of simulations and optimizations that allows to obtain a control of the probability that the solution's cost value of our problem does not exceed a certain level away from its expectation. The aim of the thesis is to suggest an extension of the approach developed in [1] adapted to the studied optimization's problematic and to the data distribution, for example a normal or uniform distribution, or more generally, a distribution belonging to a parametered distribution family. So, a cartography of the robust approaches will be developed as a function of the problems and the data, each with the wanted robustness level. An execution of the approaches are then to be done on real industrial, medical application cases … [1] Aharon Ben-Tal and Arkadi Nemirovski. Robust optimization–methodology and applications. Mathematical Programming, 92(3) :453–480, 2002.