Thèse soutenue

Optimisation de politiques séquentielles d'emploi et de maintenance prédictive de systèmes multi-composants

FR  |  
EN
Auteur / Autrice : Tiffany Cherchi
Direction : Benoîte de SaportaFrançois Dufour
Type : Thèse de doctorat
Discipline(s) : Biostatistique
Date : Soutenance le 16/12/2021
Etablissement(s) : Montpellier
Ecole(s) doctorale(s) : École doctorale Information, Structures, Systèmes (Montpellier ; 2015-....)
Partenaire(s) de recherche : Laboratoire : Institut Montpelliérain Alexander Grothendieck (Montpellier ; 2003-....)
Jury : Président / Présidente : Mitra Fouladirad
Examinateurs / Examinatrices : Benoîte de Saporta, François Dufour, Mitra Fouladirad, Anne Barros, Antoine Grall, Nadine Hilgert, Camille Baysse
Rapporteurs / Rapporteuses : Anne Barros, Antoine Grall

Résumé

FR  |  
EN

On présente un problème d'optimisation pour la maintenance d'un système multi-composants conçu par Thales. Ce dernier est sujet à des détériorations et défaillances aléatoires de ses composants, au cours de missions pour lesquelles il est requis, entraînant l'évolution de son état et une pénalité d'indisponibilité en cas d’échec. L’enjeu est alors de définir une politique optimale d'emploi et de maintenance du système, afin de garantir le bon déroulement des missions, tout en minimisant ses coûts de gestion. Il s’agit de déterminer un compromis entre intervenir trop tôt, générant des coûts de maintenances inutiles, et intervenir trop tard, menant à la panne du système et à payer des pénalités et des opérations plus coûteuses.Une des spécificités de ce travail est de considérer une prise de décision séquentielle sur le système. Ensuite, il s’agit de différencier les opérations de maintenance selon l’état de chacun de ses composants. L'idée principale de ce travail est alors de proposer un modèle mathématique pour l'évolution du système via le formalisme d'un Processus Markovien Décisionnel (MDP). Ainsi, l’objectif est de résoudre le problème d’optimisation associé, à savoir déterminer pour chaque date de décision et chaque état du système, l’action qui minimise la somme des coûts générés sur tout l’horizon. C’est ce qu’on appelle une politique. On propose ensuite plusieurs politiques de référence préventives et correctives et on compare leurs performances en termes de coûts et de statistiques de pannes, par simulations de Monte-Carlo. Ceci illustre l'intérêt de regrouper les maintenances lors des passages en atelier, et de considérer les temps de fonctionnement des composants pour les prises de décision, afin de réduire à la fois les coûts et le taux de pannes.Le modèle spécifié pour cette problématique industrielle donne lieu à un problème d’optimisation non standard dans le cadre des MDP, car l'espace d’états du système est continu et le noyau de transition n'est pas explicite analytiquement, mais seulement simulable. Afin de pouvoir rechercher une politique optimale sur un ensemble fini de politiques admissibles, on discrétise la règle de décision du MDP. Ceci permet de prendre des décisions sur un nombre fini d’états, sans discrétiser la dynamique du MDP. Les coûts des politiques de référence sont utilisés pour calibrer cette discrétisation. Il s’agit de déterminer un compromis entre précision, conduisant à considérer un très grand nombre d’états, et une complexité numérique, conduisant à un nombre d'états le plus petit possible. Enfin, le noyau de transition n’étant toujours pas explicite, on implémente et on compare deux méthodes d'optimisation stochastiques basées sur les simulations afin d'approcher et d’expliciter une politique optimale. Une attention particulière est portée à l’identification de l’origine des gains, afin d’interpréter la politique optimale déterminée.