Amélioration de la chaine logistique de pièces de rechange en boucle fermée : application des modèles d’apprentissage
Auteur / Autrice : | Hamza El Garrab |
Direction : | Bruno Castanier, David Lemoine |
Type : | Thèse de doctorat |
Discipline(s) : | Sciences et technologie industrielles |
Date : | Soutenance le 18/12/2020 |
Etablissement(s) : | Angers |
Ecole(s) doctorale(s) : | Sciences de l'ingénierie et des systèmes (Nantes Université) |
Partenaire(s) de recherche : | Equipe de recherche : Laboratoire Angevin de Recherche en Ingénierie des Systèmes (EA7315) |
Entreprise : GE Medical Systems 078 | |
Laboratoire : Laboratoire Angevin de Recherche en Ingénierie des Systèmes / LARIS | |
Jury : | Président / Présidente : Mitra Fouladirad |
Examinateurs / Examinatrices : Samir Lamouri, Sylvie Norre, Adnane Lazrak | |
Rapporteur / Rapporteuse : Samir Lamouri, Sylvie Norre |
Mots clés
Résumé
Dans le domaine de service après-vente et particulièrement dans la maintenance, l’intervention rapide et la réparation du bien du client est un élément clé pour sa satisfaction et pour la création de l’image de marque dans le marché. Le travail présenté dans cette thèse propose une approche Big Data et Machine Learning pour l’amélioration du flux informationnel de la chaine logistique de pièces de rechange. Notre contribution se focalise sur la prévision de la charge dans les centres de réparation des pièces de rechange, qui sont les fournisseurs principaux des pièces utilisés pour réparer les systèmes des clients. La grandeur de la chaine logistique et sa complexité, le grand nombre des références de pièces ainsi que la multitude des cas spéciaux (pays avec de lois spécifiques, pièces particulières…) fait que les approches classiques n’offrent pas des prévisions fiables pour les services de réparation. Dans ce projet, nous proposons des algorithmes d’apprentissage permettant la construction de la connaissance à partir de grands volumes de données, au lieu de l’implémentation manuelle. Nous allons voir les modèles dans la littérature, présenter notre méthodologie, et ensuite implémenter les modèles et évaluer leur performance en comparaison avec les algorithmes existants.