Apprentissage continu par deep learning dans l'industrie pneumatique : conditions et applications
| Auteur / Autrice : | Mohamed Konate |
| Direction : | Anne-Françoise Yao |
| Type : | Thèse de doctorat |
| Discipline(s) : | Mathématiques appliquées |
| Date : | Soutenance le 09/12/2024 |
| Etablissement(s) : | Université Clermont Auvergne (2021-...) |
| Ecole(s) doctorale(s) : | École doctorale des sciences fondamentales (Clermont-Ferrand) |
| Partenaire(s) de recherche : | Laboratoire : Laboratoire de Mathématiques Blaise Pascal (Aubière ; 1996-....) |
| Jury : | Président / Présidente : Jean-Michel Loubes |
| Examinateurs / Examinatrices : Pierre Latouche, Thierry Chateau, Laure Tougne Rodet | |
| Rapporteurs / Rapporteuses : Jean-Michel Loubes, Stefan Duffner |
Mots clés
Résumé
Dans le domaine en constante évolution de l'intelligence artificielle, les réseaux de neurones sont fondamentaux pour développer des modèles avancés pour un large éventail d'applications industrielles. Cependant, le maintien de leurs performances au fil du temps reste un défi majeur, notamment en raison du coût et de la complexité des processus de retraitement traditionnels. Ces processus nécessitent souvent des ressources importantes et la mise en œuvre de cadres complets de MLOps. Cette thèse de doctorat répond au besoin d'alternatives efficaces à ces méthodes conventionnelles, en se concentrant sur l'apprentissage continu (AC) comme solution prometteuse permettant aux modèles de s'adapter à de nouvelles données et tâches sans retraitement complet. L'apprentissage continu a le potentiel de réduire à la fois les coûts informatiques et opérationnels, le rendant très pertinent pour les industries où l'évolutivité et l'efficacité sont essentielles.Cette recherche fait le pont entre les avancées académiques en matière d'apprentissage continu et leur application pratique dans les milieux industriels, en particulier pour Michelin, un fabricant industriel. Le travail comprend un examen critique des méthodes existantes d'apprentissage continu et le développement d'un nouvel ensemble de métriques, appelé Mean Incremental Class Accuracy (MICA), adaptées aux applications industrielles. Un cadre unifié composé de blocs fonctionnels est proposé pour classer les méthodes actuelles d'apprentissage continu, ce qui conduit à la création d'une bibliothèque open-source modulaire, CLMixer, conçue pour intégrer et optimiser ces méthodes.Sur le plan théorique, cette thèse présente une nouvelle formulation qui unifie les approches existantes d'apprentissage continu, démontrant la relation entre l'approximation de fonction dans des espaces de haute dimension et l'apprentissage continu. La solution théorique pour les méthodes d'approximation locale est rigoureusement dérivée, révélant les limites des hypothèses courantes même avec des stratégies de relecture. De plus, une nouvelle classe innovante de méthodes est introduite, qui projette l'espace des paramètres dans des dimensions inférieures pour effectuer l'approximation de fonction, offrant une approche systématique pour résoudre les défis de l'apprentissage continu. Ces méthodes sont prometteuses pour faire progresser le domaine, ouvrant de nouvelles perspectives de recherche et fournissant une base pour développer des algorithmes d'apprentissage continu plus robustes et évolutifs.Les résultats de cette recherche devraient fournir des informations précieuses sur le développement de stratégies plus efficaces et économiques pour gérer le cycle de vie des réseaux de neurones, favorisant l'adoption plus large de l'apprentissage continu dans l'industrie. De plus, la thèse contribue à la compréhension théorique des mécanismes d'apprentissage continu, offrant une base pour les progrès futurs dans le domaine