Thèse soutenue

​Dérive des modèles d’apprentissage : détection, mise à jour à la volée et correction

FR  |  
EN
Auteur / Autrice : Maxime Fuccellaro
Direction : Akka ZemmariLaurent Simon
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 25/11/2024
Etablissement(s) : Bordeaux
Ecole(s) doctorale(s) : École doctorale Mathématiques et informatique (Talence, Gironde ; 1991-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire bordelais de recherche en informatique
Jury : Président / Présidente : Fleur Mougin
Examinateurs / Examinatrices : Astrid Jourdan-Marias
Rapporteurs / Rapporteuses : Alexandre Termier, Arnaud Lallouet

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

L’adoption généralisée de l’intelligence artificielle a entraîné une croissance exponentielle du nombre de modèles créés et utilisés en production. La capacité des modèles d’apprentissage automatique s’améliorant constamment, permet aux modèles d’atteindre de nouveaux domaines d’application précédemment hors de portée. La définition de base de la dérive conceptuelle (DC) est un changement de distribution des données. Il existe plusieurs catégories de dérives basées sur l’amplitude, la vitesse ou la récurrence. La dérive conceptuelle peut apparaître naturellement sur le temps long, par exemple dans la façon dont nous nous déplaçons ; les modèles utilisés pour estimer les retards dans les transports publics ne seront pas ou plus performants dans dix ans. La DC peut également être brutale et rendre rapidement les modèles prédictifs obsolètes, comme l’illustre la pandémie du covid dans de nombreux domaines d’applications. Comme la probabilité qu’un modèle soit affecté par la dérive augmente avec l’âge du modèle, la dérive conceptuelle devient un phénomène courant qui doit être pris en compte avant la construction d’un modèle. La dérive conceptuelle peut être divisée en deux catégories principales : la dérive réelle et la dérive virtuelle. On parle de dérive réelle lorsque la capacité d’un modèle prédictif à classer correctement des échantillons est affectée par le changement de distribution. Une dérive est dite virtuelle lorsque le changement de distribution n’a que peu ou pas d’impact sur les performances prédictives du modèle. Lorsqu’une dérive est virtuelle, elle ne doit pas être détectée. La dérive fait est devenue un sujet de recherche actif au cours des dernières années. Toutefois, la plupart des recherches se sont concentrées sur la détection des dérives réelles lorsque les étiquettes ou la vérité terrain sont connues. Ces algorithmes partent du principe que la dérive se produit lorsque les prédictions du modèle se détériorent. Diverses techniques de fenêtrage combinées à des tests statistiques sont appliquées pour trouver avec précision les événements de dérive. Ces méthodes peuvent permettre une détection presque parfaite, mais elles supposent que les véritables étiquettes soient disponibles immédiatement après la phase d’inférence, ce qui est rarement le cas dans le monde réel. C’est rarement le cas dans les scénarios réels où les étiquettes de classe peuvent mettre longtemps à arriver ou ne jamais être connues. Certains algorithmes de détection de dérive fonctionnent sans nécessiter les vraies étiquettes de classe, mais confondent souvent une dérive virtuelle avec une dérive réelle, ce qui entraîne un réentraînement coûteux et inutile. L’objectif de notre travail consiste à créer des algorithmes de détection de dérive qui ne nécessitent pas de véritables étiquettes pour fonctionner tout en ne détectant pas à tort une dérive virtuelle comme une dérive réelle. Ainsi, les contributions de cette thèse sont les suivantes : (i) Partially Supervised Drift Detector (PSDD), un algorithme qui partitionne l’espace des caractéristiques en utilisant des arbres de décision pour trouver des changements de distribution en utilisant un test statistique ; (ii) Real Drift Detector (RDD) améliore PSDD en modifiant le mécanisme de partitionnement, en appliquant plusieurs filtres et en utilisant différents tests et en définissant un paramètre utilisateur qui permet un contrôle plus fin sur les erreurs de détection ; (iii) Gaussian Split Detector (GSD), un algorithme qui détecte les dérives réelles sur la base de l’hypothèse que certaines variables suivent une distribution gaussienne en utilisant l’algorithme de maximisation des attentes et un critère de division gaussienne qui permet de trouver avec précision l’amplitude d’un événement de dérive. Toutes nos contributions parviennent à détecter positivement les événements de dérive réels tout en ne détectant pas les dérives virtuelles. [...]