Optimisation en présence de données incertaines et restreintes
Auteur / Autrice : | Lilia Izri |
Direction : | Silviu Maniu |
Type : | Projet de thèse |
Discipline(s) : | Informatique |
Date : | Inscription en doctorat le 01/10/2023 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale Sciences et technologies de l'information et de la communication (Orsay, Essonne ; 2015-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire interdisciplinaire des sciences du numérique (Orsay, Essonne ; 2021-....) |
Equipe de recherche : LaHDAK - Données et Connaissances Massives et Hétérogènes | |
Référent : Faculté des sciences d'Orsay |
Mots clés
Résumé
Le plus souvent, les données nécessaires aux algorithmes ne sont pas disponibles dans leur intégralité. Elles peuvent être limitées par des API propriétaires, par exemple, ou provenir de processus dynamiques ou peu fiables par nature (contenu des réseaux sociaux en ligne, feedback fourni par des humains). Ces deux propriétés constituent une forme d'incertitude des données, dans le sens où on ne peut pas leur faire confiance dans leur intégralité. Même s'il est possible d'obtenir des parties des données (par exemple, des jeux de données publics), il se peut qu'elles représentent une version obsolète et donc peu fiable. Pour remédier à ce problème, une approche prometteuse consiste à utiliser des algorithmes « en ligne », c'est-à-dire des algorithmes qui accèdent de manière séquentielle aux données nécessaires à la résolution d'un problème. L'expression « en ligne » désigne également les algorithmes qui demandent les données nécessaires à la volée, par opposition aux algorithmes « hors ligne » qui utilisent un ensemble de données fixées dès le départ. Cette formulation n'est pas nouvelle : dans la littérature, elle relève de l'apprentissage par renforcement (reinforcement learning, RL). Dans certains cas, nous travaillons avec un sous-ensemble plus spécifique de l'apprentissage par renforcement, dans lequel l'état des agents est discret, le choix se fait entre un ensemble d'options et les récompenses sont tirées de distributions probabilistes, à savoir les bandits manchots (multi-armed bandits, MAB). En plus, le contexte de la décision est important (par exemple, le type de données à collecter, le message qui est transmis) et est directement lié aux options (bras) qui doivent être choisies ; c'est le cadre des bandits manchots contextuels et combinatoires. L'une des tâches les plus importantes de la recherche liée aux données est la collecte ou l'exploration de celles-ci. Or, l'accès à ces données est fortement limité. En plus, la collecte de données a un but, qui peut être mesuré quantitativement (par exemple, le nombre de pages parcourues, le nombre de profils sociaux distincts, le nombre de nouveaux éléments découverts), et doit être aussi efficace que possible. La spécificité de mon approche est qu'au lieu d'utiliser des algorithmes standards qui ne sont pas spécifiques à un problème, je cherche à adapter des algorithmes généraux d'apprentissage par renforcement ou des algorithmes de type bandits manchots aux problèmes posés. Il a déjà été démontré que cette approche conduit à un apprentissage plus rapide. Pour les bandits manchots, elle consiste à trouver une estimation des données manquantes, comme l'ont montré mes travaux antérieurs sur la maximisation de l'influence et les systèmes de recommandation dans le cadre de la dynamique d'influence. Parallèlement aux données incertaines, d'importants défis de recherche se posent lorsqu'il s'agit de traiter des ressources restreintes, comme c'est le cas dans les flux de données, qui peuvent contenir une infinité de données en mouvement rapide et en constante évolution. Lorsque le temps de calcul est coûteux ou limité, la seule option restante est de transformer les données en représentations réduites, qui conservent leurs propriétés statistiques. Bien entendu, on peut simplement les échantillonner, mais cela risque de poser des problèmes de biais statistiques et de « concept drift ». Plus intéressant encore, on peut transformer les données, en utilisant diverses techniques : soit en utilisant des structures de données qui contiennent seulement les informations utiles au problème (sketches, filtres de Bloom, locality-sensitive hashing), soit en transformant des données à haute dimension vers des dimensions plus réduites tout en conservant les distances relatives entre les points de données (compressed sensing, projections aléatoires, embeddings). Une direction peu explorée dans ce domaine est celle des sketches pour les algorithmes d'apprentissage par renforcement sur les flux de données, en conjonction avec des bornes de regret.