Explications pour des recommandations manquantes fournies par des systèmes de recommandations fondés sur l'apprentissage automatique.
Auteur / Autrice : | Hervé-Madelein Attolou |
Direction : | Dimitrios Kotzinos |
Type : | Projet de thèse |
Discipline(s) : | Stic - ed em2psi |
Date : | Inscription en doctorat le 01/10/2020 |
Etablissement(s) : | CY Cergy Paris Université |
Ecole(s) doctorale(s) : | Ecole doctorale Économie, Management, Mathématiques , Physique et Sciences Informatiques (EM2PSI) |
Partenaire(s) de recherche : | Laboratoire : ETIS - Equipes Traitement de l'Information et Systèmes |
Mots clés
Résumé
Dans l'ère du Big Data, trouver des informations pertinentes devient une tâche compliquée. Afin d'assister les utilisateurs dans leur tâches d'exploration de données, les moteurs de recommandations fournissent des suggestions ou des éléments de données aux utilisateurs en fonction de diverses caractéristiques, comme leurs préférences, leurs consultations et likes précédents, des utilisateurs similaires ou des variables de contexte. Cependant, les moteurs de recommandations sont des systèmes automatiques basés principalement sur l'apprentissage automatique et peuvent également produire des recommandations inattendues. Pour aider les utilisateurs à comprendre pourquoi certains éléments sont recommandés, et ainsi renforcer la confiance des utilisateurs envers le système, la recherche s'est récemment concentrée sur les moteurs de recommandations explicables, qui fournissent une explication avec la recommandation. Cette thèse s'inscrit dans le domaine des moteurs de recommandations explicables, en visant à fournir des informations sur les raisons pour lesquelles certains éléments ne sont pas recommandés. Les explications sur les éléments invisibles sont principalement utiles aux développeurs ou aux utilisateurs avertis qui observent des recommandations manquantes de manière inattendue. Dans le cas des développeurs, ces explications peuvent guider davantage leur processus de réparation du système. Dans cette thèse, nous prévoyons d'abord d'explorer et de définir les explications des recommandations manquantes. Deuxièmement, nous allons concevoir des techniques pour les calculer, en fonction de la catégorie du système de recommandation. En parallèle, nous allons explorer différentes méthodes de visualisation qui communiquent le mieux les explications. Enfin, nous allons tirer parti des explications pour aider les développeurs à régler automatiquement leurs moteurs de recommandations.