Thèse soutenue

Généricité et explicabilité dans les systèmes de recommandation

FR  |  
EN
Auteur / Autrice : Jinfeng Zhong
Direction : Elsa Negre
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 30/11/2023
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : Ecole doctorale SDOSE (Paris)
Partenaire(s) de recherche : Laboratoire : Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) - Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision / LAMSADE
établissement opérateur d'inscription : Université Paris Dauphine-PSL (1968-....)
Jury : Président / Présidente : Max Chevalier
Examinateurs / Examinatrices : Elsa Negre, Max Chevalier, Vincent Guigue, Armelle Brun, Florian Yger, Nicolas Labroche
Rapporteurs / Rapporteuses : Vincent Guigue, Armelle Brun

Résumé

FR  |  
EN

Cette thèse se concentre sur le domaine des recommandations explicables, souvent mentionnées dans le contexte de l'intelligence artificielle explicable (XAI). Ce sont des recommandations faites par un système qui fournit également des informations pour justifier pourquoi ces recommandations ont été générées. Plus spécifiquement, le problème des recommandations explicables implique de générer des recommandations précises et de créer des explications pour justifier ces recommandations.Nous commençons par aborder l'ambiguïté répandue dans les termes couramment utilisés en Intelligence Artificielle (IA),tels que ''interprétabilité'' et ''explicabilité''. Pour lever cette ambiguïté sur des termes souvent utilisés mais mal définis,nous introduisons le Schéma Interpréter/Expliquer (IES). L'IES aide à clarifier ces termes et constitue la base d'un cadregénéral et innovant pour générer des explications en IA. Ce cadre intègre de manière transparente les approches existantespour générer des explications: les explications intrinsèques au modèle et les explications post-hoc. Dans le cadre desexplications intrinsèques au modèle, nous introduisons deux modèles qui instancient l'IES: Attribute-Aware ArgumentativeRecommender (A 3R) et Context-Aware Feature Attribution Through Argumentation (CA-FATA). Les deux conduisentl'attribution de caractéristiques par argumentation. A 3R considère les caractéristiques des éléments recommandablescomme des arguments qui déterminent les recommandations, tandis que CA-FATA étend cette approche pour prendreen compte les contextes des utilisateurs. Les deux modèles montrent une performance compétitive face aux modèlesexistants, offrant des explications transparentes et adaptables. Dans le cadre des explications post-hoc, Shap-EnhancedCounterfactual Explanation (SECE) est introduite, validant l'attribution de caractéristiques par raisonnement contrefactuel.Cette approche peut être universellement appliquée à n'importe quel modèle de recommandation. La thèse comprendégalement une étude utilisateur primaire sous la forme d'un questionnaire explorant l'influence des informations contextuelles sur les explications au sein des systèmes de recommandation (RSs). Ce questionnaire centré sur l'utilisateuraide à souligner les objectifs de promotion de la transparence, de l'efficacité, de la persuasion et de la confiance dans les RSs.Dans l'ensemble, cette recherche non seulement lève l'ambiguïté sur les termes clés du domaine, mais propose égalementdes méthodologies innovantes pour les recommandations explicables. Les instanciations de l'IES démontrent son applicabilité et contribuent à une compréhension essentielle de la génération d'explication dans les RSs et donc en IA, offrant denouvelles voies pour des RSs transparents et dignes de confiance.