Thèse soutenue

Explicabilité des modèles profonds et méthodologie pour son évaluation : application aux données textuelles de Pôle emploi

FR  |  
EN
Auteur / Autrice : Gaëlle Jouis
Direction : Harold MouchèreFabien Picarougne
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 14/02/2023
Etablissement(s) : Nantes Université
Ecole(s) doctorale(s) : École doctorale Mathématiques et Sciences et Technologies du numérique, de l’Information et de la Communication (Nantes ; 2022-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire des Sciences du Numérique de Nantes
Jury : Président / Présidente : Gilles Venturini
Examinateurs / Examinatrices : Richard Dufour
Rapporteurs / Rapporteuses : Céline Hudelot, Philippe Lenca

Résumé

FR  |  
EN

L’intelligence Artificielle fait partie de notre quotidien. Les modèles développés sont de plus en plus complexes. Les régulations telles que la Loi Pour une République Numérique orientent les développements logiciels vers plus d’éthique et d’explicabilité. Comprendre le fonctionnement des modèles profonds a un intérêt technique et humain. Les solutions proposées par la communauté sont nombreuses, et il n’y a pas de méthode miracle répondant à toutes les problématiques. Nous abordons la question suivante : comment intégrer l’explicabilité dans un projet d’IA basé sur des techniques d’apprentissage profond? Après un état de l’art présentant la richesse de la littérature du domaine, nous présentons le contexte et les prérequis de nos travaux. Ensuite nous présentons un protocole d’évaluation d’explications locales et une méthodologie modulaire de caractérisation globale du modèle. Enfin, nous montrons que nos travaux sont intégrés à leur environnement industriel. Ces travaux résultent en l’obtention d’outils concrets permettant au lecteur d’appréhender la richesse des outils d’explicabilité à sa disposition.