Thèse soutenue

Modèle d'apprentissage neuro-symbolique pour produire des prédictions interprétables pour de la classification d'imagines

FR  |  
EN
Auteur / Autrice : Adrien Bennetot
Direction : Raja ChatilaNatalia Díaz-Rodríguez
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 12/07/2022
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Informatique, télécommunications et électronique de Paris (1992-...)
Partenaire(s) de recherche : Laboratoire : Institut des systèmes intelligents et de robotique (Paris ; 2009-....)
Jury : Président / Présidente : Patrick Gallinari
Examinateurs / Examinatrices : Javier Del Ser, Siham Tabik
Rapporteur / Rapporteuse : Anna Monreale, Andreas Holzinger

Résumé

FR  |  
EN

L'intelligence artificielle s'est développée de manière exponentielle au cours de la dernière décennie. Son évolution est principalement liée aux progrès des processeurs des cartes graphiques des ordinateurs, permettant d'accélérer le calcul des algorithmes d'apprentissage, et à l'accès à des volumes massifs de données. Ces progrès ont été principalement motivés par la recherche de modèles de prédiction de qualité, rendant ces derniers extrêmement précis mais opaques. Leur adoption à grande échelle est entravée par leur manque de transparence, ce qui provoque l'émergence de l'intelligence artificielle eXplainable (XAI). Ce nouvel axe de recherche vise à favoriser l'utilisation de modèles d'apprentissage basés sur des données de masse en fournissant des méthodes et des concepts pour obtenir des éléments explicatifs sur leur fonctionnement. Cependant, la jeunesse de ce domaine entraîne un manque de consensus et de cohésion autour des définitions et objectifs clés qui le régissent. Cette thèse contribue au domaine à travers deux perspectives, l'une théorique de ce qu'est XAI et comment l'atteindre, l'autre pratique. La première est basée sur un examen approfondi de la littérature, aboutissant à deux contributions : 1) la proposition d'une nouvelle définition de l'intelligence artificielle explicable et 2) la création d'une nouvelle taxonomie des méthodes d'explicabilité existantes. La contribution pratique consiste en deux cadres d'apprentissage, tous deux basés sur un principe visant à relier les paradigmes connexionniste et symbolique.