Analyse et explication par des techniques d'argumentation de modèles d'intelligence artificielle basés sur des données
Auteur / Autrice : | Henri Trenquier |
Direction : | Leïla Amgoud, Philippe Muller |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique et Télécommunications |
Date : | Soutenance le 22/12/2023 |
Etablissement(s) : | Toulouse 3 |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, informatique et télécommunications (Toulouse) |
Partenaire(s) de recherche : | Laboratoire : Institut de Recherche en Informatique de Toulouse (1995-....) |
Jury : | Président / Présidente : Marie-Christine Lagasquié-Schiex |
Examinateurs / Examinatrices : Wassila Ouerdane | |
Rapporteurs / Rapporteuses : Nicolas Maudet |
Mots clés
Résumé
La classification est une tâche très courante dans le domaine de l'apprentissage automatique et les modèles d'apprentissage automatique créés pour accomplir cette tâche tendent à atteindre une précision comparable à celle des humains, au détriment de leur transparence. L'apparition de ces systèmes intelligents dans le quotidien du public a créée un besoin d'explicabilité. Les explications abductives sont l'un des types d'explications les plus populaires qui sont fournies dans le but d'expliquer le comportement de modèles d'apprentissage complexes, parfois considérés comme des boîtes noires. Elles mettent en évidence les caractéristiques qui sont suffisantes pour que le modèle prédise une certaine classe. Dans la littérature, elles sont générées en explorant l'ensemble de l'espace des caractéristiques, ce qui n'est pas raisonnable en pratique. Cette thèse aborde ce problème en introduisant des fonctions d'explication qui génèrent des explications abductives à partir d'un échantillon arbitraire d'instances. Elle montre que de telles fonctions doivent être définies avec beaucoup de soin car elles ne peuvent pas satisfaire simultanément deux propriétés souhaitables, à savoir l'existence d'explications pour chaque décision individuelle (success) et l'exactitude des explications (coherence). Cette thèse fournit une collection de fonctions d'explication paramétrées basées sur l'argumentation, chacune satisfaisant l'une des ces deux propriétés. De plus, elle étudie leurs propriétés formelles ainsi que leur comportement expérimental sur différents ensembles de données.