Traitement du langage et interprétabilité : Génération sous contrainte d'exemples contrefactuels
Auteur / Autrice : | Milan Bhan |
Direction : | Marie-Jeanne Lesot |
Type : | Projet de thèse |
Discipline(s) : | Sciences et technologies de l'information et de la communication |
Date : | Inscription en doctorat le 01/03/2022 |
Etablissement(s) : | Sorbonne université |
Ecole(s) doctorale(s) : | École doctorale Informatique, télécommunications et électronique de Paris |
Partenaire(s) de recherche : | Laboratoire : LIP6 |
Mots clés
Résumé
Par leur développement rapide et leur efficacité en constante amélioration, les algorithmes d'apprentissage automatique (machine learning) voient leur importance accrue dans notre société. En particulier, l'apprentissage profond (deep learning) y a fortement contribué via l'implémentation de nouveaux modèles de plus en plus complexes. Cette complexité a induit une difficulté croissante à comprendre et interpréter les prédictions effectuées. Afin de pallier ce défaut de transparence, diverses approches d' ''interprétabilité'' ou ''explicabilité'' ont vu le jour. Une partie d'entre elles propose d'appréhender les modèles décrits ci-dessus comme des boîtes noires et d'expliquer leurs prédictions a posteriori, sans se référer aux paramètres qui leur sont inhérents : ces approches sont dites post-hoc agnostiques. Dans ce contexte, l'objectif de cette thèse est d'évaluer la possibilité de générer des exemples contrefactuels dans le cadre du traitement automatique du langage sous diverses formes de contraintes comme celles de plausibilité, de justesse grammaticale ou d'orientation vers un but. Les générateurs de contrefactuels seront évalués comme source d'interprétabilité et comme méthode de renforcement de la robustesse des modèles de langage manipulés.