Thèse soutenue

Expliquer et justifier les systèmes de décisions algorithmiques

FR  |  
EN
Auteur / Autrice : Clément Henin
Direction : Claude CastellucciaDaniel Le Métayer
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 13/10/2021
Etablissement(s) : Lyon
Ecole(s) doctorale(s) : École doctorale en Informatique et Mathématiques de Lyon (2009-....)
Partenaire(s) de recherche : établissement opérateur d'inscription : Institut national des sciences appliquées (Lyon ; 1957-....)
Laboratoire : CITI - Centre d'Innovation en Télécommunications et Intégration de services (Lyon, INSA) - CITI Centre of Innovation in Telecommunications and Integration of services / CITI
Equipe de recherche : PRIVATICS - Privacy Models, Architectures and Tools for the Information Society
Jury : Président / Présidente : Christine Solnon
Examinateurs / Examinatrices : Claude Castelluccia, Daniel Le Métayer, Christine Solnon, Sihem Amer-Yahia, Sébastien Gambs, Christian Jacquelinet, Clément Mabi
Rapporteurs / Rapporteuses : Sihem Amer-Yahia, Sébastien Gambs

Résumé

FR  |  
EN

Dans un contexte favorable à la rationalisation des décisions par des objectifs mesurables et des méthodes quantitatives, le développement récent des technologies numériques a accéléré l'adoption des systèmes de décisions fondés sur un traitement algorithmique. De tels systèmes sont déjà présents dans de nombreux domaines et leur utilisation devrait encore s'accroître. Toutefois l'utilisation de tels algorithmes est porteuse de risques. Alors que plusieurs solutions ont déjà été proposées notamment par la communauté de recherche eXplainable Artififial Intelligence, nous pensons que des efforts supplémentaires sont nécessaires pour répondre pleinement à tous les enjeux. Dans cette thèse, nous commençons par présenter les principaux travaux de recherche en eXplainable Artififial Intelligence en particulier les méthodes d'explication en mode boîte noire, c'est-à-dire qui fonctionnent sans accéder au code de l'algorithme. Ces méthodes, en apparence diverses, partagent en fait une structure commune que nous identifions et que nous mettons à profit pour en établir une taxonomie.Ensuite, nous décrivons notre système interactif d'explication d'algorithme en boîte noire appelé IBEX. En s'appuyant sur les informations fournies par l'utilisateur, IBEX génère une explication adaptée au profil de la personne et à ses besoins. L'utilisateur peut interagir avec le système d'explication en fonction de ses compétences. Pour générer les explications, IBEX s'appuie sur un cadre pour les explications en boîte noire qui décompose notamment sur le processus d'explication en deux composantes distinctes. La démarche proposée dans IBEX a été testée lors d'une étude impliquant des utilisateurs (agents d'une autorité de régulation française) ayant des profils variés. Dans la suite, nous proposons une méthode originale permettant aux utilisateurs de systèmes algorithmiques d'en contester ou d'en justifier les décisions. Alors que la contestation occupe une place importante dans les textes de loi et que la question de leur justification par des normes extérieures est une préoccupation centrale des travaux de sciences sociales, il n'existe pas d'outils dédiés à ces objectifs spécifiques. Un dispositif technique, appelé Algocate, permet de rendre ces notions opérationnelles pour trois types de normes (règles, objectifs et référence) grâce à un système interactif. Cette démarche est également testée dans le cadre d'une étude impliquant des utilisateurs réels. Une collaboration de trois ans a été menée avec l'Agence de la biomédecine. Elle a porté sur l'algorithme d'attribution des greffons cardiaque. Après une phase d'analyse bibliographique et des entretiens menés sur le terrain dans des hôpitaux français, les principaux enjeux sociologiques et organisationnels autour de cet algorithme ont pu être identifiés. Suite à cela, un ensemble d'informations assurant l'explication et la justification du système a été mis à disposition des médecins des centres de greffe.