Thèse en cours

Peut-on expliquer l'IA ? Solutions techniques, enjeux éthiques -Application aux services financiers et à la recherche d'emploi

FR  |  
EN
Auteur / Autrice : Thomas Souverain
Direction : Paul Egre
Type : Projet de thèse
Discipline(s) : Philosophie
Date : Inscription en doctorat le 01/09/2020
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : École doctorale École transdisciplinaire Lettres/Sciences
Partenaire(s) de recherche : Laboratoire : Institut Jean-Nicod (Paris) (2002-....)
établissement opérateur d'inscription : École normale supérieure (Paris ; 1985-....)

Résumé

FR  |  
EN

Notre recherche part du problème de la « boîte noire » (black box) au centre des technologies d'IA sous leur forme contemporaine d'apprentissage-machine (machine-learning). Les algorithmes d'apprentissage-machine ont une capacité à apprendre sans être explicitement programmés, ce qui les rend d'autant plus opaques qu'ils sont efficaces à prédire. Le défaut de transparence sur leur fonctionnement, souvent trop complexe et trop rapide pour être suivi par un humain, vaut à ces technologies le surnom de « boîtes noires ». Nous affrontons ainsi ce problème de philosophie de la connaissance : sur quels éléments repose une bonne explication en IA ? Les entreprises développent actuellement de nombreux outils d'explicabilité. Nous identifions leur fondement philosophique d'explication, regroupant ces techniques selon la manière dont elles expliquent – type de raisonnement, échelle et niveau de l'explication… Les services financiers et la recherche d'emploi sont ici notre champ d'études. Nous nous focalisons sur des cas d'usage où expliquer l'IA est lourd de conséquences éthiques : ainsi de l'octroi de prêt, où le refus d'un crédit nécessite une justification sur la manière dont la machine a analysé les données face à l'opacité de la « boîte noire ». Notre thèse ouvre ainsi deux volets, épistémologique et éthique, pour penser les enjeux de l'explication en IA.