Peut-on expliquer l'IA ? Solutions techniques, enjeux éthiques -Application aux services financiers et à la recherche d'emploi
Auteur / Autrice : | Thomas Souverain |
Direction : | Paul Egre |
Type : | Projet de thèse |
Discipline(s) : | Philosophie |
Date : | Inscription en doctorat le 01/09/2020 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | École doctorale École transdisciplinaire Lettres/Sciences |
Partenaire(s) de recherche : | Laboratoire : Institut Jean-Nicod (Paris) (2002-....) |
établissement opérateur d'inscription : École normale supérieure (Paris ; 1985-....) |
Mots clés
Résumé
Notre recherche part du problème de la « boîte noire » (black box) au centre des technologies d'IA sous leur forme contemporaine d'apprentissage-machine (machine-learning). Les algorithmes d'apprentissage-machine ont une capacité à apprendre sans être explicitement programmés, ce qui les rend d'autant plus opaques qu'ils sont efficaces à prédire. Le défaut de transparence sur leur fonctionnement, souvent trop complexe et trop rapide pour être suivi par un humain, vaut à ces technologies le surnom de « boîtes noires ». Nous affrontons ainsi ce problème de philosophie de la connaissance : sur quels éléments repose une bonne explication en IA ? Les entreprises développent actuellement de nombreux outils d'explicabilité. Nous identifions leur fondement philosophique d'explication, regroupant ces techniques selon la manière dont elles expliquent type de raisonnement, échelle et niveau de l'explication Les services financiers et la recherche d'emploi sont ici notre champ d'études. Nous nous focalisons sur des cas d'usage où expliquer l'IA est lourd de conséquences éthiques : ainsi de l'octroi de prêt, où le refus d'un crédit nécessite une justification sur la manière dont la machine a analysé les données face à l'opacité de la « boîte noire ». Notre thèse ouvre ainsi deux volets, épistémologique et éthique, pour penser les enjeux de l'explication en IA.