Peut-on expliquer l'IA ? Solutions techniques, enjeux éthiques en finance

par Thomas Souverain

Projet de thèse en Philosophie

Sous la direction de Paul Égré.

Thèses en préparation à l'Université Paris sciences et lettres , dans le cadre de École doctorale École transdisciplinaire Lettres/Sciences , en partenariat avec Institut Jean Nicod (laboratoire) et de École normale supérieure (Paris ; 1985-....) (établissement opérateur d'inscription) depuis le 01-09-2020 .


  • Résumé

    Notre recherche part du problème de la « boîte noire » (black box) au centre des technologies d'IA sous leur forme contemporaine d'apprentissage-machine (machine-learning). Les algorithmes d'apprentissage-machine ont une capacité à apprendre sans être explicitement programmés, ce qui les rend d'autant plus opaques qu'ils sont efficaces à prédire. Le défaut de transparence sur leur fonctionnement, souvent trop complexe et trop rapide pour être suivi par un humain, vaut à ces technologies le surnom de « boîtes noires ». Nous affrontons ainsi ce problème de philosophie de la connaissance : sur quels éléments repose une bonne explication en IA ? Les entreprises développent actuellement de nombreux outils d'explicabilité. Nous identifions leur fondement philosophique d'explication, regroupant ces techniques selon la manière dont elles expliquent – type de raisonnement, échelle et niveau de l'explication… Les services financiers sont ici notre champ d'études. Nous nous focalisons sur des cas d'usage où expliquer l'IA est lourd de conséquences éthiques : ainsi de l'octroi de prêt, où le refus d'un crédit nécessite une justification sur la manière dont la machine a analysé les données face à l'opacité de la « boîte noire ». Notre thèse ouvre ainsi deux volets, épistémologique et éthique, pour penser les enjeux de l'explication en IA.

  • Titre traduit

    Can we explain AI? Technical solutions, ethical issues in finance


  • Résumé

    Our research starts from the "black box" problem at the core of recent AI, that is to say machine-learning technologies. Machine-learning methods have the ability to learn without being explicitly programmed which can make them opaque, especially since they have a growing predictive power. The lack of transparency in their functioning, which is often too complex and too fast for a human observer, has earned these technologies the nickname of "black boxes". We are thus facing the following problem of philosophy of knowledge: on which elements is a good explanation in AI relying? Companies are currently developing many explainability tools. We identify their philosophical basis of explanation, comparing these techniques according to the way they explain - type of reasoning, scale and level of explanation... Financial services are our field of study. We focus on use cases where explaining AI is fraught with ethical consequences versus the "black box" opacity: for example, loan granting where mortgage denial requires a justification of how the machine analysed the data. Our PhD thesis is thus a two-pronged research, epistemological and ethical, to think about the issues of explanation in AI.