Thèse soutenue

L’Éthique de l’Intelligence Artificielle en Pratique. Enjeux et Limites

FR  |  
EN
Auteur / Autrice : Jean-Marie John-Mathews
Direction : Christine BalaguéDominique Cardon
Type : Thèse de doctorat
Discipline(s) : Sciences de gestion
Date : Soutenance le 01/12/2021
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale Droit, économie, management (Sceaux, Hauts-de-Seine ; 2020-....)
Partenaire(s) de recherche : Laboratoire : Institut Mines-Télécom-Business School. Laboratoire en Innovation, Technologies, Economie et Management (Evry, Essonne) - Institut Mines-Télécom-Business School. Laboratoire en Innovation, Technologies, Economie et Management (Evry, Essonne)
Référent : Université d'Évry-Val-d'Essonne (1991-....)
graduate school : Université Paris-Saclay‎. Graduate School Économie & management (2020-...)
Jury : Président / Présidente : Lars Meyer-Waarden
Examinateurs / Examinatrices : Kristof Coussement, Yvon Pesqueux, Hajer Kefi, Rémi Jardat, Margherita Pagani
Rapporteur / Rapporteuse : Kristof Coussement, Yvon Pesqueux, Hajer Kefi

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Alors que l’Intelligence Artificielle (IA) est de plus en plus critiquée en raison des enjeux éthiques qu’elle pose, un ensemble d’outils et de méthodes ont émergé ces dernières années pour la normer, tels que les algorithmes de débiaisement, les métriques d’équité, la génération d’explications, etc. Ces méthodes, dites de l’IA responsable, doivent s’adapter à des algorithmes qui s’alimentent de données de plus en plus granulaires, volumineuses et comportementales. Dans ce travail de recherche, nous décrivons comment l’IA prétend calculer le monde lui-même sans l’usage des catégories normatives que nous utilisons habituellement pour formuler des critiques. Comment normaliser une IA qui prétend justement se positionner en deçà des normes ? Pour répondre à cette question, nous avons développé, à partir de la littérature technique dans la discipline de l’éthique de l’IA, un dispositif pour normer les modèles afin de faire face aux enjeux de discriminations, d’opacité et de vie privée. Ensuite, nous avons formulé quatre critiques empiriques et théoriques pour souligner les limites des outils techniques de l’éthique. Premièrement, nous montrons les limites des méthodes de génération d’explications a posteriori de décisions émanant d’IA dites « boîte noire ». Deuxièmement, nous montrons la difficulté de normer l’IA avec des méthodes d’explication libérales supposant la capacité des IA à dévoiler d’elles-mêmes leurs propres biais. Nous montrons ensuite, en s’inspirant de la sociologie pragmatique de Boltanski, que les méthodes pour lutter contre les discriminations tendent vers un système de domination experte dans lequel l’IA modifie constamment les contours de la réalité sans offrir une prise à la critique. Enfin, nous montrons que l’IA s’insère plus généralement dans un mouvement d’extension diluant le rôle des institutions qui ont le pouvoir de stabiliser les critiques sociales tout en donnantune prise sur le monde. Ces quatre critiques empiriques et théoriques nous permettent finalement d’ajuster notre première proposition pour normer l’IA. En partant d’un outil technique, nous proposons finalement une enquête ouverte et matérielle permettant de réactualiser constamment la question des fins et des moyens au sein des collectifs de l’IA.