Comment l'IA nous classe : Expliquer l'IA dans les services financiers et la recherche d'emploi, des solutions techniques aux enjeux éthiques
Auteur / Autrice : | Thomas Souverain |
Direction : | Paul Egre |
Type : | Projet de thèse |
Discipline(s) : | Philosophie |
Date : | Inscription en doctorat le 01/09/2020 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | École doctorale École transdisciplinaire Lettres/Sciences |
Partenaire(s) de recherche : | Laboratoire : Institut Jean Nicod |
établissement opérateur d'inscription : Ecole normale supérieure |
Mots clés
Résumé
Comment se fait-il qu'un opérateur statistique, échappant en partie aux instructions de l'humain, s'adapte avec une rapidité et des performances inégalées à des milliers de données pour prédire des risques de défaut de paiement, des offres d'emploi discriminantes, ou générer des textes et des images vraisemblants ? Face à la « boîte noire » de l'Intelligence Artificielle (IA) contemporaine, un vaste champ de recherche s'est constitué pour rendre compte de l'architecture et des prédictions des modèles d'apprentissage-machine. Depuis les années 2010, ce champ de l'IA explicable (xIA) est surtout représenté par des chercheurs en informatique, qui élaborent des solutions pour retracer l'entraînement et le cheminement des modèles. Partant des pratiques existantes en xIA, cette thèse interroge leur portée explicative et ouvre un questionnement plus général sur ce que signifie expliquer l'IA. Les enjeux de l'explication d'un modèle l'IA nous semblent porteurs de trois dimensions, que nous étudions au travers des trois chapitres de thèse : I. La transparence fonctionnelle : Les recherches en IA explicable (xIA) attellent pour une large part l'explication à rendre compte de l'architecture et des prédictions des modèles d'apprentissage-machine. Cette démarche explicative vise à dissiper l'obscurité de la boîte noire en montrant comment elle fonctionne. II. La justification du déploiement l'IA : Les techniques fabriquées en xIA sont orientées par leurs finalités, parmi lesquelles l'idée de justice. Ainsi, peut-on garantir que la boîte noire ne désavantagera pas des minorités pour établir des risques de récidive en justice, ou des femmes dans l'octroi d'un prêt immobilier ? Pour nous saisir du discours sur l'IA à travers ses finalités, nous avons lancé une expérience de programmation. Au cours d'un partenariat de trois ans avec l'entreprise DreamQuark spécialiste de xIA dans les services financiers, nous avons nous-même conçu une librairie pour détecter et corriger des inégalités dans la prédiction de revenus ou les risques de défaut de paiement. Sur cette base, nous questionnons les valeurs reflétées par l'IA, la possibilité de les infléchir et de les justifier. III. L'appropriation de l'IA par des humains : Structurées par des finalités, les solutions de xIA s'adressent à des humains que l'outil impacte. Le discours sur l'IA cherche à se faire intelligible. Cette fois en partenariat d'un an avec France Travail, nous sommes parti de la détection par réseaux de neurones d'offres d'emploi illégales, installée depuis deux ans dans le quotidien des conseillers. Conduisant une enquête de terrain de trois mois sur la réception de l'IA et des xIA auprès de N=300 conseillers, nous avons croisé entretiens semi-directifs dans les agences régionales et questionnaires. Nous investiguons sur la base de cette étude expérimentale les concepts d'intelligibilité et de confiance, qui assurent qu'un discours explicatif est bien reçu comme explication de l'IA par ses utilisateurs. Là où expliquer la boîte noire de l'Intelligence Artificielle (IA) est souvent restreint au fonctionnel, élaborer des solutions retraçant le « comment » de l'IA, nous resituons ainsi l'explication de l'IA au service du « pourquoi ». L'explication cherche d'abord à répondre à un problème épistémologique (chapitre I) : comment décrire la spécificité de ces modèles et reconstruire leurs prédictions ? Cependant, il nous paraît urgent de désenclaver la question, l'explication d'un modèle étant également constituée par ses finalités (chapitre II) et ses récepteurs (chapitre III). Nous rapprochant de l'objet en situation de programmeur et enquêtant auprès d'utilisateurs, c'est donc à partir du terrain que nous approchons en philosophe les notions de description, de justice et de confiance, qui gravitent autour de l'explication de l'IA et lui donnent sens.