Promouvoir l'IA éthique et responsable : explorer l'équité, la confidentialité et l'explicabilité à travers des perspectives causales
Auteur / Autrice : | Karima Makhlouf |
Direction : | Catuscia Palamidessi, Héber Hwang Arcolezi |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique, données, IA |
Date : | Soutenance le 07/10/2024 |
Etablissement(s) : | Institut polytechnique de Paris |
Ecole(s) doctorale(s) : | École doctorale de l'Institut polytechnique de Paris |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'informatique de l'École polytechnique (Palaiseau ; 1988-....) - Laboratoire d'informatique de l'École polytechnique [Palaiseau] |
Jury : | Président / Présidente : Daniel Augot |
Examinateurs / Examinatrices : Catuscia Palamidessi, Héber Hwang Arcolezi, Salvatore Ruggieri, Jean-Michel Loubès, Miguel Couceiro, Sébastien Gambs, Michaël Perrot | |
Rapporteur / Rapporteuse : Salvatore Ruggieri, Jean-Michel Loubès |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Cette thèse explore l'intersection de la confidentialité, de l'équité et de la causalité dans le domaine de l'apprentissage automatique et de la prise de décision basée sur les données. Les principales contributions de la thèse peuvent être résumées comme suit : (1) nous étudions l'applicabilité des notions d'équité statistiques et basées sur la causalité dans divers domaines d'application, en évaluant leur alignement avec les préférences des parties prenantes et les normes sociétales dans les systèmes de prise de décision algorithmiques ; (2) nous menons une étude systématique et formelle sur l’impact de la confidentialité différentielle locale sur l’équité. Nous évaluons quantitativement la façon dont les décisions du modèle d'apprentissage automatique changent en fonction de différents niveaux de confidentialité et de distribution des données. De plus, nous examinons empiriquement les implications en matière d'équité de la collecte de plusieurs attributs sensibles dans le cadre du confidentialité différentielle locale ; (3) nous étudions la découverte causale à travers le prisme de l’équité algorithmique, en analysant comment le processus de découverte causale influence la structure des graphiques causals et, par conséquent, les conclusions sur l’équité. En outre, nous proposons un nouveau mécanisme de génération de données pour produire des ensembles de données synthétiques biaisés basés sur des graphiques causals et des niveaux de biais spécifiés, explorant l'influence de différents algorithmes de découverte causale sur diverses structures causales et le degré de biais introduit.Dans l’ensemble, cette thèse contribue au corpus croissant de littérature sur l’intelligence artificielle éthique et responsable en offrant des perspectives théoriques complétées par des considérations pratiques pour les décideurs politiques, les praticiens et les chercheurs cherchant à développer des systèmes algorithmiques plus justes qui adhèrent aux principes de confidentialité et d’explicabilité.