Comprendre la confiance entre l'humain et l'intelligence artificielle dans le contexte de la prise de décision par le prisme du monde académique et de l'industrie : définitions, facteurs et évaluation
Auteur / Autrice : | Oleksandra Vereschak |
Direction : | Gilles Bailly |
Type : | Thèse de doctorat |
Discipline(s) : | Automatique et robotique |
Date : | Soutenance le 12/12/2022 |
Etablissement(s) : | Sorbonne université |
Ecole(s) doctorale(s) : | École doctorale Sciences mécaniques, acoustique, électronique et robotique de Paris (2000-....) |
Partenaire(s) de recherche : | Laboratoire : Institut des systèmes intelligents et de robotique (Paris ; 2009-....) |
Jury : | Président / Présidente : Catherine Pelachaud |
Examinateurs / Examinatrices : Niels Van Berkel, Baptiste Caramiaux | |
Rapporteurs / Rapporteuses : Nicole C. Krämer, Myriam Lewkowicz |
Mots clés
Résumé
Avec l'essor des systèmes d'aide à la décision intégrant l'intelligence artificielle (AI) dans le domaine médical, judiciaire ou du recrutement, la confiance entre l'humain et l'IA est devenue une priorité dans la conception de ces systèmes. De nombreux gouvernements et grandes entreprises ainsi que des chercheurs proposent diverses stratégies pour favoriser la confiance dans les systèmes intégrant l'IA. Cependant, la confiance est un concept complexe et multidimensionnel, et la confiance entre l'humain et l'IA, qui est un sujet de recherche récent, fait face à plusieurs défis. Sur le plan théorique, la différence entre la confiance et d'autres concepts théoriques proches (par exemple, la conformité) doit être comprise, de même que les facteurs affectant la confiance entre l'humain et l'IA. Sur le plan méthodologique, la confiance est difficile à évaluer, et il est nécessaire de définir des protocoles appropriés. Dans cette thèse, je traite de ces défis de manière empirique à travers deux perspectives : académique et industrielle. J'effectue d'abord une revue systématique de la littérature des études empiriques sur la confiance entre l'humain et l'IA dans le contexte de la prise de décision afin d'obtenir une vue globale de la façon dont la confiance est définie et évaluée dans le monde académique. Cependant, comme la plupart de ces études sont en laboratoire et avec des maquettes d'IA, je poursuis cette analyse pour savoir dans quelle mesure ces résultats sont valables sur le terrain avec des vrais systèmes intégrant l'IA et différentes parties prenantes. Pour cela, je mène une série d'entretiens semi-structurés autour de la définition et de l'évaluation de la confiance entre l'humain et l'IA. Les participants sont soit des personnes qui développent ou conçoivent des systèmes intégrant l'IA pour l'aide à la prise de décision ou bien des personnes qui sont affectées par ces décisions. Je soutiens que la compréhension théorique de la confiance entre l'humain et l'IA influence directement le choix des protocoles expérimentaux et des mesures utilisés pour les études empiriques. En m'inspirant de la littérature en sciences sociales, je propose des recommandations pour améliorer ces protocoles expérimentaux. Je démontre également que la discussion de concepts théoriques, tels que la confiance entre l'humain et l'IA, avec des personnes ordinaires de différents profils peut non seulement valider les théories académiques, mais aussi contribuer à l'avancement de la théorie. Enfin, je donne un aperçu des facteurs qui peuvent affecter la confiance entre l'humain et l'IA dans le contexte de la prise de décision. En comparant les résultats provenant du monde académique avec ceux provenant de l'industrie, je souligne les opportunités pour la recherche pour les chercheurs académiques et des implications pour la conception pour les professionnels de l'IA. Cette thèse fournit des preuves théoriques et empiriques sur la confiance entre l'humain et l'IA dans le contexte de la prise de décision et ouvre des voies pour promouvoir la confiance dans l'interaction entre l'humain et l'IA.