Opérateurs et systèmes intelligents : se comprendre pour décider. Application à la supervision de drones.
Auteur / Autrice : | Adrien Metge |
Direction : | Benoît Le Blanc, Nicolas Maille |
Type : | Thèse de doctorat |
Discipline(s) : | Automatique, Productique, Signal et Image, Ingénierie cognitique |
Date : | Soutenance le 02/12/2022 |
Etablissement(s) : | Bordeaux |
Ecole(s) doctorale(s) : | École doctorale des sciences physiques et de l’ingénieur (Talence, Gironde ; 1995-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire de l'intégration du matériau au système (Talence, Gironde) - Office national d'études et recherches aérospatiales. Département Traitement de l’Information et Systèmes (DTIS) |
Jury : | Président / Présidente : Bernard Claverie |
Examinateurs / Examinatrices : Anne Lise Marchand | |
Rapporteurs / Rapporteuses : Julien Cegarra, Norbou Buchler |
Résumé
Cette thèse de doctorat présente un travail de recherche transdisciplinaire qui s’inscrit dans une démarche d’ingénierie cognitique. À l’intersection de l’Intelligence Artificielle (IA) et du Facteur Humain, nous explorons les principes d’interaction qui permettent la mise en place d’une collaboration performante entre un utilisateur et un système de recommandation intelligent dans un contexte de prise de décision. Nous nous concentrons sur le cadre applicatif de la planification, pour lequel nous avons développé un environnement de simulation qui met en scène un opérateur aérien chargé de superviser un drone doté d’un haut niveau d’autonomie décisionnelle. Le scénario des missions, joué sur différents terrains, amène l’opérateur à déterminer un nouveau plan de vol assisté par des recommandations intelligences. Une analyse de la littérature nous permet de caractériser trois problématiques scientifiques que nous investiguons à travers trois études expérimentales dans cet environnement.La première problématique s’intéresse aux conséquences d’un changement de la participation de l’IA à la prise de décision sur le ressenti de l’opérateur. Nos résultats indiquent que lorsque l’IA réduit sa participation en arrêtant de proposer des suggestions de plan, le sentiment de l’opérateur d’être responsable et à l’origine de la solution augmente significativement. Cet effet se révèle néanmoins asymétrique. Lorsque l’IA accroît sa participation en introduisant de suggestions de plan qui n’étaient pas proposées dans un premier temps, le sentiment de l’opérateur d’être responsable et à l’origine de solution diminue peu alors même que les plans validés deviennent plus homogènes.La deuxième problématique examine les liens potentiels entre les critères de compromis des plans construits avec l’IA par l’opérateur et les éléments de sa personnalité qui pourraient la prédire, sur des terrains où il n’existe pas de plan concevable qui ait une qualité acceptable. Nous mettons en évidence une préférence individuelle pour la dégradation d'un des trois critères de compromis du plan : certains participants préfèrent plutôt abandonner des cibles, d’autres consommer beaucoup de carburant, d’autres encore prendre un risque élevé. Néanmoins, nous n’observons pas de corrélation entre ces profils décisionnels des participants et leurs traits du modèle des Big Five ni leur confiance en soi.La troisième problématique porte sur l’élaboration d’une IA qui prenne mieux en compte le processus décisionnel humain. Des entretiens d’autoconfrontation avec des participants nous ont permis d’établir un modèle du processus décisionnel de l’opérateur pour la tâche de replanification dans l’environnement. Nous avons analysé comment la manière dont l’opérateur utilise les différents outils permet de révéler dans quelle phase de construction de la solution il se situe, ce qui nous a permis d’automatiser le suivi de ce processus décisionnel. Nous en tirons des exemples de situations dans lesquelles le système d'IA peut adapter différemment ses recommandations, selon que l'opérateur est identifié comme impliqué dans une phase d'exploration ou bien une phase d'exploitation des plans de vol.Ces résultats permettent d’identifier des enjeux de facteur humain liés aux usages futurs de l’IA dans les équipes humain-IA avant même que ces systèmes ne soient disponibles, et de proposer des principes de conception qui s'appuient sur les mécanismes cognitifs qui sous-tendent la prise de décision humaine pour poser les bases d'une interaction avec le système d'IA. Nos travaux ouvrent la voie à une assistance intelligente dont le paramétrage sera construit au fil de l’interaction.