Thèse en cours

Faire confiance aux systèmes d'IA "by design

FR  |  
EN
Auteur / Autrice : Baptiste Pesquet
Direction : Frédéric Alexandre
Type : Projet de thèse
Discipline(s) : Informatique
Date : Inscription en doctorat le 18/10/2023
Etablissement(s) : Bordeaux
Ecole(s) doctorale(s) : École doctorale de mathématiques et informatique
Partenaire(s) de recherche : Laboratoire : LaBRI - Laboratoire Bordelais de Recherche en Informatique

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Nous prenons des décisions à partir de notre perception de la situation, en incluant également la confiance que nous avons dans nos perceptions, dans les autres agents cognitifs impliqués mais aussi dans notre propre jugement. Nous souhaitons explorer ici la possibilité de développer des IA capables intrinsèquement (by design) d'évaluer ces niveaux de confiance et de les utiliser dans leurs décisions. Nous nous baserons pour commencer sur des modèles cognitifs bio-inspirés capables de prendre des décisions par la sélection de règles de comportement préalablement apprises (Domenech and Koechlin, 2015). Ces règles peuvent être représentées sous une forme implicite (comportement automatique) ou sous une forme explicite (comportement délibéré). Des travaux ont déjà étudié comment des arbitrages sont réalisés entre ces différents types de règles (Lee et al., 2014). Des travaux plus récents (Dagar, 2023) ont également montré comment ces règles explicites peuvent être apprises par le suivi des erreurs, permeSant d'inhiber des règles non valides et d'en construire de nouvelles quand les règles du monde changent. Ils ont également montré que ces règles peuvent être hiérarchiques. Ceci définit des capacités de méta-cognition, c'est-à-dire de faire travailler des procédures cognitives non pas sur la décision mais sur la sélection des règles de décision. Des travaux récents en neurosciences (Clairis and Pessiglione, 2022) ont également montré que les mêmes régions du cerveau réalisant le suivi des erreurs utilisent ce type d'information pour évaluer le niveau de confiance en fonction de l'environnement et de son évolution. Une première partie de ce travail de thèse aura pour but de partir des travaux antérieurs sur la métacognition appliquée à l'élaboration de règles explicites, pour en proposer des extensions introduisant une estimation du niveau de confiance et proposant des moyens de moduler la décision à partir de ceSe estimation. Un autre facteur important que nous souhaitons considérer est celui du décours temporel de la décision. En effet, d'autres travaux (Resulaj et al., 2009) meSent l'accent sur la phase de délibération avant la décision, où on évalue les différentes alternatives et où le but est d'optimiser le rapport entre le temps de délibération et la qualité de la décision. Ces travaux abordent également la problématique de changement d'avis, qui peut se produire non seulement avant la décision mais aussi qui peut corriger ultérieurement ceSe décision (Yeung et al., 2012). Prendre en compte ce contexte temporel sera également un sujet majeur à aborder. Au-delà de l'exploration fonctionnelle et de la modélisation des mécanismes impliqués dans ces différentes estimations du niveau de confiance, il sera important d'étudier également l'utilisabilité concrète de telles approches dans des systèmes opérationnels de prise de décision. Il serait en particulier très appréciable de pouvoir utiliser ceSe approche pour rendre explicites les critères et les arguments justifiant la décision, allant ainsi vers l'explicabilité du système. L'obtention d'un système complétement autonome n'étant pas nécessairement un but en soi, on pourra également se demander comment de telles approches peuvent être utilisées dans des systèmes d'assistance à la décision, pour guider des humains dans ceSe tâche.