Thèse soutenue

Apprentissage multiannotateur et explications communes en logique du premier ordre

FR  |  
EN
Auteur / Autrice : Malik Kazi Aoual
Direction : Céline RouveirolHenry Soldano
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 20/11/2024
Etablissement(s) : Paris 13
Ecole(s) doctorale(s) : École doctorale Galilée (Villetaneuse, Seine-Saint-Denis)
Partenaire(s) de recherche : Laboratoire : Laboratoire informatique de Paris-Nord (Villetaneuse, Seine-Saint-Denis ; 2001-....)
Jury : Président / Présidente : Nathalie Pernelle
Examinateurs / Examinatrices : Veronique Ventos, Élisa Fromont
Rapporteurs / Rapporteuses : Gauvain Bourgne, Christel Vrain

Résumé

FR  |  
EN

L'intelligence artificielle prend une place de plus en plus importante dans notre quotidien, posant de nombreux défis techniques, notamment dans le développement de systèmes capables d'intégrer la connaissance humaine, de considérer divers points de vue et d'expliquer leurs décisions. Assurer que l'IA et l'humain s'améliorent mutuellement est un enjeu majeur pour le développement de systèmes d'IA plus efficaces et plus éthiques. Cette thèse se concentre sur deux contributions principales pour relever ces défis : développer un modèle d'apprentissage supervisé intégrant l'identité des annotateurs et générer des explications compréhensibles pour les décisions de l'IA. La première contribution s'intéresse à la prise de décision multijoueur au bridge, où différents joueurs annotent un ensemble d'observations et peuvent avoir différentes stratégies d'annotation face à des situations similaires. Nous avons développé un algorithme qui prend efficacement en compte l'identité des joueurs lors de la construction du modèle, appliqué à un scénario de bridge où les désaccords des joueurs face à une situation sont fréquents. Notre approche démontre une meilleure performance et gère efficacement l'augmentation du nombre d'annotateurs. Nous avons également utilisé les règles de notre modèle pour regrouper les joueurs en fonction de leurs comportements, facilitant la recherche de partenaires de jeu compatibles. La deuxième contribution se concentre sur la création d'explications pour les actions d'un agent artificiel dans un jeu de bridge simplifié. Nous proposons une méthode pour générer des explications en logique du premier ordre, à la fois diverses et concises, qui sont communes à des sous-ensembles d'observations. Cette approche permet d'obtenir des explications plus générales et compréhensibles pour les humains, facilitant ainsi la compréhension du processus de décision de l'IA.