Thèse soutenue

Raisonner sur la manipulation dans les systèmes multi-agents : une approche fondée sur les logiques modales

FR  |  
EN
Auteur / Autrice : Christopher Leturc
Direction : Grégory Bonnet
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 02/12/2019
Etablissement(s) : Normandie
Ecole(s) doctorale(s) : École doctorale mathématiques, information et ingénierie des systèmes (Caen)
Partenaire(s) de recherche : Laboratoire : Groupe de recherche en informatique, image, automatique et instrumentation de Caen (1995-....)
établissement de préparation : Université de Caen Normandie (1971-....)
Jury : Président / Présidente : Bruno Zanuttini
Examinateurs / Examinatrices : Grégory Bonnet, Hans van Ditmarsch, Laurent Perrussel, Carole Adam, François Schwarzentruber
Rapporteurs / Rapporteuses : Hans van Ditmarsch, Laurent Perrussel

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Ces dernières décennies, le développement informatique est passé de la conception de logiciels individuels, à la conception de logiciels intelligents, autonomes, appelés agents et interagissant avec d'autres en formant des systèmes multi-agents. Dans de tels systèmes, il arrive que des agents malintentionnés mettent en œuvre des stratégies complexes pour inciter d'autres agents à prendre des décisions en leur faveur et ce, sans que ces derniers ne s'en aperçoivent. Nous parlons alors de stratégies de manipulation. Ces stratégies peuvent dans certains cas causer des problèmes aux agents qui en sont victimes. De telles stratégies sont toujours dissimulées aux agents et donc difficiles à détecter. Comment les détecter et mieux les combattre ? Dans un premier temps, il est nécessaire de définir la manipulation. Ainsi, sur la base de travaux issus de l'informatique mais aussi des sciences sociales, nous définissons la manipulation comme l'intention délibérée d'un agent d'instrumentaliser une victime tout en veillant à lui dissimuler cette intention. Pour répondre à cette problématique, nous proposons un système logique nommé KBE. Ce système, prouvé correct et complet, permet alors d'exprimer et de raisonner sur la manipulation ainsi que sur des stratégies fondées sur les connaissances et les croyances des agents comme le mensonge ou le baratinage. Ce système nous permet également d'exprimer des notions connexes à la manipulation comme la coercition et la persuasion. Dans un second temps, puisque la confiance est un mécanisme permettant de réguler les interactions entre agents lorsque des agents sont malintentionnés ou non fiables, nous proposons un second système logique nommé TB. Ce système, correct et complet, exprime une notion de confiance en la sincérité qui représente le choix d'un agent de prendre le risque de croire un autre agent vis-à-vis de sa sincérité. Enfin, dans un dernier temps, nous proposons une méthode algorithmique pour raisonner avec de tels systèmes. Cette méthode est adaptée au système TB et décide de son problème de satisfiabilité en utilisant directement les contraintes du cadre pour construire un modèle.