Raisonner sur la manipulation dans les systèmes multi-agents : une approche fondée sur les logiques modales
Auteur / Autrice : | Christopher Leturc |
Direction : | Grégory Bonnet |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 02/12/2019 |
Etablissement(s) : | Normandie |
Ecole(s) doctorale(s) : | École doctorale mathématiques, information et ingénierie des systèmes (Caen) |
Partenaire(s) de recherche : | Laboratoire : Groupe de recherche en informatique, image, automatique et instrumentation de Caen (1995-....) |
établissement de préparation : Université de Caen Normandie (1971-....) | |
Jury : | Président / Présidente : Bruno Zanuttini |
Examinateurs / Examinatrices : Grégory Bonnet, Hans van Ditmarsch, Laurent Perrussel, Carole Adam, François Schwarzentruber | |
Rapporteur / Rapporteuse : Hans van Ditmarsch, Laurent Perrussel |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Ces dernières décennies, le développement informatique est passé de la conception de logiciels individuels, à la conception de logiciels intelligents, autonomes, appelés agents et interagissant avec d'autres en formant des systèmes multi-agents. Dans de tels systèmes, il arrive que des agents malintentionnés mettent en œuvre des stratégies complexes pour inciter d'autres agents à prendre des décisions en leur faveur et ce, sans que ces derniers ne s'en aperçoivent. Nous parlons alors de stratégies de manipulation. Ces stratégies peuvent dans certains cas causer des problèmes aux agents qui en sont victimes. De telles stratégies sont toujours dissimulées aux agents et donc difficiles à détecter. Comment les détecter et mieux les combattre ? Dans un premier temps, il est nécessaire de définir la manipulation. Ainsi, sur la base de travaux issus de l'informatique mais aussi des sciences sociales, nous définissons la manipulation comme l'intention délibérée d'un agent d'instrumentaliser une victime tout en veillant à lui dissimuler cette intention. Pour répondre à cette problématique, nous proposons un système logique nommé KBE. Ce système, prouvé correct et complet, permet alors d'exprimer et de raisonner sur la manipulation ainsi que sur des stratégies fondées sur les connaissances et les croyances des agents comme le mensonge ou le baratinage. Ce système nous permet également d'exprimer des notions connexes à la manipulation comme la coercition et la persuasion. Dans un second temps, puisque la confiance est un mécanisme permettant de réguler les interactions entre agents lorsque des agents sont malintentionnés ou non fiables, nous proposons un second système logique nommé TB. Ce système, correct et complet, exprime une notion de confiance en la sincérité qui représente le choix d'un agent de prendre le risque de croire un autre agent vis-à-vis de sa sincérité. Enfin, dans un dernier temps, nous proposons une méthode algorithmique pour raisonner avec de tels systèmes. Cette méthode est adaptée au système TB et décide de son problème de satisfiabilité en utilisant directement les contraintes du cadre pour construire un modèle.