Thèse soutenue

Formal ethical reasoning and dilemma identification in a human-artificial agent system

FR  |  
EN
Auteur / Autrice : Vincent Bonnemains
Direction : Catherine TessierClaire Saurel
Type : Thèse de doctorat
Discipline(s) : Informatique et Robotique
Date : Soutenance le 11/12/2019
Etablissement(s) : Toulouse, ISAE
Ecole(s) doctorale(s) : École doctorale Systèmes (Toulouse ; 1999-....)
Partenaire(s) de recherche : Laboratoire : Equipe d'accueil doctoral Commande des systèmes et dynamique du vol (Toulouse, Haute-Garonne)
Equipe de recherche : Office national d'études et recherches aérospatiales. Département Traitement de l’Information et Systèmes (DTIS)
Jury : Président / Présidente : Jean-Gabriel Ganascia
Examinateurs / Examinatrices : Catherine Tessier, Claire Saurel, Jean-Gabriel Ganascia, Virginia Dignum, Olivier Boissier, Jérôme Perrin, Matthias Scheutz
Rapporteur / Rapporteuse : Virginia Dignum, Olivier Boissier

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Cette thèse s’inscrit dans le contexte des machines autonomes embarquant des concepts éthiques dans leur raisonnement. Ce travail consiste à proposer un raisonnement formel se basant sur des concepts de philosophie morale qui permet à un agent artificiel de juger des décisions et de justifier ce jugement. Partant d’un modèle de situation composé d’états du monde, de faits, de décisions et d’événements, nous avons modélisé les cadres éthiques de l’éthique normative par des règles à respecter dans le but de juger une décision comme « acceptable » ou « inacceptable » du point de vue de chacun de ces cadres. À partir de ce formalisme, nous avons pu élaborer une définition de dilemme moral qui se fonde sur les définitions en langage naturel disponibles dans la littérature, dans le but de permettre à un agent artificiel d’identifier une situation comme un dilemme. L’ensemble de ces travaux de formalisation ont permis de mettre en évidence et d’identifier précisément les sources de subjectivité ainsi que les facteurs de sensibilité du modèle. Enfin, un dernier chapitre est consacré à une expérimentation réalisée dans le but d’étudier l’influence qu’un agent artificiel embarquant un raisonnement éthique peut avoir sur un opérateur humain. Cette expérimentation a mis en évidence une tendance générale des participants à ne pas être influencé par les suggestions de l’agent artificiel s’opposant à leur avis initial. Néanmoins, on observe que les personnes dont le raisonnement est plutôt déontologique ont tendance à être plus influencées que les personnes dont le raisonnement est plutôt conséquentialiste.