Thèse soutenue

Vers une intelligence artificielle autonome et explcable pour des environnements incertains

FR  |  
EN
Auteur / Autrice : Romain Orhand
Direction : Pierre ColletPierre Parrend
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 10/11/2022
Etablissement(s) : Strasbourg
Ecole(s) doctorale(s) : École doctorale Mathématiques, sciences de l'information et de l'ingénieur (Strasbourg ; 1997-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (Strasbourg ; 2013-....)
Jury : Président / Présidente : Pierre de Loor
Examinateurs / Examinatrices : Marc Schoenauer
Rapporteur / Rapporteuse : Sylvain Cussat-Blanc, Cecilia Zanni-Merk

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

Nous nous sommes intéressés au développement d'une intelligence artificielle autonome et explicable pour des environnements incertains. Les tâches à résoudre par les intelligences artificielles, et plus particulièrement par les algorithmes d'apprentissage automatique, sont de plus en plus complexes : ils doivent pouvoir s'adapter et co-évoluer en autonomie avec des environnements complexes, changeants et incertains qui sont à l'image de nos environnements quotidiens. Dans le même temps, il est de plus en plus nécessaire de pouvoir expliquer les comportements de ces algorithmes, ceux-ci pouvant être amenés à prendre des décisions critiques dans des situations qui peuvent profondément impacter la vie d'un individu. Pour répondre à ce double objectif, les concepts d'autonomie et d'explicabilité des intelligences artificielles, ainsi que d'incertitude environnementale, ont été cadrés afin de guider nos choix de conception d'une intelligence artificielle d'abord vers un algorithme d'apprentissage automatique intrinsèquement explicable comme les approches à base de règles, puis vers les systèmes de classeurs à anticipation. Nous avons alors mis en place de nouveaux systèmes de classeurs à anticipation dont le but était de renforcer leurs capacités à évoluer en autonomie et de manière explicable dans des environnements incertains. Les capacités de chacun de ces systèmes de classeurs à anticipation ont été évaluées au travers d'un protocole d'évaluation expérimental que nous avons conçu. Ce protocole expérimental nous a notamment permis d'agir sur l'incertitude des environnements pour mettre en avant les capacités des systèmes de classeurs à anticipation que nous avons développés. Nous avons également conçu un algorithme d'extraction des connaissances propre aux systèmes de classeurs à anticipation capable de renforcer l'explicabilité inhérente à ces systèmes, sans détériorer leurs capacités d'apprentissage et leur autonomie.