Qualitative reinforcement for man-machine interactions
Auteur / Autrice : | Esther Nicart |
Direction : | Bruno Zanuttini |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 06/02/2017 |
Etablissement(s) : | Normandie |
Ecole(s) doctorale(s) : | École doctorale mathématiques, information et ingénierie des systèmes (Caen) |
Partenaire(s) de recherche : | Laboratoire : Groupe de recherche en informatique, image, automatique et instrumentation de Caen (1995-....) |
établissement de préparation : Université de Caen Normandie (1971-....) | |
Jury : | Président / Présidente : Yann Chevaleyre |
Examinateurs / Examinatrices : Bruno Zanuttini, Daniela Grigori, Marie-Hélène Abel, Bruno Grilhères, Arnaud Saval | |
Rapporteurs / Rapporteuses : Daniela Grigori, Marie-Hélène Abel |
Résumé
Nous modélisons une chaîne de traitement de documents comme un processus de décision markovien, et nous utilisons l’apprentissage par renforcement afin de permettre à l’agent d’apprendre à construire des chaînes adaptées à la volée, et de les améliorer en continu. Nous construisons une plateforme qui nous permet de mesurer l’impact sur l’apprentissage de divers modèles, services web, algorithmes, paramètres, etc. Nous l’appliquons dans un contexte industriel, spécifiquement à une chaîne visant à extraire des événements dans des volumes massifs de documents provenant de pages web et d’autres sources ouvertes. Nous visons à réduire la charge des analystes humains, l’agent apprenant à améliorer la chaîne, guidé par leurs retours (feedback) sur les événements extraits. Pour ceci, nous explorons des types de retours différents, d’un feedback numérique requérant un important calibrage, à un feedback qualitatif, beaucoup plus intuitif et demandant peu, voire pas du tout, de calibrage. Nous menons des expériences, d’abord avec un feedback numérique, puis nous montrons qu’un feedback qualitatif permet toujours à l’agent d’apprendre efficacement.