Thèse soutenue

Reconnaissance d'états émotionnels par analyse visuelle du visage et apprentissage machine

FR  |  
EN
Auteur / Autrice : Khadija Lekdioui
Direction : Yassine RuichekRochdi Messoussi
Type : Thèse de doctorat
Discipline(s) : Sciences pour l'Ingénieur
Date : Soutenance le 29/12/2018
Etablissement(s) : Bourgogne Franche-Comté en cotutelle avec Université Ibn Tofail. Faculté des sciences de Kénitra
Ecole(s) doctorale(s) : École doctorale Sciences pour l'ingénieur et microtechniques (Besançon ; 1991-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire Electronique, Informatique et Image (LE2i) (Dijon, Côte d'Or ; Auxerre, Yonne ; Chalon-sur-Saône, Saône-et-Loire ; Le Creusot, Saône-et-Loire ; 1996-2018) - Laboratoire Electronique- Informatique et Image [UMR6303] / Le2i
Etablissement de préparation : Université de technologie de Belfort-Montbéliard (1999-....)
Jury : Président / Présidente : Denis Hamad
Examinateurs / Examinatrices : Mohamed Sbihi
Rapporteurs / Rapporteuses : Rachid Oulad Haj Thami, Abdelmalik Taleb-Ahmed

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Dans un contexte présentiel, un acte de communication comprend des expressions orales et émotionnelles. A partir de l’observation, du diagnostic et de l’identification de l’état émotionnel d’un individu, son interlocuteur pourra entreprendre des actions qui influenceraient la qualité de la communication. A cet égard, nous pensons améliorer la manière dont les individus perçoivent leurs échanges en proposant d’enrichir la CEMO (communication écrite médiatisée par ordinateur) par des émotions ressenties par les collaborateurs. Pour ce faire, nous proposons d’intégrer un système de reconnaissance, en temps réel, des émotions (joie, peur, surprise, colère, dégoût, tristesse, neutralité) à la plate-forme pédagogique “Moodle”, à partir de l’analyse des expressions faciales de l’apprenant à distance lors des activités collaboratives. La reconnaissance des expressions faciales se fait en trois étapes. Tout d’abord, le visage et ses composants (sourcils, nez, bouche, yeux) sont détectés à partir de la configuration de points caractéristiques. Deuxièmement, une combinaison de descripteurs hétérogènes est utilisée pour extraire les traits caractéristiques du visage. Finalement, un classifieur est appliqué pour classer ces caractéristiques en six émotions prédéfinies ainsi que l’état neutre. Les performances du système proposé seront évaluées sur des bases publiques d’expressions faciales posées et spontanées telles que Cohn-Kanade (CK), Karolinska Directed Emotional Faces (KDEF) et Facial Expressions and Emotion Database (FEED).