Utiliser des graphes de connaissances pour expliquer la désinformation sur le Web
Auteur / Autrice : | Youri Peskine |
Direction : | Maria Alejandra Zuluaga |
Type : | Projet de thèse |
Discipline(s) : | Sciences de l'ingénieur |
Date : | Inscription en doctorat le 01/09/2021 |
Etablissement(s) : | Sorbonne université |
Ecole(s) doctorale(s) : | École doctorale Informatique, télécommunications et électronique de Paris (1992-...) |
Partenaire(s) de recherche : | Laboratoire : Institut EURECOM |
Equipe de recherche : Data Science |
Mots clés
Mots clés libres
Résumé
Au cours des dernières années, nous avons observé de nombreux efforts pour accroître la transparence des modèles d'IA. Cependant, l'explicabilité, qui se concentre sur la façon dont l'IA peut être comprise par les utilisateurs humains, a reçu moins d'attention. Cette thèse fait partie d'un projet européen plus vaste qui s'appuiera sur des modèles de créativité humaine, tant dans la manipulation que dans la compréhension de l'information, pour concevoir des explications plus compréhensibles, reconfigurables et personnalisables. Pour réaliser la vision du projet, les graphes de connaissances (KG) jouent un rôle clé en tant que blocs de construction pour produire des explications sémantiques. Cette thèse se concentre sur l'ingénierie d'un graphe de connaissances des revendications et des entités et sur l'exploration de son utilisation dans la conception de modèles d'IA, ainsi que d'autres représentations sémantiques qui peuvent nous aider à offrir des explications dynamiques adaptées aux domaines d'application et aux besoins et compétences des utilisateurs finaux.