Thèse en cours

MÉTHODES D'APPRENTISSAGE PROFOND POUR NLP NON-SUPERVISÉ AVEC APPLICATIONS
FR  |  
EN
Auteur / Autrice : Yanzhu Guo
Direction : Michalis VazirgiannisChloé Clavel
Type : Projet de thèse
Discipline(s) : Informatique, données, IA
Date : Inscription en doctorat le 01/02/2022
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de l'Institut polytechnique de Paris
Partenaire(s) de recherche : Laboratoire : LIX - Laboratoire d'informatique

Résumé

FR  |  
EN

Ayant déjà travaillé sur le sujet de la production de ressources linguistiques françaises via des méthodes non supervisées, c'est-à-dire la collecte de données textuelles non étiquetées et l'entraînement de modèles de langue à grande échelle, nous sommes motivés pour nous plonger dans les méthodes du NLP non supervisées. Dans cette thèse, nous nous concentrerons sur les théories et les méthodes du NLP non supervisé ainsi que sur leurs évaluations et leurs applications. Les contributions que nous prévoyons d'apporter relèvent des deux catégories suivantes : 1. Nous appliquerons ces modèles à plusieurs tâches de NLP non supervisées, notamment la détection de l'évolution sémantique en conjonction avec la désambiguïsation du sens des mots. 2. Nous tenterons de développer des métriques non supervisées pour mesurer la similarité des textes. De telles métriques sont très demandées car elles peuvent servir de métriques d'évaluation pour des tâches de génération de texte telles que le résumé, la réponse aux questions et la traduction automatique. Nous sommes également interpellés par le sujet des cadres d'évaluation non supervisés dans ce contexte.