Défis et remèdes pour la traduction automatique neuronale en contexte
Auteur / Autrice : | Lorenzo Lupo |
Direction : | Marco Dinarelli, Laurent Besacier |
Type : | Thèse de doctorat |
Discipline(s) : | Mathématiques et informatique |
Date : | Soutenance le 28/03/2023 |
Etablissement(s) : | Université Grenoble Alpes |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, sciences et technologies de l'information, informatique (Grenoble ; 1995-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'informatique de Grenoble (Isère, France ; 2007-....) |
Equipe de recherche : Groupe d'étude en traduction automatique - Traitement automatisé des langues et de la parole (Grenoble ; 2007-....) | |
Institut Interdisciplinaire en Intelligence Artificielle : MIAI @ Grenoble Alpes | |
Jury : | Président / Présidente : Éric Gaussier |
Examinateurs / Examinatrices : Rachel Bawden | |
Rapporteur / Rapporteuse : François Yvon, Marcello Federico |
Mots clés
Résumé
Les systèmes actuels de traduction automatique neuronale ont atteint une qualité proche de celle d'un traducteur humain pour la traduction de phrases isolées. En revanche, lorsqu'il s'agit de traduire des documents, la traduction automatique dispose d'une marge d'amélioration importante. En fait, certains éléments ambigus du discours ont plusieurs traductions valides au niveau de la phrase mais une seule au niveau du document, car ils perdent leur ambiguïté en présence du contexte extra-sententiel. L'identification et l'exploitation du contexte utile pour produire des traductions cohérentes au niveau du document représentent une tâche difficile.De nombreux chercheurs ont relevé ce défi ces dernières années et ont proposé des approches de traduction automatique neuronale sensible au contexte.On peut les classer en deux familles : les approches à encodage multiple et les approches à encodage unique, également appelées approches de concaténation. La première famille comprend toutes les approches qui utilisent l'architecture standard d'encodeur-décodeur pour produire des représentations latentes de la phrase courante et qui introduisent des modules supplémentaires pour encoder et intégrer son contexte, c'est-à-dire les phrases précédentes ou suivantes. Les approches par concaténation, au contraire, reposent entièrement sur l'architecture standard d'encodeur-décodeur, mais elles concatènent le contexte à la phrase actuelle avant de l'introduire dans le système. Dans ce travail, nous analysons les deux familles d'approches de traduction automatique neuronale sensible au contexte, nous identifions certaines de leurs faiblesses et nous y remédions par des solutions originales.Pour les systèmes à encodage multiple, nous identifions deux défis d'apprentissage auxquels sont confrontés les modules qui gèrent le contexte : la rareté du signal d'apprentissage et la rareté des éléments contextuels de désambiguïsation. Nous introduisons un nouveau cadre de pré-entraînement dans lequel la rareté est atténuée et nous démontrons son efficacité expérimentalement.Pour les approches de concaténation, nous relevons le défi de traiter de longues séquences en proposant un objectif d’entraînement qui encourage le modèle à se concentrer sur les parties les plus pertinentes de chaque séquence. Nous couplons cet objectif d’entraînement avec une nouvelle technique pour renforcer la séparation des phrases dans séquence traitée. Nous analysons l'impact de ces solutions sur le mécanisme d'attention appris.Enfin, nous présentons une étude comparative de diverses méthodes pour discerner les segments dans la séquence traitée, y compris des nouvelles variantes de plongement de segments.