Thèse en cours

géométrie dans les modèles génératifs

FR  |  
EN

Accès à la thèse

AttentionLa soutenance a eu lieu le 18/12/2024. Le document qui a justifié du diplôme est en cours de traitement par l'établissement de soutenance.
Auteur / Autrice : Changqing Fu
Direction : Laurent Cohen
Type : Projet de thèse
Discipline(s) : Sciences
Date : Inscription en doctorat le
Soutenance le 18/12/2024
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : SDOSE Sciences de la Décision, des Organisations, de la Société et de l'Echange
Partenaire(s) de recherche : Laboratoire : Centre de recherche en mathématiques de la décision (Paris)
établissement opérateur d'inscription : UNIVERSITE PARIS DAUPHINE - PSL
Jury : Président / Présidente : Yann Chevaleyre
Examinateurs / Examinatrices : Laurent Cohen, Lei Shi, Qiang Wu, Laurence Likforman-sulem
Rapporteurs / Rapporteuses : Lei Shi, Qiang Wu

Résumé

FR  |  
EN

Les modèles d'apprentissage profond manquent souvent d'une base théorique solide. Dans cette thèse, en nous appuyant sur des principes de traitement du signal et de mécanique classique, nous abordons le problème suivant : Comment la géométrie peut-elle être incorporée dans les modèles génératifs ? Les principes fondamentaux des modèles génératifs sont présentés au chapitre 1. Au chapitre 2, nous soutenons qu'une équation unifiée régit différentes classes de modèles génératifs. Dans le chapitre 3, nous proposons une méthode de manipulation d'images permettant de déformer certaines zones spécifiques. Cette approche combine un modèle supervisé de traduction du contour vers l'image et un modèle non supervisé de reconstruction, afin de gérer les changements de distribution. Au chapitre 4, nous introduisons une fonction d'activation qui n'est pas composante par composante, et présente une équivariance orthogonale. Nous établissons une correspondance entre le groupe d'équivariance de ces fonctions d'activation et les symétries géométriques de leurs ensembles invariants. Cette fonction d'activation est comparable à l'état de l'art et, dans de nombreux cas, améliore la généralisation, l'entraînement et les performances des U-Nets de diffusion, des ResNets, des GPTs et des perceptrons multicouches. Au chapitre 5, nous proposons un modèle génératif léger. En supposant la continuité dans l'espace de représentation, ce modèle réduit le nombre de paramètres d'un facteur pouvant atteindre 1000, améliorant ainsi considérablement l'efficacité sans compromettre les performances.