Thèse en cours

Interprétabilité multimodale des modèles d'apprentissage profond

FR  |  
EN
Auteur / Autrice : Belén Alastruey lasheras
Direction : Jamal Atif
Type : Projet de thèse
Discipline(s) : Informatique
Date : Inscription en doctorat le 31/10/2023
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : Ecole doctorale SDOSE (Paris)
Partenaire(s) de recherche : Laboratoire : Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris)
établissement opérateur d'inscription : Université Paris Dauphine-PSL (1968-....)

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Ces dernières années, l'intelligence artificielle (IA) et l'apprentissage machine (ML) ont révolutionné de nombreux domaines, notamment le traitement du langage naturel (NLP), le traitement de la parole et la vision par ordinateur (CV). La qualité des modèles ne cesse d'augmenter à une vitesse fulgurante, et les progrès ont déjà un impact sur la société dans de nombreux aspects : marchés de l'emploi, éducation, santé, politique, etc. Cependant, la complexité et la sophistication croissantes des modèles d'apprentissage profond font que ces modèles sont souvent considérés comme des boîtes noires, ce qui signifie que leurs processus de prise de décision ne sont pas transparents et que leur fonctionnement interne n'est pas facilement interprétable. Par conséquent, malgré leurs performances exceptionnelles, il est difficile de justifier les décisions prises par ces modèles, ce qui pose un problème pour leur déploiement dans des applications réelles. Dans cette optique, l'IA responsable a récemment gagné en intérêt. Elle met l'accent sur la nécessité d'un développement et d'un déploiement éthiques, transparents et responsables des systèmes d'IA. L'IA responsable cherche à minimiser les impacts négatifs de l'IA, tels que les préjugés, la discrimination et d'autres conséquences involontaires qui peuvent avoir des implications sociales significatives. L'une des principales exigences de l'IA responsable est l'interprétabilité des modèles, qui permet aux chercheurs de comprendre comment un modèle fait ses prédictions, et donc d'analyser la source de problèmes tels que la toxicité ou la génération de biais. Dans cette proposition de doctorat, nous visons à utiliser l'interprétabilité pour analyser différents modèles d'apprentissage profond. La recherche comprendra une revue de la littérature existante sur l'interprétabilité des modèles de Deep Learning, la conception et le développement d'expériences pour évaluer l'efficacité des différentes techniques dans la compréhension des processus de prise de décision des modèles, et l'extension de leur utilisation à différentes modalités (parole, langage, image...). Nous visons également à proposer de nouvelles méthodes d'interprétabilité et à étudier comment l'interprétabilité peut être utilisée pour améliorer les performances et réduire la toxicité. Les résultats de cette recherche contribueront au développement de modèles plus transparents et interprétables, ce qui aura un impact significatif sur les applications du monde réel, où la fiabilité et la clarté des modèles d'IA sont cruciales.