Interprétabilité multimodale des modèles d'apprentissage profond
Auteur / Autrice : | Belén Alastruey lasheras |
Direction : | Jamal Atif |
Type : | Projet de thèse |
Discipline(s) : | Informatique |
Date : | Inscription en doctorat le 31/10/2023 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | Ecole doctorale SDOSE (Paris) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) |
établissement opérateur d'inscription : Université Paris Dauphine-PSL (1968-....) |
Mots clés
Mots clés libres
Résumé
Ces dernières années, l'intelligence artificielle (IA) et l'apprentissage machine (ML) ont révolutionné de nombreux domaines, notamment le traitement du langage naturel (NLP), le traitement de la parole et la vision par ordinateur (CV). La qualité des modèles ne cesse d'augmenter à une vitesse fulgurante, et les progrès ont déjà un impact sur la société dans de nombreux aspects : marchés de l'emploi, éducation, santé, politique, etc. Cependant, la complexité et la sophistication croissantes des modèles d'apprentissage profond font que ces modèles sont souvent considérés comme des boîtes noires, ce qui signifie que leurs processus de prise de décision ne sont pas transparents et que leur fonctionnement interne n'est pas facilement interprétable. Par conséquent, malgré leurs performances exceptionnelles, il est difficile de justifier les décisions prises par ces modèles, ce qui pose un problème pour leur déploiement dans des applications réelles. Dans cette optique, l'IA responsable a récemment gagné en intérêt. Elle met l'accent sur la nécessité d'un développement et d'un déploiement éthiques, transparents et responsables des systèmes d'IA. L'IA responsable cherche à minimiser les impacts négatifs de l'IA, tels que les préjugés, la discrimination et d'autres conséquences involontaires qui peuvent avoir des implications sociales significatives. L'une des principales exigences de l'IA responsable est l'interprétabilité des modèles, qui permet aux chercheurs de comprendre comment un modèle fait ses prédictions, et donc d'analyser la source de problèmes tels que la toxicité ou la génération de biais. Dans cette proposition de doctorat, nous visons à utiliser l'interprétabilité pour analyser différents modèles d'apprentissage profond. La recherche comprendra une revue de la littérature existante sur l'interprétabilité des modèles de Deep Learning, la conception et le développement d'expériences pour évaluer l'efficacité des différentes techniques dans la compréhension des processus de prise de décision des modèles, et l'extension de leur utilisation à différentes modalités (parole, langage, image...). Nous visons également à proposer de nouvelles méthodes d'interprétabilité et à étudier comment l'interprétabilité peut être utilisée pour améliorer les performances et réduire la toxicité. Les résultats de cette recherche contribueront au développement de modèles plus transparents et interprétables, ce qui aura un impact significatif sur les applications du monde réel, où la fiabilité et la clarté des modèles d'IA sont cruciales.