Thèse en cours

Intelligence artificielle explicable pour la fiabilité des algorithmes d'apprentissage automatique, l'analyse et la découverte dans les données omiques.

FR  |  
EN
Auteur / Autrice : Ghislain Fievet
Direction : Julien BroséusSébastien Hergalant
Type : Projet de thèse
Discipline(s) : Sciences de la Vie et de la Santé - BioSE
Date : Inscription en doctorat le 29/11/2023
Etablissement(s) : Université de Lorraine
Ecole(s) doctorale(s) : École doctorale BioSE - Biologie, Santé, Environnement
Partenaire(s) de recherche : Laboratoire : NGERE - Nutrition-Génétique et Exposition aux Risques Environnementaux

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

L'utilisation des algorithmes ML (machine learning / apprentissage automatique) est devenue courante en recherche biomédicale. C'est particulièrement le cas pour l'analyse de données omiques, où ils sont utilisés pour des applications critiques telles que le diagnostic en médecine de précision ou la thérapeutique personnalisée. Ce qui exige un niveau élevé de fiabilité et de transparence des modèles utilisés. Un domaine de l'intelligence artificielle (IA), l'eXplainable Artificial Intelligence (XAI), développe ces problématiques et fournit des méthodes applicables à tout algorithme de ML. Bien qu'ancré dans un large éventail d'utilisations sociétales, ce domaine reste anecdotique et inexploré en bioinformatique. Utilisée pour étudier la « confiance » dans les algorithmes, l'XAI peut aussi aider à la découverte dans les contextes omiques du fait de l'utilisation combinée d'approches supervisées et non supervisées. Cette thèse propose d'une part le développement d'outils XAI pour l'analyse de la fiabilité des algorithmes d'apprentissage en transcriptomique, et d'autre part l'exploitation du potentiel de découverte de l'IA pour l'étude des lymphomes agressifs.