Intelligence artificielle explicable pour la fiabilité des algorithmes d'apprentissage automatique, l'analyse et la découverte dans les données omiques.
Auteur / Autrice : | Ghislain Fievet |
Direction : | Julien Broséus, Sébastien Hergalant |
Type : | Projet de thèse |
Discipline(s) : | Sciences de la Vie et de la Santé - BioSE |
Date : | Inscription en doctorat le 29/11/2023 |
Etablissement(s) : | Université de Lorraine |
Ecole(s) doctorale(s) : | École doctorale BioSE - Biologie, Santé, Environnement |
Partenaire(s) de recherche : | Laboratoire : NGERE - Nutrition-Génétique et Exposition aux Risques Environnementaux |
Mots clés
Mots clés libres
Résumé
L'utilisation des algorithmes ML (machine learning / apprentissage automatique) est devenue courante en recherche biomédicale. C'est particulièrement le cas pour l'analyse de données omiques, où ils sont utilisés pour des applications critiques telles que le diagnostic en médecine de précision ou la thérapeutique personnalisée. Ce qui exige un niveau élevé de fiabilité et de transparence des modèles utilisés. Un domaine de l'intelligence artificielle (IA), l'eXplainable Artificial Intelligence (XAI), développe ces problématiques et fournit des méthodes applicables à tout algorithme de ML. Bien qu'ancré dans un large éventail d'utilisations sociétales, ce domaine reste anecdotique et inexploré en bioinformatique. Utilisée pour étudier la « confiance » dans les algorithmes, l'XAI peut aussi aider à la découverte dans les contextes omiques du fait de l'utilisation combinée d'approches supervisées et non supervisées. Cette thèse propose d'une part le développement d'outils XAI pour l'analyse de la fiabilité des algorithmes d'apprentissage en transcriptomique, et d'autre part l'exploitation du potentiel de découverte de l'IA pour l'étude des lymphomes agressifs.