Analyse de survie et apprentissage automatique explicable
Auteur / Autrice : | Imad El badisy |
Direction : | Roch Giorgi, Chakib Nejjari |
Type : | Projet de thèse |
Discipline(s) : | Biologie-Santé - Spécialité Recherche Clinique et Santé Publique |
Date : | Inscription en doctorat le 01/11/2021 |
Etablissement(s) : | Aix-Marseille en cotutelle avec Université Mohammed 6 des sciences de la santé |
Ecole(s) doctorale(s) : | École Doctorale Sciences de la vie et de la santé (Marseille) |
Partenaire(s) de recherche : | Laboratoire : SESSTIM - Sciences Economiques & Sociales de la Santé et Traitement de l'Information Médicale |
Résumé
Ce projet de recherche s'inscrit dans l'une des pistes de recherche les plus active actuellement dans le domaine de l'apprentissage statistique et l'intelligence artificielle. En effet, les algorithmes d'apprentissage ont démontré un pouvoir prédictif très performant. Cependant, le processus de construction des prédictions reste opaque, d'où une difficulté à interpréter avec pertinence leurs résultats (relation entre les variables, influence des variables explicatives sur la variable d'intérêt, ...etc.). En effet, l'interprétabilité en épidémiologie des résultats a une importance centrale, car elle permet de vérifier les hypothèses de recherche et de trouver les interactions entre les facteurs de risques/protecteurs, afin de construire des recommandations concrétisables à travers les interventions en santé. Le sujet consiste à faire une étude comparative empirique des différents algorithmes d'apprentissage profonds et d'étudier leurs structures et méthodologie de construction afin de comprendre leur processus de prédiction. Différentes métriques d'interprétabilité seront appliquées sur les algorithmes sélectionnés les plus robustes. Ainsi, dans un travail plus avancé, une proposition d'une nouvelle métrique adaptée aux données de survie peut être faite si le temps le permet.