Thèse soutenue

Interprétabilité des réseaux des neurones profonds et segmentation faiblement supervisée des lésions cérébrales sur IRM

FR  |  
EN
Auteur / Autrice : Valentine Wargnier-Dauchelle
Direction : François CottonMichaël Sdika
Type : Thèse de doctorat
Discipline(s) : Ingénierie biomédicale
Date : Soutenance le 08/12/2023
Etablissement(s) : Lyon, INSA
Ecole(s) doctorale(s) : École doctorale Interdisciplinaire Sciences-Santé (Villeurbanne ; 1995-....)
Partenaire(s) de recherche : Membre de : Université de Lyon (2015-....)
Laboratoire : CREATIS - Centre de Recherche et d'Application en Traitement de l'Image pour la Santé (Lyon ; 2007-....) - Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé / CREATIS
Jury : Président / Présidente : Christophe Garcia
Examinateurs / Examinatrices : François Cotton, Michaël Sdika, Christophe Garcia, Jose Dolz, Céline Hudelot, Diana Mateus, Thomas Grenier, Caroline Petitjean
Rapporteurs / Rapporteuses : Jose Dolz, Céline Hudelot, Diana Mateus

Résumé

FR  |  
EN

L’imagerie médicale est un outil fondamental pour diagnostiquer les maladies, suivre leur évolution ou comprendre leur fonctionnement. L’imagerie par résonance magnétique est une méthode de choix pour visualiser le cortex cérébral et ses pathologies comme la sclérose en plaques ou encore les gliomes. Pour analyser ces images de manière automatique, les méthodes basées sur l’apprentissage profond présentent de très bonnes performances pour différents types de tâches comme la classification ou la segmentation. Ces méthodes automatiques apportent aux cliniciens une pré-analyse très utile. Cependant, elles nécessitent beaucoup de données pour leur entraînement. Dans le cas des méthodes de segmentation supervisées, les annotations manuelles nécessaires sont très coûteuses. Le développement de méthodes faiblement ou non-supervisées performantes, ne nécessitant pas ou peu d’annotations manuelles, est donc nécessaire. En outre, dans un domaine critique comme celui de la médecine, il est important que les décisions des réseaux soient explicables et s'appuient sur les signes radiologiques de la pathologie présents dans l’image. Or, les réseaux de neurones profonds sont, de par leur grand nombre de paramètres et les interconnexions non linéaires dont ils sont composés, difficiles à expliquer. Proposer des réseaux explicables et interprétables est donc une problématique forte pour l'analyse d’images médicales par apprentissage profond. Dans cette thèse, nous avons abordé ces deux thématiques. En nous focalisant sur une tâche de classification entre des images de sujets sains et des images de patients, nous avons montré que la décision des classifieurs de l’état de l’art n’est pas forcément pertinente et en accord avec les aprioris médicaux. Cela peut avoir de lourdes conséquences : pour du diagnostic, l'utilisation de tels classifieurs biaisés n'est pas raisonnable et lorsqu’ils sont utilisés au sein d’autres modèles, comme les modèles génératifs, cela peut faire chuter les performances. Nous avons donc proposé des classifieurs plus interprétables avec une décision davantage basée sur les signes radiologiques de la pathologie. Trois solutions ont été proposées. Tout d’abord, nous avons normalisé l’entrée des réseaux de neurones afin d’éliminer les biais présents dans l’image et qui peuvent être utilisés par les réseaux pour prendre leur décision. Ensuite, nous avons contraint les classifieurs au cours de leur entraînement en utilisant les cartes d’attributions qui permettent d’identifier les zones de l’image utilisées par le réseau pour prendre sa décision. Enfin, nous avons utilisé des réseaux intrinsèquement explicables : les réseaux monotones. Nous avons notamment proposé une méthode pour transformer n’importe quelle architecture en réseau monotone. Avec ces réseaux de classification interprétables ne disposant que du label de l'image à l'entraînement, nous pouvons réaliser une segmentation faiblement supervisée des lésions cérébrales.