Classification de maladies héréditaires rétiniennes par apprentissage profond sur des images d’autofluorescence du fond d’œil
| Auteur / Autrice : | Alexandra Miere |
| Direction : | Éric Petit |
| Type : | Thèse de doctorat |
| Discipline(s) : | Signal, Image, Automatique |
| Date : | Soutenance le 25/11/2020 |
| Etablissement(s) : | Paris Est |
| Ecole(s) doctorale(s) : | École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication (Champs-sur-Marne, Seine-et-Marne ; 2010-....) |
| Partenaire(s) de recherche : | Laboratoire : Laboratoire Images, Signaux et Systèmes Intelligents (Créteil) |
| Jury : | Président / Présidente : Giuseppe Querques |
| Examinateurs / Examinatrices : Nicolas Leveziel, Catalin Iulian Fetita, Éric Souied, Nadjia Kachenoura | |
| Rapporteurs / Rapporteuses : Nicolas Leveziel, Catalin Iulian Fetita |
Mots clés
Résumé
Les maladies rétiniennes héréditaires (IRD) sont un groupe de maladies génétiques affectant la rétine, avec une prévalence estimée à 1 personne sur 3000, avec un total de plus de 2 millions de personnes dans le monde. En tant que cartographie métabolique in vivo de la rétine, l'imagerie par autofluorescence du fond d'œil (FAF) joue un rôle clé dans l'évaluation des patients atteints d'IRD, avec plusieurs phénotypes FAF décrits pour chaque IRD.Ce travail a comme objectif d’appliquer l'apprentissage profond (DL) au FAF dans les IRD.Premièrement, des images FAF de patients atteints de rétinite pigmentaire (RP), de la maladie de Best (BD), de la maladie de Stargardt (STGD1), ainsi que d'un groupe comparable des yeux normaux ont été utilisées pour entraîner un réseau neuronal convolutionel multicouche (CNN), afin de différencier sur les images FAF entre chaque type d'IRD et une FAF normale. Le CNN a été entraîné et validé avec 389 images FAF. Des techniques d'augmentation établies ont été utilisées. Un optimiseur Adam a été utilisé. Ensuite, le classificateur construit a ensuite été testé avec 94 images FAF n’ayant pas été utilisées pour l’entraînement. La visualisation de gradient intégrée a été utilisée pour expliquer la sortie du modèle. Nos résultats ont démontré une précision globale de 0,95. L'aire sous la courbe rappel précision (Precision Recall Curve, PRC-AUC) était en moyenne de 0,988 pour BD, 0,999 pour RP, 0,996 pour STGD1 et 0,989 pour les témoins sains. Une deuxième approche, utilisant la génération de données, 5 CNN différents et le t-SNE comme méthode de visualisation, a donné une précision globale de 0,982 pour distinguer les images STGD1, RP, BD et FAF saines. En conclusion, cette étude décrit pour la première fois l'utilisation d'un modèle DL pour détecter et classer automatiquement les IRD sur l'imagerie FAF.Deuxièmement, nous avons cherché à classer automatiquement l'atrophie rétinienne, à l'aide d'un modèle DL, selon son étiologie: génétique (stades tardifs des cas génétiquement confirmés de STGD1 et Pseduo-Stargardt Pattern Dystrophy (PSPD), associée à la mutation PRPH2) ou associée à la dégénérescence maculaire liée à l'âge (DMLA) atrophique. Un CNN pré-entraîné (ResNet101) et l'apprentissage par transfert de la base de données ImageNet ont été utilisés sur 314 images FAF, dont 110 images étaient des yeux GA et 204 étaient des cas avec STGD1 ou PSPD génétiquement confirmés. Les meilleures performances du modèle ont été obtenues en utilisant 10 époques, avec une précision de 0,92 et une aire sous la courbe pour la courbe Receiver Operating Characteristics (AUC-ROC) de 0,981. Il est important de faire la distinction entre l'atrophie secondaire aux IRD ou à la DMLA sèche, cela pouvant avoir un impact sur le pronostic de la maladie, la nécessité d'un conseil génétique et le taux de progression de la maladie.Troisièmement, nous avons cherché à différencier, à l'aide d'un modèle DL, entre STGD1 et PSPD, en utilisant un ensemble d'images FAF de patients avec diagnostic génétique (mutation ABCA4 pour STGD1 et mutation PRPH2 pour PSPD). Pour cela, nous avons pré-entraîné le CNN avec diverses images FAF. Le modèle a atteint une précision globale de 0,88 et une AUC-ROC de 0,89 sur l'ensemble de test, composé de 111 images. Nous avons comparé cette précision avec celle des experts rétiniens spécialisés dans les IRD, dont la précision était de 0,816, et avec la précision des chefs de clinique en rétine médicale pour distinguer les deux, avec une moyenne de 0,724. Par conséquent, le modèle DL n'était pas seulement non inférieur aux lecteurs humains, mais sa précision était supérieure.Ainsi, les classificateurs DL créés ont montré d'excellents résultats. Avec de nouveaux développements, ces modèles peuvent être des outils de diagnostic fiables et fournir des informations pertinentes pour les futures approches thérapeutiques dans les IRD.