Thèse soutenue

Apprentissage génératif pour le traitement, l'analyse et la modélisation des données médicales : application à l'imagerie CT de la cochlée

FR  |  
EN
Auteur / Autrice : Zihao Wang
Direction : Hervé Delingette
Type : Thèse de doctorat
Discipline(s) : Automatique et traitement du signal et des images
Date : Soutenance le 17/09/2021
Etablissement(s) : Université Côte d'Azur
Ecole(s) doctorale(s) : École doctorale Sciences et technologies de l'information et de la communication (Nice ; 1992-....)
Partenaire(s) de recherche : Laboratoire : Institut national de recherche en informatique et en automatique (France). Unité de recherche (Sophia Antipolis, Alpes-Maritimes)
Jury : Président / Présidente : Nicolas Guevara
Examinateurs / Examinatrices : Hervé Delingette, Nicolas Guevara, Mauricio Antonio Reyes Aguirre, Rasmus Paulsen
Rapporteur / Rapporteuse : Mauricio Antonio Reyes Aguirre, Rasmus Paulsen

Résumé

FR  |  
EN

Cette thèse vise à exposer plusieurs applications de l'intelligence artificielle (IA) pour le traitement et la compréhension des données médicales. L'imagerie médicale est un domaine générant des données massives, qui nécessitent donc de plus en plus de temps aux cliniciens pour être traitées et analysées. Dans ce manuscrit, nous montrons comment l'apprentissage génératif peut aider dans de nombreux aspects pour le traitement, la compréhension et la modélisation des images scanner de l'oreille interne. Tout d'abord, nous développons un modèle génératif profond pour résoudre un problème couramment rencontré en imagerie CT : la présence d'artefacts métalliques. Ce modèle peut permettre aux cliniciens de mieux évaluer la qualité du positionnement des électrodes d'un implant cochléaire avec une présence réduite d'artefacts. Pour cela, un réseau de neurones antagoniste et génératif (GAN) est proposé intégrant une fonction de perte spécifique. Ce réseau a été entrainé sur un ensemble d'images volumiques scanner synthétiques résultant de l'application de simulations de la physique des rayons X. Deuxièmement, étant donné que de nombreuses méthodes de segmentation d'apprentissage profond ne parviennent pas à gérer explicitement les modèles de forme, nous proposons un cadre génératif bayésien qui aborde les problèmes d'inférence de modèle de forme dans les images médicales 3D. Notre approche permet de faire un compromis entre les informations de forme et d'apparence issus de l'image à travers une approche d'espérance-maximisation (EM). Celle-ci est appliquée à la segmentation de plus de 200 volumes tomodensitométriques de patients. Les résultats indiquent des performances comparables aux méthodes supervisées et meilleures que les méthodes non supervisées proposées précédemment. En outre, nous montrons comment ce cadre méthodologique proposé peut estimer l'incertitude dans les paramètres de forme. Troisièmement, nous abordons le problème de la représentation compacte des images scanner à travers un nouveau réseau génératif profond basé sur les flux. Les modèles génératifs peuvent créer une distribution implicite de l'ensemble de données d'imagerie à partir duquel on peut générer des échantillons. Pour une meilleure représentation, nous avons proposé un Auto-encodeur Variationnel Quasi-symplectique avec une dynamique de Langevin (Langevin-VAE) qui améliore les gradients actuels des modèles génératifs basés sur les flux. Enfin, nous proposons une méthode pour la détection de points caractéristiques qui permet de s'affranchir de la difficulté de positionner manuellement ces points dans des images volumiques. Cette approche comprend une étape préalable d'apprentissage ne nécessitant qu'une seule image annotée pour l'entrainement. Elle est appliquée à l'annotation de centaines d'images scanner de l'oreille interne.