Méthodes d'apprentissage profond pour la localisation, la segmentation et la robustesse en imagerie médicale
Auteur / Autrice : | Othmane Laousy |
Direction : | Marie-Pierre Revel, Maria Vakalopoulou |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 09/07/2024 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale INTERFACES : approches interdisciplinaires, fondements, applications et innovation |
Partenaire(s) de recherche : | Laboratoire : Mathématiques et informatique pour la complexité et les systèmes (Gif-sur-Yvette, Essonne ; 2006-....) |
Référent : CentraleSupélec | |
graduate school : Université Paris-Saclay. Graduate School Sciences de l'ingénierie et des systèmes (2020-....) | |
Jury : | Président / Présidente : Laure Fournier-Dujardin |
Examinateurs / Examinatrices : Jose Dolz, Prateek Prasanna, Isabelle Bloch | |
Rapporteurs / Rapporteuses : Jose Dolz, Prateek Prasanna |
Mots clés
Résumé
Ces dernières années, nous avons assisté à un essor remarquable des avancées à la croisée de l'apprentissage profond et de la médecine, en particulier dans le domaine de l'imagerie médicale. Cette évolution rapide a engendré une multitude de défis nécessitant une attention particulière.L'un des principaux défis découlant de l'évolution des techniques d'apprentissage profond est la demande de données étendues et diversifiées pour l'entraînement des modèles. A mesure que les modèles deviennent plus sophistiqués, leur besoin en données s'intensifie, ce qui constitue un obstacle à l'acquisition d'ensembles de données non seulement volumineux, mais aussi véritablement représentatifs des divers scénarios médicaux rencontrés en pratique.Une autre préoccupation majeure concerne la vulnérabilité des modèles d'intelligence artificielle aux attaques adversariales, où de petites perturbations des données d'entrée peuvent entraîner des répercussions significatives sur la fiabilité du modèle. La sensibilité de ces modèles aux manipulations adverses constitue une menace potentielle pour leur déploiement dans des scénarios médicaux réels, où les conséquences de ces erreurs peuvent être désastreuses. Il est impératif de protéger les modèles d'IA contre les attaques adverses pour inspirer confiance aux professionnels de la santé et aux patients qui comptent sur ces technologies pour obtenir des diagnostics précis et des recommandations de traitement.Cette thèse explore ces défis pressants, offrant des perspectives sur les directions potentielles pour atténuer l'impact de la rareté des données et améliorer la fiabilité des modèles d'IA face aux attaques adversariales.Tout d'abord, nous explorons l'apprentissage par renforcement profond (Deep Reinforcement Learning, DRL) pour aborder les problèmes liés à l'apprentissage dans des contextes où les données sont rares. Cette thèse présente une application novatrice du DRL dans l'analyse d'images médicales, en se concentrant particulièrement sur les défis de localisation et de segmentation pour la quantification de la sarcopénie à partir de scans CT. En optimisant la prise de décision d'un agent par essais et erreurs, nous avons développé un réseau Deep Q-Network qui automatise l'identification de la coupe de la troisième vertèbre lombaire. Pour la segmentation, nous avons employé un algorithme d'optimisation de politique proximale pour tracer les contours des muscles psoas et parietaux, automatisant le calcul de l'indice de masse musculaire squelettique. Le pipeline présenté a ensuite été utilisé pour évaluer la sarcopénie pour le pronostic des patients atteints de cancers solides en état critique, validant ainsi la viabilité pratique de notre approche DRL dans des contextes cliniques réels.La deuxième partie de cette thèse se concentre sur le renforcement de la sécurité et de la fiabilité des modèles d'IA en incorporant une robustesse certifiée contre les attaques adversariales. Les attaques adversariales ont mis en évidence la vulnérabilité des modèles d'apprentissage profond, en particulier dans des domaines à haut risque comme le diagnostic médical. Pour atténuer cette vulnérabilité, nous explorons et développons des approches garantissant un niveau de robustesse contre les manipulations adversariales en tirant parti de la puissance des modèles de diffusion et du lissage aléatoire. Ces méthodes fournissent non seulement une protection contre les éventuelles violations de sécurité, mais instaurent aussi une plus grande confiance dans le déploiement des systèmes de santé pilotés par l'IA.À travers ces orientations de recherche, cette thèse contribue à l'évolution continue de l'apprentissage profond en médecine en abordant les défis de la rareté des données et des attaques adversariales, traçant ainsi une voie potentielle vers un avenir plus résilient et plus fiable pour l'IA dans l'imagerie médicale.