Thèse soutenue

Élaboration d'Explications Visuelles des Décisions de Classifieurs entrainés par Apprentissage Profond en Imagerie Médicale

FR  |  
EN
Auteur / Autrice : Martin Charachon
Direction : Paul-Henry CournèdeCéline HudelotRoberto Ardon
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 18/01/2023
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale INTERFACES : approches interdisciplinaires, fondements, applications et innovation
Partenaire(s) de recherche : Laboratoire : Mathématiques et informatique pour la complexité et les systèmes (Gif-sur-Yvette, Essonne ; 2006-....)
référent : CentraleSupélec (2015-....)
graduate school : Université Paris-Saclay. Graduate School Sciences de l'ingénierie et des systèmes (2020-....)
Jury : Président / Présidente : Hugues Talbot
Examinateurs / Examinatrices : Nataliya Sokolovska, Diana Carolina Mateus Lamus, Laurence Rouet, Damien Garreau
Rapporteurs / Rapporteuses : Nataliya Sokolovska, Diana Carolina Mateus Lamus

Résumé

FR  |  
EN

Les solutions d'intelligence artificielle (IA) révolutionnent le protocole de travail en radiologie, de l'acquisition des images au diagnostic. Parmi ces solutions, les modèles d'apprentissage profond atteignent des performances de plus en plus précises et rivalisent avec les cliniciens sur certains problèmes d'imagerie médicale. Ces solutions visent à faire évoluer la pratique des radiologues en leur apportant une aide supplémentaire. Cependant, les résultats de ces modèles sont souvent fournis aux radiologues sans aucune argumentation. Cela diffère nettement de leur pratique clinique (notamment pour les problèmes de diagnostic clinique), où les observations faites lors de l'examen d'imagerie conduisent à un diagnostic qui est communiqué à leurs pairs avec des explications. En parallèle, les modèles d'apprentissage profond s'appuient sur des architectures complexes (réseaux de neurones avec des milliers voire millions de paramètres) pour atteindre des performances élevées au prix d'une perte de transparence (boîte noire), c'est-à-dire que leur raisonnement et leur résultats sont peu, voire pas explicables.Dans cette thèse, nous développons des techniques explications visuelles pour comprendre les décisions de modèles de classification, entraînés sur un problème d'imagerie médicale. Notre outil vise les utilisateurs cliniciens et les concepteurs du modèle. Il met en évidence les régions de l'image qui sont pertinentes pour le modèle, fournit un aperçu de leurs forces et faiblesses, et des idées pour les améliorer.En s'appuyant sur certaines spécificités des images médicales, nous proposons une formulation générale pour fournir des explications visuelles en adoptant une perspective de génération d'images. Nous définissons un ensemble de propriétés qui contraignent l'optimisation de deux modèles génératifs conditionnels et garantissent les objectifs de l'explication visuelle. Notre formulation exploite les techniques de transposition de domaine pour produire une image stable et contrefactuelle appartenant à la distribution des données. Ces images étant classées similairement et différemment de l'image étudiée, respectivement.Notre explication visuelle est composée de (i) cet exemple contrefactuel, montrant les transformations réalistes qui différencient les décisions du modèle ; (ii) et une carte d'attribution basée sur la différence entre les deux images générées (stable et contrefactuelle). Cette carte d'attribution met en avant les régions de l'image les plus pertinentes pour le modèle.Nous proposons différentes implémentations de la formulation générale en ajoutant incrémentalement les propriétés. Nous validons notre méthodologie par des expériences exhaustives sur deux problèmes d'imagerie médicale. Nous démontrons que nos méthodes (i) surpassent les techniques d'attribution de l'état de l'art sur plusieurs métriques d'évaluation, (ii) peuvent identifier les biais dans l'entraînement du modèle et fournir des indications pour l'améliorer, (iii) et peuvent être étendues à d'autres problèmes de classification satisfaisant certaines contraintes. Enfin, nous montrons quelques cas d'utilisation de la solution Keros (produit d'Incepto), qui analyse les problèmes de genoux en imagerie IRM.