Intelligence Artificielle explicable pour la découverte et la validation de cibles thérapeutiques
Auteur / Autrice : | Zineb Outemzabet |
Direction : | Aurélie Bertaux, Nicolas Gaud |
Type : | Projet de thèse |
Discipline(s) : | Informatique |
Date : | Inscription en doctorat le 04/10/2021 |
Etablissement(s) : | Bourgogne Franche-Comté |
Ecole(s) doctorale(s) : | SPIM - Sciences Physiques pour l'Ingénieur et Microtechniques |
Partenaire(s) de recherche : | Laboratoire : Connaissance et Intelligence Artificielle Distribuées |
établissement de préparation : Université de Bourgogne (1970-....) |
Mots clés
Résumé
Le défi de la thèse est d'exploiter les big data (plus en termes de dimensionnalité et d'hétéromodalité que de quantité) pour la recherche clinique et le développement de médicaments, afin de mieux comprendre les pathologies, de formuler des hypothèses sur de nouveaux mécanismes d'action et d'identifier les cibles thérapeutiques innovantes correspondantes. Pour relever ce défi, de nombreux travaux émergents proposent la conception d'IA explicables, permettant l'identification de cibles thérapeutiques innovantes par l'instillation de connaissances d'experts en découverte de médicaments. Ces IA explicables combinent des approches d'IA connexionnistes telles que l'apprentissage profond, les réseaux neuronaux, etc. et des IA causales basées sur la modélisation de graphes causaux de connaissances dérivées des connaissances des experts du domaine. Cette instillation de connaissances humaines dans les approches de modélisation permet d'améliorer l'explicabilité de l'IA par la contrainte.