Thèse en cours

Intelligence Artificielle explicable pour la découverte et la validation de cibles thérapeutiques

FR  |  
EN
Auteur / Autrice : Zineb Outemzabet
Direction : Aurélie BertauxNicolas Gaud
Type : Projet de thèse
Discipline(s) : Informatique
Date : Inscription en doctorat le 04/10/2021
Etablissement(s) : Bourgogne Franche-Comté
Ecole(s) doctorale(s) : SPIM - Sciences Physiques pour l'Ingénieur et Microtechniques
Partenaire(s) de recherche : Laboratoire : Connaissance et Intelligence Artificielle Distribuées
établissement de préparation : Université de Bourgogne (1970-....)

Résumé

FR  |  
EN

Le défi de la thèse est d'exploiter les big data (plus en termes de dimensionnalité et d'hétéromodalité que de quantité) pour la recherche clinique et le développement de médicaments, afin de mieux comprendre les pathologies, de formuler des hypothèses sur de nouveaux mécanismes d'action et d'identifier les cibles thérapeutiques innovantes correspondantes. Pour relever ce défi, de nombreux travaux émergents proposent la conception d'IA explicables, permettant l'identification de cibles thérapeutiques innovantes par l'instillation de connaissances d'experts en découverte de médicaments. Ces IA explicables combinent des approches d'IA connexionnistes telles que l'apprentissage profond, les réseaux neuronaux, etc. et des IA causales basées sur la modélisation de graphes causaux de connaissances dérivées des connaissances des experts du domaine. Cette instillation de connaissances humaines dans les approches de modélisation permet d'améliorer l'explicabilité de l'IA par la contrainte.