Thèse en cours

Améliorer l'apprentissage des arbres décisionnels

FR  |  
EN
Auteur / Autrice : Peng Yu
Direction : Albert BifetJesse Read
Type : Projet de thèse
Discipline(s) : Informatique, données, IA
Date : Inscription en doctorat le 15/10/2019
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de l'Institut polytechnique de Paris
Partenaire(s) de recherche : Laboratoire : Laboratoire de Traitement et Communication de l'Information
Equipe de recherche : DIG – Data, Intelligence and Graphs

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Des modèles basés sur des arbres de décision ont été implémentés dans de nombreux systèmes de ML réussis, en tant qu'apprenants de base dans des méthodes d'ensemble puissantes, comme XGBoost ou Random Forests. De nombreux ouvrages de la littérature expliquent le fonctionnement de l'arbre décisionnel, tant du point de vue théorique que du point de vue de l'ingénierie. Dans cette proposition, nous aimerions proposer de travailler à l'amélioration de l'efficacité et de l'extensibilité des arbres décisionnels. Nous voulons introduire une nouvelle méthodologie de fractionnement qui profiterait à des ensembles individuels (p. ex., forêts aléatoires, gradient boosting) et à des arbres de décision de diffusion en continu. Nous voulons également créer des modèles hybrides basés sur des arbres de décision et un apprentissage approfondi, qui augmentent la précision et l'explicabilité des deux côtés. Nous présenterons des aperçus théoriques et nous montrerons les avantages de ces améliorations de manière empirique.