Optimisation min-max robuste pour l'apprentissage
FR |
EN
| Auteur / Autrice : | Waïss Azizian |
| Direction : | Jerome Malick, Panayotis Mertikopoulos |
| Type : | Projet de thèse |
| Discipline(s) : | Mathématiques Appliquées |
| Date : | Inscription en doctorat le 01/10/2022 |
| Etablissement(s) : | Université Grenoble Alpes |
| Ecole(s) doctorale(s) : | École doctorale mathématiques, sciences et technologies de l'information, informatique |
| Partenaire(s) de recherche : | Laboratoire : Laboratoire Jean Kuntzmann |
Mots clés
FR |
EN
Mots clés libres
Résumé
FR |
EN
Les succès, tout azimuth, des méthodes de machine learning ne masquent pas que dans certaines conditions reìelles, les algorithmes d'apprentissage, malgreì leur capaciteì aÌ passer aÌ l'eìchelle, restent vulneìrables et les algorithmes d'optimisation sous-jacents peuvent montrer de mauvaises convergences. Dans ce cadre, cette theÌse se propose d'examiner de tels eìchecs et d'avancer des meìthodologies pour les surmonter: il s'agit de gagner en robustesse, aÌ la fois sur les modeÌles et les algorithmes, notamment au regard de (1) la robustesse par rapport aÌ la distribution des donneìes et (2) la robustesse en preìsence d'adversaire (comme dans le cas des reìseaux adversariaux geìneìratifs GANs).