Attaques adverses : un point de vue théorique
Auteur / Autrice : | Laurent Meunier |
Direction : | Jamal Atif |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 08/09/2022 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | Ecole doctorale SDOSE (Paris) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) - Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) |
établissement opérateur d'inscription : Université Paris Dauphine-PSL (1968-....) | |
Jury : | Président / Présidente : Gabriel Peyré |
Examinateurs / Examinatrices : Jamal Atif, Gabriel Peyré, Julien Mairal, Panayotis Mertikopoulos, Olivier Teytaud, Isabelle Guyon | |
Rapporteurs / Rapporteuses : Julien Mairal, Panayotis Mertikopoulos |
Mots clés
Résumé
Cette thèse étudie le problème de classification en présence d’attaques adverses. Une attaque adverse est une petite perturbation humainement imperceptible de l’entrée d’un algorithme, construite pour tromper les meilleurs classifieurs d’apprentissage automatique. En particulier, les réseaux de neurones profonds (« deep learning »), utilisés dans des systèmes critiques d’intelligence artificielle comme les voitures autonomes, présentent des risques considérables avec l’éventualité de telles attaques. Il est d’autant plus surprenant qu’il est très facile de créer des attaques adverses et qu’il est difficile de se défendre contre celles-ci en gardant un haut niveau de précision. La robustesse aux perturbations adverses est encore mal comprise par la communauté scientifique. Dans cette thèse, notre but est de comprendre mieux la nature de ce problème en adoptant un point de vue théorique.