Thèse soutenue

Attaques adverses : un point de vue théorique

FR  |  
EN
Auteur / Autrice : Laurent Meunier
Direction : Jamal Atif
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 08/09/2022
Etablissement(s) : Université Paris sciences et lettres
Ecole(s) doctorale(s) : Ecole doctorale SDOSE (Paris)
Partenaire(s) de recherche : Laboratoire : Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) - Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris)
établissement opérateur d'inscription : Université Paris Dauphine-PSL (1968-....)
Jury : Président / Présidente : Gabriel Peyré
Examinateurs / Examinatrices : Jamal Atif, Gabriel Peyré, Julien Mairal, Panayotis Mertikopoulos, Olivier Teytaud, Isabelle Guyon
Rapporteurs / Rapporteuses : Julien Mairal, Panayotis Mertikopoulos

Résumé

FR  |  
EN

Cette thèse étudie le problème de classification en présence d’attaques adverses. Une attaque adverse est une petite perturbation humainement imperceptible de l’entrée d’un algorithme, construite pour tromper les meilleurs classifieurs d’apprentissage automatique. En particulier, les réseaux de neurones profonds (« deep learning »), utilisés dans des systèmes critiques d’intelligence artificielle comme les voitures autonomes, présentent des risques considérables avec l’éventualité de telles attaques. Il est d’autant plus surprenant qu’il est très facile de créer des attaques adverses et qu’il est difficile de se défendre contre celles-ci en gardant un haut niveau de précision. La robustesse aux perturbations adverses est encore mal comprise par la communauté scientifique. Dans cette thèse, notre but est de comprendre mieux la nature de ce problème en adoptant un point de vue théorique.