Auteur / Autrice : | Rafael Pinot |
Direction : | Jamal Atif |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 02/12/2020 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | Ecole doctorale SDOSE (Paris) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (Paris) |
établissement opérateur d'inscription : Université Paris Dauphine-PSL (1968-....) | |
Jury : | Président / Présidente : Francis Bach |
Examinateurs / Examinatrices : Jamal Atif, Francis Bach, Stéphane Canu, Panayotis Mertikopoulos, Cordelia Schmid, Sébastien Bubeck, Michèle Sebag, Cédric Gouy-Pailler | |
Rapporteurs / Rapporteuses : Stéphane Canu, Panayotis Mertikopoulos |
Mots clés
Résumé
Les modèles d’intelligence artificielle font partie de notre vie quotidienne et leurs faiblesses peuvent être utilisées pour nous nuire directement ou indirectement. Il est donc crucial de pouvoir prendre en compte et traiter toute nouvelle vulnérabilité. Par ailleurs, le cadre juridique en Europe évolue, ce qui oblige les professionnels, tant du secteur privé que du secteur public, à s'adapter rapidement à de nouvelles préoccupations en matière de sécurité et de transparence des algorithmes. Cette thèse étudie comment construire des modèles plus sûrs. Nous étudions en particulier une nouvelle menace: les attaques adverses. La vulnérabilité des modèles d’intelligence artificielle à ces attaques est un véritable problème de sécurité, en particulier lorsque ceux-ci sont utilisés dans des technologies sensibles telles que les voitures autonomes. Outre les questions de sécurité, ces attaques montrent à quel point nous manquons de recul sur les modèles que l'industrie utilise quotidiennement. Nous fournissons des éléments de réflexion sur les attaques adverses et proposons des méthodes simples pour atténuer leurs effets en utilisant la théorie de l’apprentissage supervisé, de l’information, et des probabilités.