Thèse soutenue

IA préservant la vie privée à l’aide de contraintes déclaratives

FR  |  
EN
Auteur / Autrice : Moitree Basu
Direction : Jan Ramon
Type : Thèse de doctorat
Discipline(s) : Informatique et applications
Date : Soutenance le 04/04/2024
Etablissement(s) : Université de Lille (2022-....)
Ecole(s) doctorale(s) : École graduée Mathématiques, sciences du numérique et de leurs interactions (Lille ; 2021-....)
Partenaire(s) de recherche : Laboratoire : Centre Inria de l'Université de Lille
Jury : Président / Présidente : Patrick Baillot
Examinateurs / Examinatrices : Oana Goga
Rapporteur / Rapporteuse : Jean-François Couchot, Zied Bouraoui

Résumé

FR  |  
EN

Les technologies basées sur l'apprentissage automatique et l'apprentissage profond ont été largement adoptées, supplantant rapidement les systèmes traditionnels d'intelligence artificielle (IA). Les ordinateurs modernes sont remarquables pour traiter d'énormes quantités de données personnelles grâce à ces algorithmes d'apprentissage automatique. Toutefois, cette avancée technologique a des répercussions importantes sur la vie privée, et on ne peut que s'attendre à ce que ce problème s'aggrave dans un avenir proche.Des études ont montré qu'il est possible de déduire des informations sensibles à partir de modèles statistiques calculés sur des ensembles de données, même sans accès direct à l'ensemble de données d'apprentissage sous-jacent. Outre les préoccupations liées à la protection de la vie privée concernant les modèles statistiques, les systèmes complexes qui apprennent et utilisent ces modèles sont de plus en plus difficiles à comprendre pour les utilisateurs, tout comme les ramifications du consentement à la soumission et à l'utilisation de leurs informations privées dans de tels cadres. Par conséquent, la transparence et l'interprétabilité sont devenues des préoccupations majeures.Dans cette thèse, nous étudions le problème de la spécification des exigences en matière de protection de la vie privée pour les systèmes basés sur l'apprentissage automatique, d'une manière qui combine l'interprétabilité et la faisabilité opérationnelle. Expliquer une technologie améliorant la protection de la vie privée est un problème difficile, en particulier lorsque l'objectif est de construire un système qui soit à la fois interprétable et d'une grande utilité. Afin de relever ce défi, nous proposons de spécifier les exigences en matière de protection de la vie privée sous forme de contraintes, ce qui permet à la fois l'interprétabilité et l'optimisation automatisée de l'utilité.