Privacy and transparency in learning systems for healthcare

par Théo Jourdan

Thèse de doctorat en Ingénierie biomédicale, biotechnologie

Sous la direction de Carole Frindel.

Soutenue le 29-10-2021

à Lyon , dans le cadre de École Doctorale Interdisciplinaire Sciences-Santé (Villeurbanne ; 1995-....) , en partenariat avec Institut national des sciences appliquées de Lyon (Lyon ; 1957-....) (établissement opérateur d'inscription) , CREATIS - Centre de Recherche et d'Application en Traitement de l'Image pour la Santé (Lyon ; 2007-....) (laboratoire) , Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé / CREATIS (laboratoire) et de MYRIAD - Modeling & analysis for medical imaging and Diagnosis (équipe de recherche) .

Le président du jury était Sonia Ben Mokhtar.

Le jury était composé de Carole Frindel, Sonia Ben Mokhtar, Caroline Fossati, Emmanuel Vincent, Aurélien Bellet, Antoine Boutet, Alain Dieterlen.

Les rapporteurs étaient Caroline Fossati, Emmanuel Vincent.

  • Titre traduit

    Protection de la vie privée dans les systèmes d'apprentissage pour le domaine de la santé


  • Résumé

    Avec le développement de l'Internet des objets (IdO), les smartphones et les capteurs sont désormais capables de fournir des informations sur l'activité de l'utilisateur et même sur sa physiologie. Cela a donc suscité un intérêt croissant de la part de la communauté scientifique, notamment dans le domaine de la e-santé avec des applications dans le suivi des patients en cours de rééducation pour offrir un suivi plus personnalisé. Cependant, outre le fait de guider le processus de rééducation, la production et la transmission de données IdO sont également exposées à des atteintes à la vie privée. En effet, la chaîne de traitement complexe de l'application IdO dans les soins de santé multiplie les risques de menaces sur la vie privée tout au long du cycle de vie des données IdO, comprenant la collecte, la transmission et le stockage, par un adversaire qui peut récupérer les données et ré-identifier ou révéler des informations sensibles des patients. Cette thèse s'articule autour des questions suivantes: Les données collectées sont-elles suffisamment protégées pour que personne ne puisse en abuser pour ré-identifier le propriétaire ou déduire des informations sensibles ? Les données protégées sont-elles encore suffisamment précises pour les applications de soins de santé telles que la rééducation ? Atteindre cet équilibre entre l'utilité des données et la protection de la vie privée est un défi important que nous étudions dans cette thèse sous différents angles. Plus précisément, la première partie se concentre sur le problème de l'anonymisation des données par le biais de la minimisation, tandis que la deuxième partie se concentre sur la prévention de l'inférence d'attributs sensibles par le biais d'une approche basée sur les Réseaux Génératifs Adversariaux pour assainir les données des capteurs et une approche exploitant les couches privées dans l'apprentissage fédéré.


  • Résumé

    With the development of the Internet of Things (IoT), smartphones and sensors are now able to provide information about the user's activity and even their physiology. This has led to a growing interest from the scientific community, particularly in the field of e-health, with applications in the monitoring of patients undergoing rehabilitation in order to offer more personalised follow-up. However, in addition to guiding the rehabilitation process, the generation and transmission of IoT data is also vulnerable to privacy breaches. Indeed, the complex processing chain of the IoT application in healthcare multiplies the risk of privacy threats throughout the life cycle of IoT data, including collection, transmission and storage, by an adversary who can retrieve the data and re-identify or reveal sensitive patient information. This thesis focuses on the following questions: Is the data collected sufficiently protected so that no one can misuse it to re-identify the owner or infer sensitive information? Is the protected data still accurate enough for healthcare applications such as rehabilitation? Achieving balance between data utility and privacy protection is an important challenge that we explore in this thesis from different angles. More specifically, the first part focuses on the problem of data anonymisation through minimisation, while the second part focuses on preventing the inference of sensitive attributes through a Generative Adversarial Network to sanitise sensor data and an approach exploiting private layers in Federated Learning.


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Autre version

Cette thèse a donné lieu à une publication

Privacy and transparency in learning systems for healthcare


Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse\u00a0?

  • Bibliothèque : Institut national des sciences appliquées (Villeurbanne, Rhône). Service Commun de la Documentation Doc’INSA. Bibliothèque numérique.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.

Consulter en bibliothèque

Cette thèse a donné lieu à une publication

Informations

  • Sous le titre : Privacy and transparency in learning systems for healthcare
  • Détails : 1 vol. (XV-135 p.)
  • Annexes : Bibliogr. p.113-135
La version de soutenance de cette thèse existe aussi sous forme papier.

Où se trouve cette thèse\u00a0?

Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.