Privacy and transparency in learning systems for healthcare

by Théo Jourdan

Doctoral thesis in Ingénierie biomédicale, biotechnologie

Under the supervision of Carole Frindel.

defended on 29-10-2021

in Lyon , under the authority of École Doctorale Interdisciplinaire Sciences-Santé (Villeurbanne ; 1995-....) , in a partnership with Institut national des sciences appliquées (Lyon ; 1957-....) (établissement opérateur d'inscription) , CREATIS - Centre de Recherche et d'Application en Traitement de l'Image pour la Santé (Lyon ; 2007-....) (laboratoire) , Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé / CREATIS (laboratoire) and MYRIAD - Modeling & analysis for medical imaging and Diagnosis (équipe de recherche) .

Thesis committee President: Sonia Ben Mokhtar.

Thesis committee members: Carole Frindel, Sonia Ben Mokhtar, Caroline Fossati, Emmanuel Vincent, Aurélien Bellet, Antoine Boutet, Alain Dieterlen.

Examiners: Caroline Fossati, Emmanuel Vincent.


  • Abstract

    With the development of the Internet of Things (IoT), smartphones and sensors are now able to provide information about the user's activity and even their physiology. This has led to a growing interest from the scientific community, particularly in the field of e-health, with applications in the monitoring of patients undergoing rehabilitation in order to offer more personalised follow-up. However, in addition to guiding the rehabilitation process, the generation and transmission of IoT data is also vulnerable to privacy breaches. Indeed, the complex processing chain of the IoT application in healthcare multiplies the risk of privacy threats throughout the life cycle of IoT data, including collection, transmission and storage, by an adversary who can retrieve the data and re-identify or reveal sensitive patient information. This thesis focuses on the following questions: Is the data collected sufficiently protected so that no one can misuse it to re-identify the owner or infer sensitive information? Is the protected data still accurate enough for healthcare applications such as rehabilitation? Achieving balance between data utility and privacy protection is an important challenge that we explore in this thesis from different angles. More specifically, the first part focuses on the problem of data anonymisation through minimisation, while the second part focuses on preventing the inference of sensitive attributes through a Generative Adversarial Network to sanitise sensor data and an approach exploiting private layers in Federated Learning.

  • Alternative Title

    Protection de la vie privée dans les systèmes d'apprentissage pour le domaine de la santé


  • Abstract

    Avec le développement de l'Internet des objets (IdO), les smartphones et les capteurs sont désormais capables de fournir des informations sur l'activité de l'utilisateur et même sur sa physiologie. Cela a donc suscité un intérêt croissant de la part de la communauté scientifique, notamment dans le domaine de la e-santé avec des applications dans le suivi des patients en cours de rééducation pour offrir un suivi plus personnalisé. Cependant, outre le fait de guider le processus de rééducation, la production et la transmission de données IdO sont également exposées à des atteintes à la vie privée. En effet, la chaîne de traitement complexe de l'application IdO dans les soins de santé multiplie les risques de menaces sur la vie privée tout au long du cycle de vie des données IdO, comprenant la collecte, la transmission et le stockage, par un adversaire qui peut récupérer les données et ré-identifier ou révéler des informations sensibles des patients. Cette thèse s'articule autour des questions suivantes: Les données collectées sont-elles suffisamment protégées pour que personne ne puisse en abuser pour ré-identifier le propriétaire ou déduire des informations sensibles ? Les données protégées sont-elles encore suffisamment précises pour les applications de soins de santé telles que la rééducation ? Atteindre cet équilibre entre l'utilité des données et la protection de la vie privée est un défi important que nous étudions dans cette thèse sous différents angles. Plus précisément, la première partie se concentre sur le problème de l'anonymisation des données par le biais de la minimisation, tandis que la deuxième partie se concentre sur la prévention de l'inférence d'attributs sensibles par le biais d'une approche basée sur les Réseaux Génératifs Adversariaux pour assainir les données des capteurs et une approche exploitant les couches privées dans l'apprentissage fédéré.


It's available in the institution of thesis defence.

Other version

This thesis has resulted in a publication by

Privacy and transparency in learning systems for healthcare


Consult library

Version is available

Where is this thesis?

  • Library : Institut national des sciences appliquées (Villeurbanne, Rhône). Service Commun de la Documentation Doc’INSA. Bibliothèque numérique.
See the Sudoc catalog libraries of higher education and research.

Consult library

This thesis has resulted in a publication by

Informations

  • Under the title: Privacy and transparency in learning systems for healthcare
  • Details : 1 vol. (XV-135 p.)
  • Annexes : Bibliogr. p.113-135
This thesis is also in paper form.

Where is this thesis?

See the Sudoc catalog libraries of higher education and research.