Approche robuste et préservant la confidentialité des individus pour la reconnaissance d'états mentaux via des données EEG
Auteur / Autrice : | Rémi Nahon |
Direction : | Van Tâm Nguyen |
Type : | Projet de thèse |
Discipline(s) : | Informatique, données, IA |
Date : | Inscription en doctorat le 01/11/2022 |
Etablissement(s) : | Institut polytechnique de Paris |
Ecole(s) doctorale(s) : | École doctorale de l'Institut polytechnique de Paris |
Partenaire(s) de recherche : | Laboratoire : Laboratoire de Traitement et Communication de l'Information |
Equipe de recherche : C2S : Circuits et Systèmes de Communication |
Mots clés
Résumé
Ce projet de thèse s'inscrit dans une initiative visant à améliorer l'entraînement cognitif grâce à l'intégration des technologies de l'Artificial Intelligence of Things (AIoT) et du neurofeedback. Son objectif global est d'améliorer l'entraînement de l'attention, de la mémoire de travail et de l'intelligence émotionnelle en développant des systèmes avancés et personnalisés d'amélioration cognitive. Au cur de cet objectif ambitieux se trouve notre travail sur la détection des états cognitifs basée sur l'EEG, utilisant des techniques récentes d'apprentissage profond. Notre recherche se concentre sur plusieurs domaines clés, cruciaux pour la réalisation d'outils d'entraînement cognitif de nouvelle génération : Tout d'abord, nous abordons le défi de la détection fiable des états mentaux, avec un accent particulier sur les états attentionnels. En développant des protocoles avancés de collecte de données EEG et en améliorant les méthodes de classification existantes, nous visons à créer des systèmes de surveillance des états cognitifs plus précis et robustes. Ce travail fondamental est essentiel pour fournir un retour personnalisé en temps réel dans les applications d'entraînement cognitif. Sur cette base, nous nous plongeons dans le domaine de l'apprentissage de représentations et du débiaisage. En tirant parti des techniques de pointe de la vision par ordinateur, nous développons de nouvelles méthodes pour garantir que nos modèles d'apprentissage profond soient équitables, généralisables et exempts de biais indésirables. Ce travail améliore non seulement la fiabilité de notre analyse des états cognitifs, mais contribue également au domaine plus large du développement responsable de l'IA. Un aspect crucial de notre recherche consiste à aborder les implications en matière de confidentialité des modèles d'apprentissage automatique basés sur l'EEG. Nous étudions les vulnérabilités potentielles, telles que la fuite involontaire d'informations personnelles sensibles, et développons des techniques de préservation de la vie privée spécifiquement adaptées aux données EEG. Nos travaux en cours explorent des concepts avancés tels que les Privacy Backdoors et le désapprentissage automatique, visant à créer des systèmes d'entraînement cognitif qui protègent de manière robuste la vie privée des utilisateurs, même face à des modèles pré-entraînés altérés.