Sécurité et confiance pour les accélérateurs matériels d'IA
Auteur / Autrice : | Ioannis Kaskampas |
Direction : | Haralampos Stratigopoulos, Hassan Aboushady |
Type : | Projet de thèse |
Discipline(s) : | Sciences et technologies de l'information et de la communication |
Date : | Inscription en doctorat le 15/05/2024 |
Etablissement(s) : | Sorbonne université |
Ecole(s) doctorale(s) : | École doctorale Informatique, télécommunications et électronique de Paris (1992-...) |
Partenaire(s) de recherche : | Laboratoire : LIP6 |
Mots clés
Résumé
L'informatique basée sur les réseaux de neurones profonds (DNN) trouve aujourd'hui de nombreuses applications dans différents domaines, tels que la vision par ordinateur, les jeux, le traitement du langage naturel et les systèmes autonomes. La communauté des chercheurs se concentre actuellement sur la conception de processeurs dédiés à l'exécution efficace de modèles de réseaux neuronaux profonds, appelés accélérateurs matériels d'IA. Nous sommes particulièrement intéressés par les processeurs neuromorphiques pour les réseaux neuronaux à impulsions(en anglais : Spiking Neural Networks - SNN) inspirés du cerveau, qui visent à combler le fossé entre l'apprentissage automatique et la biologie en termes de vitesse et de consommation d'énergie. La sécurité matériel est un sous-domaine de la recherche en sécurité informatique qui étudie les vulnérabilités du matériel. Cette thèse concentrera sur l'analyse de la sécurité et les contre-mesures d'un point de vue matériel pour les DNNs. Les menaces de sécurité qui nous intéressent sont les suivantes : 1) Le vol du modèle DNN : Le modèle, y compris la configuration du réseau et les poids synaptiques, est souvent considéré comme un atout. Le modèle est téléchargé sur le matériel depuis le nuage pour être utilisé comme une boîte noire sans que l'utilisateur puisse l'extraire, ce qui pourrait entraîner le piratage du modèle et la perte de la propriété intellectuelle. 2) Les chevaux de Troie neuronaux : Il s'agit de modifications malveillantes du matériel qui, lorsqu'elles sont déclenchées par des entrées délibérément conçues, peuvent avoir des effets indésirables, c'est-à-dire une dégradation de la précision du réseau, une fuite de modèle ou un déni de service. 3) Attaques adverses : Elles visent à ajouter un minimum de bruit à l'entrée de sorte que le réseau soit induit en erreur et prenne une mauvaise décision. 4) Piratage de l'accélérateur matériel d'IA : il comprend le clonage, la contrefaçon, la rétroingénierie et l'utilisation non autorisée de l'accélérateur matériel d'IA. 5) Attaques par porte dérobée : Lorsque l'entrainement est externalisé, une telle attaque modifie le modèle stocké dans la mémoire de la puce de sorte qu'il échoue dans un sous-ensemble de tâches. 6) Attaques par injection de fautes : Des fautes peuvent être injectées dans les réseaux neuronaux par le biais de paramètres ou de fonctions visant à compromettre le fonctionnement du réseau. 7) Confidentialité des données dans un contexte d'apprentissage fédéré : Un ensemble de réseaux neuronaux apprend collectivement, chacun ayant son propre ensemble de données, mais les données d'apprentissage sont privées et sensibles et ne doivent pas être divulguées à d'autres réseaux neuronaux. La thèse portera sur une ou plusieurs des menaces de sécurité susmentionnées, spécifiquement pour les processeurs neuromorphiques. Nous utiliserons comme étude de cas le processeur neuromorphique développé dans notre groupe, ainsi que le Loihi d'Intel.