Thèse en cours

Compression automatique des réseaux de neurones profonds

FR  |  
EN
Auteur / Autrice : Arthur Benard
Direction : Faiz Ben amar
Type : Projet de thèse
Discipline(s) : Robotique
Date : Inscription en doctorat le 03/06/2024
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Sciences mécaniques, acoustique, électronique et robotique de Paris
Partenaire(s) de recherche : Laboratoire : Institut des Systèmes Intelligents et de Robotique
Equipe de recherche : SYROCO - Systèmes Robotiques : Conception et Commande

Résumé

FR  |  
EN

La construction des réseaux de neurones est complexe nécessitant constamment une capacité calcul et de mémoire croissante. Le but de cette collaboration est d'exploiter les méthodes existantes de compression et d'en proposer de nouvelles permettant de mettre au point une plateforme générale qui pourra réduire automatiquement un modèle sans action extérieur de l'utilisateur. Nous pensons que l'exploitation de certaines stratégies inspirées du cerveau pourrait avoir le double avantage d'aider à la compacité et à obtenir une meilleure théorie des modèles. Le développement de notre méthode pourrait avoir de nombreux avantages. Tout d'abord, en réduisant la taille des modèles, nous facilitons leur déploiement sur des plateformes légères telles que les ordinateur personnels, les appareils mobiles, les systèmes embarqués et l'edge computing. En limitant la RAM nécessaire au fonctionnement d'un modèle, une utilisation efficace des ressources est permise qui induit un élargissement des possibilités d'application de l'intelligence artificielle. De plus, la compression des réseaux améliore la vitesse de réponse en réduisant le nombre d'opérations de calcul nécessaires. Cela permet une exécution plus rapide des modèles, favorisant les applications en temps réel telles que la reconnaissance vocale, la détection d'objets, la conduite autonome. Notre objectif est d'obtenir une compression des modèles de qualité sans compromettre la précision des prédictions. Les modèles peuvent être extrêmement volumineux sur le disque dur, surtout si plusieurs modèles sont stockés. La compression permet aussi de réduire la taille des modèles stockés sur disque dur, ce qui économise de l'espace de stockage sur les serveurs, les appareils et les plateformes de déploiement. Lorsque les réseaux sont compressés, ils peuvent hériter de la résistance au bruit et aux perturbations. En réduisant le nombre de paramètres, la compression peut aider à éliminer le surapprentissage et à améliorer la capacité du modèle à généraliser à de nouvelles données. En outre, un avantage non négligeable de la compression est la réduction de la consommation énergétique. Cela a un impact positif sur l'empreinte carbone de l'infrastructure de l'intelligence artificielle, contribuant ainsi à un développement technologique durable. Ce projet s'exécutera sous la codirection du Pr Faiz Ben Amar (ISIR) et du Dr Nizar Ouarti (ISIR) et sous la supervision en entreprise par Dr Mouna Ben Mabrouk (Sogeti - Capgemini), le tout en collaboration avec Sorbonne Université.