Thèse soutenue

FR  |  
EN
Accès à la thèse
Auteur / Autrice : Hélène Paugam-Moisy
Direction : Michel Cosnard
Type : Thèse de doctorat
Discipline(s) : Sciences. Informatique. Sciences cognitives
Date : Soutenance en 1992
Etablissement(s) : Lyon 1
Partenaire(s) de recherche : autre partenaire : École normale supérieure (Lyon ; 1987-2009)

Résumé

FR

Nos travaux se rapportent a deux themes en plein essor: les reseaux de neurones artificiels, et les ordinateurs massivement paralleles. Le fil conducteur est l'optimisation des modeles connexionnistes, et plus specialement des reseaux multicouches. Apres avoir etudie les modeles classiques et leurs implantations, nous cherchons, dans un cadre theorique, a optimiser l'architecture des perceptrons multicouches. Nous analysons leur puissance de realisation, en termes de nombre de couches et de cellules cachees, et nous cherchons a construire des reseaux minimaux. Plus concretement, nous construisons ensuite un outil de recherche automatique de bons parametres, pour une application donnee. Son principe est fonde sur l'observation de reseaux qui apprennent en parallele. Cet outil est implante sur un multiprocesseur mimd et permet de dresser des cartes de performances, ainsi que de selectionner des reseaux optimaux. Plusieurs experiences ont ete menees, sur des applications industrielles. L'acceleration de l'apprentissage et de la reconnaissance est un autre moyen d'optimiser les reseaux neuronaux. Nous avons implante et modelise des parallelisations de ces deux phases. L'impact de la parallelisation sur l'algorithme de retro-propagation est mis en valeur. Des lois experimentales sont etablies pour l'algorithme du gradient par blocs