Auteur / Autrice : | David Acuna Elizondo |
Direction : | Jerzy Korczak |
Type : | Thèse de doctorat |
Discipline(s) : | Sciences appliquées |
Date : | Soutenance en 1997 |
Etablissement(s) : | Université Louis Pasteur (Strasbourg) (1971-2008) |
Résumé
Les strategies de reduction de la topologie des reseaux de neurones peuvent potentiellement offrir des avantages en termes de temps d'apprentissage, d'utilisation, de capacite de generalisation, de reduction des besoins materiels, ou comme etant plus proches du modele biologique. Apres avoir presente un etat de l'art des differentes methodes existantes pour developper des reseaux des neurones partiellement connectes, nous proposons quelques nouvelles methodes pour reduir le nombre de neurones intermediaires dans une topologie de reseaux neuronal. Ces methodes sont basees sur la notion de connexions d'ordre superieur. Un nouvel algorithme pour tester la separabilite lineaire et, d'autre part, une borne superieure de convergence pour l'algorithme d'apprentissage du perceptron sont donnes. Nous presentons une generalisation du reseau neuronal du perceptron, que nous nommons perceptron deterministe recursif (rdp) qui permet dans tous les cas de separer deux classes, de facon deterministe (meme si les deux classes ne sont pas directement lineairement separables). Cette generalisation est basee sur l'augmentation de la dimension du vecteur d'entree, laquelle produit plus de degres de liberte. Nous proposons une nouvelle notion de separabilite lineaire pour m classes et montrons comment generaliser le rdp a m classes en utilisant cette nouvelle notion