Thèse soutenue

Modèles quantitatifs de machines parallèles : les réseaux d'interconnexion
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Cécile Tron
Direction : Brigitte Plateau
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance en 1994
Etablissement(s) : Grenoble INPG

Résumé

FR

Cette thèse s'inscrit dans le cadre de la conception et de la réalisation de l'environnement alpes (algorithmes parallèles et évaluation de systèmes), dédié à l'évaluation des performances des systèmes parallèles. Son objectif est de permettre d'évaluer différents programmes, différentes machines et différentes stratégies d'implémentation (placement, répartition dynamique) avec le même outil, en émulant le comportement de l'ensemble sur la même machine, appelée machine cible. Pour cela notre approche se fonde sur deux modèles: le modèle de programmes et le modèle de machines. Le travail présente porte essentiellement sur le modèle de machine. Ce modèle comprend des paramètres quantitatifs représentant la vitesse des composants (processeurs, réseau) dans le cas d'une exécution réelle. Nous avons débuté par l'étude des communications et cette thèse propose une méthodologie, basée sur un jeu d'essais, pour évaluer les performances des communications point-à-point sous des contraintes de charge. Cette méthodologie a été appliquée au meganode de Telmat et a la paragon d'intel. Nous proposons un modèle des durées de communication en fonction de la charge du réseau pour chacune de ces deux machines. Nous présentons ensuite le projet alpes dans ses grandes lignes et nous décrivons le modèle de machines que nous avons défini pour cet environnement. Nous explicitons les modifications que l'on peut apporter au programme synthétique pour qu'il émule une machine ayant des paramètres différents de ceux de la machine cible. Enfin la dernière partie de cette thèse étudie les performances de diverses stratégies de placement, et analyse si l'utilisation d'estimations précises des coûts de communication améliore la qualité des placements