Les Applications Parallèles; Pour Architecture Parallèle À Mémoire Distribuée - Bull NovaScale Guide D'installation

Table des Matières

Publicité

Interdépendance entre les différentes librairies mathématiques standards
Les routines des composantes locales sont appelées par un seul processus avec
des arguments résidant en mémoire locale.
Les routines des composantes globales sont synchrones et parallèles. Elles sont
appelées avec des arguments qui sont des matrices ou des vecteurs distribués
sur l'ensemble des processus.
Libmkl :
Cette librairie optimisée par Intel pour ses processeurs possède les librairies suivantes:
blas, lapack et fft.
2.2.3
Les applications parallèles
Il existe 2 types d'architectures parallèles. La première, dite à mémoire
distribuée, considère que chaque processeur possède son propre espace de
mémoire vive non accessible par les autres processeurs. La deuxième dite à
mémoire partagée, permet aux processeurs d'accéder simultanément, et de
façon transparente, à un même espace de mémoire vive.
Pour architecture parallèle à mémoire distribuée
Pour ce type d'architecture, l'échange de messages est le concept clé.
L'échange de messages (ou message passing) repose sur une idée simple et
logique : un processus envoie un message à un ou plusieurs autres processus
qui doivent le recevoir.
Un message doit contenir les informations suivantes :
L'identificateur du processus émetteur
L'identificateur du processus récepteur
Le type de la donnée
Sa longueur
Les données
Un message doit être envoyé à une adresse bien déterminée et le processus
récepteur doit pouvoir classer et interpréter ce message. Ceci est géré par un
environnement tel que PVM ou MPI. Une application PVM ou MPI est un
ensemble de processus autonomes exécutant chacun leur propre code et
communiquant grâce à des fonctions de la bibliothèque fournie par chacun de
ces environnements.
2-6
Guide d'installation des logiciels HPC

Publicité

Table des Matières
loading

Table des Matières