CHAPITRE III. ALGORITHMES EVOLUTIONNAIRES
PARALLÈLES
Figure III.1 - Architectures
Parallèles.
III.1 Les architectures parallèles selon
Flynn
Les ordinateurs parallèles sont des machines qui
comportent une architecture parallèle, constituée de plusieurs
processeurs identiques ou non (hétérogènes), qui
coopèrent et concourent à la résolution d'un même
problème informatique.
La performance d'une architecture parallèle est
reflétée par les performances de ses ressources et de
l'intelligence de leur installation. Selon Les modèles standards de
Flynn, une classification classique est basée sur la
notion de flot de contrôles et de flot de données, ainsi distingue
quatre types d'architecture(voire figure III.1) :
- SISD. Une machine SISD est une machine
séquentielle de Von Neuman, dont une seule instruction est
exécutée sur une seule donnée à un instant
donné.
- SIMD. Une machine SIMD est une machine qui
traite plusieurs données en même temps par une seule instruction,
l'exécution parallèle de la même instruction se fait en
même temps sur des processeurs différents (parallélisme de
données synchrone), l'architecture SIMD est utilisé dans les gros
ordinateurs vectoriels.
- MISD. Une machine MISD peut exécuter
plusieurs instructions en même temps sur la même donnée.
- MIMD. Dans une machine MIMD, chaque
processeur peut exécuter un programme différent sur des
données différentes. Dans cette architecture, il existe plusieurs
façons de couplages de mémoire, si la mémoire est
partagée entre la totalité des processeurs qui possédant
chacun sa propre horloge, ces derniers doivent lire et écrire des mots
sur la même mémoire. En effet, La notion de cache ajoute une
très grande difficulté à la gestion de la
cohérence. Car à tout instant, les données doivent rester
cohérentes pour toutes les caches. D'autre terme, il faut
implémenter des mécanismes matériels ou logiciels
permettant d'assurer une telle cohérence (les verrous, les
sémaphores, les
29
|