CHAPITRE II. METHODES D'OPTIMISATION
Algorithm : GA|PM
1 : initialise P0 et placer le paramètre de
diversité L
2 : repeat
3 : select : p1 and p2 from P
4 : crossover: c1,c2 +- p1 ®
p2
5 : local search on c1 and c2
6 : for chaque enfant c do
7 : while dpT ~ L do mutate c
8 : if c satisfie des conditions d'addition then
9 : enlever la solution : P +- P \ b
10 : ajouter la solution : P +- P + c
11 : end if
12 : end for
13 : mise à jour du paramètre de
diversité L
14 : until (critère d'arrêter)
II.5.7 Discussion
Avec l'apparition des MOEAs au début des années
2000, plusieurs travaux dans la littérature se sont
intéressés à la comparaison empirique des MOEAs sur des
benchmarks de fonctions analytiques (Zitzler 2000 et Tan 2002).
Cependant, ces comparaisons concernent seulement quelques algorithmes de
l'état de l'art, et ne comparent pas tous les principaux algorithmes
à la fois. Dans sa thèse [19] M.Yakoubi a présenté
quelques règles de comparaison, puis il a effectué une
comparaison entre les algorithmes de deuxième génération,
et il a dit : « Le choix de la méthode d'optimisation doit se faire
dans l'optique de réduire considérablement le coût global
de l'optimisation. Cependant après comparaison des différents
MOEAs de l'état de l'art, nous constatons qu'aucun de ces algorithmes ne
permet de réaliser ce gain en termes de rapidité de convergence
vers le front de Pareto ».
|