III-4.3 Facteur d'inertie
Le facteur d'inertie w introduit par
SHI et EBERHART permet de
définir la capacité d'exploration de chaque
particule en vue d'améliorer la converge de la
méthode. Une grande valeur de w > 1 est synonyme
d'une grande amplitude de mouvement et donc, in fine,
d'exploration globale. A contrario, une faible valeur de w
< 1 est synonyme de faible amplitude de mouvement et donc,
d'exploration locale. Fixer ce facteur, revient donc à
trouver un compromis entre l'exploration locale et
l'exploration globale.
V ( t ) .V ( t - 1 ) .r ( P
= w + C - P t
( 1) ) .r ( P
- + C - P t
( 1) )
-
d k d 1 1 db d 2 2 dg d
w
Où : ( w -
max min )k
w w
= -
k max Kmax
w max = 0.9 Et w min = 0.4 .Donc La taille du facteur
d'inertie influence directement la taille de
l'hyper
espace exploré. De bons résultats ont
été trouvés pour une valeur décroissant
linéairement de 0:9 à 0:4 [31].
Pour accélère la convergence de la méthode
on peut introduire un autre facteur d'inertie s'appelle
Sigmoid qui décroît en fonction du
temps.
w k =
w max
- ( w - w ) max min
( ( 1 25 ) )
- -
k
1 exp
+
Où : K est numéro d'itération.
La figure suivante illustre la différence entre le facteur
d'inertie linaire et le facteur sigmoid par rapport a la convergence figure
III-11.
Figure III-11 : Influence
d'inertie linéairement et sigmoid
III-5. Algorithmes
Il existe différentes variantes de
l'algorithme selon la notion de voisinage que
l'on considère, les initialisations de
l'essaim, sa taille. L'organigramme suivant expose
l'algorithme d'essaim particule
quirésumés chacune des étapes.
Initiale de population
Evaluation
Calcul de la meilleur fitness de chaque particule
Calcul de la meilleur fitness de population
Début
Nouvelle Population
Terminer
Calcul de la vitesse Calcul de la position
Début
Résultat
Fin
Figure III-12 : Organigramme d'OEP
III-6 Avantages de L'OEP
L'optimisation par essaim de particules est
une méthode d'optimisation itérative
stochastique qui s'applique aussi bien aux problèmes
à variables continues qu'aux problèmes à
variables discrètes, contrairement à d'autres
méthodes d'optimisation. De plus, cette méthode
permet en général de converge rapidement vers une solution
approchée de bonne qualité.
C'est une méthode
d'optimisation très largement répandue dont le
fonctionnement est relativement simple et qui peut être
implémentée très facilement. La version adaptative
évite à l'utilisateur d'avoir
à fixer les paramètres de l'algorithme comme la
taille de l'essaim, les coefficients de confiance c1 et c2 ou
le nombre de particules informatrices. A l'initialisation de
l'algorithme, il est seulement nécessaire de
correctement décrire le problème à optimiser, les
contraintes du problème, la fonction coût que
l'on veut minimiser [30].
|