II- 6. 1. 2 La méthode de Newton :
La méthode de Newton est une méthode très
puissante à cause de sa convergence rapide au voisinage de la solution.
Cette propriété est spécialement utile pour les
applications dans les systèmes électriques. En effet, une
estimation initiale proche de la solution est facile à obtenir.
Les niveaux de tensions peuvent êtres prises au
voisinage des tensions nominales, les puissances généré
estimées à partir des données historiques et les valeurs
des prises de charges des transformateurs proches de 1.0 p.u.
- Développement du Lagrangien, du Gradient et
du Hessien :
La solution du problème de l'optimisation
par la méthode de Newton, nécessite
l'utilisation des théorèmes de Lagrange et de
Kuhn Tucker. Le lagrangien est formulé comme suit :
L z = f x +
( ) ( ) ( ) ( )
' g x + ' h x (II-19)
Avec : [ ]t
z = x , ,
X et jt sont respectivement
les multiplicateurs de Lagrange et de Kuhn Tucker et h(x) inclut seulement les
contraintes ( jti ? 0 et hi(x)=0 ).Le
Gradient et le Hessien, du Lagrangien ( ?L et ? ) peuvent êtres
définit comme suit
2 L
( ) ( )
? ? L z ?
? =
z ?? ??
? zi
|
(II-20)
|
?
? ?
i j
x
2
L ( )
Z
i j
? ?
i j
x
? 2 ( ) ( ) ( )
2 2
L Z ? L Z ? L Z
? ?
x x ? ?
x ? ?
x
i j i j
? 2 L Z
( ) 0 0
? ? ? ?
? ? ??
( ) ( )
? ? 2 L z ? 2 L z = ?
? ? ? ?
z z
i j
= =
H ?
? ?
?? ?
?
?
?
?
0 0 ? (II-21)
? ?
?? ?
Le Gradient est un vecteur constitué des
premières dérivées partielles du Lagrangien. Et Le Hessien
est une matrice carrée constituée des dérivées
partielles secondes du Lagrangien. Le théorème de Kuhn Tucker
donne les conditions nécessaires de la solution optimale z*
[02].
- Algorithme :
L'organigramme suivant illustre la structure de
l'algorithme newton. Nous détaillerons les diverses
phases qui le constituent et présenterons tout les étapes.
Début
Lecture de donnée et estimation initiale
Mettre le nombre d'itération T=0
Calculer le Gradient et le Hessien du Lagrangien.
T=T+1
Résoudre l'équation :
[ H ].ÄZ = ?L( Z)
ÄZ
Mettre à jour la solution:
Z nouveau = Z ancien -
Non
Si ÄZ =
Oui
Fin
Figure II-7 : Organigramme
simplifié de l'algorithme de Newton
II- 6. 2 Les méthodes métaheuristiques
(globale) :
II- 6. 2. 1 Mante Carlo :
C'est la plus simple des méthodes
stochastiques. Elle consiste à tirer une solution au hasard à
chaque itération. La fonction objective est évaluée en ce
point. Si elle meilleure que l'optimum courant, cette valeur
est enregistrée, ainsi que la solution correspondante et le processus
continue jusqu'à ce que les condition d'arrêt
soient vérifiées. Il s'agit donc
d'un processus d'exploration.
- Algorithme :
Début
Créé des solutions initiales
Evalue les solutions
Registrée la meilleur solution
Non Oui
Fin
Arrêt
Figure II-8 : Organigramme de la
méthode Monte Carlo
Les méthodes Monte Carlo peuvent être
utilisées, en première approche, pour avoir des renseignements
utiles sur la forme de la fonction. Elle permet par exemple de choisir de
façon plus appropriée le point de départ
d'un algorithme de recherche locale. Toutefois, cette
association ne garantit pas la localisation de l'optimum
global [15].
|