Optimisation de l'énergie réactive dans un réseau d'énergie électrique( Télécharger le fichier original )par Brahim GASBAOUI Université Bechar - Magister en électrotechnique 2008 |
Conclusion :L'importance de l'étude de la répartition des puissances dans un réseau est capitale pour l'obtention d'un état de réseaux à partir duquel nous avons appliqué le system de minimisation des pertes réelles. Parmi c'est méthode on choisit la méthode de Newton-Raphson qui est très robuste surtout pour les réseaux de grandes tailles elle converge rapidement au contraire de la méthode de Gauss Seidel qui très simple .Elle convient très bien avec les réseaux de petites tailles mais elle diverger pour les réseaux de grands tailles.la méthode F.D.L.F et une méthode convergente très rapide puisque les matrices utilisées par cette méthode sont constantes, tandis que pour la seconde, elles varient à chaque itération. Elle est utilisée dont les system de contrôle de la tension basée sur le calcul des sensibilités. Pour cela, on a choisi la méthode de Newton-Raphson pour la comparaison entre la méthode de Lagrange et l'algorithme génétique. Vu le calcul des matrices Jacobéennes pour chaque itération. chapitre 3 Optimisation des systeme électrique 1.9. INTRODUCTION Le problème d'optimisation dans les systèmes électriques de puissance, résulte à partir du moment où deux unités ou plus de production devaient alimenter plusieurs charges, obligeant l'opérateur à décider comment répartir la charge entre les différentes unités. Historiquement, les premières méthodes d'optimisation ont été réalisées par rapport au contrôle de la puissance active. Ce qui est connue, actuellement, sous la dénomination de la répartition économique classique, dont l'objectif principal est de déterminer la puissance active à générer par les différentes unités de production, en minimisant les coûts de génération. Mais, après il a été constaté que l'optimisation de la puissance active n'est pas suffisante. Une mauvaise gestion de la puissance réactive augmente les pertes d'où un accroissement des coûts de production. Il y a deux classes de technique d'optimisation. Dans la première, les conditions d'optimalité du premier- ordre qui sont dérivées du Lagrangien, sont simultanément résolues par la méthode Newton-Raphson. Des que les équations du réseau et les contraintes d'inégalités apparaissent explicitement dans le Lagrangien, des solutions fiables sont disponibles jusqu'à la convergence du processus itératif. Dans la vie, nous sommes fréquemment confrontés à des problèmes d'optimisation plus au moins complexes .Cela peut commencer au moment où l'on tente de ranger notre bureau, de placer nos mobiliers, de gérer notre espace dans la maison de minimiser nos trajet en voiture et aller jusque à un processus industrielle On définit alors une fonction objective (fonction des pertes réal ou de profit), que l'on cherche à optimiser par rapport à tous les paramètres concernés. En pratique l'objectif n'est pas d'obtenir un optimum absolu, mais seulement une bonne solution, et la garantie de l'inexistence d'une solution sensiblement meilleure .Pour atteindre cet objectif au bout d'un temps de calcul raisonnable, il est nécessaire d'avoir recoures à des méthodes appelées « heuristique » Ces dernières produisant des solutions proches de l'optimum et la plupart d'entre elles sont conçues pour un type de problème donné. D'autre au contraire, appelés « méta heuristique », sont capables de s'adapter aux différents types problèmes. L'objectif de l'optimisation est de déterminer une solution qui minimise (ou maximise) une fonction .appelée dans la littérature fonction objective ou fonction d'adaptation tout en vérifiant un certain nombre de contraintes. La méthode de programmation non linéaire a été la première méthode à connaître un essor remarquable, attirent ainsi l'attention des chercheurs et des ingénieurs ; les solutions qu`elles Offrent couvrent un large champ d'application. Dans les années quatre vingt .Le développements rapide de l'outil informatique a permis d'élaborer d'autres méthodes : Des méthodes de programme successives. Des méthodes de lagrangienne augmenté. Des méthodes de programmation quadratique mentionnent les méthodes de Newton et Quasi -Newton. Les spécialistes de l'optimisation combinatoire ont ensuite orienté leur recherche vers le développement des méthodes stochastique tel que : le recuit simule, la rechercher tabou et 3.1.1. Les algorithmes évolutionnistes. Depuis quelques années, un nombre croissant de méthode d'optimisation de la littérature proposent de faire hybrider les méthodes heuristiques entre elles .Actuellement, l'hybridation s'effectue aussi entre méthode heuristique et méthode analytiques. Cette approche hybride permet d'obtenir des méthodes d'optimisation efficaces sur des problèmes de plus difficiles .d'allier leurs atouts, dans le but d'améliorer les différentes méthodes les performances globale obtenues par chacune d'elles, Actuellement, poussées par les performances générales de tels algorithmes, un nombre croissant d'étude proposent ce type d'approche. 1.10. FORMULATION D'UN PROBLEME D'OPTIMISATION : Un problème d'optimisation (P) de type « minimisation » et de dimension n peut être Formulé de façon générale comme suite : Où : Est un vecteur à n composante représentant les variables objets du problème. Est un espace des paramètres (ou espace de recherche). Critère à minimiser. Les contraintes d'inégalité. Les contraintes d'égalité. Un point de l'espace est un minimum local si tel que : Où : désigne la distance entre le point . La figure 7 présente, à titre d'exemple, une distribution possible des optimums d'une fonction objectif unidimensionnelle et multimodale. Point D'inflexion Figure 7 : Point singuliers d'une fonction unidimensionnelle et multimodale Méthodes d'optimisation : Pour la résolution des problèmes d'optimisation, de nombreuse méthode de recherche ont été Développées la littérature technique permet d'identifier trois type de méthodes Les méthodes analytiques. Les méthodes énumératives. Les méthodes heuristiques. Figure 8: Principales méthode d'optimisation 1.11. METHODE ANALYTIQUE Ces méthodes sont basées sur l'existante de dérivées, donc sur l'existence d'équation ou de système d'équation, linéaire ou non linéaire .Le point principal générale consister à recherche d'un extremum hypothétique en déterminant les points de pente nulle dans toutes les direction dépendent du gradient de la fonction objective .On trouve essentiellement deux type de méthode :les méthodes directe et les méthodes indirectes. Les méthodes indirect cherchant des optima locaux en résolvant l'ensemble d'équation généralement no linéaire, résultant de l'annulation du gradient de la fonction objectif. Les méthodes directes évaluent en gradient en certaine points de l'espace de recherche et se déplacent dans une direction liée à la valeur locale de gradient. Ces les notions de descente de gradient dans la dilection de la plus forte pente. Bien que ces deux méthodes aient été développe, amélioration et étudier sous toutes les formes, elles présentant des inconvénients .Elles s'appliquaient localement, les extremums .Qu'elles atteignent sont optimaux au voisinage du point de départ et l'existence de dérivées n'est pas systématique. Ces méthodes sont donc difficilement applicable telles quelles pour l'optimisation d'une fonction multimodale exemple (Fig.7) comportant plusieurs optima locaux. Parmi les méthodes analytiques on peut citer : 3.1.2. Méthode du gradientCette méthode fait partie d'une grande classe de méthode numérique appelées méthode de descente .Le principe de base de ces méthode repose sur les démarches suivantes :On part d'un point initial arbitraire et on calcul le gradient en , comme Indique la direction de plus grande augmentation de f, on se déplace d'une quantité Dans la direction opposé au gardien, et on définie le point : La procédure est répéter et engendrer le point suivant la relation :
Cette méthode a pour avantage d'être très facile à mettre en ouvre, mais malheureusement, les conditions de convergence sont assez lourdes. |
|