X2
Couche 1 couche 2
couche3 couche 4 couche 5
Figure
III.2 : structure d'un FLP à deux entrées et une
sortie
Couche 1 : Couche d'entrée .
Couche 2 : Couche de fuzzification .
Couche 3 : Couche d'inférence :
généralement on utilises l'opérateur de conjonction MIN
ou bien le produit pour faciliter les calcules
.
Couche 4 : On appliques la disjonction
(MAX) .
Couche 5 : Couche de
défuzzification : la méthode la plus utilisée est
celle du centre de
gravité .
Remarque :
l'apprentissage s'effectue par la méthode de la
rétro - propagation [26] [27] .
Chapitre III : Réseaux neuraux flous
III.2.2.2: Approche fonctionnelle :
Cette approche représente le réseau RBF flou ,
la structure d'un réseau RBF flou pour un système à deux
entrées x1 , x2 et une sortie F est donnée par :
RBF
Fonction
gaussienne
W1 . F1
x1
RBF
Fonction
gaussienne
W2 . F2
?
n
n
F=?(Fi .wi) / ?wi
RBF W3 . F3
i=1 i=1
Fonction
gaussienne
W4 . F4
x2 RBF
Fonction
gaussienne
Figure III.3
: structure d'un RBF flou
La fonction d'activation de chaque neurone caché est
calculé par :
wi = fi (xi - ci 2 / äi2 ) i = 1
, 2 ,.., n . (
III . 5 )
i : Représente le nombre de RBF ou de règles
flous .
X : Le vecteur d'entré .
fi : Peut être un fonction gaussienne ou sigmoïde
.
Fi = ai . x + bi i = 1 , 2
,.., n .
( III . 6 )
Ai : Représente les vecteurs de paramètres
.
Bi : Sont des constante scalaires .
On remarque que dans l'expression (III.6) le RBF correspond
à un model de Takagi Sugeno d'ordre un [23] .
La méthode de fuzzification adaptée à cette
architecture est celle des moyennes pondérées , et la
procédure d'apprentissage utilisée peut être celle
utilisée dans un réseau RBF traditionnel [23]
[28-29] .
Un troisième type d'association correspond à
l'utilisation série ou parallèle du réseau de neurone avec
le système flou [22] .
Chapitre III : Réseaux neuraux flous
|