IV.4 Structure du réseau
contrôleur :
La structure du réseau neuraux flous adaptée
à cette forme de règle est celle de Hamaifar [89] il s'agit du
contrôleur de type 333 .
N
ì11
x1 ì12
Z
ì13
P
Y
N
couche de defuzzification
ì21
Z
x2 ì22
couche d'entrée
ì23
P
couche de fuzzification
couche d'inférence
Figure
IV.2 : Structure du réseau contrôleur
Chapitre IV : Méthodologie de conception et
application
La figure précédente présente un
contrôleur neuraux - flou à deux entrées x1, x2 , chaque
entrées à trois sous ensembles flous ( négative ,
zéro , positive ) , ce qui forme 09 règles .
Dans notre cas , la sortie dépend des entrées ,
donc il faut avoir une relation entre la sortie et l'entrée , donc le
raisonnement approximatif de Surgeon ne doit pas être d'ordre zéro
.
Cette structure est composé comme suit :
1- couche d'entrée :
Cette couche réalise le transfert direct des signaux
d'entrées .
2- Couche de fuzzification :
Dans cette couche on calcule le degré d'appartenance
de chaque entrée .
Exemple :
N
0
ìx
Z
0.6
N Z P
0.8
x
0.6
0.8
P
x
Mais dans notre cas la fonction d'activation associée
à chaque neurone n'est pas triangulaire car il n'existe pas de fonction
d'activation triangulaire , donc , on utilises la fonction d'activation
gaussienne car elle est la plus proche à la fonction triangulaire ou
trapézoïdal .
La sortie de chaque neurone est :
( x i - c / ä )
2
Si = e
Où : (xi) est l'entrée du neurone , (c) est le
centre de la fonction gaussienne et (ä) sont écart type .
Les poids entre la couche d'entrée et celle de
fuzzification représentent les écart types associés
à chaque variable linguistique .
3- Couche d'inférence ou de base de
règle :
Chaque neurone calcule le degré d'activation de chaque
règle utilisant l'opérateur de conjonction
MIN .
La sortie d'un neurone est :
Si = MIN (
ìi(x1) . ìi(x2) ) .
Les poids entre la couche d'inférence et celle de
fuzzification sont fixées à 1 .
Chapitre IV : Méthodologie de conception
et application
4- Couche de defuzzification :
Cette couche calcule la sortie numérique
(y) par la méthode des moyennes pondérées
comme nous l'avons cité précédemment .
Les poids entre cette couche et celle de base de règle
représentent les conséquences des règles qui sont les
centres des repartions flous de sortie de chaque règle .
Note :
En ce qui concerne les coefficients de Takagi Sugeno nous avons
trouvé l'idée suivante :
A partir du tableau des règles ;
Si la force suit l'angle , alors (a1) reçoit une valeur
numérique proche de (1) et (a2) reçoit
une valeur numérique proche de (0) .
Si la force suit la vitesse angulaire , alors (a2) reçoit
une valeur numérique proche de (1 )et (a1) reçoit une valeur
numérique proche de (0) .
Si la force suit la vitesse angulaire et l'angle ensemble , alors
(a1) et (a2) reçoivent des valeurs numérique proche de (1)
.
Très important :
Nous tenons à préciser un point de vocabulaire , un
algorithme de descente de gradient ne peut pas être
considéré comme un algorithme d'apprentissage comme on l'entend
très souvent dire , mais en effet rien ne permet de démontrer
qu'en réalisant la descente de gradient le réseau neuronal
« apprend » à ce comporter correctement .
La descente de gradient comme nous l'avons proposé ne
permet pas en pratique d'obtenir de bons résultats , en effet le
problème de cet algorithme de descente est qu'il s'arrête dans le
premier minimum local rencontré .
Remarque :
Le terme de connexion doit être pris dans un sens
métaphorique , dans la très grande majorité
Des applications les opérations effectuer par un
réseau de neurones sont programmé
« n'importe quel langage de programmation convient
» .
Le réseau de neurones n'est donc pas en
général un objet physique tel qu'un circuit électronique ,
et les « connexions » n'ont pas de réalité
matérielle .
|