II.5.Structure à perceptron multicouche(PMC)
Les perceptrons sont les réseaux de neurones
artificiels les plus courants, ils correspondent de trois couches, la
première correspond a la couche d'entrée, la deuxième est
nommée couche cachée et la dernière est la couche de
sortie. La première couche est constituée
neurones formels ,les neurones d'une couche à une autre
sont relies par les poids synaptiques .Chaque neurone formel constitue une
cellule effectuant une somme pondérée des entrées Xij du
neurone (j) par les poids synaptiques Wij correspondant a ces
entrées .Sa sortie est ensuite obtenue par l'intermédiaire de la
fonction fj dite fonction d'activation .Cette fonction est en
générale croissante ,monotone et bornée ,les plus
utilisées sont les fonction signes de saturations ainsi que les fonction
sigmoïde ,nous avons ajoute des termes d'entrées X0ij correspondant
au biais .Il n'existe pas de regèle pour fixer l'architecture du
réseaux ,les neurones des couches d'entrée et de sortie sont lies
respectivement au nombre d'entrées et de sorties .Ainsi il a
été prouver récemment que les réseaux a une seule
couche cachée constitue un outil d'approximation .Pour notre cas
,l'information se propage de la couche d'entrée vers la couche de sortie
,qui fourni une réponse réelle (Y^ ) correspondant
à la sortie désirée Y) .En résume pour enseigner
une tache a ce réseau (adaptation des poids ) nous devons lui
présente
un couple d'exemple(entrées /sorties)
ou(Ucom,Y).l'apprentissage des poids se fait par retro ~ propagation de
l'erreur( å) entre la grandeur de sortie du réseau (Y^ )et la
grandeur désirée (Y) (critère de
minimisation).l'algorithme permettant un telle apprentissage est dit «
algorithme de retro-propagation »de Windrow --Hoff il est
base sur la méthode du gradient toutes ces méthodes consistent a
réduire une fonction se rapportant a l'erreur quadratique moyenne.
Cet
algorithme d'apprentissage permet de déterminer les
variations des poids synaptiques ?W1(k) et les biais
?b1(k) .il peut etre exprime par les relations suivantes [14] :
??????,?? ??) = ?? ???? ??) ??????
???????(??) ????? ??~ (???? ??~)? (II-5)
??????,?? ??) = ?????? ??) ??????
???????(??) ????? ??~ (II-6)
Xi(n) : représente le vecteur d'entrée du neurone
(i) de la couche m ; l'équation de mise à jour de ces poids
synaptiques et biais s'effectue sur la base relation suivante :
q ????,???? ?? + ??) = ????,???? ??) + ?????,????(??)
(II-7)
?????? ?? + ??) = ?????? ??) + ? ?????? (??)
(II-8)
Le calcul des grandeurs d'activation des unités
d'entrées s'exprime symboliquement par :
??
???????? ?? ??~ = ????,??
?? ??~??????,??
?? ??~ + ???? ??(??) (II-9)
??=??
11 ??) = ?? ??[?????????? ??)] (II-10) II.5. 1.Mise en
oeuvre des réseaux PMCs :
On considère un réseau comportant une couche
d'entrée à n neurones, une couche de sortie à
m neurones et il comporte une à plusieurs couches
cachées.
Supposons qu'on dispose d'un, ensemble d'apprentissage
composé de k paires de vecteurs :
N ous allons suivre une démarche reprise par
Wierenga et Kluytmans (1994) qui est composée de quatre
étapes principales [11] :
> Etape 1 : fixer le nombre de couches cachées.
> Etape 2 : déterminer le nombre de neurones par
couches cachées.
> Etape 3 : choisir la fonction d'activation.
> Etape 4 : choisir l'apprentissage.
|