CHAPITRE 2. FONDEMENTS THÉORIQUES
FIGURE 2.1 - Modèle d'un réseau
de neurone de type perceptron simple
L'action d'un neurone de type perceptron simple est
d'intégrer toute l'information conte-
nue dans un vecteur d'entrée x =
[x1, x2, , xn]T ?
IRn afin de produire une valeur de sortie y. La fonction
de transfert entre les entrées d'un neurone et sa sortie tient compte du
fait que des connexions plus ou moins excitatrices relient le neurone à
chacune des variables d'entrée x ,i = 1,
2, ...n.
Le comportement d'une connexion est déterminé
par son poids w , i = 1, 2, ..., n. Un coefficient
synaptique w élevé tente d'activer le neurone pour
l'entrée x , tandis qu'à l'inverse, un coefficient
synaptique faible cherche à l'inhiber. Le neurone détermine son
niveau d'activation total en réalisant une somme pondérée
des entrées et des coefficients synaptiques. Lorsque son niveau
d'activation est supérieur ou égal à son seuil
d'activation le perceptron s'active et produit une sortie positive (y
= 1). Dans le cas contraire, il s'inhibe et produit une sortie
négative (y = -1). Mentionnons que couramment le seuil
d'activation est appelé le biais du neurone. Nous pouvons écrire
que le perceptron simple cherche à réaliser une transformation
? : IRn[-1; +1] telle que :
(?x ? IRn) ? y =
?( Xn x w - è ) ? [-1,1]
(2.1)
=1
Ou ?()est la fonction du seuil :
?
?
?
|
+1sií = 0 -1siv < 0
|
Selon l'équation (2.2), le comportement du perceptron
simple est entièrement commandé par l'équation de
l'hyperplan :
Xn x w - è = 0 (2.2)
=1
23
CHAPITRE 2. FONDEMENTS THÉORIQUES
Cet hyperplan permet de tracer une frontière de
décision séparant l'espace d'entrée en deux sous-espaces.
Le perceptron simple peut discriminer des données appartenant à
deux classes distinctes se situant de part et d'autre de cette
frontière. Un hyperplan ne peut pas avoir une forme concave ou convexe.
Les deux classes doivent être linéairement séparables pour
pouvoir être distinguées par un perceptron simple. L'objectif
visé par l'apprentissage supervise d'un perceptron simple consiste donc
à déterminer l'équation de l'hyperplan qui permet de
séparer correctement des données appartenant à l'une ou
l'autre des deux classes. Les perceptrons simples présentent des
limites. Un seul perceptron ne peut pas séparer des données
appartenant à plus de deux classes et même des données qui
ne sont pas linéairement séparables (figure-2.2).
FIGURE 2.2 - Deux situations pour lesquelles un perceptron
simple ne peut pas discriminer les classes [Héb99]
Il est donc nécessaire d'améliorer ce
réseau afin d'obtenir des frontières de décision mieux
adaptées à la complexité d'un problème posé.
Nous décrivons, dans la prochaine section, l'extension naturelle du
perceptron simple qui donnera solution à ces problèmes.
2.1.2 Architecture d'un perceptron multicouche
Tel qu'il est présenté dans la figure-2.3, un
PMC est composé d'une certaine couche de neurones de type perceptron. A
travers ces couches, l'information se propage des entrées vers les
sorties. Toutes les couches de neurones qui se trouvent avant la couche de
sortie sont appelées les couches cachées du réseau. Le PMC
est un réseau complètement connecté. La sortie d'un
neurone d'une couche cachée devient une entrée pour tous les
neurones situés sur la couche suivante et ainsi de suite jusqu'à
la couche de sortie. La propagation d'un vecteur
24
|