III.3.8.2. Réseau multicouche en phase
d'association
Les connexions entre les neurones qui composent le
réseau décrivent la topologie du modèle. Un réseau
de neurones (RN) est un système informatique, constitué de
plusieurs unités (neurones) organisées sous forme de niveaux
différents appelés couches du réseau. Les neurones
appartenant à la même couche possèdent les mêmes
caractéristiques et utilisent le même type de fonction
d'activation. Entre deux couches voisines les connexions se font par
l'intermédiaire de poids qui jouent le rôle des synapses.
L'information est portée par la valeur de ses poids,
tandis que la structure du réseau de neurones ne sert qu'à
traiter l'information et l'acheminer vers la sortie. La structure ou la
topologie d'un réseau de neurones est la manière dont les
neurones sont connectés. Les structures résultantes peuvent
être très variées mais elles sont souvent réparties
en deux grandes familles à savoir : les réseaux de neurones non
bouclés et les réseaux de neurones bouclés.
Un réseau de neurone est non bouclé lorsque sont
graphe d'interconnexion ne contient pas des circuits tandis qu'un réseau
de neurone est bouclé lorsque sont graphe d'interconnexion contient des
circuits.
III.3.8.3. Réseaux non bouclés
Dans ce type de structure dite feedforward, la propagation de
l'information se fait uniquement de l'entrée vers la sortie. Les
neurones de la même couche peuvent se connecter uniquement avec les
neurones de la couche suivante. L'architecture la plus utilisée est le
Perceptron multicouches. Les neurones composant ce réseau s'organisent
en N couches successives (N°=3). Dans la figure ci-dessous, nous
présentons un perceptron à trois couches. Les neurones de la
première couche, nommée couche d'entrée, voient leur
activation forcée à la valeur d'entrée. La dernière
couche est appelée couche de sortie.
Elle regroupe les neurones dont les fonctions d'activation
sont généralement de type linéaire. Les couches
intermédiaires sont appelées couches cachées. Elles
constituent le coeur du réseau. Les fonctions d'activation
utilisées sont de type sigmoïde.
Les réseaux de neurones disposés suivant cette
architecture sont aussi appelés "perceptrons multicouche" (ou MLP pour
Multi-Layer Perceptrons). Où la fonction d'activation des neurones peut
s'écrire les équations ci - dessus sous forme matricielle comme
suit :
Le perceptron multicouche présente une alternative
prometteuse pour la modélisation des systèmes complexes. Avec une
seule couche cachée, il constitue une approximation universelle.
Les études menées dans (Hornik et al., 1989 ;
Cybenko, 1989) montrent qu'il peut être entrainé de manière
à approximer n'importe quelle fonction sous réserve de mettre
suffisamment de neurones dans la couche cachée et d'utiliser des
sigmoïdes comme fonctions d'activation.
|