II.6.1 Parallélisme :
Le caractère distribué et parallèle et
simultané du traitement par le réseaux , offre des avantages de
robustesse par rapport à des données incertaines
incomplètes, contradictoires, et même par rapport à des
défectuosités locales du réseaux .
II.6.2 La généralisation :
L'intérêt des réseaux de neuronaus
réside précisément dans leur capacité à la
généralisation , c'est-à-dire leur aptitude à bien
se comporter sur des vecteurs qu'ils n'ont pas appris .
La capacité de généralisation d'un
réseaux de neurones est son aptitude de donner une
réponse satisfaisante à une entrée qui ne fait pas partie
des exemples à partir des quels il a appris.
II.6.3 Capacité d'adaptation :
C'est la capacité d'apprentissage de plus elle se
manifeste dans certains réseaux par leur capacité d'auto -
organisation qui assure leur stabilité.
II.6.4 La résistance aux pannes :
Les données bruitées ou les pannes locales dans un
certain nombre des éléments du réseaux de neurones
n'affectent pas ses fonctionnalités .
Cette propriété résulte essentiellement du
fonctionnement collectif simultané des neurones qui le composent.
II.6.5 L'Apprentissage :
En effet , dans les années 60 , on ne
savait pas réaliser correctement un apprentissage sur un réseau
à rebouclages ou sur un réseau à plusieurs couches .
Cela mit en sommeil les recherches sur les réseaux
neuronaux pendent plusieurs années .
Ce n'est qu'au début des années 80
que de nouveaux travaux ont conduit à des méthodes
d'apprentissages autorisant l'utilisation de réseaux neuronaux complexes
.
Chapitre 11 : Les réseaux de
neurones
Comme l'information que peut acquérir un réseau de
neurones est représentée dans les poids
des connexions entre les neurones, l'apprentissage consiste donc
à ajusté ces poids de telle
manière que le réseau présente certains
comportement désirées .[38]
L'apprentissage dans un réseau neuronal est donc tout
à fait différent de l'apprentissage dans un système
à base de règles ou il signifie dans ce cas
« engranger de nouvelles règles
»
Dans une base de données .
Dans un réseau de neurones , au contraire apprendre
signifie modifié les paramètres physiques internes du
systèmes (les poids) .
? L'apprentissage comprend quatre étapes de
calcules :
a- Initialisait les poids synaptiques du
réseau ( pratiquement leurs valeurs sont aléatoires et
très petites ) .
b- présentation de
l'ensemble de données d'entrées .
c- calcul de l'erreur .
d- calcul du vecteur d'ajustement
.
Les étapes b . c . d sont
répétées jusqu'à la fin de la procédure
d'apprentissage
( satisfaction du critère
d'arrêt ) .
Une fois l'entraînement est terminé , le
réseau devient opérationnel .
En général , on peut distinguer trois types
d'apprentissage .
II.6.5.1 Apprentissage non
supervisé :
Dans ce mode d'apprentissage , les poids synaptiques sont
modifiés en fonction d'un critère [31] .
L'apprentissage non supervisé consiste a découper
l'ensemble des vecteurs d'entrées en classes d'équivalences ,
sans qu'il soit nécessaire de donner au réseau neuronal les noms
des classes pour chaque exemple .
|