CHAPITRE 2. FONDEMENTS THÉORIQUES
avec des écritures et des fontes différentes. A
la fin de l'apprentissage, le RN obtient une capacité de
généralisation à partir de ces exemples. Il n'est pas
nécessaire de lui fournir une description analytique et discursive de la
forme et de la topologie des chiffres et des lettres [Dre04]. HAYKIN [Hay94]
définit le réseau de neurones comme étant un processus
distribué de manière massivement parallèle, qui a une
capacité naturelle de mémoriser des connaissances de façon
expérimentale et de les rendre disponibles pour utilisation. Les RNs
ressemblent au cerveau humain en deux points :
1. La connaissance est acquise à travers d'un processus
d'apprentissage;
2. Les poids des connections entre les neurones sont
utilisés pour mémoriser les connaissances.
De tous les RNs qui réalisent un apprentissage
supervisé des connaissances, le PMC 2 est le
plus connu et le plus populaire. Depuis plusieurs années, il est
utilisé dans divers domaines tels que la reconnaissance de
l'écriture, l'authentification de signatures, la segmentation de
documents, la localisation de cibles dans des images, etc. Nous verrons dans
les sections qui suivent que le PMC peut être un outil très utile
pour résoudre divers types de problèmes, à condition
d'être conscient de ses limites.
2.1.1 Le perceptron simple
L'origine du RN remonte à la fin des années 1950
lorsque ROSENBLATT [Héb99] propose un premier modèle de RN. Ce
modèle ne comporte qu'un seul neurone. C'est le perceptron simple. La
structure d'un perceptron simple est illustrée dans la figure-2.1 :
2. Perceptron Multicouches
22
|