WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Administration d'un big data sous mongodb et extraction de connaissance par réseau de neurones.


par Destin CUBAKA BENI
Université Pédagogique Nationale (UPN) - Licence 2019
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

III.3.8.2. Réseau multicouche en phase d'association

Les connexions entre les neurones qui composent le réseau décrivent la topologie du modèle. Un réseau de neurones (RN) est un système informatique, constitué de plusieurs unités (neurones) organisées sous forme de niveaux différents appelés couches du réseau. Les neurones appartenant à la même couche possèdent les mêmes caractéristiques et utilisent le même type de fonction d'activation. Entre deux couches voisines les connexions se font par l'intermédiaire de poids qui jouent le rôle des synapses.

L'information est portée par la valeur de ses poids, tandis que la structure du réseau de neurones ne sert qu'à traiter l'information et l'acheminer vers la sortie. La structure ou la topologie d'un réseau de neurones est la manière dont les neurones sont connectés. Les structures résultantes peuvent être très variées mais elles sont souvent réparties en deux grandes familles à savoir : les réseaux de neurones non bouclés et les réseaux de neurones bouclés.

Un réseau de neurone est non bouclé lorsque sont graphe d'interconnexion ne contient pas des circuits tandis qu'un réseau de neurone est bouclé lorsque sont graphe d'interconnexion contient des circuits.

III.3.8.3. Réseaux non bouclés

Dans ce type de structure dite feedforward, la propagation de l'information se fait uniquement de l'entrée vers la sortie. Les neurones de la même couche peuvent se connecter uniquement avec les neurones de la couche suivante. L'architecture la plus utilisée est le Perceptron multicouches. Les neurones composant ce réseau s'organisent en N couches successives (N°=3). Dans la figure ci-dessous, nous présentons un perceptron à trois couches. Les neurones de la première couche, nommée couche d'entrée, voient leur activation forcée à la valeur d'entrée. La dernière couche est appelée couche de sortie.

Elle regroupe les neurones dont les fonctions d'activation sont généralement de type linéaire. Les couches intermédiaires sont appelées couches cachées. Elles constituent le coeur du réseau. Les fonctions d'activation utilisées sont de type sigmoïde.

Les réseaux de neurones disposés suivant cette architecture sont aussi appelés "perceptrons multicouche" (ou MLP pour Multi-Layer Perceptrons). Où la fonction d'activation des neurones peut s'écrire les équations ci - dessus sous forme matricielle comme suit :

Le perceptron multicouche présente une alternative prometteuse pour la modélisation des systèmes complexes. Avec une seule couche cachée, il constitue une approximation universelle.

Les études menées dans (Hornik et al., 1989 ; Cybenko, 1989) montrent qu'il peut être entrainé de manière à approximer n'importe quelle fonction sous réserve de mettre suffisamment de neurones dans la couche cachée et d'utiliser des sigmoïdes comme fonctions d'activation.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Je voudrais vivre pour étudier, non pas étudier pour vivre"   Francis Bacon