3.1.2 La classification automatique par le réseau de
KOHONEN
Nous utilisons le réseau de KOHONEN 1 pour
la classification des régions en différentes classes au vu des
valeurs prises pour les indicateurs socioéconomiques
considérés. Cette méthode est l'une des plus
utilisées dans la littérature pour l'apprentissage statistique
non supervisé 2. L'objectif est de produire une carte de
proximité des individus étudiés (dans notre cas il s'agit
des régions) de sorte que les plus semblables soient le plus proche
possible. Cet algorithme d'apprentissage est une version
améliorée de la méthode des K-Means (Voir
[34]).
1. Encore appelé carte auto-organisée.
2. Pas de variable à prédire.
3.1. Analyse exploratoire
3.1.2.1 Présentation théorique :
Le réseau de KOHONEN fonctionne comme un réseau
de neurones à deux couches (entrée et sortie) sans variable
cible. Les noeuds de la couche d'entrée sont constitués par les
variables de classification et servent à présenter les individus.
Ceux de la couche de sortie sont disposés sur une grille ayant
généralement une forme rectangulaire. Chaque noeud
xk(k = 1, ... , n) d'entrée est
connecté à tous les noeuds (i,
j)i<N,j<M
de la carte via une pondération
Wijk. Le noeud qui sera retenu pour
représenter xk est le noeud
(i*, j*) tel que
(i*, j*) = arg min
i,j
|
n k=1
|
(xk -
Wijk)2 (3.6)
|
Brice Baem BAGOA, Elève Ingénieur des
Travaux Statistiques Page 27
Celui-ci est appelé noeud gagnant. Après
détection du noeud gagnant, le réseau ajuste automatiquement les
poids des connections neuronales suivant la relation :
{
|
Wijk(t + 1) =
Wijk(t) + ç(t)
(xk - Wijk)
si (i,j) E
A(i*,j*)(t)
Wijk(t + 1) =
Wijk(t) si (i,j) E6
A(i*,j*)(t)
|
(3.7)
|
où
A(i*,j*)(t)
est le voisinage du noeud gagnant au temps t. Ce voisinage
décroit avec le temps, de sorte qu'à la fin de l'apprentissage
chaque noeud sera l'unique élément de son propre voisinage.
ç(t) est la fonction de voisinage qui contient une fonction de
taux d'apprentissage á(t) décroissante en fonction du
temps et qui détermine le taux d'adaptation des neurones situés
à l'intérieur de
A(i*,j*)(t).
Cette fonction est un moyen plus simple de stimuler les connexion
latérales entre les neurones. Généralement on se place
dans le cadre d'une fonction de voisinage gaussienne autour du neurone gagnant.
ç(t) s'exprime alors comme suit :
d2(Gij,
G*i,j)
ç(t) = á(t) exp L- 2ó(t)2
] (3.8)
d2(Gij,
G*i,j) désigne la
distance euclidienne entre le neurone gagnant et un autre neurone appartenant
au voisinage. L'encadré ci-dessous présente l'algorithme de
Kohonen dans son utilisation pratique.
3.2. Elaboration de l'ISP
(c) Modification de la taille du voisinage et du coefficient
d'apprentissage ç(t);
(d) t = t + 1; end
(1) Data: Entrée X =
(x1,...,xn)
(2) Initialisation des poids ùijk
avec de petites valeurs aléatoires;
(3) t = 1;
(4) while Tous les noeuds ne sont pas
représentés do
(a) Sélection du neurone le plus proche :
(c) Modification des poids pour le neurone
(i*,j*) et ses plus proches voisins
:
Encadré 1 : Algorithme de Kohonen
ùijk(t + 1) =
ùijk(t) + ç(t) (xk -
ùijk)
(i*, j*) = arg min
i,j
Xn k=1
(xk -
ùijk)2
Brice Baem BAGOA, Elève Ingénieur des
Travaux Statistiques Page 28
|