3.2. La fixation des paramètres du réseau
Pour mémoire, nous rappelons que l'apprentissage a
été réalisé par rétropropagation de
l'erreur. De façon à éviter les minima locaux dans la
surface d'erreur, nous avons utilisé un taux d'apprentissage variable et
un moment. Nous avons admis deux couches cachées, en sus de la couche
d'entrée et de la couche de sortie. Les paramètres
d'apprentissage du réseau sont les suivants :
- Coefficient d'apprentissage : 0,1 0
- Momentum : 0,5
- Température de fonction sigmoïde : 0,5
Figures 12: Procédure de fixation des
paramètres du modèle neuronal sous SPAD
Source : Recherche de Fred Ntoutoume, Crefdes, 2007
3.3. Les résultats de la modélisation par
réseaux de neurones
La modélisation du risque de crédit à des
fins de prédiction par rétropropagation de gradient de l'erreur,
sur réseaux neuronaux, nous fournit les résultats
suivants :
Tableau 28: Matrice de confusion avec marge
(avec 2 neurones dans la 2e couche cachée)
DISCRIMINANTE NEURONALE A N GROUPES
INFORMATION SUR LE RESEAU UTILISE
ROLE DES INDIVIDUS ACTIFS : APPRENTISSAGE
NOMBRE DE COUCHES CACHEES : 2 COUCHES
NOMBRE DE NEURONES PAR COUCHE CACHEE
COUCHE 2 : 18
COUCHE 3 : 2
COEFFICIENT D'APPRENTISSAGE : 0.10000
MATRICE DE CONFUSION AVEC MARGES
EN LIGNE : Ce client a til remboursé integralement son
credit au plus 3
EN COLONNE : CLASSES DE SORTIE
+----------------------+------+------+------+
| |CLA 1|CLA 2| ENS |
+----------------------+------|------|------|
| oui | 29 | 7 | 36 |
| non | 18 | 158 | 176 |
+----------------------+------+------+------+
| ENSEMBLE | 47 | 165 | 212 |
+----------------------+------+------+------+
Source : Recherche de Fred Ntoutoume, Crefdes, 2007
La matrice des confusions calculée sur les
données d'apprentissage permet de mesurer le taux d'erreurs, ou taux de
mauvais classement. A la lumière des résultats observés
dans le tableau ci-dessus, nous constatons que les performances
prédictives du modèle neuronal ne sont pas assez satisfaisantes.
En effet, la proportion d'individus orientés vers la bonne classe de
sortie est de l'ordre de 88,21%, c'est-à-dire en deçà des
90%, seuil tolérable au grand maximum. Le tableau de pourcentages des
biens classés indique dans le détail, que les
« mauvais payeurs » classés par erreur chez les
« bon payeurs » est supérieur à 1/10 (cf
tablau ci-dessous).
Tableau 29: Performances de classement du réseau de
neurones
(avec 2 neurones dans la 2e couche cachée)
POURCENTAGE DE BIEN CLASSES
+----------------------+---------+---------+---------+---------+---------+
| | BIEN | MAL | | %BIEN
| |
| | CLASSES | CLASSES | TOTAL | CLASSES
| PURETE |
+----------------------+---------+---------+---------+---------+---------+
| oui | 29 | 7 | 36 | 80.56
| 61.70 |
| non | 158 | 18 | 176 | 89.77
| 95.76 |
+----------------------+---------+---------+---------+---------+---------+
| TOTAL | 187 | 25 | 212 | 88.21
| 88.21 |
+----------------------+---------+---------+---------+---------+---------+
Source : Recherche de Fred Ntoutoume, Crefdes, 2007
Compte tenu de ces premiers résultats relativement
insuffisants, nous nous proposons de réajuster la structure du
réseau, afin d'améliorer les performances prédictives.
Nous pouvons opter soit pour l'ajout d'une couche supplémentaire, soit
pour l'ajustement d'une couche déjà existante. La première
solution a cependant l'inconvénient de complexifier d'avantage le
réseau. Nous choisissons la seconde option, moins coûteuse.
|