Scoring crédit: une application comparative de la régression logistique et des réseaux de neurones( Télécharger le fichier original )par Fred NTOUTOUME OBIANG-NDONG Université Cheikh Anta Diop (UCAD) - Master Methodes Statistiques et Econometriques 2006 |
3.2. Principes et propriétés mathématiques des réseaux de neuronesAu plan mathématique, le calcul de la valeur prédite par un réseau de neurones se compose en deux principales étapes : m Ó wj xj 1ere étape : le calcul d'une série de combinaisons linéaires des variables explicatives, que F. Robert (1995) appelle l'entrée totale E, ou « total input » : j=1 E = w1 x1 + w2 x2 + ... + wm xm = ( 1 ) m Ó wj xj Le seuil d'entrée w 0 est ensuite ajouté à la grandeur E, ce qui permet de noter : j=1 E = w0 + ( 2 ) 2e étape : Le calcul d'une sortie (le seuillage) par transformation16(*) non linéaire : un seuil w0 étant donné, la fonction à seuil ou fonction d'activation s'écrit : f (x) = 1 si E > w 0 = 0 sinon m Ó wj xj - w0 Donc la sortie du neurone formel à prédire y = f (x) = f (x1, x2, ..., xm ) s'écrit :
j=1 y = f (x) = ö ( ) ( 3) Où ö est la fonction d'activation non linéaire y est la sortie du neurone (la valeur à prédire) xj représente les valeurs d'entrée m Ó wj xj - w 0 wj représente les poids synaptiques (ou coeficients) j=1 si > w0, alors y =1 m Ó wj xj - w 0 j=1 si < w0, alors y = 0 Le neurone formel applique par conséquent {0, 1}m dans {0, 1}. D'où son nom de classifieur avec seuil d'entrées xj, coefficients synaptiques wj, et seuil w0. Figure 2: Schéma d'un neurone formel Variables explicatives (Couches d'entrée) Fonction de sortie (couche de sortie) Fonction de sommation (couche cachée) Poids synaptiques x1 w1 m Ó wj xj - w0 m Ó wj xj y = ö ( ) x2 w2 j=1 j=1 xm wm Source : Recherche de Fred Ntoutoume, Crefdes, 2007 Les réseaux de neurones présentent les propriétés suivantes : · ils sont universels (capables de résoudre des problèmes simples ou complexes) ; · ils se comportent plus d'une façon adaptative que programmée ; · Ils sont capables de fonctionner même en présence d'une information partielle ou d'une information brouillée ; · Ils fonctionnent comme une machine de classification qui extrait les traits caractéristiques des objets présentés lors de l'apprentissage, pour réorganiser sa connaissance en conséquence. * 16Plusieurs autres fonctions d'activation existent pour la transformation des données d'entrée du neurone, on peut citer la fonction logistique Y = F(X) = 1/(1 + exp(-d*X) dont nous allons nous servir, la tangente hyperbolique Y = 2 /(1+ exp(-2* X) -1), la fonction gaussienne Y = exp(-(X^2) /2), ou la fonction sigmoïde Y= (1 + e - âx) - 1
|
|