2. Linear Discriminant Analysis (LDA):
La plupart des méthodes traditionnelles basées
sur LDA, soufrent de l'inconvénient que leurs critères
d'optimalité ne sont pas liés aux capacités de
classification de la représentation obtenue des caractéristiques.
D'ailleurs, leur exactitude de classification est affectée par le
problème de la petite dimension de l'échantillon ~~ Small Sample
Size qui est souvent rencontré en reconnaissance de visages.
L'algorithme de DF-LDA ~~ DIRECT FRACTIONAL-LDA~~ traite ces
deux imperfections d'une façon efficace et rentable, offrant des
performances supérieures à celles des techniques de
reconnaissance de visages classiques.
3. Fondement mathématique de la LDA :
On considère un vecteur X représentant un
ensemble de n données de dimension p (p variables), qu'on désire
représenter sous une autre forme plus préparée pour la
classification en utilisant la LDA.
Posant : X = [X1 X2 . . . Xi . . . . . Xn].
Soit C le nombre de classe qui constitue Xtel que dans
chaque classe i on a Ni individus et donc : Ni=n
Le principal problème que la LDA essaye de résoudre
c'est la recherche de la meilleure matrice de projection W tel que J
(critère de Fisher) soit maximal:
( ) = (II-1)
Avec la matrice de dispersion interclasse définie comme
suit :
= ( ~ x)( ~ x) = Æ = Æ (II-2)
et la matrice de dispersion intra classe définie comme
suit :
= ~ ( X ~ ) (X ~ ) (II-3)
Et avec :
= x = [ , , & , , ]
= ~ ~ X (II-4)
X= X = ~ N (II-5)
On note S la matrice de dispersion totale alors on a : S= +.
À partir de (II-1), on peut remarquer que la fonction J
est invariante par rapport à la transformation W #177;W si #177; est une
constante.
Donc, on peut toujours choisir #177; de tel sorte que : W = I
Et le problème devient une maximisation de la forme W sous
la contrainte :
W = I
La recherche du maximum se fait par: L= W + » W ~ 1
(II-6)
On déduit la relation : W= » W (II-7)
Donc, la solution de maximisation du critère de Fisher est
un problème de valeurs propres vecteurs propres
généralisé [4].
4. LDA pour la reconnaissance:
L'algorithme de reconnaissance par LDA est
découpé en deux phases, une pour le calcul des modèles des
personnes qu'on appellera phase d'apprentissage du système et l'autre
qui consiste à reconnaitre une personne teste par rapport aux
modèles enregistrés qu'on appellera phase teste.
a- Apprentissage :
1-
Pour chaque classe (personne) i= 1, & , C , calculer
le vecteur moyenne comme dans (II-4). Et calculer le vecteur moyen X comme dans
(II-5).
2-
Exprimer SB sous forme de Æ comme décrit
dans (II-2), et calculer SW comme dans (II-3).
3- Calculer les m vecteurs propres de Æ qui
correspondent aux valeurs propres non nulles, notés Em=[ ....
]
4-
Calculer les m vecteurs propres de SB dans Um et ses
valeurs propres dans
comme suis : Em et =
/
5- Posons H= . Trouver les vecteurs propres de H et les
ordonnées dans P=[ , & ] suivant les valeurs propres
correspondantes.
6- Choisir les M(dm) vecteurs importants de P.
7-
Calculer la matrice de projection W comme suit : W=H (úI+
)~ /
Avec I matrice d'identité et · paramètre de
régularisation qui est égale a 104.
8- Projeter les données X suivant W : Y= X ; sachant que Y
la matrice des
modèles de personnes, contient les nouvelles images dans
l'espace de Fisher.
|