I.2. Application de l'algorithme de Fisher:
L'utilisation de l'image construite n'est pas assez pratique
pour l'identification, il est nécessaire d'avoir une
représentation compacte. Pour cela on doit y avoir besoin d'appliquer
les opérations de l'Algorithme de Fisher (la LDA), grâceà
la fonction apprentissage qui fait appelle à la fonction
Fisherface2.
Les étapes suivantes ont été suivies pour
l'implémentation de l'algorithme LDA :
· Dans un premier temps nous allons calculer la moyenne
m_database = mean(T, 2).
· Calcul de l'écart de chaque image par rapport
à l'image moyenne. A = T - repmat(m_database,1,P)
· Calcul de la matrice de covariance C=A*A' où A'
est la matrice transposé de A et chaque colonne de cette dernière
est un vecteur dedifférence.
· Calcul de L= A'*A le substitut de la matrice de
covariance ou le calcul se limite à cause des dimensions
élevées de C.
· Le tri et l'élimination des petites valeurs
propresL_eig_vec = [L_eig_vecV(:,i)] pour i allant de 1 jusqu'au P.
· Calculdes vecteurs propres dela matrice de covariance'C '
V_PCA=A *L_eig_vec.
· Calcul de la moyenne de chaque classe en espace
propre.
· Initialisation de la matrice de dispersion intra-classe
(withinScatter matrix Sw) et la matrice de dispersion inter-classe
(BetweenScatter matrix Sb).
· Calcule de la matrice de dispersion totale S= Sb+Sw .
· La maximisation de Sb tout en minimisant Sw, Ainsi, une
fonction de coût J est défini, de sorte que cette condition est
remplie.
· La projection d'images dans l'espace de Fisher.
I.3.Reconnaissance :
Dans cette étape on compare deux faces en projetant
les images dans FaceSpace et mesure la distance euclidienne entre l'image de
test et toutes les images de la base de d'apprentissage, la personne en
entrée est affecté à la classe avec laquelle il à
une distance euclidienne plus petite.
|