2-2-2-2.Choix de la dimension de l'espace de projection
Le problème qui reste à résoudre est le
choix de K, la dimension de l?espace de projection des vecteurs d?images. Pour
cela on aura besoin d?un seuil (pourcentage) dit de quantité
d?information. Le but est de pouvoir représenter une certaine
quantité d?information en utilisant un minimum de vecteurs base. Si par
exemple on veut représenter 80% (0.80) de l?information alors on trouve
K tel que : [5]
K
At
N
t=1
At
t=1
> 0.8 (seutl = 0.8) (2.12)
Enfin l?ACP ne prend pas en compte la discrimination des
classes. Pour augmenter la séparabilité des classes dans le sous
espace de composantes principales on utilise l?analyse discriminante
linéaire de Fischer bien connue en anglais (Fischer Linear Discriminant
Analysis : FLD ou LDA) [7] décrire en détail ci-dessous.
2-2-3.Analyse discriminante linéaire de Fischer
L13]
L?analyse discriminante linéaire de Fischer groupe les
images de mêmes catégories et sépare les images de
différentes classes. Les images sont projetées de l'espace de
dimension N (où N est le nombre de pixels de l'image) dans un espace de
dimension C-1(où C est le nombre de classes
d?images).Considérons, par exemple, deux ensembles de points dans
l'espace en deux dimensions qui sont projetées sur une seule ligne
(Figure 2.3.A). Selon la direction de la ligne, les points peuvent être
mélangés (Figure 2.3.B) ou séparés (figure 2.3.C).
L?analyse discriminante linéaire de Fischer trouve la ligne qui
sépare les meilleurs points. Pour identifier une image test, les
projections de l'image test sont comparées à chaque image
projetée en matière de formation, et l'image test est
identifiée comme la plus proche de formation image.
![](Authentification-de-visages-par-la-methode-danalyse-discriminante-lineaire-de-Fischer9.png)
A B C
Figure 2.3 : Exemple de projection des points
sur deux axes
2-2-3-1.Méthode originale de Fischer
[13]
La méthode originale d?analyse linéaire
discriminante de Fisher se déroule selon les étapes suivantes
:
? Calcule de la matrice de dispersion
intra-classes
La matrice de dispersion intra-classes mesure la
quantité de la dispersion entre les images dans la même classe.
Pour la i?ème classes, la matrice ??~ est calculée comme la somme
de matrices de covariance des images centrées dans cette
catégorie.
?? = (?? - ??~)(?? - ??i)?? (2.12)
?????~
Où ?? est la moyenne des images dans la classe i et ?? est
vecteur d?image. La matrice de la dispersion intra-classes ???? est la somme de
toutes les matrices de dispersion.
?? ?? = ??~
?? ~=1 (2.13)
Où C est le nombre de classes.
? Calcule de la matrice de dispersion
inter-classes
La matrice de dispersion inter-classes ???? mesure la
quantité de dispersion entre les classes. Elle calcule la somme des
différences entre la moyenne total et la moyenne de chaque classe.
???? = ?? (?? - ??)
?? (?? - ??)?? (2.14)
~=1
Où ??~ est le nombre d'images dans la classe i, ??1 est la
moyenne des images dans la classe i et ?? est la moyenne de toutes les
images.
? Résoudre le problème
généralisé des valeurs propres
Calcul des valeurs propres et des vecteurs propres correspondants
aux deux matrices de dispersion intra-classes et inter-classes par
l'équation suivante :
??????= ?????? (2.15)
Où ?? représente une matrice des vecteurs
propres et ?? est une matrice des valeurs propres. Les vecteurs sont
ordonnés selon l?ordre décroissant de leurs valeurs propres.
Finalement on ne garde que les premiers C-1 vecteurs propres. Ces C-1 vecteurs
propres forment la base de projection de Fischer.
2-2-3-2.Méthode de Fischer basée sur une
Base-Ortho normale
Cette méthode consiste à projeter les
données de la matrice d?apprentissage des images dans une base
orthogonale. Cette projection produit une matrice de données de rang
plus petit, ce qui diminue le temps de calcul. La projection préserve
également les informations de manière définitive les
étapes à suivre pour trouver une base de Fisher d'une
série d'images en utilisant une projection en une base orthogonale. Se
fait selon les étapes suivantes :
· Calcule des moyennes
Calcule des moyennes ??i des images dans chaque classe i et la
moyenne total ?? de toutes les images .
· Centrer les images dans chaque classe
Soustraire la moyenne de chaque classe des images en cette
classe.
??? ? ??i , ??i ? ?? ,?? = ?? - ??i (2.16)
· Centrer la moyenne de chaque classe:
Soustraire la moyenne totale de la moyenne de chaque classe.
??~ = ??l - ?? (2.17)
· Créer une matrice de
données
Combiner tous les images, côte à côte, dans
une matrice de données.
· Trouver une base orthogonale ??
pour la matrice de données
Cela peut être effectué par calcul de l'ensemble
des vecteurs propres de la matrice de covariance des données
d?apprentissage.
· Projection de toutes les images
centrées dans la base orthogonale
Créer des vecteurs qui sont le produit des vecteurs
d?image et les vecteurs de la base orthogonale.
?? = ?????? (2.18)
· Projection de la moyenne centrée dans la
base orthogonale
?? = ??????~ (2.19)
· Calcule de la matrice de dispersion
intra-classes
La matrice de dispersion intra-classes mesure la
quantité de la dispersion entre les éléments dans la
méme classe. Pour l?i éme classes la matrice de dispersion ??,
est calculé comme la somme des matrices de covariance des projections
centrées des images de cette catégorie.
??i = ?? ?? ??? 1 ?? ?? (2.20)
La matrice de dispersion intra-classes ???? est la somme de
toutes les matrices de dispersion ??i .
???? = ??i
?? ~=1 (2.21)
Où C est le nombre de classes.
· Calcule de matrice de dispersion
inter-classes
La matrice de dispersion inter-classes ???? mesure la
quantité de dispersion entre les classes. Elle est calculée comme
la somme des matrices de covariance des projections centrées des
moyennes des classes, pondérées par les nombres d'images dans
chaque classe.
???? = ??~
?? ~=1 ~??~ ??~~?? (2.22)
Où ??~ est le nombre d?image dans la classe i.
? Résoudre le problème
généralisé des valeurs propres
Calcule des valeurs propres et des vecteurs propres
correspondants aux deux matrices de dispersion intra-classes et inter-classes
par l'équation suivante :
SBV=ASW V (2.23)
Où V représente une matrice des vecteurs propres
et A est une matrice des valeurs propres.
? Gardez les premières C-l vecteurs
propres
On classe les vecteurs propres par ordre décroissant
leurs valeurs propres et on ne garde que les premiers C -1 vecteurs propres.
Ces vecteurs propres forment la base de projection de Fisher.
|