Chapitre 02
Méthode d'extraction de
l'information
2-1.Introduction
Dans ce chapitre nous décrivons la technique d'Analyse
Discriminante Linéaire (LDA). L'analyse discriminante linéaire
part de la connaissance de la partition en classes des individus d'une
population et cherche les combinaisons linéaires des variables
décrivant les individus qui conduisent à la meilleure
discrimination entre les classes.
Dans ce chapitre nous indiquons que l'utilisation des
composantes principales ne donne pas nécessairement les meilleures
solutions pour la discrimination, car les directions de variabilité
principale ne correspondent pas nécessairement aux directions de
meilleure discrimination.
2-2.Réduction des images 2-2-1.Le
prétraitement
La reconnaissance de visage est un problème difficile en
vision par ordinateur. Pour simplifier la reconnaissance nous allons normaliser
l?image par quelques prétraitements.
Le prétraitement atténue les effets d?une
différence des conditions lors des prises de vues. C?est une phase
importante dans le domaine globale d?identification. Elle augmente en
général les performances du système.
Pour cela une réduction d?image est nécessaire
dont l?opération est d?extraire seulement les paramètres
essentiels pour l?identification et qui changent très peu avec temps.
La méthode de réduction de dimension permet de
faire l?économie de phase d?extraction de caractéristiques. Les
étapes de la réduction des images sont :
· Découpage
Le découpage de l?image consiste à conserver les
maximums des variations intrinsèques du visage, et de supprimer les
autres informations comme l?arrière plan, les cheveux, les cols de
chemise, les oreilles et toutes les informations qui sont changeantes avec le
temps. La figure 2.1 montre la procédure de découpage.
A B
Figure 2.1: L?image de visage A
avant et B après découpage.
· Filtrage
Pour améliorer la qualité visuelle de l?image, on
doit éliminer les effets des bruits (parasites) en lui faisant subir un
traitement appelé filtrage.
Le filtrage consiste à modifier la distribution
fréquentielle des composantes d?un signal selon des
spécifications données. [12]
Ce filtre n?affecte pas les composantes de basse fréquence
dans les données d?une image, mais doit atténuer les composantes
de haute fréquence.
L?opération de lissage est souvent utilisée pour
atténuer le bruit et les irrégularités de l?image. Elle
peut être répétée plusieurs fois, ce qui crée
un effet de flou.
En pratique, il faut choisir un compromis entre
l?atténuation du bruit et la conservation des détails et contours
significatifs. [12]
? Décimations
La décimation consiste à ne prendre qu?un pixel
sur deux par exemple .Cela réduit bien entendu la résolution des
images. Cette opération est précédée d?un filtrage
passe bas, détruisant les hautes fréquences, de manière
à respecter les conditions d?échantillonnage.
L?image de visage passera ainsi d?une dimension 256 x
256=65536 pixels vers une dimension de 66 x 60=3960 pixels « après
le découpage et la décimation, comme il est illustré sur
la figure (2.2) ».
A B
Figure 2.2 : Image de visage A
avant B après décimation
· Normalisation
La normalisation permet d?assurer
l?homogénéité des données. La photo-normalisation
s?applique à une seule image. Alors que la normalisation s?applique
à un groupe d?images, pour chaque composante, nous retirons la moyenne
de cette composante pour toutes les images et nous divisons par
dérivation standard.
Donc le prétraitement est une étape qui
mène à une première réduction de la donnée
avant d?utiliser une deuxième étape de réduction comme par
exemple l?analyse en composantes principales « ACP ».
2-2-2.L'Analyse en composantes principales
(ACP)
L'analyse en composantes principales (ACP) consiste à
exprimer un ensemble de variables en un ensemble de combinaisons
linéaires de facteurs non corrélés entre eux, ces facteurs
rendent compte d'une fraction de plus en plus faible de la variabilité
des données. Cette méthode permet de représenter les
données originelles (individus et variables) dans un espace de dimension
inférieure à l'espace original, tout en limitant au maximum la
perte d?information.
Utilisez l'analyse en composantes principales pour
résumer la structure de données décrites par plusieurs
variables quantitatives, tout en obtenant des facteurs non
corrélés entre eux. Ces facteurs peuvent être
utilisés comme de nouvelles variables, ces dernières sont deux
à deux dé corrélées. [5]
L?ACP peut donc être vu comme une technique de
réduction de dimensionnalité.
2-2-2-1.Visages propres (Eigen faces)
En 1991, TURK et PENTLAND introduisent le concept d?Eigen
Faces à des fins de reconnaissances. Basée sur une analyse en
composantes principales (ACP), la méthode des Eigen Faces repose sur une
utilisation des premiers vecteurs propres comme visages propres, d?où le
terme Eigen Faces. La base formée par ces vecteurs génère
alors un espace utilisé pour représenter les images des visages.
Les personnes se voient donc attribuer un vecteur d?appartenance pour chacune
de leur image. [5]
Cela étant dit, la reconnaissance est
réalisée en comparant les coefficients de projection d?un visage
test avec ceux appartenant aux visages d?entraînement. La méthode
Eigen faces se déroule comme suit :
> Etape 1
Cette étape consiste à définir les images
des personnes, soit ?? le nombre d?image
allant de ??1 , ??2 ,??3 , ???? .
Ces images doivent être centré et de même
taille. > Etape 2
Après le prétraitement (décimation) on
transforme l'image vers un vecteur d?image, c'est-à-dire l'image
à deux dimensions d'un visage est transformée en un vecteur de
taille ?? obtenu en enchaînement les lignes (ou colonnes) de l'image
correspondante.
Ici ?? représente le nombre de pixels dans l'image du
visage. Après décimation.
??i = ??1??2 .....????]
Comme dans l?exemple qui suit, ??~ est une image de taille ?? = 3
× 3
??. = Par transformation on obtiendra le vecteur ?? =
> Etape 3
Cette étape consiste à calculer la moyenne des
visages et de la représenter sous forme de vecteur ??. (Où ?? est
un nombre d'image)
> Etape 4
|
1
?? =
M
|
i=1 (2 .1)
M xi
|
Cette étape consiste à enlever la moyenne du
vecteur d?image ??1 , en d?autres termes : enlever tous ce qui est commun aux
individus.
Le vecteur résultant ??~~ est obtenu comme suit :
?? ~ = ??~ - ?? (2 .2)
Les vecteurs ??~~ i : 1,2, ... ??) sont combinés,
côte à côte, pour créer une matrice de données
d'apprentissage de taille ?? × ?? (Où ?? est le nombre d'images de
l?ensemble d?apprentissage et ?? est le nombre de pixels d'image).
> Etape 5
La matrice de donnés est multipliée par sa
transposé pour obtenir une matrice de covariance 12 comme montrée
dans l'équation (2.3).
,O. = x x t (2 .3)
Cette matrice de covariance a jusqu'aux M vecteurs propres
liés aux valeurs propres non nulles. En supposant que M < N.
> Etape 6
Dans cette étape on calcule les valeurs propres et les
vecteurs propres correspondants à la matrice de covariance par
l'équation suivante:
12V = AV Et det [12 -- Ai] = 0 ( ??i E A) (2 .4)
Où V est une matrice orthogonale de vecteurs propres et A
est une matrice diagonale de valeurs propres.
On classe les vecteurs propres vi E V , selon les valeurs
propres décroissantes Ai E A.
La matrice des vecteurs propres V représente l?espace
propre de projection.
V = [v1v2 · . . vM ] (2 .5)
> Etape 7
Cette étape est assez simple à réaliser,
elle consiste à ne prendre que K vecteurs propres correspondant aux K
plus grandes valeurs propres pour constituer la base (espace propre) de
projection.
> Etape 8
Dans cette étape on projete les vecteurs images
centrés dans l?espace propre. Pour cela on doit calculer le produit
scalaire de ces vecteurs images ??~~ avec la transposé de la matrice des
vecteurs propres ?? comme suit :
??~ = ??????~~ (2 .6)
Pour simplifier le calcul des vecteurs propres ?? , la matrice de
covariance est crée par l?équation (2.7).
??' = ?? ???? (2 .7)
On calcule les vecteurs de la matrice ?? par l?équation (2
.8) :
??'??' = ?~??~ (2.8)
Le calcul de la matrice des vecteurs propres ?? correspondants
à la matrice ?? se fait par (2.9).
?? =?? ??'?? (2.9)
~
On divise les vecteurs propres ??~ par leurs normes comme suit
:
|