3.2.3 Mise en évidence du chaos dans le
système de Lorenz
L'équation 3.1 n'admet pas de solution
analytique. Pour étudier le comportement du système, on a recourt
aux méthodes d'intégration numérique. Les simulations
numériques sont effectuées en utilisant l'algorithme
d'intégration numérique de Runge-Kutta d'ordre 4 sous
simulateur Matlab. Les conditions initiales étant fixées aux
valeurs (-10,-10,20) (valeurs propres de la matrice Jacobienne), le
système présente un comportement chaotique tel que le montre le
portrait de phase et la série temporelle de la figure 3.1.
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage
d'image à base de chaos
et de réseau de neurone
46
La nature erratique, l'imprévisibilité à
long termes des états chaotiques et leur sensibilité aux
conditions initiales font du système de Lorenz une bonne clé pour
notre cryptosystème.
![](Evaluation-dun-algorithme-de-cryptage-chaotique-des-images-base-sur-le-modele-du-perceptron34.png)
a)
![](Evaluation-dun-algorithme-de-cryptage-chaotique-des-images-base-sur-le-modele-du-perceptron35.png)
b)
Figure 3.1. Comportement chaotique du système de
Lorenz : a) attracteur chaotique dans l'espace des phases ; b) série
temporelle
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage
d'image à base de chaos
et de réseau de neurone
47
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage
d'image à base de chaos
et de réseau de neurone
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage d'image à base de chaos et
de réseau de neurone
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage
d'image à base de chaos
et de réseau de neurone
3.3 Perceptron
Le perceptron peut être vu comme le type de
réseau de neurones le plus simple. C'est un classifieur linéaire.
Ce type de réseau neuronal ne contient aucun cycle (en anglais
feedforward neural network). Dans sa version simplifiée, le perceptron
est monocouche et n'a qu'une seule sortie à laquelle toutes les
entrées sont connectées. Les entrées et la sortie sont
booléennes.
![](Evaluation-dun-algorithme-de-cryptage-chaotique-des-images-base-sur-le-modele-du-perceptron36.png)
Figure 3.2. Le modèle du perceptron avec
seuil
La fonction d'activation est la fonction de Heaviside (la
fonction signe est parfois utilisée)
{ (3.8)
Avec ? (3.9)
Ici, è définit le seuil à
dépasser pour que la sortie soit à 1. wi
représente les poids ; xi les
entrées et Y la sortie.
Les entrées ,..., peuvent être à
valeurs dans {0,1} ou réelles, les poids peuvent être
entiers ou réels. Une variante très
utilisée de ce modèle est de considérer une fonction de
sortie prenant ses valeurs dans {-1,1} plutôt que dans
{0,1}. Il existe également des modèles pour lesquels le
calcul de la sortie est probabiliste. Dans la suite de cette partie sur le
perceptron, nous considérerons toujours le modèle
déterministe avec une sortie calculée dans {0,1}. Pour
simplifier les notations, nous allons remplacer le seuil par une
entrée
supplémentaire qui prend toujours comme valeur
d'entrée la valeur 1. À cette entrée est
associé un coefficient synaptique . Le modèle
correspondant est décrit dans la figure 3.3.
On peut décomposer le calcul de la sortie O en un
premier calcul de la quantité ?
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
48
appelée potentiel post-synaptique ou entrée
totale suivie d'une application d'une fonction d'activation sur cette
entrée totale. La fonction d'activation est la fonction de Heaviside
définie par :
f 1 six > 0 (3.10)
0 sinon
![](Evaluation-dun-algorithme-de-cryptage-chaotique-des-images-base-sur-le-modele-du-perceptron37.png)
Figure 3.3. Le perceptron avec entrées
supplémentaires
Bien que considérant une entrée
supplémentaire xo , un perceptron est toujours
considéré comme associant une sortie O aux n
entrées x1,..., xn.
L'équivalence entre le modèle avec seuil et le modèle avec
entrée supplémentaire à 1 est immédiate :
le coefficient w0 est l'opposé du seuil O. Nous
considérerons toujours ce dernier modèle de perceptron
linéaire à seuil par la suite. Pour passer du modèle avec
sorties à valeurs dans {0,1} au modèle à valeurs
dans {-1,1}, il suffit de remplacer la fonction de Heaviside f
par la fonction g définie
par : g(x) = 2f (x) -- 1 (3.11) D'autres fonctions
d'activation peuvent également être utilisées.
3.4 Algorithme de cryptage
L'algorithme de cryptage se décompose comme suit :
Étape 1 : On itère le
système de Lorenz (équation 3.1) 3001 fois afin
de se soustraire du régime transitoire. Ensuite, on garde la
3001ème valeur comme nouvelle condition initiale
(X, Y, Z) du système de Lorenz.
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
49
Étape 2 : Avec les nouvelles conditions
initiales précédentes, on effectue ensuite 8
itérations
pour avoir 8 états ( ), k ?
[1,8] du système chaotique. Les états sont
normalisés dans l'intervalle en utilisant les
équations (3.12) et (3.13) suivantes :
(3.12)
)
Ymax--Ymin
( ) (3.13)
On obtient ainsi les valeurs normalisées
correspondantes
|
, avec :
|
{
|
}
|
(3.14)
|
{
|
}
|
(3.15)
|
{
|
}
|
(3.16)
|
{
|
}
|
(3.17)
|
En utilisant les règles de transformations non
linéaires suivantes :
{ (3.18)
{ (3.19)
On génère les paramètres du poids du
Perceptron : et ? .
Afin d'élargir la périodicité du
système de Lorenz, on choisit aléatoirement 8 bits dans
pour créer m, et on utilise les équations (3.20)
et (3.21) pour générer de nouvelles
conditions initiales afin d'obtenir de nouvelles valeurs de X
et Y. L'élargissement de la périodicité du
système chaotique de Lorenz permet d'éviter toute redondance
utile au cryptanalyste.
? ? (3.20)
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
50
{ (( ) )
(3.21)
( )
Étape 3 : On utilise les
paramètres du poids du perceptron ? pour faire la transformation non
linéaire suivante :
{(3.22)
{(3.23)
Les valeurs obtenues sont les poids de chaque neurone de
perceptron.
À partir de ces dernières valeurs, d'autres
grandeurs d'entrées et valeurs seuils du
perceptron ( ? sont calculées :
{(3.24)
{ (3.25)
{ (3.26)
(3.27)
Étape 4 : On utilise ensuite la
stratégie de chiffrage par flot pour chiffrer l'image. Prenons par
exemple un pixel de l'image et binéarisons le sous huit
bits. Appelons , (k ?
[1,8]) le
kème bit du pixel . Après
chiffrage, la valeur du pixel chiffré est et représente le
kème
bit du pixel chiffré . est donné par :
{( ) , (3.28) ( )
Où
{ (3.29)
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage
d'image à base de chaos
et de réseau de neurone
51
Étape 5 : Répétez les
étapes 2 à 4, jusqu'à ce que l'image
entière soit chiffrée. La figure (3.4) montre le
schéma synoptique de l'algorithme de chiffrage.
![](Evaluation-dun-algorithme-de-cryptage-chaotique-des-images-base-sur-le-modele-du-perceptron38.png)
Figure 3.4. Schéma de l'algorithme de
chiffrage
3.5 Analyse de la sécurité
Un bon procédé de cryptage devrait être
robuste contre toutes les formes d'attaques issues de la cryptanalyse. Il est
bien connu que de nombreux schéma de cryptage ont été
cassés avec succès à l'aide de l'analyse statistique. Par
conséquent, un chiffrage idéal devrait être robuste contre
toutes formes d'attaques statistiques. Dans cette sous-section, nous discutons
de l'analyse de sécurité du schéma de cryptage d'image
proposé. Les méthodes de l'analyse statistique telles que :
l'histogramme, la corrélation entre deux pixels adjacents voisins,
l'analyse de sensibilité à la clé, et l'analyse
différentielle, sont évaluées pour prouver que le
cryptosystème proposé offre une grande sécurité
contre les attaques les plus connues.
Mémoire de Master en EEA, par NKAPKOP Jean De
Dieu.
Cryptage chaotique des images basé sur le
modèle du perceptron
Chapitre 3 : Chiffrage
d'image à base de chaos
et de réseau de neurone
52
|