WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Applications des intégrales stochastiques en macroéconométrie


par Lewis Mambo
Université de Kinshasa - DEA 2023
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

1

UNIVERSITE DE KINSHASA

FACULTE DES SCIENCES Département des Mathématiques et Informatique

Directeur : Professeur Ordinaire Mbuyi Mukendi Eugène Co - Directeur : Professeur Mabela Matendo Rossin

Applications des intégrales Stochastiques en

macroéconométrie

Mambo Ntanu Bin Kikuni Lewis
lewismambo2@gmail.com

4 octobre 2019

1

"In almost all circumstances, and at all times, we find ourselves in a state of uncertainty. Uncertainty in every sense. Uncertainty about actual situations, past and present... Uncertainty in foresight this would not be eliminated or diminished even if we accepted, in its most absolute form, the principle of determinism; in any case, this is no longer in fashion. Uncertainty in the face of decisions more than ever in this case... Even in the field of tautology (i.e of what is true or false by mere definition, independently of any contingent circumstances) we always find ourselves in a state of uncertainty ... (for instance, of what is the seventh, or billionth, decimal place of n ...)..." Bruno de Finetti ([? ],p.3)

» The advancement and perfection of mathematics are intimately connected with the prosperity of the State» Napoleon1

1. cited [? ]

2

Notation et Abréviations

1ç(x) fonction indicatrice

lim infxn limite inférieure

lim sup limite supérieure

fl intersection

U union

~ distribuée

oc infini

® produit tensoriel

a A b minimum de a et b

ìeb maximum de a et b

= identiquement égal

an = o(bn) an

bn ? 0

an = O(bn) an

bn est bornée

, 3, P) : espace de probabilité

N ensemble des nombres entiers

R ensemble des nombres réels

C ensemble des nombres complexes

c`adl`ag continue à droite, limite à gauche

p.s. presque sûrement

v.a. variable aléatoire

Ls opérateur elliptique

max maximum

min minimum

exp exponentiel

h.it variation quadratique

. :valeur absolue

k.kp norme d'ordre p

Ck dérivable d'ordre k

P somme

f intégrale

X+ partie positive de X

X partie négative de X

E(x) espérance mathématique

E(x P) espérance conditionnelle

P(A B) probabilité conditionnelle

var(x) variance de x

? dérivée partielle

?xi

Ati = ti - ti-1

3

f odWt intégrale de Stratonovich

Wt processus de Wiener standard au temps t Bt mouvement brownien au temps t

Résumé

Motivation

Problem Statement

Approach

Results

Conclusion

Les incertitudes dominent le monde réel et rendent les décisions issues de la mathématique inefficace. Pour prendre en compte ces incertitudes observées ou non dans les variables et/ou paramètres,les mathématiciens désenveloppent la théorie des processus stochastiques.Beaucoup de phénomènes sont formulés sous forme des équations différentielles stochastiques et aussi non observables Xiong[177], [166],[167], [67] [177], Stokey[166],[67]. La question que ce travail va répondre est comment peut - on estimer les coefficients stochastiques du modèle macroéconomique?

La modélisation du monde réel n'a pas de sens lorsque le modélisateur ne tient pas en compte l'incertitude qui induit les décideurs en erreur.

Cette étude a trois objectifs :(i) présenter les outils et

1

Introduction

Problématique

Les équations différentielles stochastiques constituent un choix naturel pour modéliser les systèmes dynamiques qui subissent les influences aléatoires [31]. Par exemples, Beaucoup de phénomènes tant naturels qu'économiques sont formulés sous forme des équations différentielles stochastiques [177], [166][167], [67].

Considérons un modèle économétrique qui se présente sous forme d'équation différentielle stochastique d'Itô paramétrique suivant

dXt = u(e, t, Xt)dt + u(19, t, Xt)dWt, t = 0, X0 = (,

où {Wt, t = 0} est le processus de Wiener standard, u : O × [0,T] × R ? R, appelé le drift coefficient et u : E × [0, T] × R ? R+, appelé le coefficient de diffusion. Ces coefficients sont des fonctions continues et les paramètres à estimer e et 19, O ? R, E ? R et E(0) < 8, sont des inconnus du modèle économétrique à estimer.

Le drift coefficient est appelé le coefficient de tendance ou damping coefficient ou translation. Le coefficient de diffusion est aussi appelé volatilité. Les coefficients de tendance et de volatilité sont respectivement la moyenne instantanée et la déviation instantanée du processus.

Sous les conditions lipschitzienne et de croissance linéaire sur les les coefficients u et u, il existe une solution forte unique de l'équation différentielle stochastique.

(1) condition lipschitzienne ku(t,x) - u(t,y)k = K|x - y| |á(t,x) - á(t, y)| = K|x - y|

et

(2) condition de croissance linéaire ku(t, x) - u(t, y)k2 = K(1 + |x|2) |á(t, x) - á(t, y)|2 = K(1 + |x|2)

Cette solution est appelée le processus de diffusion ou simplement diffusion, est une semimartingale markovienne forte continue.

En économie, les incertitudes dominent et rendent les décisions issues de la modélisation économétrique inefficaces. Pour prendre en compte ces incer-

2

titudes observées ou non dans les variables et/ou paramètres les mathématiciens développent la théorie de processus stochastiques. La modélisation de l'économie dans son ensemble, macroéconomie, n'a pas de sens lorsque l'économiste ne tient pas en compte les incertitudes qui induisent les décideurs en erreur.

Cette étude se focalise à répondre aux questions suivantes : (i) Comment peut - on estimer les paramètres de modèles économétriques présentés sous forme des équations différentielles stochastiques? (ii) Comment peut-on estimer les paramètres stochastiques de modèles économétriques présentés sous forme des équations différentielles stochastiques suivant un processus stochastique?

Objectifs du travail

Cette recherche a trois objectifs : (i) présenter les outils et techniques de la modélisation stochastique en général et ceux des intégrales stochastiques en particulier; (ii) passer en revue l'aspect théorique existante des applications des intégrales stochastiques à la théorie d'estimations de paramètres des modèles mathématiques stochastiques [37],[170], [171], [172], [122], [124], [22], [116], [21], [116], [117], [110], [31], [177], [17], [98], [141]; et (iii) présenter les applications de calcul stochastique à la modélisation économétrique de l'économie congolaise en vue d'orienter les décideurs congolais.

Revue de la littérature

La littérature sur le calcul stochastique est abondante et dynamique date depuis les travaux pionniers de Wiener, Itô, Stratonovich, Fisk, et Skorohod[87], [45], [97], [155], [111], [135].Cette évolution rapide est due au développement technologie des outils informatiques. [149] ,[61], [95], [106],[145] [82], [31], [49], [146] , Les livres références sont ceux de [92], [58], [88], [25], [105], [87], [136], [162], [50], [149], [147], [150]. Le domaine de l'estimation statistique a subi des avancés de cette théorie [37], [172], [173], [170], [1], [171], [122]. Les propriétés asymptotiques telles que la consistance forte ou faible, la normalité asymptotique, l'efficience asymptotique, etc. pour certains estimateurs de paramètres drift des équations différentielles de Itô observés à travers l'intervalle de temps, ont été étudiés durant les quatre dernières décennies.

3

La méthode de maximum de vraisemblance a été utilisée pour les équations différentielles stochastiques linéaires homogènes [154], [153] et les équations différentielles stochastiques non linéaires homogènes [115], [153]. Les méthodes d'estimation Bayésienne, de probabilité maximale, de contraste minimale, de M - estimation, et de distance minimale sont employées pour estimer les paramètres des équations différentielles stochastiques [115], [179]. Pour les équations différentielles stochastiques non linéaires et non homogènes, les méthodes de maximum de vraisemblance et Bayésienne [115], [154], [5]. Les études empiriques pour l'estimation des paramètres de processus de diffusion sont abondantes [153] , [5], [3],[4],[2], [116],[117].

La deuxième application des intégrales stochastiques de cette recherche est sur la théorie de filtre stochastique. L'objectif de filtre stochastique est d'utiliser les outils de probabilité pour estimer les processus stochastiques non observables qui apparaissent dans plusieurs domaines tels que la com-munication,target tracking, et la mathématique de finance [177]. Ces cinq dernières décennies les recherchent ne cessent de croitre abondamment dans l'estimation de paramètres des équations différentielles stochastiques et la théorie de filtre stochastique [22] , [173],[10], [23],[161], [110], [116], [21] , [31], [177], [16], [17], [98] , [141].

L'application de calcul stochastique en économétrie est très importante car les incertitudes gouvernent le monde économique. On peut dire qu'en économie, l'incertitude est par tout et pour tout. La modélisation économétrie classique suppose que les variables et les paramètres sont non stochastiques (déterministes) et que le terme d'erreur est aléatoire [46],[168][129], [131], [130], [72],[128], [127], [80], [130]. Cette modélisation suppose l'absence d'incertitudes dans les variables et les paramètres ce qui ne reflète pas la réalité.

En macroéconomie, par exemple, les politiques économiques prises sur base de cette modélisation sont erronées et inefficaces. Le calcul stochastique vient corriger en supposant que les incertitudes sont dans les variables et les paramètres. En économétrie des séries temporelles, par exemple, le concept stochastic a progressivement documenté la théorie économétrique pour mesurer l'incertitude observée. Avec les modèles GARCH ont utilité les concepts stochastic volatility Model pour mesurer la volatilité stochastique [57], [60],[36].

4

Contribution scientifique originale

Cette recherche a comme contribution principale de tracer la nouvelle direction de la théorie économétrique basée sur les calculs stochastiques en comblant l'écart qui existe entre la théorie et la pratique.

En effet, cette étude a confronté la théorie de l'économétrie de processus de diffusion aux données congolaise théorie d'estimation optimale. Cette étude donne deux résultats : (i) pour la première application, le résultat de l'estimation montre que l'inflation observée à Kinshasa est un processus de diffusion généré par l'équation différentielle stochastique dont le coefficient de persistance est 54 pour cent(ii) pour la seconde, les contributions de différents facteurs explicatifs, les investissements et la main d'oeuvre, du bien - être économique congolais sont des processus stochastiques.

Hypothèses

Dans ce travail deux hypothèses ont été retenues à savoir : (i) cette recherche suppose que les variables et les paramètres sont des processus stochastiques, i.e., les incertitudes peuvent être observées ou non dans les variables et les paramètres du modèle économétrique. Pour bien appliquer les techniques aux données congolaises, deux modèles séparés ont été faits avec des données différentes. Dans le premier modèle suppose que la variable est un processus de diffusion et le second suppose que les paramètres des sont des processus stochastiques non observables.

Méthodologies utilisées

Pour des raisons de clarté,simplicité et synthèse, les démonstrations de théorèmes et propositions ne sont pas présentées ici mais le lecteur intéressé peut consulter les références mentionnées. Nous avons passer en revue la théorie des processus stochastiques en bien maitriser

Limitation du travail

Cette étude présente deux limites principales : (i) cette recherche fait appel aux théories mathématiques et statistiques complexes, (ii) les applications

5

sont faites sur les données macroéconomiques congolaises.

Canevas du travail

Hormis l'introduction et la conclusion, ce travail est subdivisé en quatre chapitres. Le premier aborde les préliminaires mathématiques sur les processus stochastiques. Le deuxième chapitre introduit la théorie des équations différentielles stochastiques et les intégrales stochastiques. Le troisième présente les applications des intégrales stochastiques à la théorie de l'estimation statistique. Et le dernier chapitre présente deux applications de la théorie à l'économie congolaise.

6

Chapitre 1

Préliminaires mathématiques

Nous donnons un court résumé des théorèmes et définitions que nous allons utiliser dans les autres chapitres. Ce chapitre présente les fondements mathématiques élémentaires sur les théories de la mesure et intégration, probabilité, et des processus stochastiques.

1.1 Eléments de la théorie de la mesure et intégration

Définition 1.1.1. Soit X un ensemble abstrait (par exemple R). Une tribu (également appelée u - algèbre),e sur l'ensemble X est une famille de sous - ensembles de X telle que :

(i) X E e ;

(ii) VA E e,Ac E e ;

(iii) Si An E e, Vn E N alors UnENAn E e.

e est donc une classe non - vide de parties de X. e est appelé la tribu des ensembles mesurables de X.

Nous considérons une fonction particulière qui permet entre autre de définir les fonctions en escalier : la fonction indicatrice notée 1A (également appelée fonction caractérique),application de X dans R.

Définition 1.1.2. [94] La fonction indicatrice de A est la fonction 1ç(x) valant 1 si x E A et 0 sinon .

lim infAn =

oo

n=0

\oo k=n

X

Ak = {w E S2,

n>0

1Ac

< oo}

7

On a les propriétés suivantes :

1Ù(x) = 1,

1A,(x) = 1 - 1A(x),

1AnB(x) = 1A(x)1B(x).

Pour une réunion de deux ensembles, on a

1AUB(x) = 1A(x) + 1B(x) - 1AnB(x).

Définition 1.1.3. Soit (S2, T) un espace mesurable. Une subdivision de S2 est un ensemble finie D d'ensembles mesurables (D = {A1, ..., An} C T) qui sont mutuellement disjoint et dont la réunion est S2.

Définition 1.1.4. Soit (S2, T) un espace mesurable. Une fonction u : T ? R+ est appelée une mesure (sur l'espace mesurable (S2, T) ou sur la tribu T) si elle vérifie les conditions suivantes :

(i) u(0) = 0 ;

(ii) u est u - additive : si, pour tout n E N, on a An E T et si les An sont deux à deux disjoints (n =6 m An f1 Am = 0), alors on a u(UAn) = Ioon=0 u(An).

Définition 1.1.5. Un espace mesuré est un triplet (S2, T,u), où S2 est un ensemble, T est une tribu sur S2 et u est une mesure sur T.

La proposition suivante donne les propriétés d'un espace mesuré.

Proposition 1.1.0.1. Soit (S2, T, u) un espace mesuré. Alors u a les propriétés suivantes

(i) (additivité). Si A1, ..., An E T sont deux à deux disjoints, alors u(UAi) = Ini=1 u(Ai)

(ii) (Croissance). Si A, B E T avec A C B, alors u(A) < u(B),

(iii) (Continuité pour des suites croissantes). Si (An)nEN est une suite croissante d'ensembles mesurables (Vn E N)

1.1.1 Limite inférieure et supérieure

Soit (S2, A) un espace probabilisable et An une suite d'événements de A.

Définition 1.1.6. La limite inférieure de la suite An est l'ensemble des w qui appartiennent à tous les An sauf peut - être un nombre fini

Définition 1.1.7. La limite supérieure de la suite An est l'ensemble des w qui appartiennent à une infinité de An

lim supAn =

n

n=0

oo

U k=n

X

Ak = {w ? S2,

n>0

1A~ = 8}

8

1.1.2 Espaces vectoriels normés

Définition 1.1.8. Un espace préhilbertien (réel)(S2, h.i) est un espace vectoriel (réel) S2 sur lequel est défini un produit scalaire hi : S2 × S2 ? 18 vérifiant les propriétés suivantes :

(i) (Positivité)hx, xi > 0 si x =6 0, ?x ? S2

(ii) (Symmétrie)hx, yi = hy, xi,?x, y ? S2

(iii) hc1x1 + c2x2, yi = c1hx, yi + c2hx, yi pour tous c1, c2 ? 18,?x, y ? S2.

Ces propriétés ont pour conséquence immédiate l'inégalité de Cauchy -

Schwarz : |hx, yi| = hx, xi2 hy, yi2 et le produit scalaire induit une norme sur

X :

k x k= hx, xi2.

Un espace de Hilbert est un espace pré-hilbertien complet.

Soient (S2, 3 , u) un espace mesuré. Si f ? ,C1p(S2, 3 ), alors

k f k1=k f k= fn |f|du.

Théorème 1.1.1. (Théorème de Hölder) Soit 1 = p = +8. Si f ? I[p(X, 3 , u) et g ? I[q(X, 3 , u), alors fg ? I[1(X, 3 , u) et

k fg k1=k f kpk g kq

avec égalité lorsque 1 = p = +8 si et seulement si u - presque partout sur X, on a

k g kqq |f(x)|p =k f kpp |g(x)|q.

Théorème 1.1.2. (Théorème de Minkowski) Soit 1 = p = +8. Si f, g ? I[p(X, 3 , u), alors f + g ? I[p(X, 3 , u) et

k f + g kp=k f kpk g kp

avec égalité lorsque 1 = p = +8 si et seulement si u - presque partout sur X, on a

k g kp f(x) =k f kp g(x).

Théorème 1.1.3. (Théorème de Riesz - Fisher) Soit 1 = p = +8. Si f, g ? I[p(X, 3 , u).L'espace (,Cpu(X, 3 , kkp) est un espace de Banach et la convergence en moyenne entraîne la convergence en mesure.

9

Définition 1.1.9. Soit f = PMj=1 ÀjXA3 une fonction étagée positive sur un ensemble S2 muni d'une tribu r et u : r -+ [0, +oo] une mesure positive. L'intégrale de la fonction f relativement à la mesure positive u est, par définition, la quantité

f(ù)du(ù) = Àju(Aj) E [0, +oo].

j=1
XM

Soit S2 un ensemble, r une tribu sur S2,u : r -+ [0, oo] une mesure positive. On dit alors que la fonction étagée f est une fonction étagée intégrable sur (S2, r) relativement à la mesure positive u. Soient f et g deux fonctions étagées sur S2(muni de la tribu r) telles que f < g partout, on a

Z Z

Ù f(ù)du(ù) < Ù g(ù)du(ù)

1.1.3 Propriétés de l'intégrale des fonctions étagées positives

Les propriétés auxquelles se plie l'intégrale des fonctions étagées positives (additivité,positivité homogénéité,monotonie) pourront évidemment s'étendre à l'intégrale des fonctions mesurables positives. De fait, le résultat crucial ici est le théorème de Beppo Levi qui donne le résultat intéressant pour la convergence croissante des fonctions mesurables positives.

Théorème 1.1.4. (Théorème de Beppo Levi)[178] Soient (fn)n>1 une suite croissante de fonctions (S2, r) - ([0, oo], B) mesurables sur un ensemble S2 muni d'une tribu r et f la limite de la suite fn lorsque n tend vers +oo. Alors f est aussi (S2, r) - ([0, oo], B) mesurable et si u : r -+ [0, oo] est une mesure positive, on a fdu = limn-00(RÙ fndu) E [0, +oo] et que si À > 0, on a

RÙ(Àf)du = ÀRÙ fdu.

Théorème 1.1.5. (Lemme de Fatou) Soit S2 un ensemble,r une tribu sur S2, et u : r -+ [0, oo] une mesure positive. Soit (fn)n>1 une suite de fonctions

(S2, B mesurable, on a alors (lim infn fn) du < lim infn I R fndu I .

10

1.1.4 Produit des espaces mesurés

Définition 1.1.10. Soit , ô, u) un espace mesuré. La mesure u est dite ó - finie s'il existe une suite (An)n E N d'éléments de ô (que l'on peut supposer croissante) telle que u(An) < oo pour tout k et que

Ù = U An.

n

Proposition 1.1.5.1. Soient (Ù1, ô1, u1) et (Ù22, u2) deux espaces mesu-rés,les mesures u1 et u2 étant toutes les deux ó - finies. Il existe alors une unique mesure u1 ®u2 : ô1 ® ô2 -+ [0, oo] telle que,pour tout A E ô1,pour tout B E ô2, on ait ô1 ® ô2(A x B) = ô1(A) x ô2(B)(toujours avec la convention 0 x oo = 0).

L'unique mesure positive sur la tribu produit est appelé ainsi mesure produit de u1 et u2. Plus généralement, si E désigne un élément quelconque de ô1 x ô2, les fonctions x E ó1 -+ u2(Ex), Ex := y E ó2; (x, y) E E, y E ó2 -+ u1(Ex), Ex := y E ó1; (x, y) E E sont respectivement (Ù1, ô1) - ([0, oo], B) et (Ù22) - ([0, oo], B) mesurables et on a

(u1 ® u2)(E) = f1 u2(Ex)du1(x)

= f~2 u1(Ey)du2(y).

Théorème 1.1.6. (Théorème de Fubini - Tonelli)[178] Soient j, ôj, uj), j = 1, 2, deux espaces mesurés, les mesures u1 et u2 étant ó - finies ô1 ® ô2 la tribu produit et u1 ® u2 : ô1 ® ô2 -+ [0, oo] la mesure produit définie à la proposition précédente. Pour toute fonction f(Ù1xÙ2, B mesurable, les fonctions

Zx E Ù1 -+ Ù2 f(x, y)du2(y),

Zy E Ù2 -+ Ù1 f(x, y)du1(x)

sont respectivement (Ù1, B) et (Ù2, B) mesurables et on a :

f(x, y)d[ui ®u2](x, y) = fel [ f~2 f(x, y)du2(y)] du1(x)

fe1xÙ2

fg.22 [ fs~1 f(x, y)du1(y)] du2(y)

Théorème 1.1.7. (Théorème de Fubini)[178] Soit f une fonction

(Ù1 xÙ2, B) mesurable et intégrable relativement à la mesure produit u1 ®u2.

11

Pour u1 presque partout dans SZ1, la fonction fx : y E S22 -+ f(x, y) est intégrable (relativement à la meure u2 ;de plus, la fonction x -+ fÙ2 f(x, y)du2(y)

se prolonge en une fonction (SZ1, B) mesurable, intégrable relativement à la mesure u1 et l'on a la formule :

fÙ12 f(x, y)d[u1 ® u2](x, y) = fÙ1 [ fÙ2 f(x, y)du2(y)] du1(x).

1.1.5 Conditionnement et indépendance de probabilité

[56] Si A est un événement de probabilité P(A) > 0, la mesure de probabilité conditionnelle, A étant donné, associe à tout événement B la probabilité

P(B | A) := P(BnA)

P (A) .

La formule du conditionnement en chaine s'exprime en disant que si n > 2 et A1, A2, ..., An est une suite den événement tels que P(A1, A2, ..., An) > 0, on a l'identité :

P(A1, A2, ..., An) = P(An | A1, ..., An_1)P(An_1 | A1, ..., A2)...P(A2 | A1)P(A1).

On dit qu'une suite (An) d'événement est un système complet si

(i) i =6 j = AZ n Aj = Ø (les événements sont deux à deux incompatibles)

(ii) P(En An) = En P(An) = 1 (presque sûrement l'un des événements An se réalise).

Deux événements A et B sont indépendants si l'on a P(AnB) = P(A)P(B). Soit (Xn) une suite de variables (mutuellement) indépendantes si pour toute suite finie (i1 < ... < ir) d'entiers telle que r > 2 et toute suite (B1, ..., Br) d'ensembles boréliens, on a l'identité

P{XZ1 E B1...XZr E Br} = P{XZ1 E B1}....P{XZr E Br}.

1.2 Espérance conditionnelle

Dans ce point un rappel sur les règles de calcul des espérances conditionnelles, auquel nous nous sommes constamment reportés pour le traitement de la théorie des martingales.

Soient X et Y deux variables aléatoires avec Y réelle et X prenant ses valeurs dans un ensemble fini ou dénombrable.

12

Définition 1.2.1. Soit X une variable aléatoire à valeurs dans un ensemble E fini ou dénombrable dont les points sont notés {x1, x2, ..., xn, ...}. Soit Y une autre variable aléatoire réelle, définie sur le même espace de probabilité (Ù, F,P). Si P(X = xj) > 0, l'espérance conditionnelle de Y sachant {X = xj} est le nombre E(Y |X = xj) = EQ3(Y ),espérance de Y pour Qj, où Qj est la probabilité sur (Q, F) donnée par Q(A) = P(A|X = xj), pourvu que EQ3(|Y |) < oo (i.e.,Y est Qj - intégrable).

Lorsque Y est elle-même une variable aléatoire discrète prenant ses valeurs dans {y1, y2, ...} pour Y,on obtient le résultat suivant.

Théorème 1.2.1. Dans la situation précédente, pour tout j tel que

P(X = xj) > 0 on a E(Y |X = xj) = Ek1 ykP(Y = yk|X = xj) pourvu que la série ci - dessus soit absolument convergente.

Définition 1.2.2. Soit X une variable aléatoire à valeurs dans un espace E fini ou dénombrable, et Y une variable aléatoire réelle définie sur le même espace de probabilité. L'espérance conditionnelle deY sachant X est

E(Y |X) = f(X) où f est donnée par la définition précédente ()et pourvu que cette fonction f soit bien définie.

Si par exemple X est une application de S2 dans Rn, la tribu engendrée par X est

o-(X) = X-1(Bn) = {F E SZ : X-1(93) = F pour un 93 E Bn}.

Définition 1.2.3. Soit Y E L2(S), F, P). L'espérance conditionnelle de Y sachant X est l'unique élément Y de L2(SZ, cr(X), P) qui vérifie

E(YàZ) = E(Y Z) pour tout Z E L2(SZ, u(X), P). On note cette espérance conditionnelle par E(Y |X).

Définition 1.2.4. Soit Y E L2(SZ, F, P) et G une sous-tribu de F. L'espérance conditionnelle deY sachant G est l'unique élément E(Y |G) de L2(SZ, G, P) qui vérifie E(Y Z) = E(E(Y |G)Z) pour tout Z E L2(SZ, F, P).

Théorème 1.2.2. [90] Soit Y E L2(Q, F, P) et G une sous-tribu de F.

(i) Si Y > 0 alors E(Y |G) > 0,

(ii) Si G = u(X) pour une variable aléatoire X à valeurs dans Rn,il existe une fonction borélienne f sur R telle que E(Y |G) = f(X),

(iii) E(E(Y |G)) = E(Y ),

(iv) L'application Y -+ E(Y |G) est une application linéaire.

Théorème 1.2.3. Soit Y une variable aléatoire positive ou intégrable sur (S), F, P) et G une sous - tribu. Alors E(Y |G) = Y si et seulement si Y est G-mesurable.

13

Théorème 1.2.4. Soit Y E L1, F, P) et si X est une variable aléatoire indépendante de Y , on a E(Y |X) = E{Y }.

Théorème 1.2.5. Soit X, Y des variables aléatoires réelles sur , F, P) et G une sous - tribu de F par rapport à laquelle X est mesurable. On a alors E(XY |G) = XE(Y |G, dans chacun de deux cas suivants:

(a) les v.a. X, Y et XY sont intégrables,

(b) les v.a. X et Y sont positives.

Théorème 1.2.6. [90] Soit (Yn)n=1 une suite de variables aléatoires réelles sur , F, P) et G une sous - tribu.

(i) (Convergence monotone.)Si les Yn sont positives et croissent p.s. vers une limite Y ,alors

limn?8 E(YnjG) = E(Y |G) p.s. ;

(ii) (Lemme de Fatou.)Si les Yn sont positives, on a E(lim infn?8 Yn|G) < lim inf E(Yn|G) p.s.;

(iii) (Théorème de convergence dominée de Lebesgue.) Si les Yn convergent p.s. vers une limite Y , et si on a Yn| = Z pour tout n et pour une certaine v.a. Z E L1,F,P),alors

lim

n?8

E(Yn|G) = E(Y |G) p.s..

1.2.1 Variables aléatoires

Un processus stochastique est un ensemble des variables aléatoires (Xi, t E Ø) dans un espace de probabilité (Ù, t9, P). Dans le sens général, les processus stochastiques sont des fonctions X(t, w) dépendant du temps. Pour une éventualité w fixé,X(t, w) sont des variables aléatoires sur (Ù, t9, P) [135]

Le processus stochastique X est dit être adapté si Xt E Øi pour tout t,où Øt représente

Interprétation du paramètre t comme index de temps introduit un aspect dynamique : pour modéliser le fait que l'incertitude des événements de Ù devient de moins en moins incertaine lorsque le temps s'écoule, i.e. on possède de plus en plus d'information, on introduit la notion de filtration.

1.2.2 Modes de convergence

On rappelle succinctement les définitions des différents modes de convergence des variables aléatoires. Ces éléments sont tirés de [94]. Pour une ana-

14

lyse plus approfondie le lecteur intéressé peut consulté [29],[30], [14]. La suite de variables aléatoires Xn converge presque surement (p.s.) vers la variable aléatoire X, si la convergence a lieu sauf peut - être pour un ensemble de mesure négligeable.

La suite de variables aléatoires Xn converge dans Lp vers la variable aléatoire X si

Proposition 1.2.6.1. La suite de variables aléatoires réelles Xn converge en probabilité si et seulement si pour tout r > 0,

supE(|Xn+k - Xn|p) P-? 0 quand n ? 8.

La suite de variables aléatoires réelles Xn converge en probabilité si et seulement si pour tout r > 0,

P-?

IE(sup|Xn+k - Xn| > r) 0 quand n ? 8.

Définition 1.2.5. Une suite de variables aléatoires réelles Xn est uniformément intégrable si

sup \ ( Ixn

|Xn /~ I dIE ? 0 quand n ? 8

|>0

autrement dit si pour tout e > 0, il existe a tel que pour tout n,

f

|Xn|dIE |Xn|>a < e.
1

e JC1<0 |y - x| < c2|yi - xi|Pt,x(t + e, dy) = c2e f Pt,x(t + e, dy)

y-x|>c

flimkXn - Xkp = lim( |Xn - X|pdIE)1/p = 0.

La suite de mesure positives bornées un converge faiblement vers u, si pour toute fonction continue sur R qui tend vers zéro à l'infini, on a

f f

lim fdun = du.

La suite de mesures positives bornées un converge étroitement vers u, si pour toute fonction continue bornée de R

f f

lim fdun = du.

15

La suite de mesures positives bornées un converge étroitement vers u si et seulement si un converge faiblement vers u et si

limun(R) = u(R).

La suite de variables aléatoires Xn converge en probabilité vers la variable aléatoire X si

P(|Xn - X| = 6) ? 0,?E > .0

La suite de variables aléatoires Xn converge en loi vers la variable aléatoire X si les mesures Px convergent étroitement vers la mesure Px.

Les modes de convergences sont liés entre eux : Certains en impliquent d'autres.

Proposition 1.2.6.2. La convergence dans Lp entraîne la convergence en probabilité si la suite Xn converge vers X dans Lp, alors Xn converge vers X en probabilité

Xn -? X Xn -? X

Proposition 1.2.6.3. La convergence presque sûrement entraîne la convergence en probabilité

p.s.

Xn --? X Xn-? X

P

Proposition 1.2.6.4. La convergence en probabilité entraîne la convergence en loi

Xn -? X Xn -? X

Soit Xn une suite de variables aléatoires réelles.

Proposition 1.2.6.5. La suite de variables aléatoires réelles Xn converge en probabilité si et seulement si pour tout r > 0,

supP(|Xn+k - Xn| > r) ? 0 quand n ? 8.

Proposition 1.2.6.6. La suite de variables aléatoires réelles Xn converge en probabilité si et seulement si pour tout r > 0,

supE(|Xn+k - Xn|p) ? 0 quand n ? 8.

La suite de variables aléatoires réelles Xn converge en probabilité si et seulement si pour tout r > 0,

P(sup|Xn+k - Xn| > r) P-? 0 quand n ? 8.

16

1.3 Processus stochastiques

Dans cette section nous donnons une brève présentation sur la notion des processus stochastiques tels que les chaines de Markov, Martingales, les mouvements browniens.

1.3.1 Processus de Markov

Soit (S2, T, P) un espace de probabilité et (E, B) l'espace des états, B désigne la tribu des boréliens de E. Un processus Xt est un processus de Markov si pour tout u et t > 0 et pour tout T E B, on a

P(Xt+u E T|Xs, s < t) = P(Xt+u E T|Xt)

Ce qui signifie que le processus ne dépend que du dernier instant et non de tout son histoire.

La probabilité de transition pour passer de l'état x au temps s à un étant appartenant à T à l'instant t est notée par s < t

Ps,t(X, T = p(s, x; t, T) = P(Xt E T|Xt = x).

La fonction T -+ T) = P(Xt E T est une probabilité sur T . La probabilité de transition vérifie l'équation de Chapman - Kolmogorov qui s'écrit sous les formées suivantes. Soit s < u < t tel que Xu = y, on a

ZPs,t(X, T) = Ps,u(x, dy)Pu,t(y, T).

et dans le cas d'un espace E dénombrable

XPs,t(X, z) = Ps,u(x, y)Pu,t(y, z).

yEE

Le processus Xt est un processus de Markov homogène si pour tout sett de T, la transition

p(s, x;t, B) = p(x; ô, B)

ne dépend que de ô = t - s.

17

Processus de diffusion

Définition 1.3.1. [111] Un processus de Markov Xt de réels dans Rn, a < t < b, est appelé un processus de diffusion si ses probabilités de transition {Ps,x(t, .)} satisfait les trois conditions suivantes pour tout t E [a, b], x E Rn, et c > 0 ;

(1) limå?0 1 å fy-x|=c Pt,x(t + e, dy) = 0

(2) limå?0 E fy-x|<c(yi - xi)Pt,x(t + e, dy) = pi(t, x) existe.

(3) limå?0 E fy-x|<c(yi - xi)(yj - xj)Pt,x(t + e, dy) = Qi j(t x) existe .

La condition (1) implique que le processus stochastique Xt ne peut pas avoir des sauts instantanés ; De plus on observe que pour tout c2 > c1 > 0 qui tend à 0 quand e -+ 0 dans l'équation (1). Il s'en suit que la limite dans l'équation (2) est indépendante de la constante c. De même, la limite dans l'équation (3) est aussi indépendante de la constante c. Ainsi pi(t, x) et Qi,j sont respectivement donnés( par pi(t, x) = limå?0 É fRn(yi - xi)Pt,x(t + e, dy) Qi,j(t, x) = limå?0 E fy-x|<c(yi - xi)(yj - xj)Pt,x(t + e,dy)

Définition 1.3.2. [111] Le vecteur p(t, x) = (p1(t, x), p2(t, x), ..., pn(t, x)) et le paramètre Q(t, x) = [Qi,j(t, x)]i,j sont respectivement appelés les coefficients dérive (drift) et volatilité (diffusion) du processus de diffusion Xt.

Il est important de note qu'une classe spéciale de processus de diffusion donnée par la solution des équations différentielles stochastiques.

Processus de Lévy

Définition 1.3.3. [94] Un processus Xt adapté à la filtration Tt est un processus de Lévy si X0 = 0, si les trajectoires de Xt sont continues à droite et avec des limites à gauche (càdlàg) et tel que pour tout s, t > 0 la variable Xt+s - Xt est indépendante de la tribu Tt et de même loi que Xs.

Théorème 1.3.1. [94] Soit Xt un processus de Lévy adapté à la filtration Tt et de la loi ut.

(1) Les lois ut forment un sous - groupe de convolution

ut * us = ut+s

(2) Les processus Xt satisfait la propriété de Markov pour le noyau ZPt(x, A) = 1A(x + y)ut(dy)

18

Théorème 1.3.2. [94](Lévy - Khintchine) La fonction caractéristique d'un processus de Lévy Xt est de la forme

E(eièXt) = e-tø(è)

où ø(è) est l'exposant caractéristique de la loi indéfiniment divisible de Xt qui s'écrit

(è) = iaè +1

2u2è2 + f(1 - eièx + ièx1(|x|<1))F(dx)

La quantité a est réelle, a E 1[8,ó > 0, et F est une mesure concentrée sur ]0, +oo[ telle que

 

A

(1 x2)F(dx) < oo.

Le triplet (a, ó, F) est appelé triplet de Lévy - Khintchine associé au processus Xt.

Processus du second ordre [94],

Définition 1.3.4. Un processus Xt est un processus du second ordre si E|Xt|2 < oo. Une série chronologique est un processus du second ordre à temps discret.

Matrice stochastique

Une matrice carrée M dont ses composantes sont toutes strictement positives est appelée matrice positive. Aussi une matrice M des éléments réels est dite non négative (notée M > 0) quand toutes ses éléments sont non négatifs : (aij) > 0, Vi = 1, 2, ..., N j = 1, 2, ..., L. Une matrice M de N x N est une matrice stochastique si ses éléments sont des nombres réels satisfaisant les conditions suivantes [9] :

1 0 < (mij) < 1, Vi, j = 1, 2, ..., N

2 chaque colonne de M est une distribution de probabilité,c'est - à - dire, INi=1(mij) = 1 V

Les éléments de la matrice stochastique sont des probabilités, des nombres réels dans l'intervalle fermé [0, 1]. Conséquemment, les matrices stochastiques sont des matrices non négatives. La première conséquence de ces conditions est que toutes les puissances successives de Mp sont aussi des matrices stochastiques :

N i=1

(mij)p =

XN i=1

(mij)p-1 =

N i=1

(mij)2 = ... =

N i=1

N i=1

(mik)(mkj) = 1

19

La seconde conséquence, lorsque on manipule une distribution de probabilité d'une matrice stochastique, cette dernière produit une autre une distribution de probabilité.

1.3.2 Chaînes de Markov

La théorie de chaines de Markov est couramment utilisée dans plusieurs domaines à cause de sa rigueur scientifique et sa simplicité dans la modélisation du monde réel. Dans cette étude nous allons parler, de façon brève, de chaines de Markov car ces dernières sont des processus stochastiques particuliers.

Chaines de Markov à temps discret. Supposons Pij est une probabilité fixée indépendante du temps telle que

P(Xn+1 = i | Xn = j, Xn-1 = in-1, ··· , X0 = i0) = Pij, n = 0

oïi,12 i, j, i0, i1, · · · , in-1 ? espace d'état .

Théorème 1.3.3. (Propriétés de Markov forte)[Loustau,p.] Soit (Xn)n>0 une chaine de Markov (ii, P). Alors, quelque soit x ? E, conditionnellement à {XT = x} (l{T < 8},(XT+p)p>0 est une chaine de Markov (Sx, P) indépendante de (X0, ..., XT). On peut s'écrire, quelque soit A ? TT :

P(A

n XT+1 = x1, ..., XT+p = xp|XT = x, T < 8) = P(A|XT = x,T < 8)Px(X1 = x1, ..., Xp = x Classification des états. Les états d'une chaîne de Markov se repar-

tissent en classes que l'on définit à partir de la matrice de transition

Définition 1.3.5. On dit que l'état j est accessible à partir de l'état i, on est conséquent de l'état i, s'il existe un entier n > 0 tel que p(n)

i,j > 0. On

écrit : i j.

Proposition 1.3.3.1. (i) La relation d'accessibilité entre états est réflexive et transitive.

20

(ii) Soient i, j deux états ; les deux propriétés suivantes sont équivalentes.

(a) l'état j est accessible à partir de l'état i, soit i j.

(b) le processus, portant de i, passe par j avec une probabilité strictement positive.

Définition 1.3.6. On dit deux états i et j communiquent et on l'écrit i ,

si on a à la fois i j etj

i.

Proposition 1.3.3.2. La relation de communication entre états est une relations d'équivalence. Pour tout i, on a p(0)

i,i = 1, tout état communique avec

lui - même.

Un état est appelé état de retour, s'il existe n > 1 tel que p(n)

i,i = 0. Il existe des états i tel que pour tout n > 1 (donc 0 exclu ) on dit p(n)

i,i = 0. De tels états sont p(n)

i,i = 0appelés états de non - retour. Pour la relation de communication l'ensemble E des états se partitionne en classes d'équivalence, disjointes et non vides, dites classes indécomposables. Certaines classes peuvent ne comporter qu'un seul élément ; ce sont les singleton comme exemples, mentionnons :

* un état de non - retour i :p(0)i,i = 1, p(n)

i,i = 0 pour n > 1;

* un état absorbant i :p(0)i,i = 1, p(n)

i,i = 1 pour n > 1.

Définition 1.3.7. S'il n'y a qu'une seule classe pour la relation de communication, autrement dit, si tous les états communiquent entre eux, la chaîne est dite irréductible.

Définition 1.3.8. On dit que l'état récurrent ou transient si pi,i < 1. Théorème 1.3.4. (Critère de récurrence) Un état j est récurrent ou transient selon que

X

n>0

X

n>0

pi,i = +8 (n)

ou que

pi,i < +8 (n)

Proposition 1.3.4.1. On a les identités

1

Pj,j(s) = 1 - Fj,j(s), Pi,j(s) = Fi,j(s) (i =6 j),

que l'on peut réunir en une seule formule

Pj,j(s) = äi,j + Fi,j(s)Fj,j(s)

21

Proposition 1.3.4.2.

X X

P(n)

j,j (s) = Si,j + fi,j

n0 n0

(s)f(n)

j,j (s)

X

n>0

1

pi,i =
(n)

1 - fj,j

ou que

X

n~0

(Z = ) J,7 (Z ~ j

p )

1 - fj,j

1.3.3 Temps d'arrêt

Une variable aléatoire T : (S2, 3 , P) -+ N* un temps pour la filtration 3n si pour tout entier n, l'événement (T = n) E 3n.

Proposition 1.3.4.3. Si S et T sont deux temps d'arrêt alors sup(S, T) = S V T et inf(S, T) = S A T sont des temps d'arrêt. Si (Sn) est une suite de temps d'arrêt alors sup(Sn) est un temps d'arrêt.

Proposition 1.3.4.4. [94] Si (Xn) est une sous-martingale(respectivement martingale, surmartingale), T un temps d'arrêt alors, la suite (XTAn) est une sou - martingale(respectivement martingales, surmartingale).

On dit que le processus X = (X(t) : t > 0) est adapté au processus Z = (y(t) : t > 0) si pour tout t > 0 il est existe une fonction gt = (.) telle que X(t) = gt(Z(t) : 0 < S < t). On dit que Mn : n > 0) est une martingale adaptée à (Z(t) : t > 0) si

(i) E | Mn |< oo pour n > 0,

(ii) (Mn : n > 0) est adaptée à Zn : n > 0),

(iii) E[Mn+1 | Z0, ..., Zn] = Mn presque surement pour n > 0.

On dit que Mn : n > 0) est une sous-martingale (surmartingale) adaptée à (Z(t) : t > 0) si

(i) E | Mn |< oo pour n > 0,

(ii) (Mn : n > 0) est adaptée à Zn : n > 0),

(iii) E[Mn+1 | Z0, ..., Zn] > Mn (E[Mn+1 | Z0, ..., Zn] < Mn) presque surement pour n > 0.

Proposition 1.3.4.5. Soit M = Mn : n > 0) une martingale adaptée à Zn : n > 0) et On : n > 0) est une suite de variables aléatoires bornées qui est adaptée à Zn : n > 0). Alors Mn - I Oj-1 A Mj est une martingale adaptée

22

à Zn : n > 0) où OMj = Mj - Mj-1 pour j > 1 et E[(Mj - M0)2] = PE[02j-1(OMj)2].

Définition 1.3.9. Un processus stochastique X(t) : a < t < b est appelé continu ï612 droite si toutes les trajectoires d'échantillon sont des fonctions continues à droite sur [a, b].

Définition 1.3.10. Une martingale M = (Mt, IFt), t E R+ est dite carrée - intégrable

si

sup E(M2t ) < oo. |{z}

t

Nous donnons le théorème de d'inégalité de Doob d'une sous - martingale donne les valeurs maximales attentes par une sous-martingale.

Théorème 1.3.5. (Inégalité de Doob) Soit X(t), a < t < b une sous - mar-

tingale continue à droite. Alors VA > 0, P[ sup

|{z}

a<t<b

X(t) > A] < 1ë[X(b)+] où

X(b)+ est la partie positive de X(b),c'est- à-dire,X(b)+ = max(X(b), 0). En particulier, si X(t) est une martingale continue à droite, alors pour tout

P[ sup

|{z}

a<t<b

X(t) > A] = 1ë[X(b)+]

Le théorème d'arrêt de Doob montre que l'inégalité des sous - martingales est conservée par passage à un temps d'arrêt borné.

Théorème 1.3.6. [94](Théorème d'arrêt de Doob) Soi Xn une surmartingale (resp. martingale,sous - martingale), S et T deux temps d'arrêt bornés (S < T < k). Les variables XS et XT sont dans L1 et on a

E(XT FS) = XS, (respectivement =, <)

1.3.4 Martingales à état indépendant

Nous considérons la classe des processus à état dépendant S de la forme Mt = f(Xt) Xt : t > 0) est une chaine de Markov.

Proposition 1.3.6.1. Supposons que f est une fonction telle que

EX f(Xt) < oo pour t > 0 et x E S.

(i) Si f = P f, alors (f(Xt : t > 0)) est une martingale adapté à (Xt : t > 0),

(ii)

23

Si f = Pf, alors (f(Xt : t = 0)) est une surmartingale adapté à (Xt : t = 0),

(iii) Si f = Pf, alors (f(Xt : t = 0)) est une sous-martingale adapté à (Xt : t = 0),

Théorème 1.3.7. Soit (Mt : t = 0) une sous-martingale adapté à (Zt : t = 0). Alors pour X > 0,

P[max s.. {z }

0<k<t

Mk > X] = EM+

X .

t

La propriété de sous-martingale est préservée sous applications convexes.

Proposition 1.3.7.1. Soit ç : R ? R convexe. Si Mt : t = 0) est une martingale adaptée à (Zn : n = 0) pour laquelle E|ç(Mt)| < 8 pour n = 0, alors (ç(Mn) : n = 0) est une sous-martingale adaptée à (Zn : n = 0). Si ç est à la fois convexe et croissante et Mt : t = 0) est une sous-martingale pour laquelle |ç(Mt)|8 pour n = 0, alors (Mt : t = 0) est une sous-martingale adaptée à (Mt : t = 0).

Théorème 1.3.8. (Théorème de convergence des martingales)

(i) Soit Mt : t = 0) est une sous-martingale adaptée à (Zt : t = 0). Si E|Mt| < 8, alors il existe une variable aléatoire à valeur finie M8 telle que Mt ? M8 presque surement quand t tend vers 8.

(ii) Soit Mt : t = 0) est une sous-martingale non négative adaptée à (Zt : t = 0), alors il existe une variable aléatoire à valeur finie M8 telle que Mt ? M8 presque surement quand t tend vers 8.

Quand (Mt : t = 0) est une martingale,(ii) est appelée le théorème de convergence de martinga

1.3.5 Mouvement brownien

Le botaniste Robert Brown en 1827 pour décrire le mouvement irrégulier de particules de pollen dans un fluide. Le cadre d'application du mouvement brownien a largement dépassé l'étude des particules microscopiques pour être utilise en finance dans la modélisation des prix d'actions, historiquement depuis Bachelier en 1900.

Définition 1.3.11. [150](Mouvement brownien standard) Un mouvement brow-

nien standard vectoriel (d-dimensionnel) sur T = [0, T] ou R+ est un proces-

( ~

sus continu à valeurs dans Rd, (Wt)tET = W t 1 , ..., W t d tET tel que

(i)

24

W0 = 0

(ii) Pour tous 0 =< t dans T, l'accroissement Wt - Ws est indépendant de u(Wu, u = s) et suit une gaussienne centrée de matrice de variance - covariance (t - s)I - d où Id est la matrice d'identité d × d.

Définition 1.3.12. (Mouvement brownien standard,[Pham,p.6]) Un mouvement brownien standard vectoriel (d-dimensionnel) sur T = [0, T] ou R+ par

rapport à une filtration F = (ft)tET est un processus continu F-adapté à va-

( )

leurs dans Rd, (Wt)tET = W t 1 , ..., W t d tET tel que

(i) W0 = 0

(ii) Pour tous 0 =< t dans T, à l'accroissement Wt -Ws est indépendant de u(Wu, u = s) et suit une gaussienne centrée de matrice de variance - covariance (t - s)I - d où Id est la matrice d'identité d × d.

Définition 1.3.13. [94](Mouvement brownien fractionnaire) Soit Xt un processus. On dit que la loi de Xt est autosimilaire de facteur H si ?a > 0>, la loi de Xat est la même que la loi de aHXt. On suppose que Xt est un processus gaussien à accroissement stationnaires (Xt - Xs a même loi que Xt-s).Si H ? ]0, 1[, on dit que Xt est un mouvement brownien fractionnaire d'exposant H(appelé paramètre de Hurst). Dans le cas où H = 1/2, Xt est appelé le mouvement brownien fractionnaire standard.

1.3.6 Quelques modification du mouvement brownien

Les éléments développés ici peuvent être trouvés dans[94]. Les modification introduites sont toutes des processus de Markov dont les trajectoires sont presque sûrement continues.

Définition 1.3.14. (Mouvement brownien réfléchi) Soit {X(t) : t 0} un mouvement brownien. Le processus {Y (t) : t 0} {Y (t) :=| X(t) |, t 0} est appelé mouvement brownien réfléchi( à l'origine).

q2t

Proposition 1.3.8.1. On a : E[Y(t)] = ð et VarY (t) = (1 - 2 ðt).

Définition 1.3.15. (Le mouvement brownien absorbé) Dans la définition du mouvement brownien donnée c -dessus, on remplace la condition (1) X(0) par (1' X(0) = x > 0. On obtient le mouvement brownien commerce en x. Désignons par T le premier instant où ce mouvement brownien atteint la valeur 0 et introduisons le processus {Z(t) : t 0} défini par

Z(t) := {X(t), sit 6 T; 0, sit> T. (1.1)

25

Ce processus est appelé mouvement brownien absorbé ( à l'origine).

Définition 1.3.16. (Le mouvement brownien à dérive) Soient {X(t) : t 0} un mouvement brownien et , un nombre réel. Le processus {Y (t) : t 0}, où Y (t) := X(t) + ,it, est appelé mouvement brownien à dérive; la constante ,t est le paramètre de dérivé.

Si ,u = 0, le processus n'est plus symétrique et le principe de réflexion ne s'applique plus pour le calcul de la loi du maximum.

Proposition 1.3.8.2. Le mouvement brownien avec dérive a les propriétés suivantes :

(a) Y (t) = 0;

(b) le processus est à accroissement indépendants et stationnaire;

(c) pour toutt > 0, la variable aléatoire Y (t) suit la loi normale de paramètre (sit, /t).

Définition 1.3.17. (Le mouvement brownien géométrique) Soit {X(t) : t 0} un mouvement brownien. Le processus {Y (t) : t 0}, où Y (t) := exp(X(t)), est appelé mouvement brownien géométrique.

Lorsque le mouvement brownien sous - adjacent est à dériver, à même s'il est de la forme X(t) = t9î(t) + ,it (t) : t 0} est le mouvement brownien standard.

Proposition 1.3.8.3. Soient {î(t) : t 0} le mouvement brownien standard et {Y (t) : t 0} le processus géométrique défini par:

Y (t) = e((t)+ut). Alors

E[Y (t)] = et(u+ u2 2 )

V arY (t) = e2t(u+u2 2 )(etu2 - 1)

Définition 1.3.18. (Processus d'Ornstein - Uhlenbeck) Soient {X(t) : t 0} un mouvement brownien et a un nombre strictement positif. Le processus

{Y (t) : t 0}, ou Y (t) := e- át 2 (eát), est appelé processus d'Ornstein -
Uhlrnbeck.

Proposition 1.3.8.4. Pour tout t 0, on a E[Y (t)] = 0 et pour 0 < s < t < +00, on a :

á(t-s)

Cov(Y (s), Y (t)) = e- 2 .

Théorème 1.3.9. Le mouvement brownien standard {X(t) : t 0} est une

martingale par rapport à la famille {F; t 0} {F; t 0} est la tribu
engendrée par les variables Xs (0 s t).

26

1.3.7 Martingales et Semimartingales

La notion fondamentale dans l'analyse des processus markoviens est celle de martingale. Les martingales forment aussi la base de la théorie moderne d'intégration stochastique. Elles jouent un rôle important dans l'analyse des chaines markoviennes et des processus markoviens.

Définition 1.3.19. (Martingale) Un processus (Xt)t E T adapté est appelé surmartingale si E[Xt] < oo pour tout t E T et E[Xt | 3s] < Xs,p.s. pour tout 0 < s < t,s, t E T. X est une sous-martingale si -X est une surmartingale. On dit que X est une martingale si elle est à la fois une surmartingale et une sous - martingale.

Un exemple important de martingale est le mouvement brownien. Théorème 1.3.10. (Convergence des martingales)

(1) Soit X = (Xt)t>0 est une surmartingale cád-lág bornée dans £1 ( en particulier si elle est positive). Alors Xt converge p.s. quand t -+ +oo.

(2) Soit X = (Xt)t>0 est une martingale cád-lág dans £1 (en particulier si elle est positive). Alors Xt est uniformément intégrable si et seulement si Xt converge p.s. et dans £1 quand t -+ +oo vers une variable aléatoire X+oo. Dans ce cas,X+oo ferme X à droite, i.e. Xt = E[X+oo | 3t] pour tout t > 0.

Théorème 1.3.11. (Théorème d'arrêt des martingales) Soit M =(Mt)tET une martingale càd-làg et u, r deux temps d'arrêt bornés à valeurs dans T tel que u < r. Alors

E[Mô | 3ó] = Mó,p.s.

Corollaire 1.3.11.1. Soit X = (Xt)tET un processus càd-làg adapté.

(1) X est une martingale si et seulement si pour tout temps d'arrêt r borné à valeurs dans T, on a Xô E £1 et

(2) Si X est une martingale et r est un temps d'arrêt alors le processus arrêt Xô est une martingale.

Théorème 1.3.12. [150](Inégalité de Doob) Soit X = (Xt)tET une sous-martingale positive ou une martingale càd-làg. Alors pour tout temps d'arrêt

r à valeur dans T,on a :

~

P sup

|{z}

0=t=ô

~= E | Xô |

| Xt | = ë ë ,?ë > 0

~

E sup

|{z}

0=t=ô

~ Xt | =(pp )p E[ | Xô |pi,?A> 0 - 1

Définition 1.3.20. (Martingale locale) Soit X un processus càd-làg adapté. On dit que X est une martingale locale s'il existe une suite de temps d'arrêt

(rn)n=1 telle que lim

|{z}

n?+8

rn = +8 p.s. et le processus arrête Xôn est une

martingale pour tout n.

Proposition 1.3.12.1. Soit M = (Mt)t?T une martingale locale. Supposons

~que E sup |{z}

0=t=ô

~| Ms | < +8, ?t ? T. Alors M est une martingale.

Proposition 1.3.12.2. Soit M une martingale locale positive telle que M0 ? £1. Alors M est une surmartingale.

Proposition 1.3.12.3. Soit M = (Mt)t?T une martingale locale continue M0 = 0. Alors si M est à variation finie,M est une indistinguable de 0.

Théorème 1.3.13. (Variation quadratique)

(1) Soient M = (Mt)t?T et N = (Nt)t?T deux martingales locales dont l'une des deux est localement bornée (par exemple continue). Alors il existe un unique processus prévisible à variation finie, noté hM, Ni, nul en 0, tel que MN - hM, Ni soit une martingale locale.Cette martingale locale est continue si M et N le sont. De plus, pour tout t ? T,si 0 = tn0 = tn1 = ... = tnkn = t est subdivision de [0, t] de pas tendant vers 0, on a :

hM, Nit = lim

n?+8

Xkn i=k

(Mtni - Mtni-1)(Ntni - Ntni-1),

27

au sens de la convergence en probabilité. Le processus hM, Ni est appelé Crochet (Oblique) de M et N On dira de plus que M et N sont orthogonales si hM, Nh= 0 ce qui signifie que le produit MN est une martingale locale.

(2) Lorsque M = N, le processus hM, Ni, noté parfois hMi et appelé la variation quadratique de M ou le processus croissant de M, est croissant. De plus, on a la relation de polarisation

hM, Ni = 12(hM + N, M + Ni - hM, Mi - hN, Ni).

L'inégalité suivante est utile pour définir l'intégrale stochastique.

Proposition 1.3.13.1. (Inégalité de Kunita - Watanabe) Soient M et N deux martingales locales continues et á, 3 deux processus mesurables sur I muni de la tribu produit /3(T) ? F. Alors, on a pour tout t ? T :

f t ( f t )

0hásih/3sid | hM, Nis = 0 á2 sdhM, Nis ment.

2 ( f t

1 )

0 /32 sdhM, Nis

1

2

, presque sûre-

L'inégalité fondamentale suivante pour les martingales (locales) sera très utile lorsqu'on s'intéressera aux martingales locales définies par des intégrales stochastiques pour lesquelles on arrive souvent en pratique à calculer la variation quadratique.

Théorème 1.3.14. [150](Inégalité de Burkholder - Davis - Gundy) Pour tout p > 0, il existe des constantes positives cp et Cp telles que pour toute martingale locale continue M = (Mt)tET et tout temps d'arrêt r à valeurs dans T,on a

[ ]

p

cpE hMi ô 2 =E[sup

|{z}

0<t<ô

[ ]

p

| Mt |]p = CpE hMi ô 2

28

Proposition 1.3.14.1. (Martingale de carré intégrable) Soit M = (Mt)t?T une martingale locale continue. Alors M est une martingale de carré intégrable si et seulement si E[hMit] < +8 pour tout t ? T. Dans ce cas,

M2 - hMi est une martingale continue et si M0 = 0, on a :

E[hMiT].

E[M2 t ] = E[hMit], ?t ? T. De plus, M est bornée dans £2 si et seulement si E[hMit] < +8 et dans ce cas : E[M2 T] =

L'espace H2 c muni du produit scalaire (M, N)H2 c = E[hMiT] est un espace de Hilbert.

Le théorème suivant est connu sous le nom de théorème de décomposition de Doob-Meyer des surmartingales.

Théorème 1.3.15. (Décomposition de Doob - Meyer) Soit X une surmar-tingale càd - làg. Alors X admet une décomposition unique de la forme

X = X0 + M - A (1.2)

où M est une martingale locale càd-làg nulle en 0 et A est un processus prévisible croissant et nul en 0. Si X est positif, alors A est intégrable,i.e. E[AT] < +8, où AT = limt~T At p.s.

29

Définition 1.3.21. Une semimartingale est un processus càd - làg adapté X admettant une décomposition de la forme

X = X0 + M - A (1.3)

où M est une martingale locale càd - làg nulle en 0 et A est un processus prévisible croissant et nul en 0. Si X est positif, alors A est intégrable,i.e.

Théorème 1.3.16. (Théorème de Girsanov)[Pham [150],p.22] Soit Q « p et Z son processus de densité martingale. On suppose que Z est continu. Soit M une martingale locale continue. Alors le processus

Z 1

MQ = M - Z d(M, Z(

est une Q-martingalelocalecontinue De plus, si N est une martingale locale continue, on a

(MQ, ZQ(= (M, Z(

Si on a de plus Q ti P, i.e.,Z est strictement positif presque sûrement, alors il existe une unique martingale locale continue L nulle en t = 0, telle que :

1

Zt = exp(Lt - 2(L, L)t) =: Et(L), t E 7r, p.s. et L est donné par

t1

Lt = f Z3 dZ3, t E r, p.s.

La Q - martingale locale MQ s'écrit alors aussi

MQ = M - (M,L(.

Dans le cas d'un mouvement brownien, on a le résultat important suivant.

Théorème 1.3.17. (Cameron - Martin)[150] Soit W un mouvement brownien. Soit Q ti P de processus de densité martingale

dQ

dP |Ft = Et(L),

où L est une martingale locale continue. Alors le processus

WQ = W - (W,L(.

est un Q - mouvement brownien.

30

Il est important d'avoir des conditions assurant que (L) soit une martingale.

Proposition 1.3.17.1. (Condition de Novikov)[150] Soit L une martingale locale continue avec L0 = 0 telle que

E[exp(1 2hW,Lh T )] < +8.

Alors L est une martingale uniformément intégrable avec E[exp(L T

2

)] < +8

et (L). est une martingale uniformément intégrable.

Définition 1.3.22. (Le pont brownien) Soit {X(t) : t 0} un mouvement brownien standard. Le processus {Y (t) : 0 6 t 6 1brownien.}, où Y (t) := X(t)tX(t) est appelé pont brownien.

Presque toute trajectoire de ce pont est une courbe continue sur [0, 1] passant par les points (0, 0) et (1, 0)

Propriété 1.3.1. Les fonctions d'espérance et des variances - covariances du pont brownien sont données par:

(a) E[Y (t)] = 0 0 6 t 6 1 ;

(b) cov(Y (s),Y (t)) = s(1 - t)(0 6 s 6 t 6 1)

Proposition 1.3.17.2. Soient {X(t) : t 0} un mouvement brownien

standard et 0 < t1 < ... < tn < 1 une suite de nombres. Alors la loi de (X(t1),...., X(tn)), conditionnelle à {X(1) = 0} suit la loi normale N(0, F')

En particulier, pour 0 < s < 1, la loi de X(s) conditionnelle à {X(1) = 0} \/est la loi normale N(0, s(1 - s).

31

Chapitre 2

Equations Différentielles et

Intégrales Stochastiques

Ce chapitre a comme objectif de donner la formulation des équations différentielles stochastiques en clarifiant la différence entre équations différentielles stochastiques ordinaires et partielles. Certes, beaucoup de phénomènes aléatoires tant naturels qu'économiques apparaissent dans un environnement incertain et peuvent être modélisés sous forme d'équations différentielles. Le développement plus détaillé, avancé et récent des équations différentielles et intégrales stochastiques peut être trouvé dans les ouvrages [88],[89][12],[54], [92].

2.1 Calculs stochastique

Définition 2.1.1. [87] Pour X et Y E Q, on dit que X et Y sont équi-valent,i.e.,

X Y si X(t) - X(s) = Y (t) - Y (s) p.s. pour tout 0 s t.

clairement cette relation est une relation d'équivalence. La classe d'équivalence contenant X est représentée par dX et appelée différentielle stochastique de X. Par définition, js t dX(u) est le processus X(t) - X(s).

Soit dQ = {dX;X E Q}, di = {dM;M E i} et d = {dA;A E }. On introduit les opérations algébriques suivantes :

(i) Addition : dX + dY = d(X + Y ), pour X, Y E Q.

(ii) Multiplication : dX.dY = (MX, MY ), pour X, Y E Q. où MX et MY sont les parties martingales respectivement de X et Y .

(iii) â - multiplication : si ö E â et X E Q alors

Z t Z t

(ö.X) = X(0) + 0 ö(s, w)dMX(s) + 0

ö(s, w)dAX(s), t > 0

est définie comme un élément dans Q.

Comme d(ö.X) est uniquement définie a partir de ö et dX. Maintenant on définit un élément ö.dX de dQ par

ö.dX = d(ö.X)

.

Théorème 2.1.1. [87] L'espace de dQ avec les opérations (i) - (iii) est une algèbre commutative satisfaisant aux relations suivantes :

1. ö.(dX + dY ) = ö.dX + ö.dY

2. ö.(dX.dY ) = (ö.dX).dY

3. (ö + ø)dX = ö.dX + ø.dX

4. (ö.ø).dX = ö.(ø.dX)

pour ö, ø E â et dX, dY E dQ.

Si X1, X2, ..., Xd E Q et f est une fonction continue de classe C2 alors Y = f(X1, X2, ..., Xd) E Q et la différentiation totale de la fonction f est

dY =

d i=1

d

(?if).dXi + E (?i?jf).dXi.dXj, 2i,j=1

32

?if et ?i?jf sont les éléments de â définis respectivement par ?xi (X1, X2, ..., Xd) et ?2f

?f ?xi?xj (X1, X2, ..., Xd).

Si dX1, dX2,...., dXd E du et dXidXj = äijdt, i, j = 1, 2, ...., d, alors (X1(t), X2(t), ..., Xd(t)) est une martingale de Wiener de d dimensions.

33

2.2 Equations différentielles stochastiques

Cette section donne quelques notions importantes sur les équations différentielles stochastiques. L'objectif poursuivi ici est de faire la différence entre les équations différentielles stochastiques ordinaires et les équations aux dérivées partielles stochastiques. Ces formulations mathématiques ont une importance capitale car beaucoup de phénomènes stochastiques, par exemple économiques, sont produits en suivant ces types de modèles statistiques ([7],[8], [34],[26], [151],[58],[62],[87],[95],[101],[107],[68],[114], [113],[138],[145],[149],[62], [156],[88], [89],[162]).

2.2.1 Equations différentielles stochastiques ordinaires

Soit W(t) un processus stochastique satisfaisant le système suivant :

dW(t)' = á(W(t), t) + u(W(t), t)dW(t), W(0)' = W0

avec á(x,t) = (á1(x,t),· · · n(x,t)) et cr(x,t) = uij(x,t), 1 = i,j = n. On suppose que á(x, t) et u(x, t) sont mesurables dans Rn ×[0, T], et satisfaisant les conditions suivantes :

(1) condition lipschitzienne ku(t, x) - u(t, y)k = K|x - y| |á(t,x) - á(t,y)| = K|x - y|

(2) condition de croissance linéaire ku(t, x) - u(t, y)k2 = K(1 + |x|2) |á(t, x) - á(t, y)|2 = K(1 + |x|2)

et W0 est indépendant du mouvement brownien W(t),

E | W0 |2< 8.

Théorème 2.2.1 (Théorème de l'existence et unicité de solutions). Soient les équations ?? et Alors,il existe une solution unique W de kkkkkkkkkkk et dans M2 w[0, T]. L'unicité signifie que si W est une autre solution dans M2 w[0,T], alors

P[W(t) =6 W(x)] = 0,

34

Démonstration. On va démontrer l'existence et l'unicité de la solution de l'équation différentielle stochastique. Pour l'existence, on définit

Z t Z t

Øm+1(x) = Ø0 + 0 ám(s), s)ds + 0

um(s), s)dcw(s), m > 0

et on fait par induction que Øm ? M2w[0, T] et

E | Øk+1(t) - Øk(t) |2 = (Mt)k+1

(k + 1)! pour 1 = k = m - 1,

M est une constante positive dépendante de k et T. Il est facile de démontré que existe pour k = m et Øm+1 ? M2w[0, T]. Ensuite, on trouve que

E sup

|{z}

0<t<T

| Øm+1(t) - Øm(t) |2= C(MT )m

m! .

Par conséquent P( sup

|{z}

0<t<T

| Øm+1(t) - Øm(t) |>1

2m) =2mC(MT )m

m! .

Le Lemme de Borel - Cantelli implique que

P( sup

|{z}

0<t<T

| Øm+1(t) - Øm(t) |> 1

2m i.o) = 0.

Ainsi pour tout w, il existe m0 = m0(t) tel que

(sup | Øm+1(t) - Øm(t) |> 1

2m) = 0. si m0 = m0(w).

Il s'en suit que la suite Ø0 + Pô (Øm+1(t) - Øm(t)) converge uniformément

dans t ? [0,T].

En notant la limite par 0(t) nous avons en suite

2.2.2 Equations aux dérivées partielles stochastiques

Dans cette section, nous allons étudier les problèmes de certaines classes des équations aux dérivées partielles stochastiques du premier et deuxième ordre.

Soit l'équation aux dérivées partielles stochastiques du premier ordre

Z t

u(x, t) - f(x) = 0 F(x, u, ux, ?ds)

où ?ds représente l'intégrale stochastique de Stratonovich. Le théorème suivant prouve l'existe et l'unicité des solutions de l'équation aux dérivées partielles linéaires du premier ordre.

Théorème 2.2.2. (Théorème de l'existence ) On suppose que la fonction F de l'équation ( ? ? ?) est une Ck,ä - semimartingale continue avec la caractéristique locale appartenant à la classe (Bk+1, Bk,ä) pour quelque k = 4 et

35

S = 0 et f est une fonction de Ck,ä.

Soit (çot, 17t, Xt) la courbe caractéristique stochastique de l'équation. La fonction u(x, t) est définie par

~ ) [ ]

u(x, t) = ç ?_1(x) , t ? 0, u(x) ,

est une solution locale de l' équation (2.7). De plus, elle est une Ck-1- semimartingale continue locale pour tout > 0.

Avant la démonstration du théorème, nous donnons le lemme suivant qui va aider à démontrer ce théorème de l'existence et de l'unicité de solutions de l'équation aux dérivées partielles linéaires du premier ordre.

Lemme 2.2.2.1. Soit ?i = ?-1

d . Les relations suivantes sont alors vérifiées :

Le théorème suivant donne la condition de l'unicité de solution de l'équation aux dérivées partielles stochastiques du premier ordre annoncée ci - dessus.

Théorème 2.2.3 (Unicité de solution). Nous supposons que les mêmes condi-

tions pour F et f .[ ]

Soit u(x, t), t ? 0, cr(x)une solution locale arbitraire de l'équation 5 tel

qu'elle est une Ck-1- semimartingale pour > 0. Alors elle peut s'écrire comme suit :

[ ]

u(x, t) = çt ? øt(x) pour t ? 0, T (x) ? u(x)

Définition 2.2.1. ([87]) Soit Xt une semi - martingale continue, c'est - à - dire, un processus représenté sous la forme suivante :

Xt = X0 + Mt + At

où X0 est une variable aléatoire .T - mesurable, Mt est une martingale et At est la partie variationnelle fermée.

On présente le problème à valeurs initiales des équations aux dérivées partielles stochastiques du second ordre à coefficients aléatoires suivant :

Z t d Z t

0 F i(x, ?ds) ?u

u(x, t) = f(x) + 0 Lsu(x, t)ds + ?xi (x, s)

i=0

Z t

+ 0 Fd+1(x, ?ds)(x, s),

Ls est un opérateur elliptique de la forme ,

1 XLsu =

ij

?

2

2 a

(x, s)

aaxj+ bi(x's)ax Ou + d(x, s)u i i

36

et le domaine aléatoire (F1, F2, ..., Fd+1) sont des fonctions Ck,d - semimar-tiangale satisfaisant la condition (D1)k,ä pour tout k > 3 et ä > 0 tous deux pour avant et arrière direction. Les différentielles Fi(x, ods) sont les différentielles de Stratonovich. Dans le séquentiel, nous supposons que les coefficients de l'opérateur Ls satisfont la condition suivante (D2)k,ä pour tout k > 3 et ä > 0. La condition (D2)k,ä, il existe une fonction non négative et symétrique continue aij(x, y, s) appartenant à la classe Ck+1

ub telle que

aij(x, s) = aij(x, x, s). La fonction d(x, s) est continue en (x, s) et de classe Ck,b. De plus aij et d

(1+|x|) sont des fonctions bornées

Ldu = 2 E Ëij(x,

y, t) ?xiaxj E [Ëi,d+1(x,y,t) + Ci(x,t)J?xi t=1

1

+ 2

D(x, t) + Ëd+1,d+1(x, y, t)u

Ci(x,l) = Ed ?azyz 1(x, y, l) . En faisant recours à l'intégrale d'Itào,

y=x

l'équation (1) peut être écrite comme suit

Z t

u(x, l) = f(x) + 0 (Ls + Ls)u(x, l)ds

d r ?u r

+ E f Fi(x, ds) ?xi (x, s) + f Fi(x, ds)u(x, s)

r=1

En effet, les intégrales de Stratonovich sont représentées par

Z0

r au r ôu 1 au

Fi(x, ods) = Fi(x, ds) + (F(x, t), )

?xi o axi 2 axi

fr au 1 r d ?2u
F
i (x, ds) + Ëj (x, x, s) ds

o ?xi 2 ( fo 0 i axi?xj

r d ?Ëij ?u i,d+1 ?u

+ + Ë (x, x, s) ds

Jo ?yi y=x ?xj

?xi

j=1

+f

r?Ëz?(x,y,s) udsl

o ?y y=x /

37

De façon similaire, nous avons

lot

Fd+1(x,ods)u = J t Fd+1(x, ds)u + 2 { f t [Ëd+1(x,x,s)?xjids

f

t d+1 d+1 1

o J

d t

En substituant ces relations dans l'équation (1), nous obtenons l'équation (4). Inversement, soit u(x, t) un C2- processus continu satisfaisant l'équation représentée par les intégrales d'Itào suivantes

u(., t) = f + f Ësu(s)ds + E f Fi(., ds)?x + f t Fd+1(., ds)u(s).

i=1

Si la fonction u(x, t) est une C2 - semimartingale, elle est représentée par

l'équation (1), en remplaçant Ls par Ës - LsLs est définie par l'équation 3.

2.3 Intégrales stochastiques

Dans cette section, nous présentons de façon brève, sans démonstration, certains théorèmes et définitions sur les intégrales stochastiques d'Itô et Stratonovich.Les intégrales stochastiques jouent un rôle important dans l'évaluation des équations différentielles stochastiques. Pour constituer cette partie nous avons consulté certains ouvrages( voir [87], [111],[146], [155], [90], [164], [43], [23], [24]).

2.3.1 Intégrale Stochastique d'Itô

Avant de définir l'intégrale d'Itô , on va définir l'intégrale de Wiener pour le mouvement Brownien. Soit f une fonction déterministe et f E L2[a, b].

Définition 2.3.1. ([111],p.11) L'intégrale de Wiener de f est notée par

Za

b f(t)dB(t) ou f b f(t)dB(t, w)

a

Théorème 2.3.1. Pour chaque f E L2[a, b],l'intégrale de Wiener fab f(t)dB(t) est une variable aléatoire Gaussien de moyenne nulle et de variance

II f II2= fa b f(t)2dt.

Ainsi,l'intégrale de Wiener I : L2[a, b] ? L2(Ù) est une isométrie Car elle préserve le produit scalaire comme montre le corolaire suivant.

Corollaire 2.3.1.1. Si f, g E L2[a, b], alors

Z b

E(I(f)I(g)) = a f(t)g(t)dt.

En particulier,si f et g sont orthogonales alors les variables aléatoires Gaussiennes I(f) et I(g) sont indépendantes.

Théorème 2.3.2. ([111],p.12) Soit f une fonction continue de variations bornées. Alors pour presque tout w E Ù,

fab f(t)dB(t)) (w) = fb f(t)dB(t, w),

a

où à gauche comme à droite de l'équation ci-haut, il s'agit respectivement de l'intégrale de Wiener et Riemann -Stieltjes.

Le théorème suivant donne la formule générale d'Itô.

Théorème 2.3.3. ([111],p.103) Soit Xt un processus d'Itô donné par

Xt = Xa + f t f(s)dB(s) + f t g(s)ds, a < t < b.

a a

Supposons que Z(t, x) est une fonction continue avec les dérivées partielles

continues ?Z ?t,?Z

?x,?2Z

?x2 . Alors Z(t, Xt) est aussi un processus d'Itô et

Z(t, Xt) = Z(a, Xa) + ft Ox

(s, Xs)f(s)dB(s)

ds.

t 2

ât (s, Xs) + Ox

+ f(s, Xs)f(s)21

s

(s, X

)g(s) + 2 âx2

38

Avant de présenter la formule d'Itô de dimension n,nous donnons d'abord la définition d'une matrice stochastique.

Définition 2.3.2. ([28],p.7) Soit N un entier strictement positif. Une matrice P de taille N xN est une matrice stochastique si ses éléments de matrice pij = (p)ij satisfont

0 < pij < 1, Vi, j,

et

XN pij = 1, Vi. j=1

Soient B1(t), B2(t), ..., Bn(t), n mouvements browniens indépendants.

On considère n processus d'Itô x(1)

t , x(2)

t , ..., x(n)

t , données par

xt = x(0) + (i)

m t

X f fij(s)dBj(s) + f gid(s), 1 < i < n,

j=1 a a

ou fij E Lad, L2[a, b]) etgi E Lad, L1[a, b]), V 1 < t < n et 1 < t < m. Sous forme matricielle,

?

?

B(t) = ?

B1(t)

...
Bm
(t)

? ? ? ? ?

(1)

xt g1(t)

? , Xt =?...?, g(t) =? ?... ?

x(t) gn(t)

m

,

?

?

f(t) = ?

?

f11(t) ... f1m(t)

?... ... ... ?
fn1(t) ... fnm(t)

39

L'équation (1) peut être écrite comme suit :

Xt = Xa + f t f(s)dB(s) + f t g(s)ds, a < t < b.

a a

~ ~

On suppose que ø t, x(1)

t , x(2)

t , ..., x(n) est fonction continue sur

t

[a, b] x Rn et a des dérivées partielles continues ?Ø?t , ?xi ?Ø, ?2Ø

i,j < n.

?xi?x; , pour , 1 <

La différence totale stochastique de Ø(t, x(t)(1), x(t)(2), ..., x(t)(n)) est donnée par

dØ(t, x1(t), x(t)2 , ..., xn(t)) = ?Ø?t (t, x(t)(1), x(t)(2), ..., x(t)(n))dt

X ?Ø

+ ?t (t, x1(t), x2(t), ..., xn(t))dxi(t)

1 X ?2Ø

+?x(t)i?x(t)j (t, x(t)(1), x(2)

t , ..., x(t)(n))dx(t)(i)dx(t)(j)

2

où le produit dx(i)

t dx(j)

t doit être calculé en utilisant la table d'Itïô suivante

x dBj(t) dt
dBj(t) äijdt 0

dt 0 0

Le produit dBi(t)Bj(t) = 0 pour i =6 j est l'expression symbolique du fait suivant. Soient B1(t) et B2(t) deux mouvements browniens indépendants et soit

40

On = {t0, t1, ..., tn} une partition de [a, b]. Alors >(B1(ti) - B1(ti1)(B2(ti) - B2(ti1) -+ 0 dans L2(Ù) quand On = max(ti - ti_1) -+ 0.

Soit M(t) une martingale continue à droite avec des limites à gauche finies tel que E(M(t)2) < oo pour chaque t E [a, b].

Théorème 2.3.4. Soient M(t) une martingale continue de carrée intégrable et F une fonction continue de classe C2. Alors,

F(t, Mt) = F(a, Ma) + fat ?t (s, Ms)ds x

+ fa dMs + 2 fa a2x2 (s, Ms)d(M)s

2.3.2 Intégrale Stochastique de Stratonovich

L'intégrale stochastique de Stratonovich est une application du calcul d'Itô. Elle constitue un outil puissant dans la résolution des équations aux dérivées partielles stochastiques. Cette étude réfère aux livres [111],[145]. On considère une intégrale simple dans le calcul de Leibniz - Newton :

f

b f(x)dx = F(b) - F(a). L'égalité correspondante dans le calcul d'Itô est donné par

Z b

a f(B(t))dB(t) = F(B(b)) - F(B(a)) - 2 f b f(B(t))dt.

La différence entre les deux formules susmentionnés est le terme additionnel dans l'intégrale d'Itô. Ce terme est une conséquence de la variation quadratique non nulle du mouvement Brownien B(t). Mais aussi il est une conséquence de la définition de l'intégrale d'Itô.

Définition 2.3.3. ([111],p.120) Soient Xt et Yt deux processus d'Itô. L'intégrale stochastique de Stratonovich de Xt sachant Yt est définie par :

f

b b 1 b
Xt o dYt
= XtdYt + 2 L (Xt)(dYt), a a

ou par sa forme différentielle équivalente :

1

Xt o dYt = XtdYt + 2(Xt)(dYt).

Proposition 2.3.4.1. Soient x et y deux semimartingales. La différentielle et l'intégrale sont données par y o dx = y.dx + 12dy.dx et f0t odx = ft0(y, x)t oï3/412 o est le produit de Stratonovich.

(1) Soient x et y dans Sc,alors l'intégrale se Stratonovich - Fisk s'écrit :

f0t y o dx = E yTi+yTi+1

2 (xTi+1 - xTi) en probabilité.

(2) Si ni x ni y est dans Ac, alors f0t y o dx = f0t ydx.

Les propriétés importantes de l'intégrale stochastique de Stratonovich sont énoncées dans le théorème suivant.

Théorème 2.3.5. Les propriétés de l'intégrale stochastique de Stratonovich sont les suivantes :

(1) x o (dy + dz) = x o dy + x o dz,

(2) (x+y)odz=xodz+yodz,

(3) x o ( dy.dz) = (x o dy).dz,

(4) x o ( dy.dz) = x o ( dy.dz) ou x o ( dy.dz) = (x.y) o dz.

Théorème 2.3.6. Supposons que x1, x2, ..., xd sont des semimartingales continues. De plus,on suppose que U est un sous- ensemble ouvert de Rd et que (x1, x2, ..., xd) E U pour tout t , avec une probabilité égale à 1. Soit f : U -+ R de classe C3. Alors,

f(x1, x2, ..., xd) = Edi=1 aif(x1, x2, ..., xd) o dxi.

Nous pouvons poser la question suivante : est-que l'intégrale de Stra-tonovich fab f(t) o dB(t) peut - elle être définie comme la limite de somme de Riemann ? La réponse à cette question pour une fonction f(t, B(t)) est donnée par le théorème suivant.

Théorème 2.3.7. [111] Soit f(t, xt) une fonction de classe C2. Alors,

Za

b

f(t, B(t)) o dB(t) = lim

|{z}

IIonII-+0

Xn i=1

1

f(t* i , 2(B(ti_1) + B(ti)))(B(ti) + B(ti_1),

41

en probabilité, où ti_1 < tz < ti, On = {t0, t1, ..., tn_1, tn} est une partition de

l'intervalle fini [a, b] et II On II= max

| {z }

1<i<n

(ti - ti_1).

2.4 Schémas numériques

On décrit dans cette section des méthodes numériques pour la résolution d'équations différentielles stochastiques développées dans les ouvrages

42

de Kloeden et Platen [106], [105], Jentzen et Kloeden[95], [94].

Pour approcher numériquement l'équation différentielle stochastique

dXt = t9(t, Xt)dt + u(t, Xt)dBt,

on utilise des schémas aux différences classiques et le fait que pour un pas h donné les variables (B(n+1)h-Bnh) suivent des lois gaussiennes indépendantes de variance h. On note xt le processus approché et on considère la subdivision 0 = t0 < t1 < .... < tN_1 < TN = T de pas régulier h = At = tn+1 - tn. Dans le cas multidimensionnel t9 = (t91, ..., t9n) et Xt = X1(t), ..., Xn(t)) sont des vecteurs de Rn.

Le mouvement brownien a p composantes Bt = (B1(t), ..., Bp(t)) et crj(cr1 j , ..., crn j ) pour j = 1, ..., n.

L'équation s'écrit comme suit

dXt = t9(t, Xt)dt + Xp uj(t, Xt)dBj(t),

i=1

et se traite de la même manière.

La vitesse de convergence forte du schéma est le plus grand coefficient á tel que

EMXT - xNhM = O(há)

et la vitesse de convergence faible est le plus grand coefficient 3 tel que E|Ef(XT) - Ef(xNh)| = O(hâ)

pour tout polynôme f.

2.4.1 Schéma d'Euler

On utilise l'approximation suivante

dXt dt '

Xt+h - Xt

h

valable lorsque le pas h = At est suffisamment petit. Sur un intervalle élémentaire [t, t + h], l'équation générique devient

Z t+h Z t+h

Xt+h ' Xt t t9(t, Xt)ds + t ó(t, Xt)dBs,

43

Le processus approché xt consiste à considérer les intégrands constants

xt+h = xt + h19(t, xt) + u(t, xt)(B(n+1)h - Bnh).

Le schéma d'Euler converge en moyenne quadratique vers Xt quand h tend vers 0. La mauvaise convergence de ce schéma est due à la présence de l'intégrale stochastique dont la majoration est trop grossière. Pour remédier à cela on introduit le développement de Taylor.

2.4.2 Schéma de Milstein

Les ouvrages qui traitent dans l'application de la méthode de Runge - Kutta aux equations différentielles stochastiques ( [139],[157][112], [95]).

On remplace le processus Xt par une approximation Xtn. On a

1

Xt = Xtn + 19(tn, Xtn)h - 2u(tn, Xtn)axu(tn, Xtn)h

+ u(tn, Xtn) A Bn + u

2(tn, Xtn)axu(tn, Xtn)(ABn)2.

1

dans le cas multidimensionnel avec les notations précédentes et sous la condition que

?xój.ók = ?xók.ój

Xtn+1 = Xtn + 19(tn, Xtn)h + E crj(tn, Xtn) An+1 Bj

uk(tn, Xtn)cj(tn, Xtn) An+1 Bj An+1 Bk

E

k<j

E p

+

j=2

1

2

+

Ep i=1

cj(tn, Xtn)cj(tn, Xtn)((ABj)2 - h).

avec

ABj = Bj(tn+1) - Bj(tn)

. La convergence forte du schéma de Milstein vaut 1. Ce schéma est donc meilleur que le schéma d'Euler, mais plus compliqué à programmer. En utilisant des développements d'ordre supérieur, on peut espérer améliorer la convergence.

44

2.4.3 Schéma de Heun

Soit l'équation différentielle stochastique de Stratonovitch suivante [94]

dXt = ?(t, Xt)dt + ó(t, Xt) o dBt

équivaut à équation différentielle stochastique d'Itô suivante

1

dXt = (?(t, Xt) + 2ó(t, Xt)?xó(t, Xt))dt + ó(t, Xt)dBt

qui discrétisée selon le schéma de Heun s'écrit

1 1

Xtn+1 = Xtn + 2h(?(tn, Xtn) + ?(tn, Ytn)) + 2(ó(tn, Xtn) + ó(tn, Ytn) 4 Bn.

avec

Ytn+1 = Xtn + ?(tn, Xtn)h + ó(tn, Xtn) 4 Bn.

Le schéma de Heun converge en moyenne quadratique et est d'ordre O(h2).

2.4.4 Méthodes de Runge - Kutta

Il y a plusieurs ouvrages qui traitent de l'application de méthode de Runge - Kutta aux equations différentielles stochastiques ( [157],[112], [95],[139]).

Dans le cas des équations différentielles stochastiques, les méthodes de Rung - Kutta utilisent deux vecteurs á et â et deux matrices A et B. Le schéma est de la forme

Xtn+1 = Xtn + hö(tn, Xtn, h) + ø(tn, Xtn, h) 4 Bn.

où les fonctions ö et ø sont définies par

ö(tn, Xtn, h) = á2k2, á1k1, ..., árkr. ø(tn, Xtn, h) = â2l21l1, ..., ârlr.

avec

k1 = ?(tn, Xtn), ..., kj = ?(tn + cjh, Yj), l1 = ó(tn, Xtn), ..., lj = ó(tn + cjh, Yj)

45

et

Ytn+1 = Xtn + h j-1 X aiuku + j-1 X bjuku A Bn.

u=1 u=1

Les vecteurs á et â vérifient

á1 + á2 + ... + ár = 11 + â2 + ... + âp = 1,

Les éléments supérieurs de la matrice A sont nuls,aij = 0 si j > i et les coefficients cj sont les sommes des éléments d'une ligne de la matrice A

cj =

j-1 X k=1

ajk.

Si ?,â et toutes leurs dérivées sont bornées alors le schéma de Runge - Kutta converge en moyenne quadratique vers la solution Xt de l'équation d'Itô suivante

dXt = (?(t, Xt) + ëó(t, Xt)?xó(t, Xt))dt + ó(t, Xt)dBt avec ë = 0 si r = 1, et si r > 1

ë =

r j=1

bj

j-1 X u=1

bju.

2.4.5 Schéma de Platen

Dans le schéma de Platen, on utilise l'approximation des incréments du brownien et de leur intégrale. On pose

n+1

AUn =

f(Bs - Btn)ds

n

Le schéma est de la forme

Xtn+1 = Xtn + h?n + ón A Bn + 2ón?xón((ABn)2 - h)

1

+ ón?x?n A Un + (?n?x?n + 2(ó2

1n?xxón)(h A Bn - AUn) + 12?xxón

avec

?n = ?(tn, Xtn), ón = ó(tn, Xtn),

La converge de ce schéma est en O(h3).

46

Chapitre 3

Applications des intégrales

stochastiques à l'estimation

statistique

Ce présent chapitre présente les applications des intégrales stochastiques à la théorie de l'inférence statistique. Le domaine de l'estimation statistique est vaste ([37], [170], [172],[63], [122], [118],[184],[120],[171],[117],[116],[91]).

Ces cinq dernières décennies, les recherches ne cessent de croire abondamment dans l'estimation de paramètres des équations différentielles stochastiques et la théorie de filtre stochastique Arato,Kolmogorov et Sinai (1962) et Liptser et Shiryayer (1978)( [124], [22],[91] [86],[110], [116],[21]).

Dans cette recherche l'estimation de paramètres des équations différentielles stochastiques et la théorie de filtre stochastique sont considérées. Car ces deux techniques sont des outils puissants dans le domaine de la modélisation macroéconométrique ([131] [130],[128],[127][11]).

3.1 Estimation de paramètres des équations différentielles stochastiques

L'estimation de paramètres des équations différentielles stochastiques consti-

tue l'un des problèmes majeurs de la théorie de l'inférence statistique moderne([6],[152], [126]).

47

3.1.1 Estimation des paramètres pour les équations différentielles stochastiques linéaires

Le Breton(1998) a étudié l'estimation de paramètres et l'estimation de filtre dans un modèle linéaire simple conduit par les mouvements browniens de diffusion. Aussi et Le Breton (2002) ont étudié les problèmes d'estimation des paramètres pour le processus de type Ornstein - Uhlenbeck fractionnel ([154] ).

L'un des outils de base dans l'étude de la théorie de l'asymptotique de l'inférence statistique est le concept de la normalité. Plusieurs propriétés importances des estimateurs exigées dans tels processus apparaissent comme une conséquence de la normalité asymptotique locale de la famille de mesures de probabilité générée par les processus.

On considère l'équation différentielle stochastique linéaire

dXt = ä(è, t, Xt)dt + ødWtH, (3.1)

X0 = x0, 0 < t < T,

X0 E R, ö E (0,1), ä(è, t, Xt) : Rd x R -- R est une fonction déterministe avec le paramètre, è E O E Rd est un paramètre inconnu et WH = {WtH, 0 < t < T} est un processus brownien fractionnel avec l'indice de Hurt H E (12, 1). L'équation 3.1.1 modélise un système dynamique avec un petit bruit qui est un processus Brownien fractionnel.

On suppose que le processus {Xt, 0 < t < T} est observé sur un intervalle [0,T]. Le problème d'intérêt est l'estimation de paramètre è basée sur les observations ou les données {Xt, 0 < t < T}.

Nous définissons le concept de la normalité asymptotique locale pour une famille de mesures de probabilité.

Nous discutons généralement sur les classes de processus stochastiques satisfaisant l'équation différentielle stochastique linéaire conduit par un mouvement brownien fractionnaire et l'étude des estimateurs de maximum de vraisemblance et de Bayes de ces processus.

On considère l'équation différentielle stochastique suivante :

dXt = ä(è,t, Xt)dt + ødWtH, X0= x0, 0 < t < T,

X0 E R, ö E (0, 1), ä(è, t, Xt) : Rd x R -- R est une fonction déterministe avec le paramètre, è E O E Rd est un paramètre inconnu et

WH = {WtH, 0 < t < T} est un mouvement brownien fractionnaire avec l'indice de Hurst H E (12,1). L'équation 4.1 modélise un système dynamique

avec un petit bruit qui est un processus Brownien fractionnaire. On suppose que le processus {Xt, 0 < t < T} est observé sur un intervalle [0,T]. Le problème est l'estimation du paramètre è basée sur les observations ou les données {Xt, 0 < t < T}.

On définit le concept de la normalité asymptotique locale pour une famille de mesures de probabilité. On analyse les classes de processus stochastiques satisfaisant l'équation différentielle stochastique linéaire conduit par un mouvement brownien fractionnaire et l'étudions les estimateurs de maximum de vraisemblance et de Bayes de ces processus.

On considère l'équation différentielle stochastique un processus brownien fractionnaire suivante :

dXt = [á(t, X(t)) + èâ(t, X(t))]dt + ó(t)dWH, X(0) = 0, t > 0,

è E O C 1R, W = {WtH, t > 0} est un processus brownien fractionnaire avec un paramètre de Hurst et ó(t) est une fonction positive non nulle dans[0, +oo). En d'autres termes,X = {Xt, t > 0} est un processus stochastique satisfaisant l'équation intégrale stochastique

Z t Z t

X(t) = 0 [á(s, X(s)) + èâ(s, X(s))]ds + 0 ó(s)dwH, t > 0

avec ?(è, t) = á(t, X(t)) + èâ(t, X(t)).

On suppose que les trajectoires de l'échantillon du processus

[?(è,t) ó(t) ,t > 0] sont tels que le processus

QH,è(t) =dWtH ft kH(è, s) ó((,) , t > 0.

On suppose que les trajectoires de l'échantillon du processus {QH,è(t), 0 < t < T} appartiennent presque sûrement à L2([0, 1], dWH(t)). On définit

Z(t) =

lo ó(è) , t > 0.

t kH(è, s)

48

Alors, le processus Z(t) = {Z(t), 0 < t < T} est une Fø - semimartingale qui admet le processus de décomposition suivante :

t

Z(t) = Jo QH,è(s)dWH(t) + MH(t)

49

MH est une martingale fondamentale et le processus X admet la représentation suivante:

Z t

X(t) = 0 Kó H(t, s)dZs

où la fonction Kó H est définie par :

Z t

Kf H(t, s) = -2H d s f(r)rH- 2 1 (r - s)H- 2 1 dr, 0 s t. ds

Comme en déterministe, pour estimer les paramètres des équations différentielles stochastiques, il important de donner les conditions de l'existence et de l'unicité. de solutions. Pour l'équation ??,on donne le théorème suivante.

Théorème 3.1.1.

Soit T la mesure induite par le processus X(t) = {X(t), 0 t T}

où est le vrai paramètre. Kleptsyna et al.(2000) ont dérivé le théorème de Girsanov - type qui permet de trouver la dérivée de Radon - Nikodym de PèT relativement à P 0 Tde la manière suivante [154] :

P è T P 0 T

Z T Z T

= exp{ 0 QH,è(s)dZs - 1 0 Q2 H,è(s)dW s H }.

2

Cette quantité est indispensable pour l'utilisation de la méthode du maximum de vraisemblance dans l'estimation des paramètres de modèles statistiques.

Cette quantité est indispensable à l'utilisation de méthode du maximum de vraisemblance dans l'estimation des paramètres de modèles statistiques.

3.1.2 Méthodes d'estimation des paramètres

La littérature est vaste mais cette étude a retenu seulement deux méthodes parmi les utilisées, méthode de maximum de vraisemblance et méthode bayésienne, à cause de leur fondement mathématique solide et leur robustesse dans les études empiriques.

3.1.3 Méthode de maximum de vraisemblance

Cette méthode est couramment utilisée en analyse statistique empirique

([51],[19],[42], [16], [142],[121], [159],[96],[48],[69],[148], [137],[70])

50

On considère le problème de paramètre è basé sur l'observation du processus X = {Xt, 0 < t < T} et étudions ses propriétés asymptotiques

T

quand T -+ oo. On note par LT(è) la dérivée de Radon - Nikodym dpô .

L'estimateur de maximum de vraisemblance àèT est défini par la relation

LT(

àèT) = sup

\J

è

LT(è).

On suppose qu'il existe un estimateur mesurable du maximum de vraisemblance. Les conditions suffisantes peuvent être données pour l'existence d'un tel estimateur.

On sait que

QH,è(t) =

dJo

t

dWtH kH(è, s)a(s) ds.

= dWH d Lt kH(è,s)á((s))ds + èdWH ftkH(è,s)â((s))ds.

t t

= ë1 + èë2.

Alors

logLT(è) = f T(ë1 + èë2)dZt - 2 JoT (ë1 + èë2)2dWsH

et l'équation de vraisemblance est donnée par

Z0

T ë2dZt - fT (ë1 + èë2)ë2dWsH = 0.

Par conséquent, l'estimateur du maximum de vraisemblance est donné par

.

f0 T ë2(t)dZt - f0 T ë1(t)ë2(t)dW H

àèT = t

f0 T ë22(t)dWtH

Soit è0 le vrai paramètre. En utilisant le fait que

Z T

dZ(t) = 0 (ë1(t) + è0ë2(t))ë2(t)dWH(t) + dMH(t).

On montre que

dPèT

dPT

è0

Z T Z T

= exp{(è - è0) 0 ë2(t)dMH(t) - 1 2(è - è0)2 0 ë2 2(t)dWH(t)}.

51

En suivant la représentation de la dérivée de Randon - Nikodym, on obtient

__ f0 ë2(t)dMH(t)

(àèT - è0) f0T ë22(t)dWH(t)

Le théorème suivant établit la consistance forte de l'estimateur du maximum de vraisemblance.

'

Théorème 3.1.2. L

estimateur du maximum de vraisemblance

èN,E est fortement consistant,c'est- à -d ire, èN,E ? è0 presque surement [P90] quand T ? 8 en considérant f0T ë2(t)dWH(t) ? 8 presque surement [P90] quand T ? 8.

3.1.4 Méthode d'estimation Bayésienne

Cette méthode s'impose de plus tant dans les analyses théoriques qu'empi-

riques ([39],[134],[65],[64],[102],[182],[183],[7],[123],[143],[144],[79],[27],[37],[40],

[156],[52],[125],[59],[158],[163],[160],[108].

On suppose que l'espace du paramètre O est un ouvert et A une mesure de probabilité a priori sur l'espace paramétré O. En plus,on suppose que A a la densité ê() en accord avec la mesure de Lebesgue. La fonction de densité

est continue et positive dans un ouvert au voisinage de è0,le vrai paramètre. f T

Soit öT = IT RT = IT 0 ë2(t)dMH(t), t = 0 et

çT = IThRiT = I2 f0 T ë22(t)dMH(t), t = 0.

T

L'estimateur du maximum de vraisemblance satisfait la relation suivante

öT = (

àèT - è0)I-1

T çT.

La densité de probabilité a posteriori de è basée sur l'observation XT = Xs, 0 = t = T est

dPe dPï

p(è|XT) = dPe ë(è)/ fo dPe ë(è)dè.

0 0

Soit t = I-1

T (è0 - BT) et nous définissons

p*|XT) = ITp(àè + tIT|XT).

Alors, la fonction p*|XT) est la densité de probabilité a posteriori de la

variable transformée t = I-1

T (è0 - àèT).

52

3.2 Estimation des équations aux dérivées partielles stochastiques avec dérive linéaire

Soient U un espace de Hilbert séparable réel et Q un opérateur auto-adjoint positif. Supposons que l'opérateur Q est nucléaire [154]. Alors, Q admet une séquence des valeurs propres {ãn, n > 0}, 0 < ãn décroissant à zéro quand n -+ oo et I000 ãn < oo. En plus,les vecteurs propres correspondants {ín, n > 1} forment une matrice orthonormée dans U. On définit un mouvement brownien fractionnel à dimension infinie sur U avec une matrice de covariance Q comme

00

ùHã (t) = NhnønWãH(t)

n=0

WãH(t), n > 0, sont des mouvements browniens fractionnaires avec l'indice de Hurst(cf.Tindel et al.2003). Soient U = L2[0, 1] et WãH(t) un mBf à dimension infinie sur U avec comme indice de Hurst H et l'opérateur de covariance nucléaire Q. Considérons le processus

duå(t, x) = (Auå(t, x) + èduå(t, x))dt + ?dWãH(t)

A = ?2

?x2 .

Supposons que å -+ oo et è E O c R.Aussi nous supposons que les conditions initiales et aux limites bornées sont données par

uå(0, x) = f(x), f E L2[0,1]

uå(t,0) = uå(t,1) = 0, 0 < t < T

Tindel et al.(2003) ont donné les conditions suffisantes pour l'existence et l'intégrité carrée d'une solution uå(t, x) pour l'équation différentielle stochastique conduite par un mouvement brownien fractionnel à dimension infinie [154].

Nous supposons que les conditions suffisantes soient remplies, alors il existe une solution carrée intégrable unique uå(t, x) de [? ] sous les conditions (3) et (4). Nous considérons cette solution unique comme une somme suivante

00

uå(t, x) = uiå(t)íi(x).

i=1

Alors le coefficient de Fourrier uiå(t) satisfait l'équation différentielle stochastique

duiå(t) = (è - ëi)uiå(t)dt + ø

v1 + ëidwHi (t), 0 < t < T,

avec la condition initiale uiå(0) = õi, uiå = f01 f(x)ãi(x)dx. Soit P(èå) la mesure probabilisée générée par uå quand le vrai paramètre. On suppose que è0 est le vrai paramètre et {uiå(t), 0 < t < T} est un processus de type Urnstein - Uhlenberg fractionnaire [104], [153]. On définit

MHi(t)= ft kH(t, s)dWiH(s), 0 < t < T,

0

Qiå(t) = 1 + ëi d ft kH(t, s)uiå(s)ds, t E [0, 1] ø dWtH

1

Ziå(t) = (è - ëi) f Qiå(s)ds + MHi (t),

0

alors il s'en suit que

Z t

uiå(t) = 0 Kf

H (t, s)dZiå(t),

fiå(t) -- ø

et

ü 1 + ëi

alors MHi (t) est une martingale gaussienne de moyenne nulle. D'après le théorème de Girsanov - type tiré du livre [154]

dP T,å

log T =

dPièô

1 + ëi

1(è - è0) Jo Qiå(t)dZi (t)

ø2

?

1

2[(è - ëi)2 - (è0 - ëi)2] ft Q2(s)dWtH ?

Soit uNå (t, x) la projection de la solution uå(t, x) dans le sous - espace engendré par des vecteurs propres {ãi,1 < i < N}. Alors uNå (t, x) s'écrit

N

uNå (t, x) = uiå(t)ãi(x).

i=1

De l'indépendance des processus {WtH, 1 < i < N} et les séquences des processus {uiå,1 < i < N},

dP T,å

log T =

dPièo

N i=1

1 + ëi

? ?Zt
(è - è0) 0 Qiå(t)dZiå(t) ?

ø2

53

?

[(è - ëi)2 - (è0 - ëi)2] ft Q2(s)dWtH ?

54

En plus l'information de Fisher est donnée par

alog(k) IiE(B) = E9[alog(k)]2 = N 1 + Xi Eo(fft Q2å(s)dWtH)

ae aez-i2 Jo

On peut vérifier que l'estimateur de maximum de vraisemblance

àeN,å du

paramètre e basé sur la projection uNå de uå est donné par

PN v1 + Ai R0 t Qiå(t)dMH i (t) i=1

àeN,å =

PNi=1(1 + Ai)2 R0 t Q2(t)dWtH

On suppose que e0 est le vrai paramètre. On peut vérifier que e e = N

v1 + Ai R0t Qiå(t)dMHi(t)

-1

(àN,E- 0) PNi=1(1 +Ai)2R0 t Q2 (t)dW t H

On observe que Mi,1 = i = N, sont des martingales gaussiennes indépen-

àeN,å est for-

dantes des moyennes nulles avec hMii = WH, 1 = i = N. Théorème 3.2.1. L'estimateur de maximum de vraisemblance

tement consistent, c'est - à - dire,

àeN,å ? e0 p.s. [Pè0] quand e ? 0. sous

condition que

N

f

t(Ai + 1)QÉ(s)dWtH = X f T(Ai + 1)Q2(s)dWtH ? 0p.s.[0] quand e ? 0. o i=0
3.3 Estimation des paramètres stochastiques

par le filtre stochastique

L'objectif de la théorie de filtre stochastique est d'estimer les processus stochastiques non observables qui apparaissent dans plusieurs domaines tels que l'économie, la communication, la finance, etc.( [98],[141], [18] [181],[? ],[? ] [111], Bertein et Ceschi (2007), [71] ,[177](2008), [17],[1],[23], [20],[85],[84],[109],[119],[133],[83],[176],[175],[169],[168],[165], [180], Bain et Cri-san (2009).

3.3.1 Formulation du modèle d'état - espace stochastique

Le problème de filtre consiste à estimer la variable stochastique non observable à partir de deux processus :le signal est celui l'on veut estimer et

55

le processus observation qui fournit les informations sur base desquelles les estimations sont faites.

Pour le processus observation Y(t),nous supposons qu'il est gouverné par l'équation différentielle stochastique suivante

dXt = ( bt + btXt)dt + ctdWt + ótdBt, dYt = ( ht + htXt)dt + dWt,

X0 est un vecteur aléatoire normale avec comme moyenne X0 E Rd et la matrice de covariance P0 E Rdxd, (Wt, Bt) est un mouvement Brownien de dimension (m x n) et les coefficients sont des matrices déterministes de dimensions respectivement de

3.3.2 Filtre stochastique de Kalman - Bucy

Les ouvrages suivants nous ont permis d'élaborer cette sous - section et peuvent être exploité par les lecteurs intéressés ([44],[66],[18],[55]). On dérive

les équations pour les processus

-kt et ãt en utilisant l'équation de filtrage

de Kalman - Bucy [100]. Ces processus sont supposés être Gaussiens, qui ont les moments de n'importe quel ordre. Pour tout t > 0 et pour ù E SZ étant fixé,ðt(ù) est une mesure de probabilité normale multivariée sur IRd. La matrice ãt est non aléatoire. En effet,pour 1 < i, j < d, nous avons ãt = E(Xi

ij tXj t )-E(

it

jt )

X

X

-kt =

Z t Z t

àX0 + 0 (bs + bs àXs)ds + 0 (bs + ãshs)dvs.

L'existence et l'unicité du système d'équations différentielles stochastiques sont données respectivement dans les théorèmes suivants.

Théorème 3.3.1. ([177], Le processus ( Xt, ít) est la solution unique au système d'équations différentielles stochastiques (3.20)-(3.21), avec vt étant un processus brownien de dimension d donné par

t

vt = Yt - f (hs + hs Xs)ds.

où Xt et ãt représentent respectivement la moyenne conditionnelle et la ma-

trice covariance conditionnelle de la distribution normale multivariée corres-

pondant à la mesure aléatoire ðt. En utilisant le calcul d'Itô

Théorème 3.3.2. ([177],p.163) Le processus ( àXt,ãt) est une solution unique

du système des équations stochastiques.

56

Le processus ( Xt,ãt) est appelé le filtre de Kalman - Bucy pour le modèle d'état - espace stochastique.

3.3.3 Filtre stochastique optimal

Le Lemme suivant concerne l'estimation de la valeur d'une variable aléatoire basée sur les informations disponibles représentées par

Lemme 3.3.2.1. [177.1 Soit ? une variable aléatoire à carré intégrable dans un espace de probabilité (S2, F, P). Soit G une sous - tribu de F , alors

E((? - E(E(?|G)2)) = min{E((? - ç)2) : ç E L2(S2, F, P)}.

Très souvent,on sera intéressé par quelques quantités qui sont des fonctions du signal en lieu et place du signal lui - même.

Malgré que E(Xt | Tt) est le meilleur estimateur de Xt, f(E(Xt|Tt)) n'est pas le meilleur estimateur de f(Xt) basé sur le critère des moindres carrés ordinaires si f n'est pas une fonction linéaire.

Soit ðt(·) - P(Xt E · | Tt) la distribution de probabilité conditionnelle régulière de Xt étant donné Tt ;

à [0, 1] tel que (i)Vù E S2ðt(·, S2) est une mesure de probabilité sur une variable aléatoire

l'espérance conditionnelle est donnée par l'intégrale de f avec la distribution de probabilité conditionnelle régulière ðt.

Rappelons que Cb(Rd) est l'ensemble des fonctions bornées et continues sur Rd et (ðt, f) est l'intégrale de la fonction f conditionnellement à la mesure u. Le théorème de Kallianpur - Stiebel est une formule de Bayes utilisée en théorie de filtre pour calculer l'espérance conditionnelle en considérant la mesure de probabilité Pà.

Théorème 3.3.3. (Théorème de Kallianpur - Stiebel) Le filtre optimal peut être représenté comme suit

(ðt, f) = (ðt, 1),V)

(ðt,

f E Cb(Rd),

rd = E(Mtf(Xt)|Tt).

Théorème 3.3.4. [177.1 (Equation de Zakai) Le filtre non normalisé Vt satisfait l'équation différentielle stochastique suivante :

Z t Z t

(Vt, f) = (V0, f) + 0 (Vs, Lf)ds + 0 (Vs, V*fc + fh*)dYs

57

où ,Cf = 1 Pd i,j=0 aij?2 ijf + Pd i=0 bi?i, fest le générateur du processus signal 2

et la matrice A = (aij) est donnée par Ad x d = CC* + óó*.

3.3.4 Approximation discrète - temporelle du filtre de Kalman - Bucy

La revue de littérature sur l'approximation des équations différentielles stochastiques est abondante [95], [139],[140],[68],[105]. Les méthodes d'approximation les plus couramment utilisées sont celles de type Taylor telles que les méthodes d'Euler-Maruyama,de Milstein , de Runge - Kuta, et Crank - Nicolson.

Pour obtenir la solution numérique du filtre de Kalman - Bucy, nous utilisons la méthode d'Euler au temps t = kä, k = 0,1, 2, · · · , dont les formules récursives suivantes

àXä(k+1)ä = àXäkä + (6kä + bkäàXkä)ä + (ckä + ãäkähkä)(íä(k+1)ä - íä), íä(k+1)ä = íäkä + Y(k+1)ä - Ykä + (hkä + hkä 50), et

ãä(k+1)ä = ãäkä + (ãäkäbkä + bkäãkä + akä - (ckä + ãäkähkä)(ckä + ãäkähkä).

Théorème 3.3.5 ([177],p.165). Supposons que les coefficients b,b, c et h sont des fonctions lipschitziennes et continues dans t. Alors, il existe une constante K1 tel que

E max | {z }

kä<T

|ä ä 2
X(k+1)ä - Xkä| + max | {z } kä<T

ä(k+1)ä - íäkä| -- K1ä.

3.3.5 Equations de Filtre de Kalman pour les processus discrets

Plusieurs auteurs ont présenté le filtre de Kalman [46], [44], [55],[66], [108], [77]. Cependant, le présent résumé est tiré de (Leondes,p.241). Le modèle dynamique se présente comme suit

Xk = ök-1Xk-1 + ùk-1, ùk-1 ^' N(0, Qk-1) et l'équation de l'état se présente

Zt = HkXk + õk, õk ^' N(0, Rk)

58

les conditions initiales sont

 

E(X0) =

àX0|0,

E(X0 -

àX0|0)(X0 - àX0|0) = P0|0, E(wkv0j) = 0 pour tous k et j.

àXk|k-1 = Ok-1àXk-1|k-1

error covariance propagation

Pk|k-1 = Ok-1Pk-1|k-1(1)0k-1 + Qk-1

state estimate update

[ ]

àXk|k = àXk|k-1 + Kk Zk - H àXk|k-1

error covariance update

[ ]

Pk|k-1 = I - KkHk Pk|k-1

La matrice de gain de Kalman gain est donnée par

Kk = Pk|k-1Hk [HkPk|k-1H0k + Rk] -1

59

Chapitre 4

Applications aux processus

stochastiques temporels

Dans ce chapitre il sera question d'appliquer les théoriques des équations et intégrales stochastiques à la macroéconométrie. Les travaux relatifs aux applications du calcul stochastique en économie en général et en économétrie en particulier sont abondants et récents. Nous pouvons citer à titre illustratif le modèle Black - Scholes [33] qui a permis à ses auteurs Robert C.Merton et Myron S. Scholes de remporter le prix Nobel en économie en 1997.

L'objectif de ce chapitre est d'appliquer ces techniques et méthodes de modélisation macroéconométrique aux données congolaises.

4.1 Revue empirique sur la modélisation stochastique

Dans cette section nous présentons en résumé quelques modèles empiriques développés par certains auteurs mentionnés dans .

60

4.1.1 Modèle de Bachelier

Bachelier [15] a modélisé le prix des options européennes qui se présente sous forme d'équation différentielle stochastique suivante :

dXt = /3dt + udWt

Wt est un processus gaussien avec une moyenne nulle et une variance t, c'est - à - dire une martingale.La faiblesse de cette formulation est que le prix peut être négatif [93].

4.1.2 Modèle de Black - Scholes

dXt = /3Xtdt + uXtdWt

4.1.3 Modèle de Cox - Intgersoll - Ross

Le modèle Cox - Ingersoll - Ross [47] est utilisé en mathématique financière pour modéliser l'évolution des taux d'intérêt de court terme. Il s'agit

de la solution de l'équation différentielle stochastique

/

dr(t) = k( - r(t))dt + u (r(t))dW (t), r(0) = r0,

k, , u sont des constantes et W(t) est un mouvement brownien standard au temps t [41].

4.1.4 Modèle de Heath - Jarrow - Morton

Heart, Jarrow et Morton (1992) ont supposé pour une maturité fixe T le taux instantané f(t, T) sous une mesure donnée, suit un processus de diffusion

df(t, T) = á(t, T)dt + u(t, T)dW(t),

f(t,T) = fM(0,T),

avec T -~ fM(0, T) est fonction instantanée au temps t = 0, et où W = (W1, ..., WN) est un mouvement brownien de N dimension, u(t, T) = (u1(t, T), ..., uN(t, T)) est un vecteur des processus adaptés et á(t, T) est aussi un processus adapté.

4.1.5 Modèle de Vasicek

Le modèle de Vasicek est un modèle mathématique qui tire son nom Vasicek (1977) suppose que le taux de spot instantané suivait un processus d'Ornstein - Uhlenberg avec coefficients constants [38]. Ce modèle se présente comme suit :

dr(t) = k[3 - r(t)]dt + udW(t), r(0) = r0,

r0, k,3 et u sont des constantes positives .

4.1.6 Modèle de Black - Karasinski

Le modèle de Black - Karasinski [32] est un modèle mathématique appliqué en mathématiques de finance. Black et Karasinski (1991) ont modélisé le comportement du taux d'intérêt d'un titre conduit par le processus suivant :

d[Logr(t)] = (á(t) - 3(t)Logr(t)]dt + u(t)dW(t), r(0) = r0, (4.1)

r(0) est une constante positive et á(t), 3(t) et u(t) sont des fonctions déterministes du temps. Aussi dW(t) est un mouvement brownien standard.

4.1.7 Modèle de Hull - While

Hull et White (1990) suppose que le processus du taux de cout terme instantané sous le mesure de risque neutre se présente comme suit :

dr(t) = [e(t) + 3(t)r(t)]dt + u(t)X0.5

t dWt (4.2)

où , 3 et u sont des fonctions déterministes du temps [38].

4.1.8 Modèle de Aït - Sahalia

dXt = (á + 3Xt + 'yX-1 t + 8X2 t )dt + uXã t dWt

61

62

4.2 Estimation des paramètres de l'équation différentielle stochastique de l'inflation

Avant tout, estimer un paramètre c'est donner une valeur approchée de ce paramètre à partir des résultats obtenus sur un échantillon aléatoire extrait de la population (Veysseyre,p.210).

4.2.1 Présentation théorique de l'inflation

Par définition, l'inflation est l'augmentation du niveau général des prix [35]. Algébriquement, on a

ðt = /-(log(Pt)) = log(Pt+1) - log(Pt)

log est le logarithme naturel et Pt est l'indice général des prix. Le taux d'inflation mesure la vitesse avec laquelle les prix augmentent[132].La mesure de l'inflation elle - même n'est pas exempte de difficultés. On adopte en général le point de vue du consommateur : l'indice de prix à la consommation (IPC) mesure le prix d'un panier de biens représentatif de la consommation des ménages [35]. L'un des avantages de l'indice des prix à la consommation prend en compte l'effet du taux de change sur le prix intérieur des importations [35]. Pourquoi l'inflation suscite - t elle un problème social? Les différents coûts de l'inflation sont perdus selon qu'il s'agit de l'inflation anticipée ou non ou encore s'il s'agit de la situation plus grave de l'hyperinflation.

Les coûts de l'inflation anticipée sont (i) la taxe d'inflation perçue sur la quantité de monnaie détenue par les agents,(ii) le coût de menu qui s'explique par l'obligation dans laquelle se trouvent les entreprises de modifier plus souvent leurs listes de prix. Changer les prix implique des couts d'impression et de distribution d'une nouvelle liste de prix ou d'un nouveau catalogue,(iii) le coût dû à la variabilité des prix relatifs, (iv) le cout de l'inflation est suscité par les législations fiscales. De nombreux articles du code fiscal ignorent les impacts de l'inflation.(v) le coût de l'inflation provient du fait qu'il est plus inconfortable de vivre dans un monde où les prix fluctuent que dans un monde où les prix sont stables. L'inflation rend plus difficile la planification financière individuelle.

L'impact de l'inflation non anticipée est plus pernicieux qu'aucun des couts de l'inflation anticipée stable : (i) elle redistribue de manière arbitraire la richesse entre les gens,(ii) elle pénalise les personnes vivant de revenus

63

fixes, tels que les pensions de retraite.Plus le taux d'inflation est variable, plus grande est l'incertitude à laquelle sont confrontés tant les préteurs que les emprunteurs.

Les coûts de l'inflation augmentent considérablement en période d'hyperin-flation. Certes, l'hyperinflation accélérée le processus de dollarisation (circulation de devises étrangères) de l' économie nationale.

Empiriquement, Bruno et Easterly (1996) ont trouvé que la croissance était affectée par une inflation supérieure à un chiffre de 20 % à 40 % par an. Barro (1997) chiffre entre 0,3 % à 0,4 % point la perte de croissance induite par un supplément d'inflation de 10 points, tout en admettant que ce résultat est surtout vrai pour les inflations élevées ([35],p.221).

Quelle est la source de l'inflation? En se basant sur la théorie quantitative de la monnaie, relation mathématique entre la quantité de monnaie et les prix, les économistes disent que l'inflation est toujours d'origine monétaire ([174], [132] ). En conséquence, la théorie quantitative de la monnaie établit que la banque centrale, qui contrôle l'offre de monnaie, contrôle du même fait , en dernier ressort, le taux d'inflation. Si la banque centrale préserve la stabilité de l'offre de monnaie, le niveau des prix sera également stable. Si la banque centrale accroit rapidement le stock de monnaie, le niveau des prix augmentera lui aussi rapidement ([132],p.195).

4.2.2 Présentation du modèle économétrique

Nous supposons que l'inflation kinoise,calculée à partir de l'indice de prix à la consommation observé dans la Ville Province de Kinshasa,peut être modélisée comme suit

Z t Z t

irt = ir0 + e 0 irsds + u 0 dBs (4.3)

et u sont des paramètres à estimer appelés respectivementdrift et diffusion et B est un processus brownien. u peut être interprété comme la volatilité stochastique du phénomène sous analyse.

Cette équation intégrale stochastique peut se présenter en équation différentielle stochastique suivante

dirt = eirtdt + udBt. (4.4)

64

Après quelques manipulations algébriques, cette équation se présente comme un processus auto - régressif d'ordre 1 ci-après :

ðt - ðt_1 = èðt_1 + ó(Bt - Bt_1), ðt = (1 + è)ðt_1 + ó(Bt - Bt_1), ðt = ?ðt_1 + åt, å ~ iid(0, ó2 å),

? = (1 + è), åt = ó(Bt - Bt_1).

L'abréviation iid signifie la variable aléatoire est indépendante et identiquement distribuée. Pour assurer la stabilité du processus markovien, on suppose que |?| < 1. Le paramètre ? mesure la persistance de l'inflation kinoise. L'hypothèse å ~ iid(0, ó2 å) signifie que la variable aléatoire, terme d'erreurs, suit une distribution normale de moyenne nulle et de variance constante (ó2å).

Cependant, cette hypothèse d'homoscédasticité (la constance de la variance des erreurs) peut ne pas être vraie dans la réalité dans ce cas on parle dans la littérature économétrique de la présence d'hétéroscédasticité ([72], [70],[80],[57],[78]).

Dans le cas de cette étude, pour de raison de simplicité et de limite observée du développement théorique, on se limite à l'hypothèse d'homoscédasticité.

4.2.3 Estimation du processus stochastique autorégres-sif d'ordre 1

En économétrie,les méthodes de maximum de vraisemblance et des moindres carrés ordinaires sont couramment utilisées pour estimer le paramètre è du modèle AR(1) susmentionné [70].

Pour estimer ce paramètre nous supposons que l'inflation est un processus faiblement stationnaire,c'est- à -dire,ses moments d'ordre 1 et 2 ne varient pas avec le temps,i.e., E(åt|ðt) = 0. Dans cette étude, la méthode des moindres carrés ordinaire a été utilisée pour estimer les deux coefficients. Ce choix est fait à cause de la simplicité de son langage mathématique et sa mise en pratique. La formulation mathématique du principe de la méthode de moindres carrés ordinaires est la minimisation de la somme des carrés des er-reurs.Par conséquent, l'estimateur des moindres carrés ordinaires. Nous supposons aussi que l'estimateur des moindres carrés ordinaires est le meilleur estimateur linéaire non biaisé (Best Linear Estimator Unbiased).

65

4.2.4 Résultats des estimations

Nous avons utilisé l'indice des prix à la consommation (IPC) calculé par la Banque Centrale du Congo observé à Kinshasa pour la période allant de janvier 2004 à avril 2016. Pour obtenir l'inflation,nous avons transformé cette variable en log-différentiel,i.e,

tt =A (log(IPC)t) = logYt - logYt_1. Pour le modèle AR(1), les résultats se présentent comme suit

àðt = 0, 54irt_1, T = 146,

t - Student = 7,71, DW = 2, 19,

T représente la taille de l'échantillon, t - Student est la statistique de Student pour tester la significativité des paramètres estimés et DW représente la statistique de Durbin et Watson pour tester l'absence d'auto-corrélation des erreurs du modèle estimé.

t t

Après l'estimation de notre modèle AR(1), l'équation intégrale stochastique de l'inflation de Kinshasa se présente comme suit

Z Z

àðt = ir0 + 0, 46 0 irsds + 0, 02 0 dBs.

Comme la statistique de t-student du coefficient estimé est supérieure à 2, en valeur absolue ,selon la règle de pouce,nous pouvons conclure que ce paramètre estimé t9 à est significatif,c'est- à -dire,ce paramètre est statistiquement différent de zéro. Aussi comme la valeur estimée de la statistique de Durbin - Watson est au tour de 2, nous concluons qu'il y a absence d'autocorré-lation des erreurs dans le modèle AR(1) estimé. La valeur de la volatilité stochastique est de 0,02 qui montre sous la période sous analyse une faible présence d'incertitude. La persistance à la hausse de l'inflation de Kinshasa est de 54%,c'est-à -dire,l'inflation du mois passé contribue de 54% à l'inflation présente .

4.3 Estimation de la contribution stochastique de la main d'oeuvre congolais sur son bien - être économique

Connaitre les contributions de différentes variables explicatives du développement économique de sa population est une préoccupation majeure de tout décideur ou le planificateur du développement économique. Le filtre de Kalman - Bucy est reconnu comme l'une des techniques couramment utilisées dans les domaines de navigation, contrôle, de lancement de missiles et navettes spatiales, analyse de processus de signaux médicaux, etc. ([77],[53],[46],[103],[81],[? ],[161],[13],[129],[131]). La portée de cette technique ne s'est pas limitée uniquement dans ces domaines mais aussi elle est utilisée en macroéconométrie pour estimer les composantes non observables stochastiques des agrégats macroéconomiques ([73], [75], [76],[74] ).

4.3.1 Modèle théorique du bien - être économique

L'analyse théorique des effets des facteurs de production (travail, capital et la technologique) est plus ancienne et constitue la préoccupation des économistes théoriciens et des décideurs politiques en charge de la bonne conduite de la politique économique du pays.

Nous supposons que la fonction de production de bien

4.3.2 Spécification économétrique du modèle état - espace du développement économique

Nous supposons que le modèle d'état - espace du bien - être congolais se présente comme suit :

le processus d'observation

gt = à131,txt +

à132,tyt +

ài3,tZt + [var = exp(

àe1)]

avec les processus stochastiques non observés d'états suivants

àâ1,t =

à/1,t-1 + [var = exp(

àe2)],

àâ2,t =

àe4 + à/32,t-1 + [var = exp(àe3)],

66

à/33,t = àe5 + à/33,t-1,

à

/3j,t mesurent les effets de ces trois différents facteurs de bien - être congolaise au temps t et àBi sont les paramètres constants du modèle état - espace stochastique.

Les hypothèses du modèle sont (i) les séquences vt et Ek,t sont des bruits Gaussiens,(ii) les coefficients sont des processus stochastiques et variants avec le temps.

4.3.3 Estimation du modèle de bien - être congolais

Il y a deux avantages de présenter un système dynamique dans le modèle d'état - espace : (i) le modèle d'état espace permet aux variables non observables (variables d'état) d'être incorporées et estimées dans le modèle observé, (ii) les modèles d'état espace peuvent être analysés en utilisant l'algorithme récursif puissant comme le filtre de Kalman et Bucy [99] et [100], (iii) E[vtEk,t] = 0, .

Pour implémenter le filtre de Kalman, nous appliquons la fonction de maximum de vraisemblance suivante

2 Log(2r) - 2 Log

Ft(B)

1

|

|-

2 ~-1

t (è)~t(è).

t t

Cette fonction peut être évaluée en utilisant le filtre de Kalman. En utilisant les dérivées numériques, les techniques itératives standards peuvent être employées pour maximiser la fonction de maximum de vraisemblance des paramètres inconnus. Dans cette étude la technique itérative utilisée est celle de Berndt, Hall,Hall et Hausman [? ].

L'algorithme de BHHH [? ] est une méthode numérique similaire à celle de Gauss - Newton. Elle se présente comme suit. Supposons que la fonction à optimiser est Q(/3). Alors les algorithmes sont itératifs définissant une suite d'approximation, /3k, donnée par

?Q

/3k+1 = /3k - ëkAk a/3 (/3k)

/3k est le paramètre à estimer à l'étape k, et Ak est une paramètre appelé la taille de l'étape qui partiellement détermine l'algorithme particulier. Pour l'algorithme BHHH de Ak par les calculs avec une étape donnée est déterminé L 'Algorithme de Kalman que nous avons utilisé peut être résumé comme suit

LogL(/3) = -

nT

67

68

(Leondes,p.241). Le modèle dynamique se présente comme suit

Xk = Ok-1Xk-1 + Wk-1, Wk-1 ^' N(0, Qk-1)

et l'équation de l'état se présente

Zt = HkXk + vk, vk ^' N(0, Rk)

les conditions initiales sont

E(X0) =

àX0|0,

E(X0 -

àX0|0)(X0 - àX0|0) = P0|0, E(Wkv0j) = 0 pour tous k et j.

àXk|k-1 = Ok-1àXk-1|k-1

La matrice de covariance des erreurs de propagation est donnée par

Pk|k-1 = Ok-1Pk-1|k-1(P0k-1 + Qk-1

Le vecteur état

[ ]

àXk|k = àXk|k-1 + Kk Zk - H àXk|k-1

Matrice de covariance des erreurs est donnée

[ ]

Pk|k-1 = I - KkHk Pk|k-1

La matrice de gain de Kalman est donnée par

Kk = Pk|k-114 [HkPk|k-1H

0k + Rk]

-1

4.3.4 Présentation et Interprétation des résultats

Les résultats de cette étude sont présentés dans le tableau suivant :

69

Paramètres du modèle valeurs estimées

àè1 -3,3867*

àè2 -16, 2692

àè3 -6, 4230

àè4 1,2807

àè5 -0, 0081**

Etats du modèle valeurs estimées

àâ1 -0,3634**

àâ2 49, 6594*

àâ3 0, 2352

(*) et (**) sont respectivement significatifs au seuil de 5% et 10%.

Comme indiqué dans le tableau ci - dessus, la significativité des paramètres de ce modèle est déterminée par la valeur de Z - statistique associée à chaque paramètre. La lecture de ce tableau montre que les coefficients de variables investissements et populations sont significatifs.

Eu égard à ces estimations, la population active congolaise ont des effets positifs sur la croissance économique. Par contre, les investissements ont des

effets négatifs sur la croissance économique.

Conclusion

La modélisation d'une économie gouvernée par les phénomènes aléatoires conduit aux mauvaises prévisions rendant certainement les politiques économiques inefficaces.

70

Bibliographie

[1] N. U. Ahmed. Linear and Nonlinear Filtering for Scientists and Engineers. World Scientific, Singapore, 1998.

[2] Y. Ait Sahalia. Testing continuous - time models of the spot interst rate. Review of Financial Studies, 9 :385 - 426, 1996.

[3] Y. Ait Sahalia. Transition densities for interest rates and other nonlinear diffusions. Journal of Finance, 54 :499 - 547, 1999.

[4] Y. Ait Sahalia. Maximum likelihood estimation of discretely sampled diffusions : A closed - form approximation approach. Econometrica, 70 :223 - 262, 2002.

[5] Y. Ait-Sahalia, Lars P. Hansen, and Jose A. Scheinkman. Operator Methods for Continuous-Time Markov Processes, volume Handbook of Financial Econometrics : Tools and Techniques. Elsevier, North Holland, 2010.

[6] Y. Ait Sahalia and Robert Kimmel. Maximum likelihood estimation of stochastic volatility models. Journal of Financial Economics, 83 :413 - 452, 2007.

[7] J. Albert. Bayesian Computation with R. John Wiley and Sons, New York, 2 edition, 2009.

[8] S. Albeverio, R. Fan, and F. Herzberg. Hyperfinite Dirichlet Forms and Stochastic Processes. Verlag. Springer, Berlin and Heidenlberg, 2011.

[9] R. Aldrovandi. Special Matrices of Mathematical Physics Sochas-tic,Circulant and Bell Matrices. World Scientific, Danvers, 2001.

[10] E. Allen. Modeling with Ito Stochastic Differential Equation. Springer, 2007.

[11]

71

T. Amemiya. Advanced Econometrics. Harvard University Press, Cambridge, 1985.

[12] D. Applebaum. Lévy Processes and Stochastic Calculus. Cambridge University Press, Cambridge, 2 edition, 2009.

[13] D. Ardia. Financial Risk Management with Bayesian Estimation of GARCH Models Theory and Applications. Verlag. Springer, Berlin, 2008.

[14] G. Aubert and P. Kornprobst. Mathematical Problems in Image Processing Partial Differential Equations and the Calculus of Variations. Springer Science + Business Media, New York, 2 edition, 2006.

[15] L. Bachelier. Théorie de la spéculation. PhD thesis, Ecole Normale Supérieure de Paris, Paris, mars 1900.

[16] J. Bai. Testing for parameter constancy in linear regressions : An empirical distribution function approach. Econometrica, 64(3) :597 - 622, May 996.

[17] Z. Bai, Y. Chen, and Y. C. Lian. Random Matrix Theory and Its Applications. World Scientific, Danvers, 2009.

[18] A. V. Balakrishnan. Kalman Filtering Theory. Optimization Software, New York, 1984.

[19] Y. Bard. Nonlinear Parameter Estimation. Academic Press, New York, 1974.

[20] H. Bart, I. Gohberg, M.A. Kaashoek, and A.C.M. Ran. A State Space Approach to Canonical Factorization with Applications. Birkhauser, Basel, 2007.

[21] I. V. Basawa, C.C. Heyde, and R.L. Taylor, editors. Seleted Proceedings of the symposium on Inference for Stochastic Processes, volume 37. Institute of Mathematical Statistics, 2001.

[22] Ishwar V. Basawa and B.L.S. Prakasa Rao. Statistical Inference for Stochastic Processes. Acedemic Press, London, 1980.

[23] M. Basin. New Trends in Optimal Filtering and Control for Polynomial and Time - Delay Systems. Number 380. Springer - Verlag, Berlin and Heidelberg, 2008.

[24]

72

H. Bauer and Robert B.Burkel. Measure and Integral. Wlter de Gruy-ter, Berlin, 2001.

[25] Peter H. Baxendale and Sergey V. Lototsky. Stochastic Differential Equations: Theory and Applications, volume 2 of Interdisciplinary Mathematical Sciences. Danvers, 2007.

[26] F. E. Benth, G. Di Nunno, and T.Zhang T. Lindstrom, B. Oksental, editors. Stochastic Analysis and Applications, Berlin and Heidelberg, 2007. The Abel Symposia and The Norwegian Mthematical Society, Springer - Verla.

[27] James O. Berger. Statistical Decision Theory and Bayesian Analysis. Springer-Verlag, New York, 2 edition, 1985.

[28] N. Berglund. Martingales et calcul stochastique. Master 2,Université d'Orléans, 2014.

[29] P. Billingsley. Weak Convergence of Measures : Applications in Probability. SIAM, Philadelphia, 1971.

[30] P. Billingsley. Convergence of Probability Measures. John Wiley and Sons, Danvers, 2 edition, 1999.

[31] Jaya P.N. Bishwal. Parameter Estimation in Stochastic Differential Equations. Springer - Verlag, New York, 2008.

[32] F. Black and P. Karasinski. Bond and option pricing when short rates are lognormal. Financial Analysts Journal, pages 52 - 59, 1991.

[33] F. Black and M. Scholes. The pricing of options and corporate liabilities. The Journal of Political Economy, 81(3) :637 - 654, 1973.

[34] P. Blanchard, P. Combe, and W. Zheng. Mathematical and Physical Aspects of Stochastic Mechanics. Springer Verlag, Berlin and Heidelberg, 1987.

[35] A. Bénassy Quéré, B. Coeuré, P. Jacquet, and J.Pisani Ferry. Politique économique. De Boeck and Larcier, Bruxelles, 2004.

[36] T. Bollerslev. A conditional heteroskedastic time series model for speculative prices and rates of return. The Review of Economics and Statistics, 69(3) :542 - 547, 1987.

[37]

73

Larry G. Bretthorst. Bayesian Spectrum Analysis and Parameter Estimation. Springer - Verlag, Heidelberg, 1988.

[38] D. Brigo and F. Mercurio. Interest Rate Models Theory and Practice with Smile, Inflation and Credit. Springer - Verlag, Berlin and Heidelberg, 2006.

[39] James V. Candy. Bayesian Signal Processing Classical,Modern and Particle Filtering Methods. John Wiley and Sons, Hoboken, 2009.

[40] Bradley P. Carlin and Thomas A. Louis. Bayesian Methods for Data Analysis. Taylor and Francis Group,LLC, Boca Raton, 3 edition, 2009.

[41] René A. Carmona and Michael R. Tehranchi. Interest Rate Models an Infinite Dimensional Stochastic Analysis Perspective. Springer, Berlin and Heidelberg, 2006.

[42] M. Carrasco, Liang Hu, and Werner Ploberger. Optimal test for markov switching parameters. Econometrica, 82(2) :765 - 784, March 2014.

[43] J.A. Chao and W.A. Woyczynski. Martingales Theory in Harmonic Analysis and Banach Spaces. Springer Verlag, Berlin, 1982.

[44] C.K. Chui and G. Chen. Kalman Filtering with Real - Time Applications. Springer, Berlin Heidelberg, 4 edition, 2009.

[45] K. L. Chung and John B. Walsh. Markov Processes, Brownian Motion, and Time Symmetry. Springer, Berlin, 2005.

[46] Jacques J.F. Commandeur and S. Jan Koopman. An introduction to State Space Time Series Analysis Practical Econometrics. Oxford University Press, Oxford, 2007.

[47] J.C. Cox, J.E. Ingersoll, and S..A. Ross. Atheory of the term structure of interest rates. Econometrica, 53 :385 - 405, 1985.

[48] Jan S. Cramer. Econometric Application of Maximum Likelihood Methods. Cambridge University Press, New York, 1986.

[49] S. Cyganowski, P. Kloeden, and J. Ombach. From Elementary Probability to Stochastic Differential Equations with MAPLE. Springer - Verlag, Berlin and Heidelberg, 2002.

[50] G. Da Prato and L. Tubaro. Stochastic Differential Equations and Applications - VII, volume 245 of Lecture Note in Pure and Applied Mathematics. Chapman and Hall/CRC, Boca Raton, 2006.

[51]

74

A. P. Dempster, N.M. Lair, and D.B. Rubin. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society, 39(1) :1 - 39, 1977.

[52] Dipak K. Dey and C.R.Rao. Bayesian Thinking Modeling, volume 25 of Handbook of Statistics. Elsevier B.V., 2005.

[53] J. Durbin and S.J. Koopman. Time Series Analysis by State Space Methods. Oxford University Press, Oxford, 2004.

[54] D. Durrett. Probability Theory and Examples. Cambridge University Press, New York, 4 edition, 2010.

[55] G. Evensen. Data Assimilation the ensemble Kalman Filter. Springer, Berlin and Heidelberg, 2 edition, 2009.

[56] A. Foata and A. Fuchs. Processus Stochastique Processus de Poisson, chaine de Markov et martingales. Dunod, Paris, 2004.

[57] C. Francq and J. M. Zakoian. GARCH Models Structure,Statistical inference and Financial Application. John Wiley and Sons, West Sussex, 1 edition, 2010.

[58] A. Friedman. Stochastic Differential Equations and Applications. Academic Press, 1975.

[59] D. Gamerman and H.F. Lopes. Markov Chains Monte Carlo Stochastic Simulation for Bayesian inference. Taylor and Francis Group, Boca Raton,FL, 2 edition, 2006.

[60] J. Gatheral. The Volatility Surface A practtioner's Guide. Wiley Finance, Hoboken, 2006.

[61] L. Gawarecki and V. Mandrekar. Stochastic Differential Equations in Infinite Dimensions with Applications to Stochastic Partial Differential Equations. Springer Verlag, Berlin and Heidelberg, 2011.

[62] L. Gawarecki and V.Mandrekar. Stochastic Differential Equations in Infinite Dimensions. Springer, Berlin, 2011.

[63] S. Geisser and W. Johnson. Modes of Parametric Statistical Inference. John Wiley and Sons, Hoboken, New Jersey, 2006.

[64] A. Gelman, John B. Carlin, Hal S. Stein, and Dolnald B.Rubin. Baye-sian Data Analysis. Chapman and Hall/CRC, Boca Raton, 2 edition, 2004.

[65]

75

A. Gelman and Xiao Li Meng. Applied Bayesian Modeling and Causal Inference from Incomplete - Data Perspectives. John Wiley and Sons, Hoboken, 2004.

[66] Bruce P. Gibbs. Advanced Kalman Filtering Least - Squares and Modeling a Practical Handbook. John Wiley and Sons, Hoboken, 2011.

[67] G. Gong and W. Semmler. Stochastic Dynamic Macroeconomics : Theory, Numerics and Empirical Evidence. Oxford University Press, New York, 2006.

[68] C. Graham and D. Talay. Stochastic Simulation and Monte Carlo Methods. Springer - Verlag, Berlin and Heidelberg, 2013.

[69] W. Greene and R. Carter Hill. Maximum Simulated Likelihood Methods and Applications, volume 26 of Advances in Econometrics. Emerald Group, Howard House, 2010.

[70] William H. Greene. Econometric Analysis. Pearson Education, Upper Saddle River, 5 edition, 2003.

[71] Mohinders S. Grewal and Agnus P. Andrews. Kalman Filtering : Theory and Practice using MATLAB. John Wiley and Sons, New York, 2 edition, 2001.

[72] Damodar N. Gujarati. Basic Econometrics. The McGraw - Hill, 4 edition, 2005.

[73] James D. Hamilton. A new approach to the economic analysis of nons-tationary time series and business cycle. Econometrica, 57(2) :357 - 384, March 1989.

[74] James D. Hamilton. Handbook of Econometrics, volume IV, chapter State Space Models, pages 3041 - 3068. Elvier Science B.V., 1994.

[75] James D. Hamilton. Time Series Analysis. Princeton University Press, Princeton, 1994.

[76] James D. Hamilton and Baldev Raj, editors. Advances in Markov Switching Models. Springer, Berlin and Heidelberg, 2002.

[77] A. Harvey, S. J. Koopman, and N.Shephard. State Space and Unobserved component models : Theory and Applications. Cambridge University Press, Cambridge, 2004.

[78]

76

Andrew C. Harvey. Dynamic Models for Volatility and Heavy Tails with Applications to Financial and Economic Time Series. Econometric Society Monographs. Cambridge University Press, New York, 2013.

[79] Anton J. Haug. Bayesian Estimation and Tracking : A Practical Guide. John Wiley and Sons, Hoboken, 2012.

[80] F. Hayashi. Econometrics. Princeton University Press, Princeton, 2000.

[81] James J. Heckman and Edward E. Leamer, editors. Handbook of Econometrics, volume 6A. North - Holland Elsevier, Amsterdam, 2007.

[82] D. Henderson and P. Plaschko. Stochastic Differential Equations in Science and Engineering. World Scientific Publishing Co.Pte.Ltd, New Jersey, 2006.

[83] D. Hinrichsen and Pritchard A.J. Mathematical Systems Theory I : Modelling, State Space Analysis Stability and Robustness. Springer-Verlag, Berlin and Heidelberg, 2005.

[84] S. L. Hobbs and S.S. Sritharan. Nonlinear filtering theory for stochastic reactiond - iffusion equations. In N. Gretsky, J.Goldstein, and J. J. Uhl, editors, Probability and Modern Analysis, pages 219 - 234. Marcel Dekker, 1997.

[85] Rob J. Hyndman, Anne B. Koetler, J.Keith Ord, and Ralph D. Snyder. Forecasting with Exponential Smoothing: The State Space Control Systems. Springer- Verlag, Berlin, 2008.

[86] I. A. Ibragimov and R.Z. Hasminskii. Statistical Estimation Asymptotic Theory. Springer Science + Business Media, New York, 1981.

[87] N. Ikeda and S. Watanabe. Stochastic Differential Equations and Diffusion Processes. North - Holland Publishing Company. Kodansha Scientific Books, New York, 2 edition.

[88] K. Itô. Foundations of stochastic differential equations in infinity dimensional space. volume 47, Philadelphia, 1984. Conference Board of the Mathematical Sciences and National Science Foundation, Society for Industrial and Applied Mathematics.

[89] K. Itô and Henry P. McKean Jr. Diffusion Processus and their Sample Paths. Springer - Verlag, Berlin and Heidelberg, 1996.

[90]

77

J. Jacob and Philip E. Protter. Discretization of Processes. Springer - Verlag, Berlin and Heidelberg, 2012.

[91] P. N. Jaya and N.Bishwal. Parameter Estimation in Stochastic Differential Equations. Springer - Verlag, Berlin and Heidelberg, 2008.

[92] Andrew H. Jazwinski. Stochastic Processses and Filtering Theory. Academic Press, New York, 1970.

[93] M. JeanBlanc. Lectures on mathematical finance. City University, Hong Kong, June 2001.

[94] F. Jedrzejewski. Modèles aléatoires et physique probabiliste. Springer - Verlag France, 2009.

[95] A. Jentzen and Peter E. Kloeden. Taylor Approximations for Stochastic Partial Differential Equations. The Society for Industrial and Applied Mathematics, Philadelphia, 2011.

[96] Nicholas P. Jewell and John d. Kalbfleisch. Maximum likelihood estimation of ordered multinomial parameters. Biostatistics, 5(2) :291 - 306, 2004.

[97] P. Kall and J. Mayer. Stochastic linear Programming. Kluwer Academic Publishers, New York, 2005.

[98] G. Kallianpur and D. Kolzow. Measure Theory Applications to Stochastic Analysis. Springer Verlag, Berlin and Heidelberg, 1978.

[99] R. E. Kalman. A new approach to linear filtering and prediction problems. Journal of Basic Engineering, 82 :35 - 45, 1960.

[100] R. E. Kalman and R.S.Bucy. New results in linear filtering and prediction theory. Journal of Basic Engineering, pages 95 - 108, 1961.

[101] I. Karatzas and Steven E.Shreve. Brownian Motion and Stochastic Calculus. Springer - Verlag, Berlin and Heidelberg, 1988.

[102] D. Kelly and Curtis Smith. Bayesian Inference for Probabilistic Risk Assessment : A Practitioner's Guidebook. Springer Verlag London, London, 2011.

[103] Lawrence R. Klein, A. Welfe, and W. Welfe. Principles of Macroeco-nometric Modeling. Elsevier Science B.V., Amsterdam, 1999.

[104]

78

M. Kleptsyna and A. LeBreton. Statistical analysis of the ornstein - uhlenbeck type process. Statistical Inference for Stochastic Processes, 5(3) :229 - 248, 2002.

[105] Peter E. Kloeden and E. Platen. Numerical Solution of Stochastic Differential Equations. Springer, Berlin, 1995.

[106] Peter E. Kloeden and E. Platen. Numerical Solution of Stochastic Differential Equations, volume 23 of Application of Mathematics. Springer - Verlag, Berlin and Heidelberg, corrected third printing edition, 1999.

[107] Vassili N. Kolokoltsov. Nonlinear Markov processes and Kinetic Equations. Cambridge University Press, New York, 2010.

[108] G. Koop, Dale J. Poitier, and Justin L. Tobias. Bayesian Econometric Methods. Cambridge University Press, Cambridge, 2007.

[109] V. Krishnan. Nonlinear Filtering and Smoothing : an Introduction to martingales, stochastic integrals and Estimation. Dover Publications Inc., Mineola, 1984.

[110] U. Kuckler and Michael Sorensen. Exponential Families of Stochastic Processes. Springer Verlag, New York, 1997.

[111] H. H. Kuo. Introduction to Stochastic Integrals. Universitext. Springer Science Business, New York, 2006.

[112] Harold J. Kushner. Approximaion and weak convergence Methods for Random Processes with Applications to Stochastic Systems Theory. The MIT Press, Cambridge, 1984.

[113] Harold J. Kushner and P.Dupuis. Numerical Methods for Stochastic Control Problems in Continuous Time. Springer-Verlag, 2001.

[114] Harold J. Kushner and G.George Yin. Stochastic Approximation and Recursive Algorithms and Applications. Springer - Verlag, New York, 2003.

[115] Yu.A. Kutoyants. Estimation of the trend parameter of a diffusion process. Theory Probability and its Applications, 22 :399 - 405, 1977.

[116] Yury A. Kutoyants. Statistical Inference for Spatial Poisson Processes. Springer Science+Busmess Media, New York, 1998.

[117]

79

Yury A. Kutoyants. Statistical Inference for ergodic Diffusion Processes. Springer - Verlag, London, 2004.

[118] L. Le Cam. Asymptotic Methods in Statistical Decision Theory. Springer - Verlag, New York, 1986.

[119] K. A. Lee, W.-S. Gan, and Sen M. Kuo. Subband Adaptive Filtering Theory and Implentation. John Wiley and Sons, West Sussex, 2009.

[120] W. Lembe. Term Structure Modeling and Estimation in a state space Framework. Springer Verlag, Berlin and Heidelberg, 2006.

[121] Bernard C. Levy. Principles of signal Detection and Parameter Estimation. Springer Science + Business Media, New York, 2008.

[122] Frank L. Lewis, L. Xie, and D. Popa. Optimal and Robust Estimation with an Introduction to Stochastic Control Theory. Taylor and Francis Group, Boca Raton, 2008.

[123] William A. Link and Richard J. Barker. Bayesian Inference with Ecological Applications. Elsevier, Oxford, 2010.

[124] R. S. Liptser and A.N. Shiryaev. Statistics of Random Processes :II Applications. Springer - Verlag, New York, 2001.

[125] D. V. Lndley. Introduction to probability and Statistics :From a Baye-sian Viewpoint. Cambridge University Press, New York, 1970.

[126] A.W. Lo. Maximum likelihood estiamation of generalized itô processes with discretely sampled data. Econometric Theory, 4 :231 - 247, 1988.

[127] H. Lutkepohl. New Introduction to Multiple Time Series Analysis. Springer - Verlag, Berlin and Heidelberg, 2005.

[128] H. Lutkepohl and Markus Kratzig. Applied Time Series Econometrics. Cambridge University Press, Cambridge, 2004.

[129] G. S. Maddala. Introduction to Econometrics. MACMILLAN Publishing Company, New York, 2 edition, 1992.

[130] G. S. Maddala, C.R.Rao, and H.D.Vinod, editors. Handbook of Statistics, volume 11. Elsevier Science Publishers B.V., Amsterdam, 1993.

[131] G. S. Maddala and In Moo Kim. Unit Roots,Cointegration, and Structural Change. Cambridge University Press, Cambridge, 1998.

[132]

80

Greory N. Mankiw. Macroéconomie. De Boeck University, Bruxelles, 2 edition, 2001.

[133] R. Mansuy and M. Yor. Aspects of Brownian Motion. Springer - Verlag, Berlin and Heidelbert, 2008.

[134] J. M. Marin and Christian P. Robert. Bayesian Core : A Practical Approach to Computational Bayesian Statistics. Springer Science + Business Media, LLC, New York, 2007.

[135] P. Medvegyev. Stochastic Integration Theory. Oxford University Press, New York, 2007.

[136] M. Meyer. Contunuous Stochastic Calculus with Applications to Finance. Chapman and Hall/CRC, Boca Raton, 2001.

[137] Russell B. Millar. Maximum Likelihood Estimation and Inference. John Wiley and Sons, West Susssex, 2011.

[138] G. N. Milstein. Numerical Integration of Stochastic Differential Equations. Springer Science + Business Media, Dordrecht, 1995.

[139] G. N. Milstein. Numerical Integration of Stochastic Differential Equations. Springer Science + Business Media, Dordrecht, 1998.

[140] Yuliya S. Mishura. Stochastic Calculus for Fractional Brownian Motion and Related Processes. Springer - Verlag, Berlin and Heidelberg, 2008.

[141] S. K. Mitter and A. Moro, editors. Nonlinear Filtering and Stochastic Control, Berlin and Heidelberg, July 1983. the Centro Internationale Matematico Estivo, Springer - Verlag.

[142] John C. Nash and M. Walker Smith. Nonlinear Parameter Estimation: An Integrated System in BASIC. Nash Information Service, Ottawa, 1995.

[143] A. O'Hagan. Bayesian Inference, volume 2B of Kendall's Advanced Theory of Statistics. Oxford University Press, New Yok, 2000.

[144] A. O'Hagan and Mike West. The Oxford Handbokk of Applied Bayesian Analysis. Oxford University Press, Oxford, 2010.

[145] B. Oksendal. Stochastic Differential Equations. Springer-Verlag, Berlin, 5 edition, 2000.

[146]

81

McKean Jr. H. P. Stochastic integrals. Academic Press, New York, 1969.

[147] E. Pardoux. Markov Processes and Applications Algorithms, Networks, Genome and Finance. Dunod and John Wiley and Sons, Paris, 2008.

[148] G.A. Pavliotis and A.M. Stuart. Parameter estimation for multiscale diffusion. Journal of Statistical Physics, 127(4) :741 - 781, May 2007.

[149] S. Perzat and J. Zabczyh. Stochastic Partial Differential Equations with Lévy Noise. Cambridge University Press, New York, 2007.

[150] H. Pham. Optimisation et controle stochastique appliqués à la finance. Springer - Verlag, Berlin, 2007.

[151] E. Platen and N.Bruti Liberti. Numerical Solution of Stochastic Differential Equations with jumps in Finance. Springer - Verlag, Berlin and Heidelberg, 2010.

[152] Y. Pokern, Andrew M. Stuart, and Petter Wiberg. Parameter estimation for partially observed hypoelliptic diffusions. Journal of the Statistical Society, 71(1) :49 - 73, 2009. B.

[153] B. L. S. Prakasa Rao. Parameter estimation for linear stochastic differential equations driven by fractional brownian motion. Random Operations and Stochastic Equations, 11 :229 - 242, 2003.

[154] B. L. S. Prakasa Rao. Statistical Inference for Fractional Diffusion Processes. John Wiley and Sons, West Sussex, 2010.

[155] Philip E. Protter. Stochastic Integration and Differential Equations. Springer - Verlag, Berlin and Heidelberg, 2004.

[156] Christian P. Robert. The Bayesian Choice From Decision - Theoretic Foundations to Computational Implementation. Springer Science + Business Media, New York, 2 edition, 2007.

[157] A. Robler. Runge - Kutta Methods for the Numerical Solution for Stochastic Differential Equations. Springer, Berlin, 2003.

[158] Daniel B. Rowe. Multivariate Bayesian Statistics Models for Source Separation and Signal Unimixing. Chapman and Hall/CRC, Boca Raton, 2003.

[159]

82

Thomas H. Scheike and Anders Juul. Maximum likelihood estimation for cox's regression model under rested case - control sampling. Bio-statistics, 5(2) :193 - 206, 2004.

[160] David W. Scott. Multivariate Density Estimation,Theory, Practice and Visualization. John Wiley and Sons, Hoboken, 1992.

[161] Pavel V. Shevchenko. Modelling Operational Risk using Bayesian Inference. Springer - Verlag, Berlin and Heidelberg, 2011.

[162] R. Situ. Theory of Stochastic Differential Equations with Jumps and Applications. Springer Science + Business Media, New York, 2005.

[163] D. Sorensen and Daniel Gianola. Likelihood Bayesian and MCMC Methods in Quantitative Genetics. Springer - Verlag, New York, 2002.

[164] P.J.C. Spreij. Stochastic Integration. Springer Science, New York, 2004.

[165] S. S. Sritharan. Nonlinear filtering of stochastic navier - stokes equations. In T. Funaki and W.A. Woyczynski, editors, Nonlinear Stochastic PDEs : Burgers Turbulence and Hydrodynamic Limit (PDF), pages 247 - 260. Springer-Verlag, 1994.

[166] Nancy L. Stokey. The Economics of Inaction : Stochastic Control Models with Fixed Costs. Princeton University Press, Princeton, 2009.

[167] Nancy L. Stokey, Robert E. Lucas Jr., and Edward C. Prescott. Recursive Methods in Economic Dynamics. Harvard University Press, Cambridge, 1989.

[168] H. Tanizaki and R.S. Mariano. Prediction, filtering and smoothig in nonlinear and non normal cases using monte carlo integration. Journal of Applied Econometrics, 9(2) :163 - 179, 1994.

[169] C. C. Tsui. Robust Control System Design : Advanced State Space Technique. Marcel Dekker, New York, 2 edition, 2004.

[170] A. van den Bos. Parameter Estimation for Scientists and Engineers. John Wiley and Sons, Hoboken, 2007.

[171] F. van der Heijder, R.P.W.Duin, D.de Ridder, and D.M.J.Tax. Classification, Parameter Estimation and State Estimation :An Engineering Aproach using MATLAB. John Wiley and Sons, West Sussex, 2004.

[172]

83

C. van Eeden. Restricted Parameter Space Estimation Problems Admissibility and Minimaxity Properties. Springer Science Business LLC, New York, 2006.

[173] R. van Handel. The stability of conditional markov processes and markov chains in random environment. The Annals of Probability, 37(5) :1876 - 1925, 2009.

[174] Carl E. Walsh. Monetary Theory and Policy. The MIT Press, Cambridge, 3 edition, 2010.

[175] Donald M. Wiberg. State Space and Linear Systems. Schaums Outline series. McGraw - Hill, New York, 1997.

[176] Robert L. Williams and Douglas A. Lawrence. Linear State - Space Control Systems. John Willey and Sons, Hoboken, 2007.

[177] J. Xiong. An Introduction to Stochastic Filtering Theory. Oxford University Press, Oxford, 2008.

[178] A. Yger and J. A. Weil. Mathématiques Appliquées L3. Pearson Education, Paris, 2009.

[179] N. Yoshida. Estimation for diffusion processes from discrete observation. Journal of Multivariate Analysis, 41 :220 - 242, 1992.

[180] A. Zaknick. Principles of Adaptive Filters and Self-learning Systems. Springer - Verlag, London, 2005.

[181] J. Zarzycki. Nonlinear Prediction Ladder - Filters for Higher - Order Stochastic Sequences. Springer - Verlag, Berlin and Heidelberg, 1985.

[182] A. Zellner. An Introduction to Bayesian Inference in Econometrics. JohnWiley and Sons, New York, 1971.

[183] A. Zellner and Joseph B. Kadane. Robustness of Bayesian Analyses, volume 4 of Studies in Bayesian Econometrics. Elsevier Science Publishers B.V., 1984.

[184] W. Zou and M. Schechter. Critical Point Theory and Its Applications. Springer Science + Business Media, New York, 2006.

84

Table des matières

1 Préliminaires mathématiques

1.1 Eléments de la théorie de la mesure et intégration

6

6

 

1.1.1

Limite inférieure et supérieure

7

 

1.1.2

Espaces vectoriels normés

8

 

1.1.3

Propriétés de l'intégrale des fonctions étagées positives

9

 

1.1.4

Produit des espaces mesurés

10

 

1.1.5

Conditionnement et indépendance de probabilité. . . .

11

1.2

Espérance conditionnelle

11

 

1.2.1

Variables aléatoires

13

 

1.2.2

Modes de convergence

13

1.3

Processus stochastiques

16

 

1.3.1

Processus de Markov

16

 

1.3.2

Chaînes de Markov

19

 

1.3.3

Temps d'arrêt

21

 

1.3.4

Martingales à état indépendant

22

 

1.3.5

Mouvement brownien

23

 

1.3.6

Quelques modification du mouvement brownien . . . .

24

85

1.3.7 Martingales et Semimartingales

2 Equations Différentielles et Intégrales Stochastiques

26

31

2.1

Calculs stochastique

31

2.2

Equations différentielles stochastiques

33

 

2.2.1

Equations différentielles stochastiques ordinaires . .

. . 33

 

2.2.2

Equations aux dérivées partielles stochastiques

34

2.3

Intégrales stochastiques

37

 

2.3.1

Intégrale Stochastique d'Itô

37

 

2.3.2

Intégrale Stochastique de Stratonovich

40

2.4

Schémas numériques

41

 

2.4.1

Schéma d'Euler

42

 

2.4.2

Schéma de Milstein

43

 

2.4.3

Schéma de Heun

44

 

2.4.4

Méthodes de Runge - Kutta

44

 

2.4.5

Schéma de Platen

45

3 Applications des intégrales stochastiques à l'estimation sta-

tistique 46

3.1 Estimation de paramètres des équations différentielles stochas-

tiques 46

3.1.1 Estimation des paramètres pour les équations différen-

tielles stochastiques linéaires 47

3.1.2 Méthodes d'estimation des paramètres 49

3.1.3 Méthode de maximum de vraisemblance 49

3.1.4 Méthode d'estimation Bayésienne 51

86

3.2 Estimation des équations aux dérivées partielles stochastiques

avec dérive linéaire 52

3.3 Estimation des paramètres stochastiques par le filtre stochas-

tique 54

3.3.1 Formulation du modèle d'état - espace stochastique . . 54

3.3.2 Filtre stochastique de Kalman - Bucy 55

3.3.3 Filtre stochastique optimal 56

3.3.4 Approximation discrète - temporelle du filtre de Kal-

man - Bucy 57

4

3.3.5 Equations de Filtre de Kalman pour les processus discrets 57

Applications aux processus stochastiques temporels

4.1 Revue empirique sur la modélisation stochastique

59

59

 

4.1.1

Modèle de Bachelier

60

 

4.1.2

Modèle de Black - Scholes

60

 

4.1.3

Modèle de Cox - Intgersoll - Ross

60

 

4.1.4

Modèle de Heath - Jarrow - Morton

60

 

4.1.5

Modèle de Vasicek

61

 

4.1.6

Modèle de Black - Karasinski

61

 

4.1.7

Modèle de Hull - While

61

 

4.1.8

Modèle de Aït - Sahalia

61

4.2

Estimation des paramètres de l'équation différentielle stochas-

 
 

tique de l'inflation

62

 

4.2.1

Présentation théorique de l'inflation

62

 

4.2.2

Présentation du modèle économétrique

63

87

4.2.3 Estimation du processus stochastique autorégressif d'ordre

1 64

4.2.4 Résultats des estimations 65

4.3 Estimation de la contribution stochastique de la main d'oeuvre

congolais sur son bien - être économique 66

4.3.1 Modèle théorique du bien - être économique 66

4.3.2 Spécification économétrique du modèle état - espace

du développement économique 66

4.3.3 Estimation du modèle de bien - être congolais 67

4.3.4 Présentation et Interprétation des résultats 68






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous voulons explorer la bonté contrée énorme où tout se tait"   Appolinaire