INSTITUT DES HAUTES ÉTUDES ÉCONOMIQUES ET
COMMERCIALES
MÉMOIRE DE RECHERCHE APPLIQUÉE
PEUT-ON EVITER LES CRISES ?
MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES VALEURS
EXTRÊMES :
UNE VISION QUANTITATIVE DU RISQUE EXTRÊME
APPLIQUÉE À LA CRISE DES SUBPRIMES
MASTER : FINANCE DE MARCHÉ [SMT]
AUTEUR : JEAN MEILHOC
TUTEUR : ARNAUD AUBRY, QUANTITATIVE FUND MANAGER
DATE : 2 JUIN 2012
RÉSUMÉ
Les récentes crises financières et
monétaires ont conduit le développement de nouveaux outils de
protection contre le risque de marché. Le théorème de la
limite centrale, qui décrit le comportement asymptotique de la moyenne
d'un grand nombre de variables indépendantes, ne semble plus
adéquat lorsque des événements rares ou extrêmes
deviennent normes, comme lors de la crise des Subprimes. A ce titre, la
Value-at-Risk, qui peut se définir comme le quantile déterminant
la plus grande perte que peut subir un portefeuille avec une probabilité
d'occurrence déterminé, permet de mesurer ce risque
extrême. La théorie des valeurs extrêmes (TVE),
étudiée dans le cadre de la recherche d'évènements
rares d'une suite de variables aléatoires indépendantes,
associée à la Value-at-Risk peut être un excellent
indicateur. Ce mémoire de recherche prend son essence dans la recherche
des valeurs extrêmes appliquées à la Value-at-Risk, afin
d'y élaborer un modèle de prévention du risque
cohérent.
MOTS-CLÉS : FINANCE QUANTITATIVE ;
MODÉLISATION MATHÉMATIQUE ; PROBABILITÉS ET
STATISTIQUES ; RISK MANAGEMENT ; THÉORIE DES VALEURS
EXTRÊMES ; VALUE-AT-RISK (VAR)
ABSTRACT
Financial crises have become a principal concern to lead the
development of new market risk indicators. The central limit theorem, which
describes the average asymptotic behavior of a random process, does not
characterize rare or extreme events, like subprime mortgage crises do.
Value at Risk (VaR) is defined by risk exposure at a given probability level at
a specified time horizon. Computing extreme value theory (EVT),
focusing on the tails of the sample distribution, is an excellent approach
for its use in managing risks. This research paper presents an application of
extreme value theory to compute to Value-at-Risk of a market position in order
to provide a consistent risk measurment.
KEY-WORDS : QUANTITATIVE FINANCE ; MATHEMATICAL
MODELING ; PROBABILITY AND STATISTICS ; RISK MANAGEMENT ;
EXTREME VALUE THEORY ; VALUE-AT-RISK (VAR)
Sommaire
Introduction
6
I. Section théorique
10
I.I. Modèle de fréquence des
rentabilités anormales
10
I.I.1 Taux de rentabilités normales et anormales
11
I.I.1.1 Processus d'évaluation
11
I.I.1.2 Procédure de test
12
I.I.2 Calcul des rentabilités anormales
12
I.I.2.1 Modèles théoriques
12
I.I.2.1.1 Modèle de moyenne
13
I.I.2.1.2 Modèle de marché
13
I.I.2.2 Évaluation des paramètres
14
I.I.3 Rentabilités anormales
16
I.I.4 Test de significativité
17
I.I.4.1 Moindres carrés ordinaires
17
I.I.4.2 Rentabilités anormales transversales et
cumulés
19
I.I.4.3 Méthode de Brown et Warner
19
I.I.4.4 Méthode de Pattel
20
I.I.4.5 Méthode de Bohemer, Musumeci et Poulsen
20
I.II. Mesure du risque
22
I.II.1 Mesure du risque gaussien
25
I.II.1.1 Distribution de gauss
25
I.II.1.2.1 Loi des grands nombres
25
I.II.1.2.2 Loi de Gauss
26
I.II.1.2 Value-at-Risk classique
27
I.II.2 Distribution des valeurs extrêmes
29
I.II.2 1 Études fondamentales
30
I.II.2.2 Lois des maxima : résultat exacts
31
I.II.3 Mesure du risque extrême
33
I.II.3.1 Théorème de Fisher-Tippet
33
I.II.3.1.1 Modélisation paramétrique des maxima par
blocs
36
I.II.3.1.2 Sélection de la taille des blocs
36
I.II.3.1.3 Estimation du modèle BM par le maximum de
vraisemblance
36
I.II.3.2 Théorème de Balkema-de Haan-Picklands
39
I.II.3.2.1 Modélisation paramétrique de la
distribution des excès
42
I.II.3.2.2 Estimation du modèle de seuil par le maximum de
vraisemblance
43
I.II.3.3 4 Value-at-Risk extreme
43
II. Section empirique
46
II.I Mesure des fréquences anormales
46
II.I.1 Processus
46
II.I.2 Taux de rentabilités normales et anormales
52
II.I.2.1 Fréquences normales
52
II.I.2.2 Fréquences anormales
53
II.I.3 Résultat des fréquences anormales
54
II.I.3.1 Rentabilités anormales stationnaires
54
II.I.3.2 Rentabilités anormales cumulées
55
II.I.4 Test de significativité
56
II.II. Théorie des valeurs extrêmes et
Value-at-Risk
58
II.II.1 Analogie statistique de la distribution des
rendements et maximum de vraisemblance
59
II.II.1.1 Analogie statistique de la distribution des rendements
60
II.II.1.1.1 Comportement limite de la loi exponentielle
60
II.II.1.1.2 Comportement limite de la loi de Pareto
62
II.II.1.1.3 Comportement limite de la loi normale
63
II.II.1.2 Maximum de vraisemblance
65
II.II.2 Modèle de sélection de maxima
66
II.II.2.1 Réalité erratique
66
II.II.2.2 Sélection de seuil
69
II.II.3 Value-at-Risk
71
II.II.3.1 Couverture conditionnelle
72
II.II.3.2 Modèle de rentabilité ajustée du
risque
75
Conclusion
78
Bibliographie
81
Annexes
85
A. Graphiques : Sélection de seuil
86
B. Stratégie : Synthèse
générale
87
C. Graphiques : VaR
91
D. Stratégie
92
E. Visual Basic Application : Loi de valeurs
extrêmes
94
F. Visual Basic Application : Loi de
probabilité
96
G. Origines macroéconomiques de la crise des
subprimes
100
REMERCIEMENT
Nous tenons à remercier sincèrement
Mr Aubry pour avoir accepté d'encadrer ce mémoire. Ses
orientations, ses conseils et ses contacts nous ont permis de mener à
bien cette recherche. Je remercie aussi tout particulièrement
Mr Assemat, directeur du pôle finance de marché, pour
avoir su transmettre sa passion et son esprit d'analyse. Enfin, nous souhaitons
remercier également Mr Rudelle, professeur d'économie
et Mr Viar, professeur de mathématiques, sans qui tout cela
n'aurait été possible.
INTRODUCTION
« [...] Les idées, justes ou
fausses, des philosophes de l'économie et de la politique ont plus
d'importance qu'on ne le pense en général. À vrai dire le
monde est presque exclusivement mené par elles. Les hommes d'action qui
se croient parfaitement affranchis des influences doctrinales sont d'ordinaire
les esclaves de quelque économiste passé. Les illuminés du
pouvoir qui se prétendent inspirés par des voies célestes
distillent en fait des utopies nées quelques années plus
tôt dans le cerveau de quelque écrivailleur de
Faculté. »
John Maynard Keynes
« Théorie générale de
l'emploi, de l'intérêt et de la monnaie »
Chapitre 24, 1936
Les récentes crises financières et
monétaires sont indubitablement une préoccupation majeure des
acteurs des marchés financiers, des banques, des pouvoirs politiques et
des instances de régulation. Les fluctuations extrêmes des cours
de bourse sont importantes pour l'activité économique
réelle. La hausse de la volatilité en temps de crise,
corrélée à la chute des marchés financiers est
particulièrement inquiétante. Nous pouvons donner à ce
titre l'exemple de la crise des Subprimes, qui a annoncé la chute de la
banque américaine Lehman-Brothers disparue le 15 septembre 2008. Ce
climat pousse les acteurs du marché, comme les régulateurs
bancaires, à développer de nouveaux outils de protection contre
le risque de marché. La finance moderne met en avant les
mathématiques du hasard et de la statistique, conceptualisées par
des lois mathématiques probabilistes capables de mesurer le risque de
marché. Celui-ci se matérialise par l'espérance de pertes
auxquelles les investisseurs sont impliqués. Les variations des
marchés financiers : marchés des instruments de base -
actions, obligations, devises, matières premières - mais aussi
les marchés des produits dérivés - contrats à
terme, options - sont par définition risquées et instables. Il
faut par conséquent déterminer ce risque de manière
précise pour mieux l'appréhender. Parmi ces outils, il existe
deux mesures générales : la mesure de sensibilité et
la mesure de variance.
La première peut être théorisée en
fonction de la sensibilité que représente un
produit financier par rapport à son indice de référence.
Ainsi, le risque de marché est la probabilité de perte
liée aux évolutions des marchés. Naïvement, si nous
possédons une action du Dow Jones Industrial Average et que l'ensemble
du marché subit une baisse, il semble naturel de considérer qu'il
va en être de même pour notre action. Cette première mesure
s'assimile à la sensibilité relative d'un actif détenu par
rapport aux facteurs de risque de marché. Ainsi, des modèles de
risque se sont développés comme le « Capital Asset
Pricing Model » (CAPM)1(*) pour le plus connu. Ils mesurent la variance de la
rentabilité implicite du marché par un coefficient de
régression à des facteurs de risque par rapport au marché
dans son ensemble. Cependant, le « risk manager »
a besoin d'une mesure pragmatique du risque d'exposition. En effet,
lorsqu' un nombre important d'instruments très différents compose
le portefeuille, il est difficile d'adjoindre l'ensemble des covariances
pouvant exister. C'est pour cette raison qu'il est décisif
d'appréhender le risque à partir de profils à la fois
différents et complémentaires : la dispersion des pertes et
profits des actifs.
La deuxième met en exergue deux mesures de risque
venant de la distribution des rentabilités des actifs : la
volatilité et la Value-at-Risk (VaR). Ces mesures ne se
concentrent pas sur les mêmes paramètres : La
volatilité mesure les variations d'un actif autour de la tendance
centrale. Cette mesure accorde le même poids aux gains
espérés qu'aux pertes potentielles. Or la notion de risque est
directement liée aux pertes émanant d'un actif détenu,
lequel implique un revenu aléatoire. Une mesure asymétrique
pouvant juger du risque de perte est nécessaire. La volatilité
prend donc en compte toutes les rentabilités, positives ou
négatives, extrêmes ou modéré. La Value-at-Risk peut
se définir comme le quantile déterminant la plus grande perte que
peut subir un portefeuille avec une probabilité d'occurrence et sur un
horizon de temps déterminé : C'est un indicateur pouvant
estimer le risque extrême. Ces deux indicateurs donnent une information
différente. D'une part, la volatilité peut enregistrer un taux
élevé et seulement capturer des risques moyens, certes
significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque
synthétique pertinente est d'estimer convenablement la perte
éventuelle que peut subir un actif. D'autre part, déterminer le
risque par la volatilité, moment2(*) d'ordre 2, présuppose que les moments suivants,
le skewness3(*) et le
kurtosis4(*), ne
nécessitent pas d'être ajoutés dans une mesure de risque
viable. La théorie sous- jacente en est la normalité des
rentabilités. La loi Normale est en effet caractérisée par
les deux premiers moments. La volatilité n'est assurément pas la
meilleure mesure de risque extrême. Utiliser la Value-at-Risk permet de
passer outre ces difficultés dans la mesure où le quantile de la
distribution ne représente pas un équilibre moyen mais prend en
compte les pertes extrêmes. Ce mémoire de recherche prend son
essence dans la recherche des valeurs extrêmes appliquées à
la Value-at-Risk, afin d'y élaborer une mesure de performance
ajustée du risque cohérente. La prévention des
évènements extrêmes est aujourd'hui en plein essor. Nous le
constatons régulièrement :
§ Dans l'étude du vent : à
près de 650 km de rayon, ayant atteint un maximum de 280 km/h,
l'ouragan5(*) Katrina fut le
plus puissant et le plus meurtrier des phénomènes naturels qu'ont
connu les Etats-Unis, prenant près de 1836 vies et causant plus de 108
milliards de dollars à la collectivité locale6(*).
§ Dans l'étude des plaques
tectoniques : le tremblement de terre Crustal, touchant Haïti le
12 janvier 2010, était d'une magnitude de 7.0 - 7.3. Il a causé
la perte de 230 000 vies, faisant 300 000 blessés7(*). 1.2 million d'hommes et de
femmes furent privés de ressources vitales.
§ Dans l'étude
séismologique : le séisme de la côte pacifique de
Töhoku, où le japon fut impliqué, le 11 mars 2011, dans
l'une des plus importantes catastrophes de son histoire : Le Tsunami de
Fukushima. Cet accident majeur a impacté les réacteurs d'une
centrale nucléaire laissant un important volume de rejet radioactif.
L'ensemble de ces évènements, dont
l'espérance mathématique d'en connaître la manifestation
est mince, est de nature extrême. Ils existent effectivement et doivent
être pris en compte.
Les statisticiens ont mis en place des mesures de
prévention de ces mouvements, utilisant la « théorie
des valeurs extrêmes ». Aujourd'hui les domaines d'applications
utilisant ces analyses sont nombreux. En hydrologie, par exemple, les
données excessives sont particulièrement utiles pour la
prévision des crues. Dans le domaine assuranciel, elles sont
utilisées dans l'évaluation des grands sinistres. En finance, les
marchés financiers connaissent eux aussi des mouvements erratiques
extrêmes liés à l'incertitude de l'environnement
macro-économique. Faire appel à la théorie des valeurs
extrêmes appliquées à la Value-at-Risk dans un tel climat
est un bon point d'appui quant à la recherche de la
vérité. Expérimenter ces analyses pendant la crise des
Subprimes est intéressant : un investisseur aurait-il pu
contrôler son risque en mesurant le risque de perte extrême ?
Ce mémoire met en évidence les méthodes
théoriques et empiriques d'évaluations des valeurs extrêmes
conditionnelles appliquées à la Value-at-Risk afin
d'émettre une stratégie performante ajustée du risque.
Celui-ci est divisé en deux sections :
Dans la première section, nous verrons l'aspect
théorique de la fréquence des rentabilités anormales sur
les 30 composantes du DJIA. Cette fréquence nous permettra
d'apprécier la vélocité et l'ampleur avec laquelle les
rendements d'un actif se meuvent d'un niveau de stabilité donné
vers un niveau supposé par la crise, transformant ainsi le discernement
qu'ont les investisseurs du risque d'un actif. Puis, nous étudierons la
mesure du risque appliquée à la VaR liée aux
théories des valeurs extrêmes.
Dans la deuxième section, à travers la partie
empirique, nous pourrons nous intéresser à leurs applications sur
le DJIA en période de crise des Subprimes.
I. SECTION THÉORIQUE
« Imaginez une règle tenue verticalement sur
votre doigt : cette position très instable devrait conduire à sa
chute, au moindre mouvement de la main ou en raison d'un très
léger courant d'air. La chute est liée fondamentalement au
caractère instable de la position ; la cause immédiate de la
chute est, elle, secondaire »
Didier Sornette, 2002
I.I. MODÈLE DE
FRÉQUENCE DES RENTABILITÉS ANORMALES
Les aspects macroéconomiques montrent de façon
indubitable les conséquences d'une crise, particulièrement celle
des Subprimes, qui fut, pour les observateurs les plus avertis, aussi
importants que celle qui a vu le jour du jeudi noir de 19298(*). Cependant, lorsqu'on se situe
sur un marché financier, dans notre exemple le Dow Jones Industrial
Average (DJIA), comment considérer l'impact qu'a eu cette crise sur les
actifs le composant ? Évaluer la hausse de la volatilité,
sur un intervalle de temps représentant la crise, afin d'y extraire des
rentabilités anormales, peut être un bon point d'appui. Mais
comment pouvons-nous juger de ce que peut représenter le niveau de la
volatilité dite normale à titre de comparaison ?
La technique de l' « étude
d'événement », initié par E. Fama9(*), a précisément
pour objectif d'apprécier la précipitation et la profusion avec
laquelle un actif se déplace, transformant ainsi le discernement qu'ont
les investisseurs du risque d'un actif.
Nous allons pour ce faire nous focaliser sur la recherche des
rentabilités anormales, puis juger de leur significativité
à travers des tests statistiques.
I.I.1 TAUX DE RENTABILITÉS
NORMALES ET ANORMALES
Les crises financières et monétaires
occasionnent donc des mouvements particuliers sur le cours d'un titre.
L'approche utilisée pour isoler ceux-ci des fluctuations liées
à l'influence de facteurs exogènes à la crise des
Subprimes repose ainsi sur le calcul de rentabilités anormales. Par
définition, ces taux de rentabilités sont obtenus par
différence entre les rentabilités observées,
influencées par l'incertitude qui règne sur les marchés en
période de crise, et les rentabilités dites normales,
données par l'absence de perturbations majeures.
Les rentabilités anormales sont nécessairement
calculées en fonction d'un modèle de calcul. A ce titre, nous
avons choisi d'en présenter deux dans notre étude :
§ Le modèle de moyenne
§ Le modèle de marché.
I.I.1.1 PROCESSUS
D'ÉVALUATION
Les variables du modèle permettant le calcul des
rentabilités anormales font l'objet d'une évaluation
préalable. Cette estimation doit être conduite sur une
période de temps antérieure dans laquelle il n'y eu aucune
représentation de crise ou d'évènements extraordinaires
capables de biaiser l'étude10(*).
I.I.1.2 PROCÉDURE DE
TEST
C'est lorsque nous avons calculé les
rentabilités anormales que nous pouvons juger de la robustesse de
ceux-ci.
§ Une première étape consiste à
calculer la somme des taux de rentabilités anormaux obtenue à
partir des différents titres de l'échantillon.
§ Une deuxième étape sera également
réalisée pour calculer les rentabilités anormales
cumulées (RAC) des titres pendant la crise. Cette information nous
permet de connaître la véritable intensité d'un
évènement par rapport à ses fluctuations
exogènes.
§ Une troisième étape montre
statistiquement comment, à un seuil de risque octroyé, la crise
des subprime agit sur le cours.
I.I.2 CALCUL DES
RENTABILITÉS ANORMALES
I.I.2.1 MODÈLES
THÉORIQUES
Dans ce mémoire de recherche, nous allons analyser deux
méthodes couramment utilisées dans la littérature
financière. Ces méthodes repèrent de façon
efficiente la présence de trajectoire de cours anormaux. Selon Stephen
J. Brown et Jerold B. Warner11(*), il s'agit du :
§ Modèle de moyenne (constant mean return model,
« CMRM »)
§ Modèle de marché (market modele,
« MM »)
I.I.2.1.1 Modèle de
moyenne
Attachée à l'évaluation du modèle
de moyenne, l'évolution des taux de rentabilité de l'action
i est formulée par :
Où indique le
taux de rentabilité de l'action i à la période
t, , le taux de rentabilité moyen de l'action i, est
l'innovation en date t, hypothétiquement homoscédastique
et
d'espérance nulle. Un modèle ARCH - GARCH12(*) peut également
être étudié afin d'estimer une variance non constante dans
le temps.
I.I.2.1.2 Modèle de
marché
Le modèle de marché fut initié par
Sharpe13(*) en 1963. Ce
modèle postule pour une relation linéaire entre le taux de
rentabilité d'un actif
et le taux de rentabilité de l'indice
de référence, mesuré à partir de l'action
i. Ce modèle s'inscrit donc dans le cadre d'une mesure de
sensibilité du titre étudié. Expressément, nous
avons :
Où et sont les
deux éléments du modèle de marché, et et une
perturbation homoscédastique
d'espérance nulle. Comme pour le modèle de moyenne, la variance
peut être calculée selon des critères
hétéroscédastique avec ARCH - GARCH.
I.I.2.2 ÉVALUATION DES
PARAMÈTRES
En ce qui concerne le modèle de moyenne, nous devons
calculer un simple paramètre donné par la rentabilité
moyenne de l'action i sur N, la période pour laquelle
nous tirons nos taux de rentabilités normales. Le modèle de
marché quant à lui requière l'intervention de deux
paramètres distincts, à savoir et de
i sur les mêmes périodes.
Pour ce faire, nous pouvons estimer l'ensemble des
paramètres liés à chaque modèle à l'aide
d'une représentation matricielle de la période N. A ce
titre, nous pouvons consulter les études de John Y. Campbell, Andrew W.
Lo et Craig MacKinlay, publiées en 199714(*).
Deux composantes sont à calculer. Soit
Ri, le vecteur composer des N taux de
rentabilité et Xi :
§ Un vecteur de N lignes égales à
1 pour le modèle de moyenne
§ Une matrice à deux colonnes et N lignes
dans le cas du modèle de marché dans laquelle les lignes de la
première colonne sont égales à 1 et celles de la
deuxième colonne prennent pour valeur le taux de rentabilité du
marché en N.
§ Enfin, nous avons un vecteur de
paramètre agrégé au modèle utilisé, soit
pour le
modèle de moyenne, soit pour le
modèle de marché.
Cette représentation donne formellement
l'équation suivante :
Pour chaque modèle, l'appréciation des
paramètres peut aussi s'effectuer par le calcul des moindres
carrés ordinaires (MCO). On peut observer à présent
l'expression des différents estimateurs comme suit:
Où k désigne le nombre de
paramètres du modèle utilisé.
§ k = 1 pour le modèle de moyenne
§ k = 2 pour le modèle de
marché
I.I.3 RENTABILITÉS
ANORMALES
Énoncées précédemment, les
rentabilités anormales sont obtenues par différence entre les
rentabilités étudiées en Ai et les
rentabilités dévoilées par le modèle en
Ni. Estimé à partir d'une reproduction
matricielle des données, le vecteur des
A rentabilités anormales estimées est décrite par
la relation :
Dans lequel et sont les
corollaires de et respectivement. Le vecteur des taux anormaux sur Ai
peut s'analyser de telle sorte qu'il existe une
« erreur » commise dans la prévision de la
rentabilité du titre i. Mathématiquement, cette
« perturbation » réelle s'exprime
comme :
L'espérance mathématique des taux de
rentabilités anormales, liés aux valeurs ,
elles-mêmes tirées des variables explicatives sur la
période de crise, est donnée par :
Avec ,
calculé précédemment, l'équation donnée par
. Celle-ci
montre une espérance nulle dans la mesure où la perturbation est
supposée indépendante et identiquement identifiée sur
Ni et Ai.
I.I.4 TEST DE
SIGNIFICATIVITÉ
Comment pouvons-nous juger de la significativité des
tests réalisés selon les modèles théoriques
réalisés précédemment? Plusieurs étapes
peuvent être mise en oeuvre pour en tirer une hypothèse viable.
Afin de montrer la véracité du raisonnement utilisé dans
cette étude, nous allons dans un premier temps étudier, en
passant par la technique des moindres carrés ordinaires, un actif
considéré indépendamment avant d'initier une analyse sur
données associées.
I.I.4.1 MOINDRES CARRÉS
ORDINAIRES
Dans la littérature économétrique, une
rentabilité anormale est assimilable à un point aberrant par
rapport à une suite de variables iid. Dans notre étude, nous
usons des hypothèses classiques dans laquelle les moindres carrés
ordinaires sont donnés par le vecteur des espérances des
Ai lignes et de la matrice de variances-covariances des
Ai lignes et des Ai colonnes de cette
erreur. Nous avons :
Où I montre formellement la matrice identifiée
par les Ai lignes et des Ai colonnes.
Parce qu'il prend en compte un élément additionnel lié
à l'étude de l'indice de référence, les indicateurs
de la
diagonal Vi dans le modèle de marché prend
l'expression suivante :
Où
m se rapporte au taux de rentabilité moyen de l'indice
de référence sur Ni. Nous le verrons dans la
sous-section suivante lorsque Pattel dans son ouvrage publié en 1976 et
Boehmer dans sa publication de 1991, utilisent cette expression dans leurs
tests statistiques. En outre, cette formule permet de dissocier la hausse de la
volatilité, exprimée par l'écart-type des fluctuations des
cours, et la perturbation liée aux rentabilités anormales.
Logiquement, l'accroissement de la variance est une fonction
décroissante du nombre d'observations N utilisé pour
estimer les valeurs des paramètres. Cela a pour effet de lisser la
volatilité de l'étude des rentabilités normales. C'est
pour cette raison qu'il est justifié d'utiliser un laps de temps
N équilibré entre stabilité et précision.
L'augmentation sera d'autant plus forte que les conditions de marché
dans lesquelles sont calculées les rentabilités anormales
s'écartent de celles qui avaient cours lors de la phase d'estimation des
paramètres. Dans les faits, la valeur de est
inconnue. Nous utiliserons alors l'estimateur sans biais noté . Pour ce
faire, nous serons amenés à utiliser l'estimateur de la
matrice de variances-covariances des taux anormaux dont la formule est
donnée par15(*) :
Exprimé par la quantité, calculé
avec :
I.I.4.2 RENTABILITÉS
ANORMALES TRANSVERSALES ET CUMULÉS
L'analyse des rentabilités anormales transversale
permet de juger de la signification d'un échantillon donné
à une période . Une
quantité importante de travaux de recherche a été
réalisée en fonction du comportement des rentabilités
sélectionnées. Parce que nous travaillons sur les queues de
distribution, ces statistiques vont avoir pour propriétés
d'être asymptotiquement normales, d'espérance nulle et de variance
égale à 1. La convergence vers la normalité étant
vérifiée dès lors que le nombre de données est
important (Brown et Warner) ou que le nombre d'actifs étudié soit
supérieure ou égale à 30 (Pattel, Boehmer et al.). Les
rentabilités anormales cumulées (RAC) permettent de juger de
l'effet de la crise sur les différents actifs que peut détenir un
actionnaire. C'est la représentation de l'amplitude des
rentabilités anormales d'un échantillon sur une période
donnée.
I.I.4.3 MÉTHODE DE BROWN ET
WARNER
La méthode de Brown et Warner, notée, est la
plus couramment utilisée dans l'industrie financière. Cette
statistique s'exprime :
Nous avons donc les rentabilités anormales
équipondérées de l'ensemble des titres sur la
volatilité que peuvent générer celles-ci. C'est donc la
rentabilité Ai obtenue divisée par le risque
que celle-ci génère par ses variations erratiques en
période de crise. Il est à noter que cette statistique implique
une constance de la volatilité dans le temps. Nous pouvons aussi
remarquer que cette hypothèse n'est plus vérifiée en phase
de « partitionnement des données » ou
« Clustering » dans lequel deux ou plusieurs
titres réagissent, sur un intervalle de temps i, à un
évènement lambda. Cette corrélation est exprimée
à travers de nombreux exemples sur les marchés financiers.
I.I.4.4 MÉTHODE DE
PATTEL
La méthode de Pattel peut se conceptualiser en deux
parties. Les rentabilités anormales appartenant à la
période de crise sont pris un à un afin d'être
calculées par l'écart-type (soit le risque) de l'erreur
d'estimation. Cet écart-type correspond au
élément de la diagonale de la matrice ,
donné par l'expression, vu
précédemment. Pour la méthode de Pattel, nous avons la
formule de la rentabilité anormale standardisée, telle
que :
Le poids que peut donner un titre à forte
volatilité historique dans le portefeuille est diminué. La
statistique de Pattel prend la forme de :
I.I.4.5 MÉTHODE DE BOHEMER,
MUSUMECI ET POULSEN
Faisant foi d'une robustesse plus importante lorsque la
variance augmente, cette statistique cherche à valider ou non
l'hypothèse selon laquelle A tend vers 0 pendant la
période d'échantillonnage. La méthode de Bohemer, Musimeci
et Poulsen s'exprime dès lors comme :
L'incertitude est au coeur de la logique financière. Le
profil de risque que les investisseurs prennent à travers leurs
positions est par conséquent déterminant. Le test des
rentabilités anormales prend en compte deux paramètres :
l'espérance mathématique et l'écart-type. Lorsque les
marchés sont en équilibre, il est alors possible d'envisager une
relation entre la rentabilité attendue et son risque intrinsèque,
déterminé à partir de l'écart qu'il peut exister
entre la rentabilité moyenne historique amenée par cette
dernière. Le test des fréquences anormales sur un temps long a
donc pour objet de connaître l'ampleur, mais aussi la durée, que
peut amener de telles rentabilités en période d'incertitude. Nous
pouvons désormais reconnaître, de façon plus rigoureuse,
l'état de crise, la quantifier, peut-être la comparer.
Cette introduction nous amène à penser qu'il est
nécessaire d'établir une solide gestion de mesure des risques.
I.II. MESURE DU RISQUE
« Les influences qui déterminent les
mouvements de la Bourse sont innombrables, des événements
passés, actuels ou même escomptables, ne présentant souvent
aucun rapport apparent avec ses variations, se répercutent sur son
cours. [...] Mais il est possible d'étudier mathématiquement
l'état statique du marché à un instant donné,
c'est-à-dire d'établir la loi de probabilité des
variations de cours qu'admet à cet instant le marché. Si le
marché, en effet, ne prévoit pas les mouvements, il les
considère comme étant plus ou moins probables, et cette
probabilité peut s'évaluer
mathématiquement »
Louis bachelier
« Théorie de la
spéculation ».
Annales scientifiques de l'E.N.S.
3ème série, tome 17 (1900), p
21-86
La finance moderne met en avant les statistiques. Ceux-ci
rationalisent le mouvement de prix des marchés financiers. Le risque en
est par conséquent mesurable et gérable. Les travaux en ce
domaine ont débuté selon la connaissance générale
en 1900, quand un jeune mathématicien, Louis Bachelier, eut la
curiosité d'étudier la fluctuation des cours des marchés
financiers dans sa thèse : « Théorie de
la spéculation ». Inspiré par Pascal et Fermat,
qui avait initié le concept de probabilité, L. Bachelier
étudia dans sa thèse les bons du trésor français.
Considéré comme le précurseur de la théorie moderne
du portefeuille et des mathématiques financières, L. Bachelier
met en avant un concept nouveau : les prix montent et descendent avec des
probabilités égales. Pour ainsi dire, si le nombre de
données augmente à un rythme élevé, les
échanges boursiers se fondent en un bruit stationnaire. Le risque de
marché matérialise l'espérance de pertes auxquelles les
investisseurs sont impliqués. Pour le gérer, il faut donc
l'évaluer de manière précise. A ce titre, parmi ces
outils, existe :
§ Les mesures de sensibilité
§ Les mesures de variance
Une première mesure du risque est en fonction de la
sensibilité que représente un actif par rapport
à son indice de référence. Cette première mesure
s'assimile à la sensibilité relative d'un actif détenu par
rapport aux facteurs de risque de marché. Elle mesure la variance de la
rentabilité implicite du marché par un coefficient de
régression à des facteurs de risque, tel le marché dans
son ensemble. Formellement, nous avons :
Où est le taux
de rentabilité de l'action et , celui du
marché16(*).
Cependant, le « risk manager » a besoin d'une
mesure pragmatique du risque d'exposition. En effet, lorsqu'un nombre important
d'instruments très différents compose le portefeuille, il est
difficile d'imbriquer de façon cohérente l'ensemble des
covariances pouvant exister. C'est pour cette raison qu'il est décisif
de capturer le risque à partir de profils différents : La
dispersion des pertes et profits des actifs.
Nous pouvons mettre en exergue deux mesures de risque venant
de la distribution des rentabilités des actifs : la volatilité et
la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur
les mêmes paramètres :
§ La volatilité mesure les variations d'un actif
autour de la tendance centrale. En effet son expression en fonction du vecteur
des taux de rentabilités R est17(*) :
Cette mesure accorde le même poids aux gains
espérés qu'aux pertes potentielles. Or la notion de risque est
directement liée aux pertes émanant d'un actif détenu,
lequel implique un revenu aléatoire. Une mesure asymétrique
pouvant juger du risque de perte est nécessaire. La volatilité
prend donc en compte toutes les rentabilités, positives ou non,
extrêmes ou non.
§ la Value-at-Risk peut se définir comme le
quantile déterminant la plus grande perte que peut subir un portefeuille
avec une probabilité d'occurrence donné sur un horizon
déterminé à l'avance : nous sommes en présence
d'un indicateur pouvant estimer le risque extrême.
Ces deux indicateurs donnent une information
différente. D'une part, la volatilité peut enregistrer un taux
élevé et seulement capturer des risques moyens, certes
significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque
synthétique pertinente est d'estimer convenablement la perte
éventuelle que peut subir un actif. Or un titre
« a » peut avoir une volatilité de 10% mais
ne pas observer d'extremum très important, avec un maximum de 5% de
perte sur une journée par exemple. Au contraire, un actif
« b » comptant une volatilité de 5%, peut
connaître des pertes, certes rares, de plus de 20%. Le titre
« b » nous semble donc plus risqué,
même si ses risques « moyens »
s'avèrent être moins importants que ceux du premier. D'autre part,
déterminer le risque par le moment18(*) d'ordre 2, la volatilité, présuppose
que les moments suivants, le skewness19(*) et le kurtosis20(*), ne nécessitent pas d'être
ajoutés dans une mesure de risque viable. La théorie sous-
jacente en est la normalité des rentabilités. La loi Normale est
en effet caractérisée par les deux premiers moments. Utiliser la
Value-at-Risk permet de passer outre ces difficultés dans le sens
où le quantile de la distribution ne représente pas un
équilibre moyen mais prend en compte les pertes extrêmes. En
outre, nous pouvons souligner le fait que la volatilité n'est
assurément pas la meilleure mesure de risque extrême. Nous allons
dans cette partie étudier plus en détail cette mesure de risque
en utilisant la théorie des valeurs extrêmes.
I.II.1 MESURE DU RISQUE
GAUSSIEN
I.II.1.1 DISTRIBUTION DE GAUSS
I.II.1.2.1 Loi des grands
nombres
D'un point de vue théorique, une variable continue
prend une infinité de valeurs à l'intérieur de son
intervalle de définition. La loi des grands nombres compte pour ce faire
un échantillon assez important de variables aléatoires. En ce
sens, la théorie des grands nombres est simple : Si la taille de
l'échantillon est assez importante, la moyenne empirique de la variable
étudiée tend vers celle théorique de somme unitaire. Par
conséquent, considérons un échantillon d'observation d'une
variable aléatoire,
d'espérance et
d'écart-type finis.
Dès lors, la loi des grands nombres énonce que, quand , la
moyenne empirique converge
en direction de . Nous
avons alors : . La loi
des grands nombres est une loi asymptotique qui assure ainsi que la moyenne
empirique est un estimateur convergent de l'espérance
mathématique.
I.II.1.2.2 Loi de Gauss
La loi normale fait partie de la famille des lois
continues21(*). Elle est
associée aux noms de Carl Friedrich Gauss et de Pierre Simon Laplace.
Appelé, le théorème central limite, celui-ci indique que
la somme des variables est distribuée de façon aléatoire
et indépendante lorsque le nombre de données dans la somme
augmente. Cette loi est définie par la moyenne, et la
variance parce qu'elle est symétrique par rapport à la tendance
centrale. Nous exprimons la fonction de densité de probabilité de
la loi normale avec comme :
La loi normale a une tendance centrale nulle et un
écart typeégale à 1. Nous avons donc par définition.
Puisque, pour toute variable centrée et réduite, la
médiane, la moyenne et le mode sont confondus. Pour exprimer la
continuité de ce théorème, nous pouvons écrire la
fonction de distribution cumulée pour :
Si les différents écarts-types pris un à
un sont dérisoires par rapport à l'ensemble, le
théorème de la limite centrale reste valide. La distribution
gaussienne d'écart-type proportionnel à
représente la différence entre le moyenne empirique de
l'échantillon et l'espérance de la
variable aléatoire.
L'approximation de la moyenne théorique par la
moyenne empirique permet de
contrôler l'erreur énoncée précédemment. La
probabilité que soit dans
l'intervalle se retrouve représentée par l'aire sous la courbe
comprise entre les abscisses et . Sur les
marchés financiers, la plupart des mouvements sont inférieurs
à une fois l'écart-type. Cette mesure représente 68% des
amplitudes à la hausse comme à la baisse. 95% doivent être
à moins de deux écarts-types et 98% à moins de trois
écarts-types. Selon cette loi de probabilité, il existe
très peu de grands mouvements.
La thèse de L. Bachelier fut largement ignorée
par ses contemporains. Cependant, ses travaux furent traduits,
réédités, puis développés pour aboutir au
grand édifice de l'économie et de la finance moderne22(*).
I.II.1.2 VALUE-AT-RISK
CLASSIQUE
La Value at Risk est une mesure de risque statistique
popularisée dans les années 1990 par JP Morgan. La Value-at-Risk
peut se définir par la perte maximale que peut engranger un portefeuille
sur un laps de temps et un niveau de confiance donnée.
« The greatest benefit of Value-at-Risk lies in the imposition of
a structured methodology for critically thinking about risk. Institutions that
go through the process of computing their VAR are forced to confront their
exposure to financial risks and to set up a proper risk management function.
Thus the process of getting to Value-at-Risk may be as important as the number
itself » souligne P. Jorion dans son ouvrage :
« Value at Risk: The New Benchmark for Controlling Market
Risks », paru en 1996. P. Jorion23(*) nous enseigne que la valeur du
portefeuille est donnée par avec
W0, la valeur initiale d'un portefeuille de titres et son taux de
rentabilité continu sur un horizon T donné par .
Dès lors, nous notons l'équation ,
représentant la valeur minimale du portefeuille que l'on étudiera
avec une probabilité égale au seuil q, le seuil de
risque dont nous voulons étudier la représentativité. La
valeur de la VaR est donnée par :
De manière plus formelle, notons , la
distribution des valeurs du portefeuille à la date T, la valeur
W* est analogue à . A ce
titre, si nous notons la probabilité ,
l'espérance mathématique de la valeur du portefeuille se situe
au-dessus de W*, nous obtenons :
D'un point de vue économétrique,
W* se définit comme le
pème percentile de la distribution de
l'échantillon à la date T. La Value-at-Risk
s'intègre pleinement dans le cadre de la gestion de portefeuille,
pouvant signifier précisément au gérant ou aux
institutions financières à quelle valeur peut être
estimée le risque économique et réglementaire24(*).
I.II.2 DISTRIBUTION DES VALEURS
EXTRÊMES
« Les théoriciens classiques ressemblent
à des géomètres euclidiens qui, dans un monde
non-euclidien découvrant par l'expérience que des lignes droites
parallèles se rencontrent souvent, reprocheraient aux lignes de ne pas
rester droites - comme seule remède aux collisions malheureuses qui se
produisent. Pourtant, en vérité, il n'existe pas d'autre
remède que de se débarrasser de l'axiome des parallèles et
de travailler dans une géométrie non-euclidienne. C'est une chose
similaire qui est requise aujourd'hui en économie »
John Maynard Keynes
La théorie des valeurs extrêmes (TVE) est
étudiée dans le cadre de la recherche d'évènements
rares d'une suite de variables aléatoires indépendantes et
identiquement identifiées. L'observation des cours des actifs financiers
montre que ceux-ci sont hypothétiquement influencés par leurs
cours passés, auquel l'aléa est souvent modélisé
par un mouvement brownien géométrique. La théorie des
valeurs extrêmes est donc un cas particulier de ce mouvement.
L'intérêt concret de l'étude des extrêmes se trouve
dans l'analyse des maxima et des minima des séries statistiques
concernées.
Sur les marchés financiers, nous gardons toujours
à l'esprit les grandes crises qui ont marquées notre histoire,
poussant les actifs à atteindre des valeurs extrêmes comme pour la
crise des Subprimes. En outre, bien connaître la distribution maximum et
minimum se révèle être un excellent outil d'aide à
la décision, voire une opportunité de gestion en temps de
crise.
La Théorie des Valeurs Extrêmes
s'intéresse non pas à la modélisation totale d'une
distribution mais seulement aux queues des lois spécifiques25(*).
Deux théorèmes sont indispensables pour une
bonne compréhension de la Théorie des Valeurs Extrêmes :
celui de Fisher- Tippet et celui de Balkema-de Haan-Picklands. Deux
méthodes principales de modélisation des évènements
rares sont possibles : La méthode « Block
Maxima » (BM) qui modélise la distribution des extrêmes
par la Generalized Extreme Value Theory (GEV) dérivant explicitement du
théorème de Fisher-Tipett, et la méthode « Peaks
Over Theshold » (POT) qui modélise la distribution des
excés au-dessus d'un seuil élevé (faisant apparaître
les queues de distribution) par la Generalized Pareto Distribution (GPD)
estimé par le théorème de Balkema-de Haan-Picklands. Cette
dernière méthode sera modélisée en fréquence
des rentabilités anormales afin d'estimer le paramètre u
de la crise des Subprimes.
I.II.2
1 ÉTUDES FONDAMENTALES
Concernant la loi faible des grands nombres, rappelons
cependant les études fondamentales permettant de lier la théorie
fondée sur le comportement asymptotique de la distribution d'une somme
de variable aléatoire et celui de la distribution du maximum et du
minimum.
Soit X une variable aléatoire appartenant au
domaine d'attraction d'une fonction avec et
(bn) une suite croissante de nombre telle que
,
F1 = X1 et ,
alors
Cela nous permet de connaître la probabilité,
pour un nombre n grand, du dépassement d'un seuil x
par l'ensemble de la composition d'une suite de n variables
aléatoires. Lorsqu'une de ces variables se présente de
façon extrême par rapport aux valeurs prises par chacun des autres
éléments de la suite, nous considérons que le seuil a
été franchi. Ceci caractérise l'événement
rare dont nous cherchons à étudier la distribution.
I.II.2.2 LOIS DES MAXIMA : RÉSULTAT EXACTS
Le phénomène empirique suit une marché
aléatoire, mesuré par une variable X, décrivant
l'évolution du prix d'un actif financier. La variable aléatoire
X présente la rentabilité logarithmique. Nous
dénommons
§ la
fonction de densité notée
§ la
fonction de répartition de probabilité de la variable
aléatoire X.
Soit X1, X2,..., Xn
une suite de variables aléatoires aux dates 1, 2 ..., n. Nous
écrivons Fn la rentabilité maximum et
fn le minimum, dont ceux-ci observées sur n
séances boursières. Dans la suite de notre mémoire de
recherche, nous traiterons les résultats ne concernant que le maximum
(Fn), car ceux obtenus au minimum (fn)
s'en déduisent en considérant la série opposée,
démontrée par l'équation suivante :
Si les cours suivent une marche aléatoire .de variable X1, X2,...,
Xn indépendamment, alors les distributions du maximum
Fn sont conférées par. Les
propriétés statistiques du maximum dépendent de
GX pour les grandes valeurs de x. En ce qui
concerne les autres valeurs de x, l'influence de
GX(x) se révèle être de moins
en moins important avec n. C'est donc dans les queues de distribution
de X, par définition synonymes d'extrême, que nous allons
nous pencher dans cette étude. Nous pouvons en déduire la forme
de la loi limite de Fn en faisant tendre n vers
l'infini et en se servant de la formule. La fonction de répartition et . Dans ce
cas, la loi limite est dégénérée parce qu'elle se
réduit à une masse de Dirac26(*) portée en u. Toutefois, les formules
présentées ci-dessus présentent un intérêt
limité. La loi de la variable X est rarement connue
précisément en pratique, ainsi que la loi du terme maximum.
Nonobstant, même si la loi de la variable X est exactement
connue, le calcule de Fn peut être vecteur de
difficulté. Dépossédée d'expression analytique, la
distribution d'une variable normale se révèle être une
intégrale incalculable. Sa nème puissance
nous conduit à de sérieux problèmes numériques que
ce soit pour les grandes valeurs de n ou de x. C'est pour ces
différentes raisons que nous sommes astreints à étudier le
comportement asymptotique du terme maximum Fn'.
Cependant, Il existe deux théorèmes distincts
capables de contourner le problème de
dégénérescence. Selon la méthode employée,
il s'agit du théorème de Fisher-Tippet et du
Théorème Balkema-de Haan-Picklands. Nous allons rentrer dans les
détails dans la section suivante.
I.II.3
MESURE DU RISQUE EXTRÊME
I.II.3.1 THÉORÈME DE FISHER-TIPPET
Théorème Fisher-Tippet :
Si pour une distribution G non connue, l'échantillon
des maxima normalisés converge en loi vers une distribution non
dégénérée, alors il est équivalent de dire
que G est dans le MDA de la GEV Hî
A partir des données de prix traitées de
façon journalière lors de la crise de Subprimes,
nous supposons avoir une suite première d'observations
X1, X2, ... , Xn
issue d'une fonction de distribution inconnue F27(*). Cet échantillon peut être
séparé en k blocs28(*) disjoints de même longueur s. Les
données ,
i = 1, ..., k sont de natures indépendantes et
identiquement identifiées avec comme fonction de distribution
F.
Nous nous attachons à connaître les maxima de
ces k blocs comme :
Qui agence la base de ce qui sera notre échantillon de
données supposées indépendante . La loi
fondamentale à la modélisation des maxima est la Generalized
Extreme Value (GEV) définie par la fonction de répartition
suivante :
Où x est tel que . est le
paramètre de forme. La GEV rassemble trois distributions
particulières :
§ Si >0, la loi de Fréchet (Type I) :
§ Si <0, la loi de Weibull (Type II) :
§ Si =0,
la loi de Gumbel (Type III) :
Ainsi, nous avons exposé sur les graphiques
correspondant à chaque itération deux paramètres29(*) : Le paramètre de
localisation et celui de dispersion >0. La
GEV prend alors la forme de :
La démonstration fondamentale de la modélisation
des maximas est celui de Fisher-Tippet30(*). Supposons que nous ayons deux suites d'entiers
réels tel que et tel
que :
Avec H, une loi non
dégénérée. , et Pour
, les
k maxima normalisés. Alors, F est dans le
« maximum domain of attraction » (MDA) de
H, que nous pouvons écrire plus formellement par .
Fisher-Tippet montre alors que si, et
seulement si, H est du type de . La GEV
est donc la seule distribution limite non dégénérée
pour un échantillon de maxima normalisé. Nous obtenons alors une
méthode simple de sélection de forme F. Le tableau
ci-joint souligne quelles distributions sont associées aux lois de la
GEV.
TAB: MDA
|
|
|
|
Gumbel
|
Fréchet
|
Weibull
|
|
Normale
|
Cauchy
|
Uniforme
|
|
Exponentielle
|
Pareto
|
Beta
|
|
Lognormale
|
Student
|
|
|
Gamma
|
|
|
I.II.3.1.1 Modélisation paramétrique des maxima
par blocs
La modélisation issue du théorème
Fisher-Tippet, suppose que l'échantillon de maxima suive exactement une
loi GEV.
I.II.3.1.2 Sélection de la taille des blocs
La littérature financière classique et
l'exercice des statistiques en finance ne définissent pas une dimension
standard dans la sélection des blocs. Il faut cependant que s
soit de taille suffisamment importante pour que la condition asymptotique vue
précédemment soit considérée. L'ingénierie
financière dans les faits prend en compte un nombre de maxima
caractéristique pour que l'estimation des paramètres de la GEV
soit assez précise. Il est donc usuel de prendre s = 21, soit
un mois boursier, ou s = 254, soit un an.
I.II.3.1.3 Estimation du modèle BM par le maximum de
vraisemblance
C'est à partir de l'échantillon lié
à la sélection des maximas précédente que nous
pouvons estimer les paramètres de la GEV. La méthode
utilisée pour l'évaluation du modèle BM se
réfère au maximum de vraisemblance initié pour la
première fois par Fisher au début du siècle dernier. Soit
l'échantillon de maxima supposé indépendant et , la
densité de la loi GEV pour :
La vraisemblance de l'échantillon Y est :
. Il
fait appel à des procédures numériques31(*) pour la maximisation de la
vraisemblance. Il est alors aisé de calculer les estimateurs dans le
cadre de la loi des grands nombres. En revanche, il est difficile de donner un
estimateur asymptotique efficace et normal, particulièrement lorsque
l'échantillon est de petite taille. R. Smith32(*) montre qu'il suffit que pour que
les états de régularité du maximum de vraisemblance soient
conformes. Pour le cas où = 0, la
log-vraisemblance est égale à :
Plus précisément, en dérivant cette
fonction afin de mettre en scène les deux paramètres
exposés antérieurement nous obtenons le système
d'équations suivant.
Il est à noter pour conclure qu'il n'existe pas de
solution à ces équations de maximisation33(*).
I.II.3.2 THÉORÈME DE BALKEMA-DE
HAAN-PICKLANDS
Théorème Balkema-de
Haan-Picklands : Il s'en déduit que la
distribution des excès au-dessus d'un seuil élevé converge
vers la GPD
lorsque le seuil tend vers la lmite supérieure du support de G.
Supposons que X1, X2,
..., Xn sont des variables aléatoires de prix
indépendantes appartenant à une distribution appelée
F(X). Soit xF, l'extrémité finie ou
infinie de la distribution F. Alors, la fonction de distribution
dépassant Xi après un seuil donné
u, quand y 0, est
donné par :
Belkema et de Haan en 1974, ou encore Pickands en 1975, ont
théorisé la fonction de Pareto généralisée
en montrant qu'elle s'apparente à une distribution limite
Fu(y) quand le seuil u tend vers
l'extrémité de la fonction. Il s'agit d'une découverte
statistique majeure. Si F MDA
(Hî), il est alors possible de trouver une fonction
positive mesurable par (u) de telle sorte que :
Pour , ou correspond
à la distribution Pareto généralisée (GPD)
exprimée par :
Ou pour et pour .
Néanmoins, le choix du seuil u est primordial pour la
réussite de cet exercice de modélisation de la distribution
Pareto généralisée. Comme pour le test de fréquence
anormale, où nous devions choisir préalablement une fenêtre
de test de plus ou moins longue distance, la valeur représentative est
généralement choisie en fonction d'un compromis, capable de
biaiser l'étude.
se
révèle être un paramètre de forme
particulièrement important, quant à , il
s'apparente à un paramètre d'échelle. Nous pouvons
dès à présent émettre une concordance avec le
théorème précédant, respectivement et La GPD
intègre par sa particularité d'autres formes de distribution. En
considérant que > 0, la
version paramétrique de G se rapporte à la distribution
originaire de Pareto, laquelle est souvent utilisée en actuariat dans
l'approche des probabilités d'erreurs. Vilfredo Pareto34(*) décrivit la
répartition de la richesse selon la notation suivante: . En
outre, Quelle est la proportion P des ménages
gagnant plus qu'un niveau de revenu u? V. Pareto estimait à
-3/2. La puissance est donc en premier lieu élevée au cube puis
à la racine carrée divisé par 1. Ceci fut la base des
premières lois -stable de
Paul Lévy35(*),
repris quelques années plus tard par B. Mandelbrot36(*) dans son étude sur les
variations du prix du coton. A contrario, si < 0
prend la forme d'une loi de Gumbel. Enfin, lorsque = 0, sa
correspondante est une distribution exponentielle.
Le premier cas ( > 0) se
retrouve pertinent dans le cadre d'une distribution réelle
possédant des queues de distribution épaisses. Les estimations de
et de sont
calculées à partir de l'expression par la
méthode du maximum de vraisemblance37(*). Lorsque > 0.5,
Hosting et Wallis montrent que l'estimation tirée du maximum de
vraisemblance tend à être asymptotiquement normalement
distribué.
I.II.3.2.1 Modélisation paramétrique de la
distribution des excès
Cette modélisation de queue de distribution engage un
échantillon au-dessus du seuil u, lequel conduit à une
forme de loi GPD.
Dans la littérature financière et statistique,
les méthodes utilisées reposent sur le comportement graphique des
valeurs considérées supérieures à un seuil
donné. Cette méthode porte le nom de
« Peak-Over-Threshold ». Initialement
développé par Picklands en 1975, ce concept fut
étudié par de nombreux auteurs38(*). Cependant, cette méthode reste arbitraire. En
réalité, u, doit être assez grand pour que
l'estimation de la distribution de Pareto généralisée soit
valide, mais pas trop élevée pour garder une certaine
cohérence avec le modèle. Cet arbitrage est analogue à la
méthode BM vue postérieurement.
I.II.3.2.2 Estimation du modèle de seuil par le maximum
de vraisemblance
Supposons que notre échantillon des excès est
indépendante et identiquement identifiée avec comme fonction de
distribution la GPD. La fonction de densité g de G est
alors pour :
.
Nous pouvons dès lors estimer la
log-vraisemblance : . Hosking
et Wallis montre que lorsque nous dérivons et , nous
obtenons les équations de maximisation à partir desquelles nous
calculons les estimateurs du maximum de vraisemblance.
I.II.3.3 4 VALUE-AT-RISK EXTREME
Nous pouvons reconnaître qu'il existe une similitude
certaine entre le concept de Value-at-Risk et la méthode d'approche des
queues de distribution des lois de valeurs extrêmes. Unir ensemble ces
deux fondements pourrait indubitablement donner un véritable outil de
contrôle du risque. Formulé précédemment, la
propriété des extrêmes peut être faite de deux
façons distinctes :
§ Par la méthode des maximums d'une série
de variable aléatoire dans le temps : La méthode BM
§ Par la méthode du seuil en prenant l'ensemble
des valeurs se situant entre [ ] : La
méthode POT
Dans ce papier de recherche, nous utilisons la dernière
méthode énoncée qui représente la plus
récente, mais aussi la plus efficace des méthodes connues sur ce
sujet. De plus, ce modèle se révèle être pratique
dans le fait qu'il considère un nombre limité de
donnée.
Afin de construire le modèle de Pareto
généralisée, nous allons donner un seuil u
important. Soit Y1, Y2, ...,
Yn, les données supérieures au seuil
défini comme . Belkema
et de Haan en 1974 comme Picklands en 1975 nous enseignent que est une
estimation assez importante de u. A partir de , prenons
, nous
pouvons approximer F(x), pour x > u.
Nous obtenons :
La fonction F(u) peut être
estimée empiriquement de façon non-paramétrique par la
fonction de distribution cumulative :
Où
représente le nombre d'occurrence supérieure au seuil u
et n l'échantillon. En corroborant et à
, nous
pouvons ainsi écrire :
Les paramètres et sont
estimés à partir de î et
respectivement, obtenus à partir du maximum de vraisemblance.
Pour q > F(u), la VaRq peut
être calculé en résolvant x :
Dans lequel u est le seuil défini, est
l'estimation du paramètre d'échelle et est
l'estimation du paramètre de localisation.
Le principal avantage de cette mesure non-paramétrique
réside dans le fait qu'elle se concentre exclusivement sur les queues de
distribution. Cependant, nous pouvons en conclure que cette méthode ne
considère pas les rendements comme indépendants et identiquement
distribués les uns des autres.
II.
SECTION EMPIRIQUE
Ce mémoire de recherche appliquée fut
réalisé à partir de données diffusées sur
Bloomberg®. L'estimation des taux de rentabilités anormales et le
calcul des lois de valeurs extrêmes appliquées à la
Value-at-Risk font l'objet de deux sous-parties. Nous distinguerons donc d'une
part l'estimation des fréquences anormales, représentant
statistiquement l'état de crise, et d'autre part la performance
ajustée du risque liée aux valeurs extrêmes.
II.I
MESURE DES FRÉQUENCES ANORMALES
II.I.1
PROCESSUS
Nous nous sommes intéressés aux cours
journaliers spot des 30 valeurs composant le Dow Jones Industrial Average. La
première chronique dans laquelle nous calculons les taux de
rentabilités normales avant crise couvre la période du 13/06/2006
au 15/06/2007, soit 7 620 observations alors que la deuxième,
d'où sont évaluées les rentabilités anormales, se
déploie sur une période allant du 02/07/2007 au 01/02/2010, soit
19 560 observations. Nous aurons donc à étudier 27 180
données totales.
Ce choix est justifié pour trois raisons :
§ La période d'échantillonnage avant crise
représente une année boursière. Plus le nombre
d'observations augmente, plus la représentation graphique de la variance
s'aplatira, ce qui aura pour effet de donner une volatilité moyenne
biaisée, que l'on utilise l'un ou l'autre des modèles39(*). Il est justifié d'user
de pragmatisme quant à la précision et la représentation
des données utilisées. De plus, il serait hâtif de se
précipiter sur un nombre de données plus important dans le sens
où il n'est pas très adéquate d'y incorporer
l'instabilité de variance dû à une autre crise
antérieure.
§ Les tests de cohérence statistiques ont tous
pour particularités d'être asymptotiquement normales avec N
(0, 1). Cette convergence est qualifiée à partir du moment
où le nombre de jours post-crise est grand et que le nombre N
de valeur étudiée est supérieur ou égal à
3040(*). Ainsi, les 30
valeurs du DJIA et le nombre important de données sont en accord avec
les statisticiens.
§ Pour des raisons de programmation en Visual Basic, nous
avons préféré laisser un espace-temps de 10 séances
boursières entre la période de temps dite normale et celle de la
crise des Subprimes. Ce laps de temps fut fixé de façon
arbitraire.
§ La crise des Subprimes a véritablement
commencé entre juillet et août 2007. Pour des raisons de
cohérence et parce que les experts semblent divergents quant à la
date précise de commencement de la crise, et parce que cela ne peut
être absolument incontestable, notre étude commence le 02/07/2007
et fini début 2010. Il s'agit d'une période
particulièrement volatile sur l'ensemble des marchés financiers,
ce qui nous conforte dans le choix de cet échantillonnage.
Statistiques
préliminaires
Nous avons réalisé une étude statistique
préalable sur 4 titres de natures différentes, afin de mieux
appréhender nos rentabilités anormales. Nous allons
étudier 651 observations par titre, du 02/07/2007 au 01/01/2010, soit 2
604 données. Impacté par la crise des Subprimes et par une forte
volatilité des cours, nous avons sélectionné :
§ Le DJIA
§ Bank Of America
§ IBM
§ Exxon
Le DJIA est calculé en fonction de la moyenne des
fluctuations des 30 titres le composant. Il peut être un bon indicateur
de moyenne pour l'ensemble du marché. Cependant, ces variations sont par
définition lissées en fonction des différentes
sensibilités des titres concernés. Bank Of America, IBM et Exxon
ont été choisis d'une part, par leur importance en terme de
capitalisation et d'autre part, par leurs différences sectorielles les
unes des autres. Nous avons donc un échantillon restreint, mais
représentatif du marché américain. Les tableaux ci-dessous
permettent de résumer les principaux états statistiques des
différents titres :
TAB 1: Statistiques DJIA
|
|
|
|
|
|
Rentabilités anormales
|
Rentabilités normales
|
Rentabilités de l'étude
|
Stat.
|
Nobs
|
651
|
253
|
905
|
Moyenne
|
-0,04%
|
0,09%
|
-0,01%
|
Médiane
|
0,03%
|
0,08%
|
0,06%
|
Ecart-Type
|
1,84%
|
0,62%
|
1,59%
|
Maximum
|
10,51%
|
1,96%
|
10,51%
|
Minimum
|
-8,20%
|
-3,35%
|
-8,20%
|
Distr.
|
Skewness
|
0,11355
|
-0,62499
|
0,05665
|
Kurtosis
|
5,39216
|
4,05181
|
7,67157
|
Jarque-Bera
|
1,57E+02
|
2,81E+01
|
8,23E+02
|
Ecart (?)
|
?Moyenne - Médiane
|
-0,08%
|
0,01%
|
-0,06%
|
?N(x) Moyenne
|
0,044%
|
-0,090%
|
0,008%
|
?N(x) Ecart-Type
|
-0,837%
|
0,378%
|
-0,593%
|
?N(x) Skewness
|
-0,11355
|
0,62499
|
-0,05665
|
?N(x) Kurtosis
|
-2,39216
|
-1,05181
|
-4,67157
|
TAB 2: Statistiques BOfA
|
|
|
|
|
|
Rentabilités anormales
|
Rentabilités normales
|
Rentabilités de l'étude
|
Stat.
|
Nobs
|
651
|
253
|
905
|
Moyenne
|
-0,17%
|
0,03%
|
-0,12%
|
Médiane
|
-0,13%
|
0,06%
|
-0,04%
|
Ecart-Type
|
6,26%
|
0,83%
|
5,33%
|
Maximum
|
30,21%
|
3,07%
|
30,21%
|
Minimum
|
-34,21%
|
-3,84%
|
-34,21%
|
Distr.
|
Skewness
|
-0,11217
|
-0,21515
|
-0,15918
|
Kurtosis
|
6,87582
|
3,31565
|
10,53018
|
Jarque-Bera
|
4,09E+02
|
3,00E+00
|
2,14E+03
|
Ecart (?)
|
?Moyenne - Médiane
|
-0,04%
|
-0,03%
|
-0,09%
|
?N(x) Moyenne
|
0,174%
|
-0,033%
|
0,123%
|
?N(x) Ecart-Type
|
-5,261%
|
0,172%
|
-4,327%
|
?N(x) Skewness
|
0,11217
|
0,21515
|
0,15918
|
?N(x) Kurtosis
|
-3,87582
|
-0,31565
|
-7,53018
|
TAB 3: Statistiques IBM
|
|
|
|
|
|
Rentabilités anormales
|
Rentabilités normales
|
Rentabilités de l'étude
|
Stat.
|
Nobs
|
651
|
253
|
905
|
Moyenne
|
0,04%
|
0,16%
|
0,06%
|
Médiane
|
0,05%
|
0,08%
|
0,06%
|
Ecart-Type
|
1,93%
|
1,13%
|
1,73%
|
Maximum
|
10,90%
|
8,96%
|
10,90%
|
Minimum
|
-6,10%
|
-3,35%
|
-6,10%
|
Distr.
|
Skewness
|
0,22614
|
1,80300
|
0,28681
|
Kurtosis
|
3,11525
|
14,92480
|
4,51118
|
Jarque-Bera
|
5,91E+00
|
1,64E+03
|
9,85E+01
|
Ecart (?)
|
?Moyenne - Médiane
|
-0,02%
|
0,08%
|
0,00%
|
?N(x) Moyenne
|
-0,037%
|
-0,156%
|
-0,062%
|
?N(x) Ecart-Type
|
-0,934%
|
-0,127%
|
-0,732%
|
?N(x) Skewness
|
-0,22614
|
-1,80300
|
-0,28681
|
?N(x) Kurtosis
|
-0,11525
|
-11,92480
|
-1,51118
|
TAB 4: Statistiques Exxon
|
|
|
|
|
|
Rentabilités anormales
|
Rentabilités normales
|
Rentabilités de l'étude
|
Stat.
|
Nobs
|
651
|
253
|
905
|
Moyenne
|
-0,04%
|
0,17%
|
0,02%
|
Médiane
|
-0,01%
|
0,20%
|
0,06%
|
Ecart-Type
|
2,39%
|
1,21%
|
2,13%
|
Maximum
|
15,86%
|
3,64%
|
15,86%
|
Minimum
|
-15,03%
|
-4,85%
|
-15,03%
|
Distr.
|
Skewness
|
0,17919
|
-0,39195
|
0,11030
|
Kurtosis
|
9,46848
|
0,84258
|
11,30631
|
Jarque-Bera
|
1,14E+03
|
5,55E+01
|
2,60E+03
|
Ecart (?)
|
?Moyenne - Médiane
|
-0,02%
|
-0,03%
|
-0,04%
|
?N(x) Moyenne
|
0,036%
|
-0,172%
|
-0,019%
|
?N(x) Ecart-Type
|
-1,387%
|
-0,211%
|
-1,126%
|
?N(x) Skewness
|
-0,17919
|
0,39195
|
-0,11030
|
?N(x) Kurtosis
|
-6,46848
|
2,15742
|
-8,30631
|
Nous pouvons établir plusieurs commentaires :
§ La loi normale standard défend l'idée que
la moyenne et la médiane sont confondues. Il existe une
différence de 0.08 pour DJIA montrant que les critères ne sont
pas respectés. Il en va de même pour les autres titres
présentés.
§ L'écart-type moyen ne paraît pas
très élevé. Pourtant, nous assistons à des
extrêmes importants :
§ DJIA : De +10.51% pour le maximum et de -8.20%
pour le minimum
§ Bank Of America : De +30.21% pour le maximum et de
-34.21% pour le minimum
§ IBM : De +10.90% pour le maximum et de -6.10% pour
le minimum
§ Exxon : De +15.86% pour le maximum et de -15.03%
pour le minimum
§ Il est intéressant de noter que les mesures
d'asymétrie (Skewness) et d'aplatissement (Kurtosis), sous
l'hypothèse de normalité, prennent respectivement les valeurs 0
et 3. Ici, ces deux paramètres sont respectivement 0 et >3,
laissant apparaitre un caractère leptokurtique des cours et la formation
empirique de queue de distribution épaisse par rapport à la loi
normale. Le skewness est positif pour l'ensemble des titres à
l'exception de Bank of America, montrant qu'il y a une quantité
importante de petits mouvements à la hausse et de grands
déplacements à la baisse.
§ Le test de normalité de Jarque-Bera41(*) est différent de 0 pour
l'intégralité des valeurs. Il rejette donc l'hypothèse
nulle de normalité pour n'importe quel niveau de pertinence.
En résumé, cette première étape
nous permet de rejeter l'hypothèse de normalité et de comprendre
qu'il existe effectivement des extrêmes conséquents.
II.I.2 TAUX DE RENTABILITÉS
NORMALES ET ANORMALES
II.I.2.1 FRÉQUENCES NORMALES
La période post-crise fut faste pour les investisseurs.
D'un point de vue macroéconomique, on constate une hausse de la
liquidité au niveau mondial. Pour preuve, entre 2006 et 2007, le rapport
entre la masse monétaire et le PIB se situe à 30%, alors qu'entre
1980 et 2000, celui-ci n'était que de 18% à 20%. En l'espace de 6
années, il augmente donc de 10 à 12%. Sous l'égide des
différentes banques centrales, garant de la stabilité des prix,
cette liquidité abondante n'a pas entraîné d'inflation.
Bien entendu, si toutes ces liquidités n'ont aucun effet sur les prix
des biens et des services, elles en ont sur les prix des actifs dont l'offre
est peu importante. Cet aspect, associé à une baisse des
indicateurs de risque, tel que la prime de risque ou la volatilité
implicite, majoré d'une forte croissance mondiale, a eu pour
conséquence la hausse des cours de bourse, notamment du DJIA. En outre,
nous constatons le parcours linéaire croissant des 30 titres du DJIA sur
la période énoncé précédemment.
Bien que la crise des Subprimes émane sans doute de
cette apparente stabilité, c'est dans un climat avantageux que nous
calculons nos rentabilités dites « normales », qui
ne dévoilent pas de perturbations apparentes.
II.I.2.2 FRÉQUENCES ANORMALES
La crise des Subprimes démarre durant
l'été 2007 aux États-Unis. Celle-ci remet en cause
fondamentalement le système bancaire dans son ensemble.
Le problème se trouve dans la capacité des
établissements financiers à gérer leurs risques, tant dans
leurs transferts que dans le suivi qui en découle. D'autre part,
l'octroi de crédit hypothécaire à une clientèle
non-solvable a mis à mal la titrisation dépourvu de fonds
propres. C'est aussi le fonctionnement même des agences de notation qui
semble être problématique. Cette crise mondiale fut liée
aux crédits hypothécaires à risque aux États-Unis,
ne représentant pourtant qu'un marché de 1000 milliards de
dollars. Nous pouvons visualiser, en base 100, l'impact qu'a eu cette crise sur
les cours des 30 titres composants le DJIA. La crise des Subprimes se
révèle être complexe dans les faits. Nous allons dans cette
étude exprimer des résultats quantitatifs pouvant,
peut-être, donner une réponse quant à l'origine de cette
crise, à posteriori. Pour plus d'informations, nous vous invitons
à consulter le rapport du conseil d'analyse économique42(*).
II.I.3
RÉSULTAT DES FRÉQUENCES ANORMALES
II.I.3.1 RENTABILITÉS ANORMALES STATIONNAIRES
Les résultats produits par chacun des modèles
sont intéressants. Il est à noter qu'il existe peu de
différence entre les résultats tirés des deux
modèles d'un point de vue globale, bien que le modèle de
marché semble, à première vue, apporter un appoint
d'information manifeste lié à la sensibilité des titres
par rapport à leur indice de référence. Dans le cadre d'un
travail de simulation, Brown et Warner aboutissent à la même
interprétation lorsqu'ils comparent la force des deux modèles.
Nous avons donc un modèle de moyenne donnant -82.80% et
un modèle de marché estimé à 82.95%, soit 0.15% de
différence.
Il existe cependant des rentabilités proches de la
normalité, comme l'atteste le graphique présenté
ci-dessous :
Cependant, en ce qui concerne la
réaction des cours dans leur globalité, les résultats nous
prouvent statistiquement que nous sommes bien sur une période
d'instabilité. Comme en atteste la majorité des
rentabilités anormales significativement différentes de 0.
II.I.3.2 RENTABILITÉS
ANORMALES CUMULÉES
Ce test exprime l'écart-type des fluctuations des cours
lié à la perturbation des rentabilités anormales. Nous
avons ici un pic, partant du début de l'expérience jusqu'au
3/10/2009, lequel enregistre un taux anormalement bas cumulé de
-115,20%.
Les rentabilités anormales progressent de façon
croissante jusqu'au point bas puis semblent stagner jusqu'à la fin de
l'étude. Le retour vers la normalité semble loin. Les
stratégies basées sur le retour à la moyenne
(mean-reversion-model) semblent être difficile à réaliser.
Ce test montre que les anormalités ont été statistiquement
multipliées par 5 au sommet de la crise. Les statistiques
préliminaires nous ont informés de la non-normalité des
cours étudiés. Nous en avons ici un exemple plus concret.
II.I.4
TEST DE SIGNIFICATIVITÉ
Il convient de noter par ailleurs que les trois statistiques
de représentativité fournissent des conclusions globalement
convergentes. Celles-ci deviennent de plus en plus significative au milieu de
l'étude, autour du 3/10/2009, date à laquelle les
rentabilités anormales cumulées sont les plus importantes. Il
existe cependant plusieurs phases quant à la validité de ce test.
Certaines valeurs semblent être plus significatives que d'autres. Les
statistiques proches de 0, comprises entre [-1 ; 1], rejettent
l'hypothèse d'anomalie statistique. D'autres sont, sans nul doute,
incontestables au seuil de [-10 ; -50] et [10 ; 60]. Cela nous laisse
penser qu'il y a des mouvements plus calmes et d'autres plus agités.
La statistique fréquentielle de Boehmer, ayant une
propension plus importante à accepter l'hypothèse selon laquelle
les rentabilités anormales sont nulles, est distinctement
supérieure de 0, élevé à 10.69 et 10.77 en valeur
absolue, respectivement pour le modèle de moyenne et celui de
marché. Ce tableau résume les observations menées dans
cette étude :
TAB 5: Fréquences anormales
|
|
|
|
|
|
|
|
Nobs
|
Moy
|
Ecart type
|
Max
|
Min
|
Modèle de moyenne
|
Modèle de marché
|
Rentabilités anormales
|
19560
|
0%
|
2,02%
|
11%
|
-9%
|
-83.80%
|
-83.95%
|
Test de Brown et Warner
|
19560
|
-0,59
|
9,4
|
50,29
|
-43,75
|
-15,11
|
-15,19
|
Test de Pattel
|
19560
|
-0,6
|
10,01
|
52,27
|
-47,06
|
-15,43
|
-15,5
|
Test de Boehmer
|
19560
|
-0,41
|
5,05
|
19,15
|
-13,54
|
-10,69
|
-10,77
|
RAC
|
19560
|
-52%
|
34%
|
3%
|
-115%
|
|
|
BWC
|
19560
|
-239,98
|
157,29
|
14,35
|
-536,74
|
|
|
PC
|
19560
|
-245,55
|
163,15
|
13,68
|
-562,12
|
|
|
BC
|
19560
|
-170,67
|
107,6
|
19,08
|
-315,39
|
|
|
Ce test est par conséquent concluant dans sa
globalité. Les rentabilités anormales calculées
précédemment montrent l'ampleur de la crise des Subprimes et la
nécessité d'instaurer une politique de mesure du risque viable.
Il nous montre également qu'il existe des taux de rentabilités
extrêmes dont la distribution asymptotique normale ne prévoit pas
les effets.
II.II. THÉORIE DES VALEURS
EXTRÊMES ET VALUE-AT-RISK
V. Pareto s'intéresse à la fin du
XIXe siècle à la distribution des revenus dans la
société. Il en conclut que la société humaine est
fondée sur une loi mathématique de forme décroissante,
dans laquelle la distribution statistique prend une forme hyperbolique,
laissant apparaître des queues épaisses. Nous avons pu souligner
l'importance des lois issues de la famille
« parétienne », dont les applications en sciences
sociales sont croissantes au fil des années. L'abondante
littérature disponible sur le sujet en témoigne.
Le succès rencontré par ces lois nous a
incités à examiner leur apport sur le marché du DJIA en
période de crise des Subprimes. Cette application met en perspective
différents raisonnements en termes de rentabilité ajustée
du risque sur le marché des actions. La performance d'un investisseur
sur une période donnée est souvent liée à quelques
journées exceptionnelles. La distribution empirique de forme
leptokurtique en témoignant (La grande majorité des cours se
concentre vers la moyenne historique proche de 0). La plupart des
journées d'activité ne contribue donc que marginalement au
résultat. Les activités de marché témoignent d'une
forte instabilité, révélant des mouvements violents et
soudains. C'est dans cet état statistique, où le nombre de
rentabilités anormales est important, que nous pouvons parler de crise.
La réalité erratique des cours de bourse est quantifiable. Nous
allons donner une image de cette réalité statistique dans un
premier temps avant de calculer notre loi de valeurs extrêmes.
II.II.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES RENDEMENTS
ET MAXIMUM DE VRAISEMBLANCE
Cette section a pour objet d'exposer la convergence des
variables standard issues de loi théorique de probabilité et
celles, empiriques, du DJIA pendant la période de test. Nous
déterminerons les hypothèses d'indépendance et
d'identité de la loi parente à partir de graphique logarithmique
permettant de comparer les variables entre elles. Lorsque la loi de valeurs
extrêmes est identifiée, les conditions de distribution
théorique peuvent être utilisées pour obtenir le type de
loi limite. Nous avons pu constater dans la section théorique que
certaines lois convergent vers différentes lois parentes. En effet, les
lois à support borné, comme la loi uniforme, appartiennent au
domaine d'attraction maximum de Weibull, avec . Les lois
dont les queues décroissent de façon exponentielle appartiennent
au MDA de Gumbel, avec Nous
pouvons citer à ce titre la loi normale et la loi exponentielle. Les
lois dont le paramètre de liberté est égal à , faisant
apparaître des queues de distribution épaisses appartiennent,
comme la loi de student ou celle de Pareto, au MDA de Fréchet. Dans cet
exercice, nous avons choisi d'analyser quatre lois théoriques :
§ La loi normale
§ La loi de Laplace
§ La loi de Pareto
§ La loi de student
II.II.1.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES
RENDEMENTS
GUMBEL
FRECHET
FRECHET
II.II.1.1.1 Comportement limite de
la loi exponentielle
La fonction de répartition de la loi exponentielle de
paramètre est pour . Avec et , nous
pouvons résoudre l'équation donnée par le
théorème de Fisher-Tippet avec :
La loi de Laplace, ici représentée, et une loi
double exponentielle car sa densité peuvent être vue comme
l'association de deux lois exponentielles indépendantes, situées
de part et d'autre de la tendance centrale.
Le maximum normalisé et le MDA de la loi exponentielle
convergent vers une loi de Gumbel. C'est pour cette raison que la loi de Gumbel
est aussi appelée « loi de type
exponentiel ».
Prenons le théorème de Balkema-de
Haan-Picklands, en prenant , où
u correspond au seuil défini. Alors :
Par conséquent, pour tout , la GPD
s'accorde à être une loi exacte pour tout u pour le
paramètre avec .
Nous pouvons constater une nette amélioration graphique
entre le DJIA et la loi de probabilité concernée. Nous retenons
donc la loi de Laplace pour cette raison.
II.II.1.1.2 Comportement limite de
la loi de Pareto
La fonction de répartition de Pareto s'écrit
,
où U > 0 et . Pour le
théorème des BM, nous posons et . Pour
x > 0=
La loi de Pareto appartient au MDA de la loi de
Fréchet. Communément, la loi de Fréchet est appelée
loi de type Pareto.
Concernant la méthode POT, nous posons pour . On
obtient :
La limite est alors la loi GPD de paramètre pour et .
Remarquons les extrêmes qui sont d'avantages compris sous la courbe,
particulièrement du côté des valeurs négatives.
II.II.1.1.3 Comportement limite de
la loi normale
La fonction de répartition de la loi normale quand est . Nous
avons donc quand , alors43(*). En ce
qui concerne la méthode des blocks, nous aurons :
si on suppose que , nous
avons pour :
En ce qui concerne la méthode d'excès de seuil,
celle-ci convergera vers une loi de type exponentielle. D'autre part, si donne et , on
aura :
qui converge vers la loi de Gumbel. Smith nous enseigne en
2003 qu'il est préférable d'utiliser les lois GEV et GPD pour
chaque théorème les concernant, plutôt que la loi de Gumbel
et la loi exponentielle, bien qu'elles soient toutes deux de formes exactes.
L'aspect propre des lois généralisées semble être
plus en accord avec les méthodes vues précédemment.
GUMBEL
La convergence avec la distribution réelle est
concordante graphiquement pour x [-4.2 ; 4.2]. Cependant, nous
pouvons constater, de part et d'autre de la courbe, qu'il existe des
extrêmes non pris en compte par la densité de probabilité
normale. Cette loi est alors également rejetée empiriquement par
cette méthode.
GUMBEL
Si l'on suppose une distribution gaussienne pour les
rendements journaliers, la probabilité qu'un rendement observé
dévie de sa moyenne de 4 écarts-types est inférieure
à 0,01%, soit un évènement observé en moyenne tous
les 62 ans.
Le tableau ci-dessous nous montre la probabilité de
s'écarter de la moyenne de
écarts-types, tel que La
dernière colonne représente le nombre d'années (sur 254
séances) assimilée à l'apparition d'un
événement :
TAB 6 : Probabilité normale
|
|
|
|
Probabilité
|
Années
|
1
|
0,31731050786291410283
|
0,012
|
2
|
0,0455002638963584144
|
0,086
|
3
|
0,0026997960632601891
|
1,46
|
4
|
0,00006334248366623984
|
62,20
|
5
|
0,00000057330314375839
|
6 867,3
|
6
|
0,00000000197317529008
|
1 995 265
|
7
|
0,00000000000255962509
|
1,5x109
|
8
|
0,00000000000000124419
|
3,22x1012
|
9
|
0,00000000000000000023
|
1,7x1016
|
10
|
1,52x10-23
|
2,58x1020
|
La probabilité de s'éloigner de plus de 5
écarts-types de la moyenne convient à un évènement
extrêmement rare, lequel n'a peut-être jamais été
observé. Or les variations réelles retenues sur notre
fenêtre de test prouvent que la théorie gaussienne néglige
les variations extrêmes. Une autre approche est donc nécessaire
pour assurer une rentabilité ajustée du risque.
Il existe des modalités essentielles pour l'existence
de constantes de normalisation. Remarquons que les extrêmes sont
tirés asymptotiquement d'une loi non-conditionnelle, alors que la
variable sortie des lois de valeurs extrêmes est tirée d'une loi
conditionnelle. Il est donc important d'estimer la convergence la plus proche.
Dès lors, l'indice de queue représentera le poids des
extrêmes dans la distribution.
TAB 7: Intervalle de confiance et
probabilités
|
|
|
Intervalle
|
DJIA
|
NORMALE
|
STUDENT
|
PARETO
|
LAPLACE
|
-10,83
|
0,00
|
0,00
|
0,00
|
0,11
|
0,00
|
-9,17
|
0,00
|
0,00
|
0,00
|
0,07
|
0,00
|
-7,50
|
2,00
|
0,00
|
0,01
|
0,16
|
0,02
|
-5,83
|
2,00
|
0,00
|
0,06
|
0,43
|
0,24
|
-4,17
|
3,00
|
0,27
|
0,44
|
1,65
|
2,57
|
-2,50
|
18,00
|
29,93
|
8,13
|
14,52
|
27,09
|
-0,83
|
310,00
|
285,80
|
307,35
|
299,05
|
286,07
|
0,83
|
272,00
|
285,80
|
307,35
|
299,05
|
286,07
|
2,50
|
23,00
|
29,93
|
8,13
|
14,52
|
27,09
|
4,17
|
5,00
|
0,27
|
0,44
|
1,65
|
2,57
|
5,83
|
2,00
|
0,00
|
0,06
|
0,43
|
0,24
|
7,50
|
0,00
|
0,00
|
0,01
|
0,16
|
0,02
|
9,17
|
1,00
|
0,00
|
0,00
|
0,07
|
0,00
|
10,83
|
0,00
|
0,00
|
0,00
|
0,11
|
0,00
|
Total
|
638,00
|
638,00
|
638,00
|
638,00
|
638,00
|
II.II.1.2 MAXIMUM DE VRAISEMBLANCE
Supposons que notre échantillon des excès est
indépendante et identiquement identifiée avec comme fonction de
distribution la GPD. Nous obtenons les équations de maximisation
à partir desquelles nous calculons les estimateurs du maximum de
vraisemblance. Nous avons donc la log-vraisemblance de chaque loi
estimée à partir de la distribution réelle. Ces
données sont présentées dans le tableau suivant :
TAB 8: MDA
|
|
|
|
|
|
NORMALE
|
STUDENT
|
PARETO
|
LAPLACE
|
DJIA
|
41,85
|
75,77
|
86,54
|
82,83
|
Le maximum de vraisemblance le plus proche est celui de la loi
de Pareto avec 86.54. Le domaine d'attraction maximum est donc celui de la loi
de Fréchet.
II.II.2 MODÈLE DE SÉLECTION DE MAXIMA
II.II.2.1 RÉALITÉ
ERRATIQUE
La théorie de la normalité des marchés
financiers est spécifiquement remise en cause avec la théorie des
valeurs extrêmes. Particulièrement en haute fréquence
où la stationnarité des cours est plus erratique. L'étude
menée précédemment nous a permis de comprendre que le
développement de la gestion du risque dans un univers gaussien,
introduit par la normalité des rendements, est inadapté à
l'appréhension des comportements extrêmes.
L' « homme moyen » de A. Quetelet44(*) n'existe pas en finance. Dans
ce préambule sur les extrêmes de marché, nous
étudions les variations du DJIA sur la période de test. Cette
étude comprend 1 148 données de prix, du 13/06/2006 au
31/12/2010. Nous avons choisi d'illustrer nos propos en sélectionnant le
maximum |Dt| des variations Intra-Day45(*) en valeur absolue en
t, à partir d'un seuil s prédéfini.
Placé sur une fenêtre glissante de taille
F, lorsque le seuil s est supérieure à
|Dt|, la rentabilité réelle du DJIA en
t en valeur absolue est donnée par :
Où et est le
plus haut du jour, est le
plus bas et est le cours de clôture du jour précédent. Nous
indiquons le dépassement relatif.
Soit IF, la fenêtre de test, dont la
série des violations définie par la variable dichotomique est la
suivante :
s est le seuil appartenant à la fenêtre
F compris entre 1 et . est un
nombre > 1, pour lequel le nombre de donnée |D| est
inférieure au nombre total de données compris dans
l'échantillon. Soit Il s'agit
de déterminer jusqu'à quel point les variations du marché
se sont rendues en « intraday ». A ce stade, nous
choisissons une fenêtre de 50 jours. Cette taille permet de lisser les
variations erratiques sans biaiser les informations d'une part, tout en
laissant apparaître une légère variance d'autre part. Nous
avons également choisi d'étudier plusieurs seuils s
distincts. Nous avons donc :
TAB 9 : Seuil
|
|
|
|
|
|
|
S =
|
2%
|
3%
|
5%
|
8%
|
10%
|
12%
|
Nous donnons ci-après deux représentations
graphiques qui permettent de visualiser les valeurs ayant
dépassées s. Nous avons préféré les
présenter à partir d'une échelle logarithmique,
plutôt que sur échelle linéaire simple. Lorsque l'on
exprime un nombre en logarithme, on effectue une mise à l'échelle
ce qui permet, plutôt que de se concentrer sur la valeur absolue du
nombre comme on le fait couramment, de le comparer aux autres nombres qui
l'entourent. Ainsi, nous pourrons juger de la pertinence de chaque seuil sur la
fenêtre F = 50.
Les résultats sont évocateurs. Les variations
laissent apparaître une majorité des variations
journalières supérieures ou égales à 3%. Celles-ci
se concentrent sur une période de 615 jours, du 17/01/2008 au
23/09/2009. Cela représente 53.57% des données de
l'étude46(*). Le
DJIA, pendant la crise des Subprimes, a donc connu statistiquement une
distribution des cours formant des queues de distribution épaisses en
valeur absolue.
Nous pouvons aussi émettre l'idée qu'il y a eu
un effet « Clustering » et un effet
« Momentum47(*) » sur la période ventrale.
II.II.2.2 SÉLECTION DE SEUIL
Deux méthodes statistiques de modélisation des
queues sont possibles :
§ La méthode BM
§ La méthode POT
En finance de marché, nous allons privilégier la
méthode POT, plus adaptée, notamment parce qu'elle va en
adéquation avec un phénomène couramment
observé : Le « clustering48(*) ». De plus, comparée à la
méthode BM, qui ne considère pas toutes les valeurs susceptibles
d'être extrêmes49(*), cette méthode est à la fois plus
flexible et plus réaliste.
Cette modélisation de queue de distribution engage un
échantillon au-dessus du seuil u, lequel conduit à une
forme de loi GPD. Les méthodes utilisées reposent sur le
comportement graphique des valeurs considérées supérieures
à un seuil. Ces deux graphiques montrent d'une part la variation
décroissante du DJIA pendant la crise des subprimes. D'autre part, la
variation décroissante en valeur absolue. Remarquons le caractère
asymptotique de la courbe. Le nombre de valeurs se réduisant lorsque
l'on approche la valeur nulle de l'abscisse. Il est alors délicat de
choisir un seuil u grand pour que l'estimation de la distribution de
Pareto généralisée soit valide. Celui-ci ne peut
également pas être trop élevé pour garder une
certaine cohérence avec le comportement réelle du cours du DJIA.
Le nombre de données supérieur à u défini
est en rapport direct avec l'espérance future d'observer un tel
évènement. Nous constatons au vu du tableau
présenté ci-dessous qu'il existe très peu de variation
supérieure à 5% (soit 4,86% des échanges). Environ la
même quantité est observée pour les valeurs
dépassant 4%. Les valeurs inférieures à 3% semblent
cohérentes en terme de volume d'observations, cependant, celles-ci
risquent de biaiser le modèle, se rapprochant trop de la tendance
centrale.
TAB 10: Nombre d'observation supérieure à
u
|
Variation > u
|
Nobs
|
2%
|
149
|
3%
|
58
|
4%
|
28
|
5%
|
15
|
6%
|
9
|
7%
|
5
|
8%
|
2
|
Nous présentons donc un seuil u = 0.03. Nous
obtenons 58 données. Le graphique ci-contre représente ce seuil,
qui semble correspondre aux valeurs extrêmes présentées par
la théorie.
II.II.3 VALUE-AT-RISK
La TVE appliquée à la Value-at-Risk permet
d'évaluer le degré de résistance des variations des
marchés, au même titre que le degré de solidité
d'une voiture en phase de crash-test. Le comportement stochastique des
extrêmes issus d'un échantillon permet la mise en place d'un cadre
mathématique rigoureux. S'intéressant directement à la
queue de distribution, faisant apparaître le degré d'importance
statistique des extremums, nous allons dans cette section présenter,
à partir des résultats obtenus précédemment, une
stratégie de gestion basée sur le calcul de la Value-at-Risk.
Notre étude va porter sur la rentabilité ajustée du risque
que peut proposer la VaR déterminée à partir du quantile
des extrêmes sur le DJIA pendant la crise des Subprimes. En proposant une
telle stratégie, un investisseur pouvait-il éviter les pertes
liées à cette crise ? Pouvait-il bénéficier
d'un Tracking-Error avantageux en achetant lorsque la VaRt >
Rt et en vendant lorsque la VaRt <
Rt au seuil de probabilité fixé ? Nous
allons mettre en avant deux mesures liées à la VaR : dans un
premier temps, nous sélectionnerons un modèle adéquate
quant à la validité du modèle présenté, puis
dans un second temps, nous calculerons, à partir des résultats
obtenus, la performance que pouvait développer une stratégie
long-short du 13/06/2006 au 31/12/2010.
II.II.3.1 COUVERTURE
CONDITIONNELLE
Afin d'étudier le risque que peuts dégager la
VaR basée sur la théorie des Valeurs Extrêmes pour , avec
t = 1, nous allons procéder à un exercice de backtesting
capable de montrer les occurrences de violations50(*). Celui-ci consiste en
réalité à confronter d'une part, la VaR calculée
à l'aide du quantile des valeurs extrêmes et d'autre part, les
pertes et profits réels. Pour valider cette méthode de
prévision, les pertes effectives ne devraient pas dépasser la VaR
de plus de 5% des cas51(*). Dans le cas contraire, nous devrions remettre en
cause ce modèle. Nous proposons d'adapter la Value-at-Risk
calculée de façon journalière sur une fenêtre plus
lointaine, permettant ainsi de lisser les observations. Nous utilisons donc une
fenêtre glissante de taille
F. Cette méthode nous présente le dépassement de
la Value-at-Risk lorsqu'elle est supérieure à , la
rentabilité réelle du DJIA en t en valeur absolue. Soit
IF, la série des violations définie par la
variable dichotomique suivante :
est le
rendement absolu sur la fenêtre F compris entre 1 et ,
symbolisant la fin du backtesting. Dg, les valeurs
représentées par la distribution négative située
à gauche et Dd, celles positives de droite. Ces deux
dernières données sont présentées de façons
indicatives. Le modèle de Value-at-Risk reste fiable lorsque les
violations comprises sur la fenêtre respectent
la propriété du ratio de couverture conditionnelle52(*). Il permet une comparaison de
la proportion p de violation au niveau de risque 1 - p. Ce
test est dit négatif lorsque le nombre d'observations diffère
largement de p. Ce ratio est donné par où
est la
somme des VaR dépassant sur la
fenêtre. Il est à noter qu'un bon modèle ne doit ni
sous-estimer, ni-sur-estimer le risque. L'avantage de cette technique
réside dans le fait qu'elle permet de capturer les
caractéristiques de la dynamique temporelle de l'échantillon
à travers le temps. Nous avons sélectionné une
fenêtre F = 50 jours dans notre étude. Nous avons
également choisi d'étendre nos observations de part et d'autre de
la crise des Subprimes pour montrer l'exigence de la VaR des valeurs
extrêmes par rapport à celle retenue par la loi normale. Nous
aurons donc 1 147 observations.
TAB 11: Dépassement de VaR
|
|
|
VaR Loi Normale
|
VaR GPD
|
Nobs
|
1147
|
1147
|
Nombre de dépassement
|
112
|
12
|
Couverture conditionnelle
|
9,76%
|
1,05%
|
< 0,05
|
NON
|
OUI
|
Le modèle lié à la loi normale se
révèle inadapté pour estimer le risque réel. Il
enregistre un taux de 9.91%, dépassant de 4.91 point le taux
d'échec accepté. Cet échec est attendu dans la mesure
où ce modèle de mesure du risque ne permet pas de prendre en
compte le caractère leptokurtique des rendements.
En période de crise, la VaR GPD ne laisse
apparaître qu'une infinité de dépassements journaliers sur
F = 50. Le ratio de couverture conditionnelle nous indique qu'il
existe un taux de dépassement de 1,05% pour une Value-at-Risk acceptant
5% de risque. Ce modèle rempli donc les conditions pour un
dépassement qui ne sous-estime, ni ne surestime le risque de
marché. Ce modèle conditionnel fournit une quantification plus
flexible de la VaR, qui tient compte de la dynamique de la volatilité.
En effet, lorsque le taux de croissance dépasse le seuil u
fixé à 3%, la VaR conditionnelle « vibre »,
couvrant le risque de perte extrême (Cf. : graphique,
éléments fléchés). Le graphique ci-dessous souligne
la différence qu'il peut exister entre la VaR classique et celle
liée aux valeurs extrêmes.
En outre, nous retenons le modèle de VaR GPD
conditionnée à partir d'un seuil fixé à 3%. Nous
allons, dans la sous-section suivante, établir une stratégie
long-short à partir des résultats obtenus ci-dessus.
II.II.3.2 MODÈLE DE
RENTABILITÉ AJUSTÉE DU RISQUE
Cette sous-section montre comment la théorie des
valeurs extrême peut être utilisée comme stratégie de
couverture du risque de marché. Celle-ci implique la distribution
asymptotique univariée des taux de rendement minimum et maximum d'une
position de marché. La VaR est calculée en fonction d'une formule
d'agrégation du risque, laquelle prend en compte
§ Le facteur de sensibilité des extrêmes,
à travers une méthode conditionnelle
§ La corrélation entre les facteurs de risque et
la position du marché
Nous suivrons l'évolution de la VaR analysée
à partir cette hypothèse.
En pondérant celle-ci par la dynamique de prix de
l'actif étudié, nous déterminerons la mesure du risque que
peut prendre la détention de l'actif dans le portefeuille. Pour
établir une gestion performante basée sur la VaR, pour , avec
t = 1, nous allons préalablement, à travers
l'étude des extrême de la crise des Subprimes, confronter d'une
part, la MVaR calculée à l'aide du quantile
des valeurs extrêmes et d'autre part, les pertes et profits réels
du DJIA. Soit MVaR, l'agrégation de la M
à la VaR, définie par les deux variables
suivantes :
Où Rt, le taux de
rentabilité du DJIA en t, Pt le prix auquel
le DJIA est indexé en t et q le quantile de la
probabilité de perte maximum, ici réduit à 95%.
Nous avons choisi de présenter un graphique
exposant :
§ L'évolution du cours du DJIA
§ MVaR classique calculé
à partir du quantile de distribution de la loi normale
§ La MVaR GPD initiée à
partir des éléments calculés précédemment
Nous remarquons que la VaR GPD est réactive.
Conditionnée à partir du seuil u = 3%, elle tombe sous
le cours en septembre 2008, lors de la chute de la banque américaine
Lehman Brothers. Puis, passe au-dessus du cours
lorsque la distribution cumulée des rendements se
recentre vers la tendance centrale, en 2010. La VaR classique reste très
proche du cours de l'indice en période de perte extrême. Elle ne
permet donc pas d'assurer une gestion de portefeuille sécurisée.
La MVaR ayant détectée une occurrence de
perte extrême par le fait qu'elle soit inférieure au cours du
DJIA, se révèle être un indicateur de décision
intéressant dans une gestion de portefeuille mettant en avant le risque.
Afin de simuler cette aversion au risque, nous pouvons alors prendre position
à l'achat où a la vente en fonction de cette dernière.
Soit WVaR, la variable déterminant l'achat ou la
vente de Pt, tel que :
Où Rt, le taux de
rentabilité du DJIA en t, Pt le prix auquel
le DJIA est indexé en t.
Nous présentons dans le tableau ci-dessous les
résultats empiriques de notre analyse :
Tab12: Résultats
|
|
Base 100
|
DJIA
|
Normale
|
GPD
|
Nobs
|
1148
|
1148
|
1148
|
Moyenne
|
98,20
|
88,83
|
98,87
|
Volatilité
|
19,14
|
17,18
|
14,08
|
Maximum
|
131,09
|
117,82
|
126,54
|
Minimum
|
55,58
|
59,92
|
69,65
|
Perte maximale
|
44,42
|
40,08
|
30,35
|
Skewness
|
-0,10
|
-0,02
|
0,27
|
Kurtosis
|
-1,21
|
-1,52
|
-1,38
|
Beta (MCO)
|
1,000
|
0,904
|
0,995
|
La performance relative du modèle lié à
la loi normale et celui évalué à l'aide de la GPD sont
présentés par rapport aux résultats empiriques du DJIA
pendant la période de test. Nous pouvons noter que la VaR GPD garantie
un seuil de perte maximal de -30,5%, quand le cours descend à -44,42%.
Nous remarquons également que la VaR classique reste proche du seuil
proposé par le cours de DJIA, précisément à 40,08%.
La volatilité de la pondération du DJIA à la VaR GPD est
moins importante, du fait que les positions ont été
coupées au milieu de l'étude. En moyenne, le rendement en base
100 est négatif pour l'ensemble des modèles. On remarque que le
coefficient d'asymétrie est négatif pour le DJIA et la VaR
normale, alors que celui de la VaR GPD est positif à 0,27. Ceci
dénote que la loi des cours comporte plus de mouvements à la
baisse pour les deux premiers et une tendance plus haussière pour le
dernier.
CONCLUSION
Nous soulignons au terme de cette étude l'importance
des mouvements extrêmes lors de la crise des Subprimes. B. Mandelbrot
avait déjà émis des réserves en 1963 quant à
la validité du comportement aléatoire du mouvement brownien
caractérisé par les deux premiers moments de la loi normale. En
effet, les hypothèses qui les soutiennent, peuvent corrompre leur
validité intrinsèque dans le cas où des
événements imprévisibles influencent de façon
prépondérante la moyenne de l'échantillon. La crise des
Subprimes en est l'exemple type. Nous pouvons apprécier la
fréquence du DJIA par l'exercice du calcul des rentabilités
anormales, se déplaçant d'un niveau de stabilité vers
celui réalisé par la crise. Les résultats obtenus montrent
que la crise des Subprimes a enregistré une fréquence
journalière continue importante.
Le caractère imprévisible des
évènements rares est omniprésent en économie, en
finance et en assurance. Parallèlement aux travaux de P. Levy en 1920,
le développement des études statistiques des valeurs
extrêmes, mené par R. Fisher et L. Tippett en Grande- Bretagne, B.
Gnedenko en Union soviétique, M. Fréchet et E. Gumbel en France
et L. Mises en Autriche, a émergé. Ces études se
concentrent sur le maximum et le minimum d'une suite d'événements
dans un échantillon, événements d'occurrence faible, mais
de grande importance. Ces « événements
rares » forment ce que l'on nomme les queues de distributions.
Ces statisticiens ont montré que la valeur maximale de
l'échantillon ne peut obéir qu'à l'une parmi trois
distributions différentes : les distributions de Fréchet, de
Gumbel et de Weibull.
Il en est ainsi des études de fiabilité,
où, pour calculer la probabilité de défaut, nous cherchons
à considérer la probabilité de défaillance de son
« maillon le plus faible ». Par exemple, pour
déterminer les caractéristiques d'un barrage, il faut connaitre
la pression maximale que l'ouvrage pourra être amené à
tolérer, et non sa pression moyenne qu'il supportera en situations
normales. Pour cela, il faut caractériser les variables extrêmes
de l'échantillon d'observations. C'est se que propose de quantifier la
Value-at-Risk, qui mesure la perte potentielle maximale à un seuil de
probabilité et à un horizon de temps fixés. L'analyse de
cette dernière menée sur le DJIA nous a permis de comprendre
qu'il est possible de la quantifier, de façon analytique, en utilisant
la loi de distribution de Pareto généralisée, les
probabilités de pertes extrêmes. En pondérant la VaR GPD,
nous avons mesuré le risque de marché, nous permettant de limiter
les pertes encourues par la détention du DJIA. Il est à noter que
cette méthode peut être facilement assimilable aux méthodes
de gestion assurancielle de portefeuille OBPI53(*) ou CPPI54(*), dans laquelle la VaR GPD servirait de seuil
dynamique de proportion au risque.
Paradoxalement, l'étude menée
précédemment nous a permis de remarquer que les statistiques ne
sont pas une science exacte. En modélisant statistiquement les valeurs
extrêmes du DJIA, un problème est apparu de manière
récurrente : La pertinence des données utilisées.
En effet, les méthodes de significativité de
Brown et Warner, de Pattel et de Bohemer, Musumeci et Poulsen impliquent une
constance de la volatilité dans le temps. Or nous savons que les
marchés financiers sont hétéroscédastique et qu'il
est nécessaire d'utiliser un processus ARCH-GARCH afin de proposer un
modèle adéquat. Nous pouvons également remarquer que cette
hypothèse n'est plus vérifiée en phase de
« partitionnement des données » ou
« Clustering » dans lequel deux ou plusieurs
titres réagissent, sur un intervalle de temps i, à un
même évènement. Cette corrélation est souvent
révélée à travers de nombreux exemples sur les
marchés financiers, notamment lorsque Lehman Brothers disparue pendant
la crise des Subprimes.
Aussi, il faut utiliser une fenêtre de taux de
rentabilité équilibrés entre stabilité et
précision afin de réduire l'effet de croissance de la variance
estimée à partir du nombre d'observations. En ce qui concerne la
théorie des valeurs extrêmes, le choix du seuil u de
sélection des données maximum et minimum est primordial pour la
validité de l'étude. Il s'agit d'une part de sélectionner
un seuil grand, au dessus duquel nous conservons assez de données pour
que l'approximation asymptotique soit à la fois applicable et
précise. D'autre part pas trop élevé pour ne pas donner
trop d'importance aux écart-types de l'estimateur. Cela
révèle d'une certaine approximation.
De plus, Selon N. Taleb, il n'est pas possible de mesurer le
risque d'événements rares catastrophiques dont nous n'avons
jamais connu d'exemple par le passé. Ces « cygnes
noirs », tels qu'il les appelle, invalideraient les approches
statistiques de modélisation du risque. Mais il reste encore beaucoup
à découvrir. La préface de la deuxième
édition du livre « Une approche fractale des
marchés » soulignait : « L'économie
financière, en tant que discipline, en est là où en
était la chimie au XVIe siècle : c'était un
ramassis de savoir-faire, de sagesse populaire fumeuse, d'hypothèses non
confirmées et de spéculations grandioses »55(*).
La crise financière des Subprimes est-elle un cygne
noir au même titre que l'accident subi par la centrale nucléaire
de « Three Mile Island »56(*), où, malgré la
prudence établie par les instances de régulation
nucléaire, une erreur de nature non-quantifiable, mit en échec le
système de sûreté ? Ou pouvons-nous plutôt la
comparer à la tempête qui dévasta les Pays-Bas en 1953,
événement anormal, mais dont on pouvait mesurer la
probabilité ?
BIBLIOGRAPHIE
BALKEMA A. A., DE HAAN L., 1974, "Residual life time at
great age", Annals of Probability 2, p 792-804.
|
BEIRLANT J., GOEGEBEUR Y.,s "Segers J. et Teugels J.,
2004, Statistics of Extremes - Theory and Applications", Wiley,
England.
|
BERMAN S. M., 1963, "Limiting theorems for the maximum
term in stationary sequences", Annals of Mathematical Statistics, p
502-516.
|
BOEHMER E., MUSUMECI J. ET POULSEN A., 1991, "Event-study
methodology under conditionsof induced variance", Journal of Financial
Economics, vol. 30, n°2, p 253-272.
|
BROWN S. ET WARNERJ., 1980, "Measuring security price
performance", Journal of Financial Economics, vol. 8, n°3, p
205-258.
|
CAMPBELL J., LO A. ET MACKINLAY C., 1997, "The
econometrics of financial markets", Princeton University Press.
|
CLAUSS P., 2011, "Gestion de portefeuille", Dunod.
|
DANIELSSON J., DE VRIES C.G., 1997, "Value at risk and extreme
returns", Working Paper, London School of Economics, London, UK.
|
DEKKERS A. L. M., DE HAAN L., 1989, "On the estimation of
the extreme value index and large quantile estimation", The Annals of
Statistics, p 1795-1832.
|
EMBRECHTS P., KLüPPELBERG C., MIKOSCH T., 1997,
"Modelling Extremal Events for Insurance and Finance",
Springer-Verlag, Berlin.
|
ENGLE R.F., 1982, "Auto-regressive conditional
heteroskedasticity with estimates of the variance of united kingdom
in?ation", Econometrica, p 987-1007.
|
Fama E., 1970, "Efficient capital markets: a review of
theory and empirical work", The Journal of Finance, val. 25, n°1, p
383-417.
|
FISHER R., TIPPET L., 1928, "Limiting Forms of the
Frequency Distribution of the Largest or Smallest Member of a Sample",
Cambridge Philosophical Society, p 180-190.
|
GNEDENKO B.V., 1943. "Sur la distribution limite du terme
maximum d'une série aléatoire". Annals of Mathematics, p
423-453.
|
GUMBEL E J., 1958, "Statistics of Extremes", Columbia
University Press, New-York.
|
HAMON J., 2005, "Bourse et gestion de portefeuille",
Economica, 2e édition.
|
HILL B M., 1975, "A simple general approach to inference
about the tail of a distribution", Annals of Statistics, p 1163-1173.
|
HULL J., 2006, "Options, futures et autres actifs
dérivés", 6e édition, Pearson
Education.
|
JORION P., 1996, "Risk: Measuring the risk in value at
risk", Financial Analysts Journal, p 47-56.
|
JORION P., 1997, "Value at Risk: The New Benchmark for
Controlling Market Risk", McGraw-Hill, Chicago.
|
JORION P., 2006, "Value-at-Risk", McGraw-Hill,
3e édition.
|
JP MORGAN, 1995. RiskMetricsTM - Technical
Document, 3rd ed
|
KUPIEC P. H., 1995, "Techniques for verifying the accuracy
of risk measurement models", Journal of Derivatives, p 73-84.
|
LO A. W., MACKINLAY A. C., 1990, "An econometric analysis
of nonsynchronous trading", Journal of Econometrics, p 181-211.
|
LONGIN F. M., 1997, "The threshold effect in expected
volatility: A model based on asymmetric information", The Review of Financial
Studies, 837-869.
|
LONGIN F., 1993, "Volatility and extreme movements in
?anncial markets", Ph.D. Thesis, HEC.
|
LONGIN F., 1996, "The asymptotic distribution of extreme
stock market returns", Journal of Business, p 383-408.
|
LONGIN F., 2000, "From VaR to stress testing: The extreme
value approach". Journal of Banking and Finance, p 1097-1130
|
LONGIN F., SOLNIK, B., 2001, "Extreme correlation of
international equity markets", Journal of Finance, p 651-678
|
LUX T., SORNETTE D., 1999, "On rational Bubbbles and fat
tails", Journal of Monetary Economics.
|
MANDELBROT B., 196,. "The variation of certain speculative
prices", Journal of Business, p 394-419.
|
MANDELBROT B., 1997, "Fractales, hasard et finance",
Flammarion.
|
MANDELBROT B., 2001, "Stochastic Volatility, Power Laws
And Long Memory", Quantitative finance, vol. 1, n°6, December, p
558-559.
|
MANDELBROT B.,1963, "The Variation Of Certain Speculative
Prices", Journal of Business, vol. 36, n°4, p 394-419.
|
MCNEIL A. J., 1998, "Calculating quantile risk measures
for financial return series using extreme value theory", Working Paper,
ETH, Zurich, Switzerland.
|
PARKINSON M., 1980, "The Extreme Value Method For
Estimating The Variance Of The Rate Of Return", Journal of Business, Vol.
53, p 61-66.
|
PATTEL J., "Corporate forecasts earning per share and
stock price behavior: empirical test", Journal of Accounting and Research,
vol. 14, n°1, p 246-276.
|
PICKANDS J., 1975, "Statistical inference using extreme
order statistics". Annals of Statistics, p 119-131.
|
RIVA F., 2008, "Application financières sous Excel
en Visual Basic", Economica, 3° édition.
|
SAPORTA G., 1990, "Probabilités, analyse des
données et statistique", Editions Technip.
|
SHARPE W., 1963, "A simplified model for portfolio
analysis", Management Science, vol. 9, n°1, p 277-293.
|
SIVERMAN B., 1986, "Density estimation for statistics and
data analysis", Chapman and Hall, London.
|
SMITH R., 1989, "Extreme Value Analysis of Environmental
Time Series: an Application to Trend Detection in Ground-Level Zone",
Statistical Science, p 367-393
|
SORNETTE D., 1998, "Multiplicative processes and Power
laws", Physical review, p 4811-4814.
|
WHITE H., 1982, "Maximum Likelihood Estimation of
Misspecified Models", Econometrica, p 1-16.
|
ANNEXES
A. Graphiques : Sélection de seuil
86
B. Stratégie : Synthèse
générale
87
C. Graphiques : VaR
91
D. Stratégie
92
E. Visual Basic Application : Loi de valeurs
extrêmes
94
F. Visual Basic Application : Loi de
probabilité
96
G. Origines macroéconomiques de la crise des
subprimes
100
A. GRAPHIQUES :
SÉLECTION DE SEUIL
B. STRATÉGIE :
SYNTHÈSE GÉNÉRALE
Sélectionner un actif
Déterminer un période T
Choisir la fréquence des taux de rentabilités
Calculer les taux de rentabilités
Rt
Sélectionner un seuil extrême u
Estimé les paramètres de la
distribution asymptotique à partir du rendement u
Calculer la VaR en fonction du quantile q sur une
période t
Etablir un test d'ajustement sur les valeurs réelles
observées correspondant au seuil 1 - q
L'hypothèse est acceptée
L'hypothèse est rejetée
Calculer la VaR pondérée par le prix de l'actif
en t
Si VaRt (q) < Rt
Short
Si VaRt (q) > Rt
Long
I. Importer les données historiques
II. Calculer N, le nombre d'observation
III. Calculer R, Le taux de rendement de l'actif de
manière :
a. Discrète:
b. Continue:
IV. Classer les , La valeur
absolue de R sur n périodes, tel que :
V. Créer un échantillon de valeurs
extrêmes en fonction de U, le seuil sélectionné
pour mettre en évidence la distribution des extrêmes tel
que :
VI. A travers le nouvel échantillon, calculer :
a. , la
moyenne arithmétique de l'échantillon ou paramètre
d'échelle
b. ,
l'écart-type de l'échantillon ou paramètre de
localisation
c. , le
nombre d'observation de l'échantillon
VII. Calculer la Generalized Pareto Distribution (G),
donnée par :
Ou et
VIII. Déterminer l'interval de confiance donné
par :
Ou esr la
fonction inverse de G et q, le quantil, lequel décrit
le niveau de probabilité à l'horizon de temps
spécifié
IX. Calculer VaR (G) comme suit :
X. Calculer le test de couverture conditionnelle,
IF, comme suit :
XI. Calculer M, la VaR (G)
pondérée par le prix de l'actif, comme suit :
XII. Utiliser une stratégie d'allocation des actifs
dans le portefeuille, tel que :
a. Achat / Achat call / Vente put / Achat cap / Vente
floor
b. Vente / Achat put / Vente call / Achat floor / Vente
cap
C. GRAPHIQUES : VAR
D. STRATÉGIE
Nous vous présentons ici une stratégie
basée sur plusieurs actifs différents. Il s'agit, comme dans
l'exemple vu précédemment, d'une stratégie long-short
basée sur l'achat de call et de put. Soit R1,
R2,...,Rn, une suite de variables aléatoires
indépendantes et identiquement distribuées, calculées par
ln(Pt/Pt-1), où P est le prix de
l'actif en t. Pour
où MVaR est la pondération
de la VaR à l'actif, et la VaR est donnée par .
Lorsque la VaR (q = 95%) , alors le
risque est dit faible. Inversement, le risque est dit élevé.
Nous avons donc
§ L'achat d'un Call lorsque la VaR cours
§ L'achat d'un Put lorsque la VaR < cours.
Cette étude nous permet de constater qu'il existe, sur
les marchés financiers, une volatilité plus importante en phase
de baisse des cours. Il existe aussi des effets "clusters" où la
corrélation des actifs se concentre en une période t,
impliquant un risque de non-diversification statistique (risque de
marché).
Nous enregistrons une performance de 40,1% en prés de 2
ans et 6 mois de gestion, avec un maximum de 47,18%. Cette stratégie met
en avant le risque probabiliste pour en dégager une rentabilité.
Le risque extrême "Black Swan" est également pris en compte.
Cependant, Un test "Out-of-Sample" doit être
établi pour confirmer cette hypothèse. Les Calls et les Puts sont
ici hors premium. Il serait nécessaire de minorer l'effet de cette prime
sur la performance de la stratégie.
Resultats
|
Données
|
Call
|
Put
|
Nobs
|
906
|
Moyenne
|
32.11%
|
122
|
90
|
Ecart-type
|
10.9%
|
8.80
|
10.88
|
Maximum
|
47.18%
|
140
|
100
|
Minimum
|
0.00%
|
100
|
65
|
Skewness
|
-0.94
|
-0.09
|
-0.59
|
Kurtosis
|
0.02
|
-0.77
|
-1.21
|
Jarque Bera
|
4.69
|
21.53
|
28.84
|
Performance
|
40.10%
|
20%
|
20%
|
E. VISUAL BASIC APPLICATION :
LOI DE VALEURS EXTRÊMES
'Indicateur de Hill (Pour Fréchet uniquement)
Function Hill(rank As Double, Nb As Double) As Double
medianrank = (1 / (1 - ((rank - 0.44) / (Nb + 0.12))))
Hill = WorksheetFunction.Ln(WorksheetFunction.Ln(medianrank))
End Function
'Gumbel
Function Gumbel(x As Double, a As Double, b As Double) As
Double
If b <= 0 Then
Call MsgBox("b doit être strictement positif",
vbExclamation, "Paramètre incorrect")
Exit Function
End If
Gumbel = Exp(-(x - a) / b) * Exp(-Exp(-(x - a) / b)) / b
End Function
'Fréchet
Function Fréchet(x As Double, a As Double, b As Double) As
Double
If x <= 0 Then
FrÉchet = 0
Exit Function
End If
If b <= 0 Then
Call MsgBox("b doit être strictement positif",
vbExclamation, "Parametre incorrect")
Exit Function
End If
Fréchet = a / b * (b / x) ^ (a + 1) * Exp(-(b / x) ^ a)
End Function
'Weibull
Function Weibull(x As Double, a As Double, b As Double) As
Double
If x <= 0 Then
Weibull = 0
Exit Function
End If
Weibull = a / b ^ a * x ^ (a - 1) * Exp(-(x / b) ^ a)
End Function
F. VISUAL BASIC APPLICATION :
LOI DE PROBABILITÉ
Option Explicit
'ETAPE 1: COPIER ET TRIER
'Dans cette section, nous allons copier le nombre de série
pour les trier, dans le but de dessiner la fonction de distribution
cumulée
' La variable "Total" nous donne le nombre de donnÉe
existante
Public Sub Copy_and_Sort()
Dim Total As Integer
Let Total = Range("Total").Value
' Copier dans un tableau reconfiguré de Total lignes et de
1 colonne
Let Range("Y1").Resize(Total, 1) =
Range("Selection").Resize(Total, 1).Value
' Trier les données copiées
Call Range("Y1").Resize(Total,
1).Sort(Key1:=Range("Y1").Resize(Total, 1), Order1:=xlAscending,
Header:=xlGuess, OrderCustom:=1, MatchCase:=False, Orientation:=xlTopToBottom,
DataOption1:=xlSortTextAsNumbers)
End Sub
'ETAPE 2: DEFINIR L'INTERVAL DE DISTRIBUTION
'Dans cette section, l'intervalle est défini afin que
celui-ci soit le plus large possible en aberrant les cases vides
'La variable "Interval" est donnée 10 quand la borne
inférieure "borneinf" est Égale 0
'La fenêtre "step" est Égale à 0,1
'La variable "case_vide" est ici exprimée "as boolean",
c'est à dire soit "Vrai" Il n'y a pas de case vide, soit "Faux" il y a
des cases vides
Public Sub Intervallecorrespondant()
Const Interval = 10
Const borne_inf = 0
Const Step = 0.1
Dim intervalleconfiance As Double
Let intervalleconfiance = Interval
Dim case_vide As Boolean
' Montre la dimension de l'intervalle du plus grand au plus
petit
' S'arrête lorsque l'ensemble des cases de sont pas vides,
ou, par sécurité, lorsque la taille de l'intervalle est
Égale à 0
Do
Let Range("Intervalleconfiance").Value = intervalleconfiance
Call Application.Calculate
Dim minimum As Integer
Let minimum =
Application.WorksheetFunction.Min(Range("Distributions"))
Let case_vide = (minimum > 0) ' Vrai si le
minimum >= 1
Let intervalleconfiance = intervalleconfiance - Step '
Boucle
Loop Until case_vide Or intervalleconfiance <= borne_inf
End Sub
'ETAPE 3: FONCTION DE DISTRIBUTION
'Dans cette section, nous allons créer une fonction afin
de faciliter les calculs de fonction de distribution
' Somme des returns (Ln(t) / Ln(t-1))
' Les champs doivent être vertical avec le meme nombre de
ligne
Public Function SumAbsLn(ByRef valeurscourrantes As Range, ByRef
DJIA As Range) As Double
Dim size As Integer
Let size = valeurscourrantes.Rows.Count
If size <> DJIA.Rows.Count Then
Call MsgBox("La taille des séries ne corresponde pas
!")
End If
Dim resultat As Double
Let resultat = 0
Const petitesvaleurs = 0.01
Dim i As Integer
For i = 1 To size
Dim Borne As Double
' Si les données sont égales à 0, prendre la
plus petite value
Let Borne =
Application.WorksheetFunction.Max(valeurscourrantes(i, 1).Value,
petitesvaleurs)
' increment result with the absolute value of the log of the
ratio between actual and model data
Let resultat = resultat + Abs(Log(Borne / DJIA(i, 1).Value))
Next i
Let SumAbsLn = resultat
End Function
G. ORIGINES
MACROÉCONOMIQUES DE LA CRISE DES SUBPRIMES
Source : P. Artus, J-P Betbèze,
C. Boissieu et G. Capelle-Blancard, «La crise des
subprimes», Conseil d'analyse économique, la documentation
française, 2008, p 60
* 1 Voir : W F.
Sharpe
* 2 Pour tout d'une
variable aléatoire réelle X est défini par
* 3 Le coefficient
d'asymétrie (Skewness) correspond à une mesure la distribution
d'une variable aléatoire réelle. En termes
généraux, l'asymétrie d'une distribution est positive si
la queue de droite est plus longue ou épaisse, et négative si la
queue de gauche est plus longue ou dense.
* 4 Le coefficient
d'aplatissement ou coefficient de Pearson (kurtosis) correspond
à une mesure leptokurtique de la distribution d'une variable
aléatoire réelle.
* 5 Ouragan de
catégorie 5
* 6 Chiffre officielle
publié par Knabb Richard D, « Tropical Cyclone Report: Hurricane
Katrina: 23-30 August 2005, NHC (National Hurricane center), 20 décembre
2005.
* 7 Soit plus de 2.5% de la
population
* 8 Le « krach
de 1929 » est une crise financière qui se déroula
à la Bourse de New-York entre le jeudi 24 octobre et le mardi 29
octobre 1929. Cet événement marque le début de la
« Grande dépression », la plus grande crise
économique du XXe siècle. Les jours-clés du
krach ont hérité de surnoms distincts : le 24 octobre est
appelé « jeudi noir », le 28 octobre est le
« lundi noir », et le 29 octobre est le « mardi
noir », dates obscures de l'Histoire des bourses de valeurs.
* 9 Hypothèse
d'efficience des marchés enseignée par E. Fama dans
« Market effifiency, long-term returns and behavioural
finance », journal of finance economics, 1998, dans lequel il
quantifie les effets que peuvent impliquer un évènement de nature
à changer la perception qu'ont les investisseurs de la valeur
théorique d'un titre.
* 10 Pour l'étude de
la crise des subprimes, il est important d'éviter les mouvements de
bourse liés au choc du 11 septembre 2001 et du scandale d'Enron en 2003
par exemple.
* 11 Dans leur ouvrage
« Measuring security price performance », journal of
financial economics, publié en 1980.
* 12
« (Generalized) Auto Regressive Conditional
Heteroskedasticity ». Créé par Robert F. Engle en
1982. Ce modèle est un outil statistique qui mesure le comportement de
la volatilité dans le temps. Son créateur voulait un outil plus
précis que l'ARMA « Auto Regressive Moving
Average », utilisant une volatilité constante. A travers
ce principe, une dynamique est introduite dans la détermination de la
volatilité. Pour cela, on admet que la variance est conditionnelle aux
renseignements dont nous disposons. Le modèle ARCH est composé de
deux équations : Dans
l'équation, est une
fonction non constante, mesurable et positive de l'information disponible en
t-1. Tim Bollerslev, en 1986, proposa une extension au modèle ARCH, le
modèle GARCH. Il sert à modéliser les
phénomènes de persistance des chocs de variance. C'est une
solution alternative qui permet de ne retenir un nombre limité de
retards q, par rapport à un modèle ARCH (q) linéaire. Il
se présente de la manière suivante :
* 13 Estimation de la valeur
théorique d'un actif financier exprimé dans le
« Capital Asset Pricing Model » (CAPM)
* 14 Ouvrage :
« The econometrics of financial markets », Princeton
University Press, Chapitre 4.
* 15 Nous devons savoir si
l'analyse de cette dernière donnée est homoscédastique. En
cas contraire, le risque spécifique peut biaiser les calculs. Boehmer se
propose d'étudier se corollaire à travers une étude
statistique.
* 16 Le modèle de
marché, vu dans la sous-section précédente, n'est qu'une
relation statistique utilisant la même notification
« bêta »,
* 17 Regnault nous enseigne
en 1863 qu'il existe une loi mathématique qui règle les
variations et l'écart moyen des cours de la Bourse : L'écart
des cours est en raison directe de la racine carrée du temps. Cette
écart se définit dans la pratique par : , où
t représente la fenêtre de temps pour laquelle la
volatilité « historique » est
calculée.
* 18 Pour tout d'une
variable aléatoire réelle X est défini par
* 19 Le coefficient
d'asymétrie (Skewness) correspond à une mesure la distribution
d'une variable aléatoire réelle. En termes
généraux, l'asymétrie d'une distribution est positive si
la queue de droite est plus longue ou épaisse, et négative si la
queue de gauche est plus longue ou dense.
* 20 Le coefficient
d'aplatissement ou coefficient de Pearson (kurtosis) correspond
à une mesure leptokurtique de la distribution d'une variable
aléatoire réelle.
* 21 Une loi de
probabilité est dite continue lorsqu'elle se rapporte à une
mesure de Lebesgue. Pour plus d'explication, se référer à
l'ouvrage de G. Saporta : « Probabilités, analyse des
données et statistiques ».
* 22
Développée initialement par H. Markowitz en 1954
* 23 P. Jorion est
professeur de finance à l'université de Californie à
Irvine. Ingénieur de formation, il obtient un Ph.D en
« finance internationale » à l'université de
Chicago en 1983.
* 24 Notamment avec les
directives Bâle II, III.
* 25 Voir Embrechts,
Kluppelberg, Mikosch et Beirlant, Goegebeur, Segers, Teugels pour plus
d'approfondissements.
* 26 Dans une masse de Dirac,
mesuré a partir d'un espace
et un point a dans X, tel que si et si .
* 27 A ce stade, aucune
hypothèse n'est présupposée
* 28 Un bloc peut correspondre
à un mois, un an, etc.
* 29 Les paramètres
et peuvent
également s'écrire respectivement et
* 30 Démontré en
1928
* 31 En
réalité l'Algorithme de quasi-Newton
* 32 Dans son ouvrage :
« Extreme Value Analysis of environnemental Time series : an
Application to Trend Detection of Ground-Level Zone »
* 33 Utilisation de
méthodes numériques, type algorithmes de Newton-Raphson
* 34 Né en 1848, V.
Pareto était un industriel, un économiste et un sociologue
italien. Son héritage en tant qu'économiste fut ample,
particulièrement en terme de recherches scientifiques et
d'équations mathématiques, recourant de manières
intensives aux données. Son étude la plus connue concerne la
répartition de la richesse correspondant à une loi de
puissance.
* 35 Paul. Lévy,
né en 1886, est un mathématicien français. Il fait partie
des fondateurs modernes des probabilités. On lui doit les lois stables
stochastiques : « La distribution de Lévy ». Il
fut professeur à l'école polytechnique et enseigna les
probabilités à B. Mandelbrot.
* 36 Né en 1924
à Varsovie, B. Mandelbrot fut professeur de mathématiques
à l'Université Yale et membre émérite du
« Thomas L. Watson Laboratory » d'IBM. Il a
notamment publié « Les objets fractales »
* 37 Nous pouvons nous
conférer à l'étude d'Embrechts paru en 1997.
* 38 Tel que Smith en 1987,
Davison et Smith en 1990 ou Reiss et Thomas en 2001, pour ne citer qu'eux.
* 39 Nous avons
étudié le modèle de moyenne et le modèle de
marché. Pour plus d'information, voir section I.I.2.1 Modèles
théoriques
* 40 Ces indications ont
été mises en place par Brown, Warner, Pattel et Boehmer afin
d'assurer la fiabilité et la robustesse de l'étude.
* 41 Le test de Jarque Bera
cherche à déterminer si une suite de variables aléatoires
suit une loi de distribution normale. Cette statistique suit asymptotiquement
une loi du ÷2 à deux degrés de liberté.
Nous avons , où n est le nombre d'observations, k le
nombre de variables explicatives, s le skewness (moment d'ordre 3
d'une variable centrée-réduite) et K le kurtosis (moment
d'ordre 4 d'une variable centrée-réduite). La statistique de JB
indique qu'une suite de variable suit une loi normale lorsqu'elle s'approche de
0.
* 42 Rapport écrit
par P. Artus, J-P Betbèze, C. Boissieu et G. Capelle-Blancard,
intitulé: «La crise des subprimes» publié par
« La documentation française » en 2008. Celui-ci
donne une analyse complète de la situation micro et
macro-économique de la crise des subprimes.
* 43 W. Feller
démontre en 1968 que 1 - F(x) équivaut à
quand
* 44 A. Quetelet est un
mathématicien, astronome, naturaliste et statisticien belge du
XIXème siècle. Il présenta dans son ouvrage :
« Sur l'homme et le développement de ses facultés,
essai d'une physique social » la notion d'homme moyen.
« L'homme moyen d'une population est un individu dont les
caractéristiques physiologiques sont chacune égale à la
moyenne des autres caractéristiques physiologiques de la
population »
* 45 Ensemble des variations
comprises dans une journée boursière.
* 46 Le calcul est le
suivant : , soit
53.57%
* 47 La Théorie des
Marchés Efficients (Efficient Market Theory) soutient que les
marchés fonctionnent de manière à retranscrire
intégralement et instantanément l'ensemble des informations
disponibles. Jegadeesh et Titman, en 1993, mettent en évidence l'effet
« momentum ». Ils observent que la tendance des
titres par rapport au marché semble se poursuivre dans une mouvance
irrationnelle. Il en va de même pour la variance journalière dans
ce contexte.
* 48 Le
phénomène de cluster, vu précédemment en section
théorique, se défini comme une grappe de volatilités
caractéristiques des rentabilités liées aux actifs
financiers.
* 49 La méthode BM
extrait le maximum de chaque période définie
préalablement. Elle ne prend donc pas en compte certaines données
extrêmes liées aux cycles financiers et peut en revanche prendre
des valeurs faibles lors des blocks précédents.
* 50 Initialement
développé par Campbell S. D, en 2005.
* 51 En d'autres termes, 95%
des variations journalières seront contrôlées avec
seulement 5% d'erreur de prévision
* 52 Le ratio de couverture
fut développé par Kupiec en 1995. Il fut ensuite repris par
Christoffersen en 1998
* 53 « Option
Based Portfolio Insurance » est une méthode d'assurance
de portefeuille à base d'options, conceptualisée par Leland et
Rubinstein en 1981.
* 54
« Constant Proportion Portfolio Insurance » est la
méthode du coussin. Initialement développée par P. Erold
en 1986 et Black et Jones en 1978, elle vise à maintenir une proportion
constante d'exposition au risque.
* 55 B. Mendelbrot et R. L
Hudson : Une approche fractale des marchés - Risquer, perdre et
gagner ; Editions Odile Jacob, Paris 2009, 358 pages.
* 56 La central
nucléaire de Three mile Island est situé dans l'est des
Etats-Unis est connu pour avoir subi un accident classé au niveau 5
l'échelle international des évenements nucléaires (INES).
C'était le 28 mars 1979.
|
|