I-3 Les principaux méthodes de mesure de la Value
at Risk :
Mathématiquement, la notion de la Value-at-Risk se traduit
ainsi:
Pr( Ä VpVaR)=1-c
Avec: ÄV = la variation de la valeur V du
portefeuille sur la période de détention. c = le niveau
de confiance
Plusieurs modèles ont été
présentés pour l'estimation de la Value-at-Risk (Manganelli et
Engle (2001)). L'élément clé qui distingue ces
modèles est l'existence ou non d'une hypothèse de para
métrisation de la distribution des pertes et des profits. Ainsi on
classera ces méthodes en trois classes: les méthodes non
paramétriques, les méthodes semi paramétriques et les
méthodes paramétriques.
I-3-1 Les méthodes non paramétriques :
La méthode du quantile empirique :
La méthode du quantile empirique (ou Historical
Simulation) est une méthode très simple d'estimation des mesures
de risque fondée sur la distribution empirique des données
historiques de rendements. Formellement, la VaR est estimée
simplement par la lecture directe des fractiles empiriques des rendements
passés. Si l'on considère par exemple un niveau de confiance de
95% et que l'on dispose d'un échantillon de 1000 observations
historiques de rendements, la VaR est donnée par la valeur du
rendement qui correspond à la 50ème forte perte.
La méthode du Bootstrap
Une amélioration simple de la méthode de la
simulation historique consiste à estimer la VaR à partir
de données simulées par Bootstrap. Le Bootstrap consiste à
ré échantillonner les données historiques de rendements
avec remise. Plus précisément, dans notre contexte, la
procédure consiste à créer un grand nombre
d'échantillons de rendements simulés, où chaque
observation est obtenue par tirage au hasard à partir de
l'échantillon original. Chaque nouvel échantillon
constitué de la sorte permet d'obtenir une estimation de la VaR
par la méthode HS standard, et l'on définit au final une
estimation en faisant la moyenne de ces estimations basées sur les
ré échantillonnages.
I-3-2 Les méthodes semi paramétriques :
La méthode basée sur la théorie
des valeurs extrêmes :
Parmi les méthodes semi paramétriques figurent
tout d'abord l'ensemble des méthodes et approches qui relèvent de
la théorie des extrêmes (TVE) qui diffère de la
théorie statistique habituelle fondée pour l'essentiel sur des
raisonnements de type tendance centrale. Les extrêmes sont en effet
gouvernés par des théorèmes spécifiques qui
permettent d'établir sous différentes hypothèses la
distribution suivie par ces extrêmes. Il existe deux principales branches
de la théorie des valeurs extrêmes : la théorie des valeurs
extrêmes généralisée et l'approche Peaks Over
Threshold (POT) basée sur la loi de Pareto
généralisée. L'approche POT permet l'étude de la
distribution des pertes excessives au dessus d'un seuil (élevé),
tandis que la théorie des valeurs extrêmes
généralisée permet de modéliser la loi du maximum
ou du minimum d'un très grand échantillon. Dans ce qui suit, on
procèdera à l'application de cette approche. Pour cela, on
définie la moyenne en excédent pour une distribution F par :
e ( u ) = E(X -uX
>u)
C'est simplement une fonction de u qui s'exprime à
l'aide de la fonction de survie de F. Plus les queues de distribution sont
épaisses, plus cette fonction a tendance à tendre vite vers
l'infini.
En pratique, si n est le nombre total de l'échantillon et
si est le nombre d'observations au
Nu
dessus du seuil u, on a :
n
1
j=1
e( u) = ? ( x - u)1 {
x>u }(x j) , u > 0N
u
Le problème du choix de u reste entier. Usuellement, on
trace cette fonction Mean Excess pour différents niveaux du seuil u. Le
bon seuil est celui à partir duquel e(u) est approximativement
linéaire. Graphiquement, cela se traduit par un changement de la pente
de la courbe qui ensuite reste stable. Ce résultat provient de la
remarque que pour la distribution de Pareto généralisée,
e(u) est linéaire en u. Une fois le seuil optimal choisi, on
construit une nouvelle série d'observations au dessus de ce seuil, et la
distribution de ces données suit une distribution
généralisée de Pareto, qui se définit comme suit
:
1
? -
î î
? ?
1 1
- ? + x
? ? si 0
![](Analyse-comparative-de-modele-d-allocation-d-actifs-dans-le-plan-Moyenne-Var-relative12.png)
î ?
? â
G x
Sisib=0
( ) = ? ? ?
? ?
î â
,
?
- ?- x ?
1 exp ? ?
? â ?
est appelée l'indice de queue. Le paramètre
â est un indicateur de la taille de la queue à une
distance finie. L'estimation des paramètres î et
â se fait par le maximum de
vraisemblance.
La densité de la distribution GPD s'écrit :
![](Analyse-comparative-de-modele-d-allocation-d-actifs-dans-le-plan-Moyenne-Var-relative13.png)
( x)
i??i
?
â î( â +
4)
si
-
si 0
î =
? 0
â n
+ (( (1 - c))-î-1)
VaR = u
?
î
? Nu
Et la log vraisemblance que nous maximisons est de la forme :
ln L( , â) =
|
n
?= [ { } ]
ln , ( )1 0 ( )
g x t x t
î â î >
t 1
|
Une fois l'estimation terminée, on peut vérifier
graphiquement la pertinence des estimations en comparant la distribution GPD
estimée avec la distribution empirique des observations au dessus du
seuil. La Value-at-Risk pour un niveau de confiance c est obtenue par
la formule :
?
La simulation historique filtrée :
La méthode de la simulation historique filtrée
est une forme de Bootstrap semiparamétrique qui vise à combiner
les avantages de la simulation historique avec la puissance et la
flexibilité des modèles à volatilité conditionnelle
tel que le modèle GARCH. Elle consiste à faire un Bootstrap sur
les rendements dans un cadre de volatilité conditionnelle, le Boostrap
préservant la nature non paramétrique de la simulation
historique, et le modèle à volatilité conditionnelle
donnant un traitement sophistiqué de la volatilité.
|