2: Mesure du risque bancaire
Les établissements financiers sont exposés de
par leurs activités à de nombreux types de risque.
L'évaluation et la couverture de ces risques nécessitent la
plupart du temps de faire appel aux mathématiques, ce qui permet de
formaliser et de quantifier le risque identifié.
Ainsi, depuis le début des années 70, a-t-on vu
se développer de nombreux outils dans le domaine des probabilités
et du calcul stochastique afin de répondre à la demande
croissante des marchés financiers. Les travaux réalisés
jusqu'ici se sont surtout concentrés sur les méthodologies
d'évaluation et de couverture des produits comportant des risques de
marché. La tendance actuelle est à l'élaboration de
méthodes équivalentes pour le traitement du risque de
crédit. L'état de l'art distingue pour le moment trois
approches.
La première, connue sous le nom d'approche structurelle
ou modèle de la firme, date de 1974 avec Robert Merton55. Son
approche est proche de celle de la théorie des options. Elle repose
entre autres sur l'idée que les prix des actifs contiennent l'ensemble
de l'information accessible. Sous cette hypothèse, les actions et les
obligations risquées émises par une société
apparaissent comme des options dont on peut évaluer le prix. L'article
de Merton a constitué la base de toute la littérature sur le
risque de crédit. Néanmoins, l'approche semble quelque peu
irréaliste. Elle suppose en effet que la faillite n'est constatée
qu'à l'échéance de la dette, et que la firme est
éventuellement liquidée pour permettre son remboursement. Il
apparaît donc plus raisonnable de supposer qu'il existe un seuil pour la
valeur de la firme au-dessous duquel elle se déclare en faillite. Cette
hypothèse, que l'on trouve pour la première fois dans l'article
de Black et Cox (1976)56, nécessite cependant une
spécification du seuil de faillite. On peut par ailleurs douter que ce
seuil soit constant au cours du temps, comme on le verra plus tard dans
Longstaff et Schwartz, et ne dépende pas de l'évolution de la
structure des taux.
55 Robert Merton, On the pricing of corporate
debt: the risk structure of interest rate, 1974
56 Fisher Black, John c. Cox, Valuing corporate
securities : some effects of bond indenture provisions, the journal of
finance, May 1976
52
La seconde approche se base sur les statistiques d'agences de
notation telles que Moody's et Standard & Poor's. C'est la
méthodologie la plus fréquemment utilisée aujourd'hui dans
les banques pour mesurer le risque de crédit. Elle fut introduite pour
la première fois en 1994 par JP Morgan dans un document technique
intitulé CreditMetrics57. L'objectif
recherché est de mesurer la variation de la valeur future d'un
portefeuille liée à la modification de la qualité de
crédit (elle-même étant reflétée à
travers la notation publiée par les agences) des contreparties des
instruments en portefeuille.
Les variations de la valeur future sont
représentées statistiquement par la distribution de
probabilités des valeurs à l'horizon. Typiquement, cette
distribution n'est pas symétrique et présente une queue de
distribution plus épaisse du côté des pertes que du
côté des gains : concrètement, la probabilité de
perdre beaucoup d'argent sera forte et celle de réaliser des gains sera
faible. Dans ces conditions, l'écart type de la distribution est une
mesure de risque assez mal adaptée, car symétrique. Une mesure de
risque plus adaptée est celle des quantiles, c'est à dire la
mesure d'une VAR à 1% par exemple.
Enfin, la troisième et dernière approche dite
approche par intensité est beaucoup plus récente. Elle est le
sujet de nombreux travaux (dont ceux de Longstaff et Schwartz) et offre des
perspectives intéressantes tant pour la construction de courbes de taux
risqués que pour le pricing de produits dérivés. Le
défaut d'une firme dans cette approche est vu comme un
événement qui ne peut pas être lu dans les prix. Il est
donc modélisé comme un processus ayant une intensité,
c'est à dire un taux instantané d'occurrence. La mesure du risque
de crédit et l'évaluation des produits dérivés
liés à ce risque occupent aujourd'hui une importance capitale
aussi bien dans les travaux de recherche académique que dans les
cellules de recherche des établissements financiers. Il s'agit
aujourd'hui de mettre en place une méthodologie de
référence pour l'obtention d'une courbe de taux risqués,
le pricing de produits dérivés58 liés à
cette courbe, et la mesure des risques encourus liés à la
qualité de crédit des émetteurs. En ce qui concerne le
pricing des dérivés de crédit, la tendance actuelle
privilégie une approche par intensité plutôt que l'approche
structurelle introduite par Merton. Cette approche qui est certainement plus
57 JP Morgan, CreditMetrics-Technical Document,
1997
58 Un Pricing est la recherche de l'inconnue
caractérisant un instrument financier. Pour une obligation, cela sera
par exemple la recherche du prix de celle-ci, à partir des flux futurs
et de la courbe zéro-coupon. Pour une option vanille, cela sera par
exemple la recherche de la prime, à partir des déterminants du
contrat (prix actuel du sous-jacent, prix d'exercice, échéance,
volatilité, dividendes, taux d'intérêt). Ce travail est
généralement dévolu à un structureur mais peut
également être délégué à un vendeur si
celui-ci a accès aux outils de pricing de la banque. Un Pricing peut
être plus ou moins long, de quelques secondes à plusieurs heures,
en fonction de la complexité du produit recherché.
53
simple à calibrer à partir des données de
marché est également plus simple d'utilisation pour des agents
financiers.
Toutefois, aucun consensus n'est encore trouvé sur les
hypothèses d'arbitrage et de complétude à faire dans un
monde avec défaut. De manière plus générale, c'est
l'information disponible sur les marchés qu'il est délicat de
modéliser. D'énormes travaux sont donc encore à
réaliser pour aboutir à une méthodologie globale qui
permette une mesure des fonds propres nécessaires pour couvrir le risque
de crédit encouru et l'évaluation de produits
dérivés relatifs à ces risques.
|