WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

La question de la performance des banques africaines au Cameroun.


par Jean Pierre Dany Menguele
Institut des Relations Internationales du Cameroun - Master professionnel en relations internationales 2017
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2: Mesure du risque bancaire

Les établissements financiers sont exposés de par leurs activités à de nombreux types de risque. L'évaluation et la couverture de ces risques nécessitent la plupart du temps de faire appel aux mathématiques, ce qui permet de formaliser et de quantifier le risque identifié.

Ainsi, depuis le début des années 70, a-t-on vu se développer de nombreux outils dans le domaine des probabilités et du calcul stochastique afin de répondre à la demande croissante des marchés financiers. Les travaux réalisés jusqu'ici se sont surtout concentrés sur les méthodologies d'évaluation et de couverture des produits comportant des risques de marché. La tendance actuelle est à l'élaboration de méthodes équivalentes pour le traitement du risque de crédit. L'état de l'art distingue pour le moment trois approches.

La première, connue sous le nom d'approche structurelle ou modèle de la firme, date de 1974 avec Robert Merton55. Son approche est proche de celle de la théorie des options. Elle repose entre autres sur l'idée que les prix des actifs contiennent l'ensemble de l'information accessible. Sous cette hypothèse, les actions et les obligations risquées émises par une société apparaissent comme des options dont on peut évaluer le prix. L'article de Merton a constitué la base de toute la littérature sur le risque de crédit. Néanmoins, l'approche semble quelque peu irréaliste. Elle suppose en effet que la faillite n'est constatée qu'à l'échéance de la dette, et que la firme est éventuellement liquidée pour permettre son remboursement. Il apparaît donc plus raisonnable de supposer qu'il existe un seuil pour la valeur de la firme au-dessous duquel elle se déclare en faillite. Cette hypothèse, que l'on trouve pour la première fois dans l'article de Black et Cox (1976)56, nécessite cependant une spécification du seuil de faillite. On peut par ailleurs douter que ce seuil soit constant au cours du temps, comme on le verra plus tard dans Longstaff et Schwartz, et ne dépende pas de l'évolution de la structure des taux.

55 Robert Merton, On the pricing of corporate debt: the risk structure of interest rate, 1974

56 Fisher Black, John c. Cox, Valuing corporate securities : some effects of bond indenture provisions, the journal of finance, May 1976

52

La seconde approche se base sur les statistiques d'agences de notation telles que Moody's et Standard & Poor's. C'est la méthodologie la plus fréquemment utilisée aujourd'hui dans les banques pour mesurer le risque de crédit. Elle fut introduite pour la première fois en 1994 par JP Morgan dans un document technique intitulé CreditMetrics57. L'objectif recherché est de mesurer la variation de la valeur future d'un portefeuille liée à la modification de la qualité de crédit (elle-même étant reflétée à travers la notation publiée par les agences) des contreparties des instruments en portefeuille.

Les variations de la valeur future sont représentées statistiquement par la distribution de probabilités des valeurs à l'horizon. Typiquement, cette distribution n'est pas symétrique et présente une queue de distribution plus épaisse du côté des pertes que du côté des gains : concrètement, la probabilité de perdre beaucoup d'argent sera forte et celle de réaliser des gains sera faible. Dans ces conditions, l'écart type de la distribution est une mesure de risque assez mal adaptée, car symétrique. Une mesure de risque plus adaptée est celle des quantiles, c'est à dire la mesure d'une VAR à 1% par exemple.

Enfin, la troisième et dernière approche dite approche par intensité est beaucoup plus récente. Elle est le sujet de nombreux travaux (dont ceux de Longstaff et Schwartz) et offre des perspectives intéressantes tant pour la construction de courbes de taux risqués que pour le pricing de produits dérivés. Le défaut d'une firme dans cette approche est vu comme un événement qui ne peut pas être lu dans les prix. Il est donc modélisé comme un processus ayant une intensité, c'est à dire un taux instantané d'occurrence. La mesure du risque de crédit et l'évaluation des produits dérivés liés à ce risque occupent aujourd'hui une importance capitale aussi bien dans les travaux de recherche académique que dans les cellules de recherche des établissements financiers. Il s'agit aujourd'hui de mettre en place une méthodologie de référence pour l'obtention d'une courbe de taux risqués, le pricing de produits dérivés58 liés à cette courbe, et la mesure des risques encourus liés à la qualité de crédit des émetteurs. En ce qui concerne le pricing des dérivés de crédit, la tendance actuelle privilégie une approche par intensité plutôt que l'approche structurelle introduite par Merton. Cette approche qui est certainement plus

57 JP Morgan, CreditMetrics-Technical Document, 1997

58 Un Pricing est la recherche de l'inconnue caractérisant un instrument financier. Pour une obligation, cela sera par exemple la recherche du prix de celle-ci, à partir des flux futurs et de la courbe zéro-coupon. Pour une option vanille, cela sera par exemple la recherche de la prime, à partir des déterminants du contrat (prix actuel du sous-jacent, prix d'exercice, échéance, volatilité, dividendes, taux d'intérêt). Ce travail est généralement dévolu à un structureur mais peut également être délégué à un vendeur si celui-ci a accès aux outils de pricing de la banque. Un Pricing peut être plus ou moins long, de quelques secondes à plusieurs heures, en fonction de la complexité du produit recherché.

53

simple à calibrer à partir des données de marché est également plus simple d'utilisation pour des agents financiers.

Toutefois, aucun consensus n'est encore trouvé sur les hypothèses d'arbitrage et de complétude à faire dans un monde avec défaut. De manière plus générale, c'est l'information disponible sur les marchés qu'il est délicat de modéliser. D'énormes travaux sont donc encore à réaliser pour aboutir à une méthodologie globale qui permette une mesure des fonds propres nécessaires pour couvrir le risque de crédit encouru et l'évaluation de produits dérivés relatifs à ces risques.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'ignorant affirme, le savant doute, le sage réfléchit"   Aristote