III.2.1.2. AU-DELÀ DU MODÈLE
SCHÉMATIQUE : LE MODÈLE ÉCONOMÉTRIQUE (CHOIX
ET JUSTIFICATION DES VARIABLES, SOURCE DE DONNÉES, HORIZON TEMPOREL ET
SPÉCIFICATION DU MODÈLE)
Pour ce qui est du choix des variables et de leur
justification, nous nous inspirons des déterminants de la
rentabilité des actifs bancaires développés par Molyneux
et Thornton (1992), Demirguç-Kunt et Huizinga (1999), Tanimoune (2001et
2003), Yao(2002), Nembot et Ningaye (2007) et Mansouri et Afroukh (2008).
- La rentabilité des actifs (ROA) apparaît comme
variable expliquée. Elle est mesurée
par le ratio résultat net sur total actif. Cet indicateur fait ressortir
le profit bancaire.
- Les variables explicatives
reflètent les points sur lesquels s'étaient accentuées les
réformes et qui peuvent influencer la rentabilité bancaire des
pays de la zone : structure du capital, privatisations, maîtrise du
risque bancaire, le problème de la concurrence des banques, la faible
représentation des banques nationales entre autres réformes. Ces
variables peuvent être classées en trois groupes :
déterminants managériaux, déterminants
macroéconomiques et macro financiers.
Ainsi nous avons comme :
1-variables managériales,
- la structure du capital social (SCAPITAL) mesurée par
la proportion du capital social détenue par le secteur privé.
Elle symbolise le processus de privatisation bancaire dans la
sous-région ;
- la gestion du capital (CAPAST) mesurée par le ratio
total des capitaux propres sur actif total qui, d'après
Demirguç-Kunt et Huizinga (1999), traduit le développement
interne de la banque. En zone CEMAC, cette variable reste capitale car elle
permet de montrer si la qualité de gérer le capital influence la
rentabilité ;
- la proportion des crédits bancaires dans l'actif
(PROCRE) captée par le ratio crédit sur total actif ; il
capte la fragilité de la banque et la contribution des crédits
dans l'accroissement de l'actif ;
- le ratio des dépenses d'exploitation (RADEP)
mesuré par le ratio charges générales sur total
actif ; ces dépenses traduisent la mise en valeur des
ressources de la banque ;
2- variables macro
financières,
- l'indice de risque (RISQ) est mesuré par le ratio
total des crédits sur total des dépôts. Il est
utilisé comme le proxy du risque bancaire (Civelek et Al-Alami,
1991 ; Talom, 2004) son intégration renvoie à
l'instabilité dans le système bancaire;
- la taille du secteur bancaire (ACTPIB) qui est
mesurée par le ratio total actif du secteur bancaire sur PIB. Plus cette
taille est importante, plus les banques contribuent à la
croissance ;
- l'indice de concentration (CR). Il s'agit de calculer pour
le système bancaire de chaque pays un indice de concentration pour les
banques qui dominent l'activité d'intermédiation. Ce qui favorise
les économies d'échelle et l'efficacité des banques
(Berger, Humphrey et Smith, 1993). C'est le rapport entre les
dépôts des banques considérées et l'ensemble des
dépôts du système bancaire proxy de l'Indice
d' Herfindahl-Hirschmann
(IHH). Il permet de mesurer le pouvoir de monopole
dans l'industrie bancaire ;
3-variables macroéconomiques,
- la croissance économique a été l'un des
points importants des réformes. Puisqu' au cours de cette
période, le PIB de la sous-région était très bas.
Elle est mesurée par le logarithme du PIB réel par
tête (LOGPIB). On cherche à capter l'apport de cette variable
dans la rentabilité des actifs ;
- l'inflation a ébranlé la croissance
économique pendant plusieurs décennies en zone CEMAC. Elle est
captée par le taux d'inflation (INF). Mais depuis 1996, l'inflation a
nettement diminué faisant de la zone CEMAC un modèle en
matière de maîtrise d'inflation ;
- la masse monétaire au sens de M2 a aussi
influencé la rentabilité des actifs des banques de la
sous-région au cours des réformes. Le logarithme de ses variables
sera ainsi pris en compte (LOGM2).
Ayant présenté ces variables, nous utiliserons
les bases de données de la BEAC (contenues
dans Data indicator 2005) et de la COBAC (tirées des différents
rapports d'activité) afin d'estimer le modèle. La
période d'étude s'étend sur 16 ans (1990-2005)
avec une rupture en 1994. Cette séparation tire sa justification du fait
que c'est en 1994 que les réformes adoptées lors du conseil
d'administration de la BEAC du 16 octobre 1990 ont été mises en
oeuvre. Cette date a aussi marqué la période de la
dévaluation du franc CFA qui a nécessairement impacté dans
les économies de la CEMAC, en rétablissant dans leur
majorité leur balance de paiement, mais en réduisant le pouvoir
d'achat des ménages. Enfin, cette période a marqué le
renforcement des PAS qui devaient entamer une phase décisive :
baisse des salaires, privatisation et réduction du nombre de
travailleurs de la fonction publique.
En nous servant des variables décrites, le
modèle prend la forme suivante :
ROAit = â0 + â1it
SCAPITALit + â2it CAPASTit +
â3it PROCREit + â4it RADEP
it + â5it RISQit + â6it
ACTPIBit+ â7it CRit +
â8it LOGPIBit+ â9it INFit
+ â10it LOGM2 it +u it.
(1)
A l'issue de cette spécification, il convient à
présent d'estimer le modèle et d'analyser les
résultats.
III.2.2. Estimations et analyse des
résultats
La finalité d'une démarche empirique tient sur
deux facteurs : l'estimation du modèle mais surtout l'analyse des
résultats ou leur commentaire. Cette phase aboutit à la
validation ou à l'infirmation de l'hypothèse de départ.
Cette étude retient comme méthode d'estimation, la technique des
données de panel et s'inscrit dans une logique dynamique des
réformes en estimant deux modèles, un avant les réformes
et un autre après.
III.2.2.1. Méthode d'estimation : la
technique des données de panel et les tests
nécessaires
L'estimation du modèle (1) se fait à travers
la technique des données de panel. Les
données de panel offrent ainsi un avantage incontournable parce qu'elles
prennent en compte au moins deux dimensions, spatiale et temporelle. Ainsi, on
fixe un individu observé qui peut être un pays de la CEMAC, on
obtient la série chronologique ou coupe longitudinale le concernant. Si
c'est la période examinée qui est fixée, on obtient une
coupe transversale ou instantanée pour l'ensemble des individus.
Grâce à une équation économétrique de type Y=
a + b X + c Z+ å, cette relation prend la forme Yit = a + b
Xit + c Zit + åit. pour l'observation
it, c'est-à-dire l'individu i à la période t. La
modélisation particulière porte uniquement sur la
spécification des aléas åit. La forme de base
s'écrit simplement : åit = ui +
vt + wit, où ui désigne un terme
constant au cours du temps, ne dépendant que de l'individu i ;
vt un terme ne dépendant que de la période t et
wit un terme aléatoire croisé. La suite qui
résume les techniques d'estimation dépend des hypothèses
retenues quant aux composantes ui, vt et wit
et à leur relation.
Tout d'abord, une méthode simple peut être
utilisée en appliquant directement les M.C.O. sur les données
empilées (Pooled Least Squares), sans se préoccuper de leur
nature ni de celle de l'aléa. Ensuite, les modèles à
effets fixes (fixed effects) qui supposent que ui, et vt
sont des effets constants non aléatoires, qui viennent donc simplement
modifier la valeur de l'ordonner de l'équation selon les valeurs de i et
de t. Ce modèle ressort la variabilité intra-individuelle
(estimateur within). Si on suppose que les perturbations aléatoires
croisées wit satisfont aux hypothèses classiques
des M.C.O. c'est-à-dire centrées,
homoscédastiques, indépendantes, et normales, les estimations
sont optimales. Enfin, il peut être important d'estimer un modèle
à effets aléatoires encore appelé modèle à
erreur composée, qui suppose les ui et vt
aléatoires. Dans ce modèle, l'hypothèse nulle est la non
corrélation entre les termes d'erreur et les variables explicatives. On
aboutit à une variabilité inter-individuelle (estimateur
between).
Le test qui permet de sélectionner le modèle est
celui de Hausman. Ce test est fondé sur l'hypothèse de non
corrélation entre les termes d'erreur et les variables explicatives
(hypothèse du modèle à effets aléatoires). Si la
probabilité du test est supérieure à un seuil de 5%
préalablement choisi et bien justifié, alors on conclut au non
rejet de l'hypothèse nulle, prendre ainsi le modèle à
effets aléatoires.
Après avoir présenté cette technique, il
est utile d'estimer les modèles, de présenter les
résultats et de les commenter.
|