a. Test de
multicolinéarité
On parle de multicolinéarité lorsque deux ou
plusieurs variables indépendantes ont une relation linéaire
parfaite ou presque parfaite. Cette relation pose problème dans la
mesure où la mesure de l'influence réelle des variables
explicatives prises individuellement est rendue difficile par l'existence de
variables redondantes qu'il conviendra d'éliminer.
Ainsi, lorsqu'un modèle possède plusieurs
séries explicatives liées entre elles, cela conduit à
diverses conséquences (Bourbonnais, 2015) à savoir, une
augmentation de la variance estimée de certains coefficients de
régression, une instabilité des estimations des coefficients des
moindres carrés, un problème d'identification des coefficients
qui sont indéterminés et de variance infinie dans le cas d'une
multicolinéarité parfaite. Il existe différents tests
permettant de déceler une multicolinéarité entre les
variables explicatives d'un modèle et parmi eux, le test de Klein (1962)
et le test de Farrar et Glauber (1967). Nous optons pour le test de Klein, qui
compare le coefficient de détermination de la variable à
expliquer R2y avec les coefficients de corrélation
simple r2xi,xj entre les variables explicatives. La
règle de décision est : si R2y est
inférieur à r2xi,xj, ou si les variables du
test présentent un coefficient supérieur ou égal à
0,8, il y a présomption de multicolinéarité.
Tableau 2 : Test de multicolinéarité
Variables
|
CS
|
EXP
|
IDE
|
INF
|
INST
|
INSTxCS
|
CREDIT
|
CS
|
1.000000
|
0.252161
|
0.099856
|
0.175612
|
-0.127173
|
0.966688
|
0.092555
|
EXP
|
0.252161
|
1.000000
|
0.558814
|
-0.043593
|
-0.479200
|
0.130600
|
0.019055
|
IDE
|
0.099856
|
0.558814
|
1.000000
|
-0.032035
|
-0.108207
|
0.069199
|
0.071847
|
INF
|
0.175612
|
-0.043593
|
-0.032035
|
1.000000
|
-0.091216
|
0.152541
|
0.106804
|
INST
|
-0.127173
|
-0.479200
|
-0.108207
|
-0.091216
|
1.000000
|
0.122569
|
-0.031357
|
INSTxCS
|
0.966688
|
0.130600
|
0.069199
|
0.152541
|
0.122569
|
1.000000
|
0.077661
|
CREDIT
|
0.092555
|
0.019055
|
0.071847
|
0.106804
|
-0.031357
|
0.077661
|
1.000000
|
Source : auteur à partir des
données de l'étude
Le tableau ci-dessus présente les variables pouvant
traduire unproblème de multicolinéarité. A cet effet, nos
résultats (annexe 1) montrent qu'il existe une présomption de
multicolinéarité entrele changement structurel et la variable
d'interaction entre changement structurel et qualité institutionnelle,
ce qui pourrait s'expliquer par le fait que cette variable intègre le
changement structurel.
La correction des problèmes de
multicolinéarité peut se faire de plusieurs
manières : en retirant les variables explicatives fortement
corrélées du modèle grâce à la regression pas
à pas (Hocking, 1976 ; Bourbonnais, 2015), la regression sur les
meilleurs sous-ensembles ou nos propres connaissances ; en utilisant la
méthode des moindres carrés partiels qui permet de réduire
le nombre de variables indépendantes à un ensemble de variables
non corrélées (Helland 1990).
La méthode la plus efficace ici serait de retirer les
variables indépendantes susceptibles d'expliquer les mêmes
phénomènes afin d'éviter un effet de masque (Bourbonnais,
2015).
Cependant, pour la suite de notre travail, les variables
concernées ne sauraient être ignorées, étant
directement impliquées dans la résolution de notre
problématique. De plus, Allison (2012) montre qu'en cas de
multicolinéarité entre une variable d'interaction et ses
composantes, il est tout à fait possible et non risqué d'ignorer
la multicolinéarité car la p-value de cette variable
d'interaction n'est pas affectée par ce phénomène, et ce
même si on tente de réduire les corrélations en centrant
les variables. Nous choisissons donc de conserver toutes les variables et de
mener notre estimation malgré la présomption de
multicolinéarité.
|