II.3 Estimation des paramètres du
modèle
Dans cette partie nous allons présenter que les
estimations des traitements. L'estima-tion nous permettra de faire un jugement
du modèle par rapport à son ajustement des donnèes
réelles. D'aprés le modèle IV.1, nous avons les
estimations par site :
Tableau IV.4 - Tableau d'estimation des
traitements à NDIAYE
|
Value
|
Std.Error
|
DF
|
t-value
|
p-value
|
(Intercept)
|
8.4750
|
0.4809917
|
141
|
17.619847
|
0.0000
|
T10
|
-0.5075
|
0.6798613
|
141
|
-0.746476
|
0.4566
|
T11
|
-0.3500
|
0.6798640
|
141
|
-0.514809
|
0.6075
|
T12
|
0.6925
|
0.6798647
|
141
|
1.018585
|
0.3101
|
T2
|
0.5850
|
0.5766341
|
141
|
1.014508
|
0.3121
|
T3
|
-1.0550
|
0.6525463
|
141
|
-1.616744
|
0.1082
|
T4
|
0.1775
|
0.6723107
|
141
|
0.264015
|
0.7922
|
T5
|
0.5650
|
0.6777536
|
141
|
0.833636
|
0.4059
|
T6
|
0.3975
|
0.6792731
|
141
|
0.585184
|
0.5594
|
T7
|
-0.1325
|
0.6796990
|
141
|
-0.194939
|
0.8457
|
T8
|
-3.4275
|
0.6798184
|
141
|
-5.041788
|
0.0000
|
T9
|
0.9250
|
0.6798519
|
141
|
1.360590
|
0.1758
|
II. APPROCHE PAR MAXIMUM DE VRAISEMBLANCE
25
?H0 : uj =
uj? H1 :
uj =?uj'
Tableau IV.5 - Tableau d'estimation des traitements
à FANAYE
|
Value
|
Std.Error
|
DF
|
t-value
|
p-value
|
(Intercept)
|
7.3375
|
0.5959033
|
141
|
12.313239
|
0.0000
|
T10
|
-0.6800
|
0.7906813
|
141
|
-0.860018
|
0.3912
|
T11
|
-0.7400
|
0.7906813
|
141
|
-0.935902
|
0.3509
|
T12
|
-0.1825
|
0.7906813
|
141
|
-0.230814
|
0.8178
|
T2
|
0.0475
|
0.7678958
|
141
|
0.061857
|
0.9508
|
T3
|
0.2850
|
0.7894046
|
141
|
0.361032
|
0.7186
|
T4
|
-0.1450
|
0.7906088
|
141
|
-0.183403
|
0.8547
|
T5
|
-1.1825
|
0.7906771
|
141
|
-1.495554
|
0.1370
|
T6
|
0.1325
|
0.7906810
|
141
|
0.167577
|
0.8672
|
T7
|
-0.3400
|
0.7906812
|
141
|
-0.430009
|
0.6678
|
T8
|
-4.5225
|
0.7906813
|
141
|
-5.719751
|
0.0000
|
T9
|
0.3125
|
0.7906813
|
141
|
0.395229
|
0.6933
|
Remarque :
Sous R (Version 2.9.2), la paramétrisation par
défaut se fait avec une cellule de référence ou niveau
« contrôle ». L'ecart du niveau j au niveau 1
est donné par :
a = u - u1
où u1 est la moyenne de cellule
de référence. On aura donc p - 1
paramètres à estimer.
II.4 Test de Comparaison multiple des différents
traitements
L'objectif de cet essai est de déterminer le(s)
meilleur(s) traitement(s). L'analyse de la variance du modèle nous donne
une différence significative entre ces traitements. Une question suscite
par rapport à cette différence, quels sont les traitements qui se
diffèrent des autres? pour répondre à cette question, on
fait recours aux tests de comparaisons de moyennes multiples. Diverses
méthodes existent, dont le PPDS (Plus Petite différence
si-gnificatve), Duncan, Newmans-Keuls, Tuckey, Dunett, Gupta et Van Der
Waerden. Nous utiliserons le PPDS, test paramètrique et le test de Van
Der Waerden, test non para-mètrique pour comparer les traitements qui
sont significativement diffèrents d'aprés le
modéle.
PPDS (plus petite différence significative) avec
correction de Bonferroni Ce test est plus connu sous le nom LSD (Least
Significant Difference), l'un des tests les plus utilisé en agronomie
(Gomez and Arturo, 1984), pour une comparaison par paire de traitements dont
les hypothéses sont :
xj -
xj,
|
? Student
|
?SCRi-SCRi,
ni+ni,+2 (
ni 1 +ni, 1
)
|
26 CHAPITRE IV. APPLICATIONS
On utilisera la quantité :
t.j =
qui fournie la p-value a' à comparer
avec le risque de première espèce a si la p-value est
plus petite que a, on rejette l'hypothèse nulle. Pour p
> 2 traitements, il effectue
p(p -
1)/2 tests, cela implique que, plus
on multiplie les tests plus on augmente nos chances de conclure à tort.
D'òu la necessité de recourir à des corrections telles que
Bon-ferroni :
- Idèe : même principe (test t), en
corrigeant le risque a en fonction du nombre de
comparaisons
- Pour m comparaisons, on fixe?
m, a =
0.05, comme risque de première
espèce pour chacun des tests.
- Intérêt : rapide et simple à
réaliser; donne un apperçu global de l'ensemble des
différences de moyennes considérées comme
significatives.
Test de Van Der Waerden
C'est un test non paramètrique qui transforme
les rangs en quantile de la loi normale que l'on nomme scores normaux. Cette
approche est utilisée lorsque la distribution des observations est
proche de la loi normale. Aprés avoir rangé toutes les
observations du plus petit au plus grand, calculé la somme des scores
intra groupe par :
avec
{ 1 si k E groupei
8k = 0 sinon
où
ak = ?-1(
Rk
N + 1)
la statistique est :
Rejet de H0 : pas de
différence entre les groupes au seuil a si
C > X2 ?,t-1
?t i=1(Ti -
àE0[Ti])2/ri
C = S2
où :
àE0[Ti]
= ria
S2 = 1
N - 1
|
?N k=1
|
?k(ak-)2
|
III. RÉSULTATS ET DISCUSSIONS 27
|