3.3 Estimation des paramètres
Il existe un grand nombre de méthodes d'estimation qui
peuvent être classées en deux grandes catégories
générales : les méthodes d'estimation utilisant
directement les données et les méthodes qui n'utilisent les
données qu'à travers des transformations de celles-ci en
résumés statistiques. Parmi les méthodes de la
première classe nous citons en particulier la méthode du maximum
de vraisemblance et ses différentes approximations (ces approximations
sont astreintes à préserver quelques propriétés
asymptotiques telles que la convergence et l'efficacité asymptotique) et
la méthode des moindres carrés et ses variantes. La
méthode du maximum de vraisemblance est conditionnée par
l'hypothèse de normalité des processus sous-jacents. Si cette
hypothèse n'est pas vérifiée, il est possible d'utiliser
cette méthode comme si l'hypothèse de normalité
était vérifiée, l'estimateur ainsi obtenu est dit
estimateur du quasi (ou pseudo) maximum de vraisemblance. Parmi les
méthodes de la seconde classe, probablement l'approche commune consiste
à transformer les données en un ensemble fini de
résumés statistiques (moyenne empirique, covariance empirique)
sur la base de quoi on estime les paramètres du modèle
(estimateur de Yule-Walker, estimateur de Durbin-Levinson,...). Concernant
l'estimation des modèles ARMA, la méthode des moindres
carrés (conditionnelle et non conditionnelle) fut l'une des
premières utilisées et avait montré des résultats
satisfaisants, mais le besoin croissant de l'analyse des séries
chronologiques a eu pour conséquence, la naissance de nouveaux
problèmes pour lesquels cette méthode est devenue aussi loure
qu'imprécise. Avec l'amélioration des performances des
ordinateurs ainsi que l'apparition de nouveaux algorithmes, la méthode
du pseudo maximum de vraisemblance s'est révélée d'une
importance capitale grâce à ces propriétés
désirables tant du point de vue théorique que pratique. En effet,
cette méthode a donné beaucoup de satisfaction aussi bien pour la
précision des résultats obtenus que pour la stabilité et
la rapidité des calculs. Son principe consiste à optimiser, donc
à évaluer plusieurs fois, une fonction non linéaire dont
l'expression explicite
n'est pas connue, en inversant à chaque
itération une certaine matrice. Plusieurs algorithmes ont vu le jour,
afin de palier aux carences dû à l'inversion des grandes matrices,
pour justement réduire le temps de calcul et l'espace mémoire. Le
schéma 3:1 donne un aperçu sur les différentes
méthodes d'estimation utilisées (maximum de vraisemblance,
moindre carrés, critère Bayesien...) et les modèles
identifiés (AR, MA, ARMA,...).
|