Beruflich Dokumente
Kultur Dokumente
Multi-colinéarité, hétéroscédasticité et
autocorrélation
Soussi Noufail Outmane
@ 2015
Plan du cours
› 𝐻3 du MC stipule que les erreurs sont non corrélées (ou indépendantes). Lorsque
𝐻3 est violée, nous sommes donc en présence d’autocorrélation des erreurs.
Définition
› C’est la «corrélation entre éléments de séries ou d’observation rangés dans le
temps ou dans l’espace ». Dans le cadre de la régression, le MC linéaire suppose :
𝐸(𝑢𝑖 , 𝑢𝑗 ) = 0 pour 𝑖 ≠ 𝑗.
› Le MC suppose que le terme d’erreur relatif à toute observation n’est pas influencé
par celui de toute autre observation.
Exemples :
› Si une grève affectant le facteur travail se produit dans un trimestre, il n’y a pas
raison de croire que cette interruption sera poursuivie au trimestre suivant (temps).
› En analysant la relation entre consommation et revenu, l’effet de la hausse du
revenu d’une famille sur sa consommation n’est pas supposé affecter la
consommation d’une autre famille (espace).
› Autocorrélation des aléas existe : alors 𝐸(𝑢𝑖 , 𝑢𝑗 ) ≠ 0 pour 𝑖 ≠ 𝑗.
Nature de L’autocorrélation des erreurs
Distinction 1
› La corrélation entre deux séries temporelles : [𝑢1 , 𝑢2 , … , 𝑢9 et 𝑢2 , 𝑢3 , … , 𝑢10 ] c’est
la même série décalée d’une période : est appelée autocorrélation.
› La corrélation entre deux séries temporelles : [𝑢1 , 𝑢2 , … , 𝑢9 et 𝑣2 , 𝑣3 , … , 𝑣10 ] ou 𝑢
et 𝑣 deux séries différentes: est appelée corrélation sérielle.
Représentation graphique de l’autocorrélation
Nature de L’autocorrélation des erreurs
Pas d’autocorrélation
Sources de L’autocorrélation des erreurs
› L’inertie : les séries chronologique (PIB, indices de prix, ..) sont sujette à des
cycles (fluctuations). La majorité de ces séries s’orientent à la hausse, il y a donc
une « force d’impulsion ».
› Le biais de spécification (cas de variables exclues) :
Soit le modèle suivant :
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡
Avec 𝑌 : la quantité demandée de bœuf; 𝑋2 : le prix du Bœuf; 𝑋3 : le revenu du
consommateur; 𝑋4 : le prix du volaille; 𝑢𝑡 : le terme d’erreur.
Supposons : avoir estimer le modèle : 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝑣𝑡
Donc si le modèle de départ est correcte, cela suppose que 𝑣𝑡 = 𝛽4 𝑋4𝑡 + 𝑢𝑡
Dans la mesure où la consommation du bœuf est affectée par le prix de volaille, alors
𝑣𝑡 aura une configuration systématique, créant une fausse autocorrélation ce qui
complique sa détection
Sources de L’autocorrélation des erreurs
› Le biais de spécification (cas de variables exclues) :
› D’après la théorie du producteur, la relation suivante est vrai :
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋2𝑖 ² + 𝑢𝑖 avec 𝑌𝑖 : le coût marginal 𝑋2𝑖 : la production.
› Supposons: avoir estimer le modèle : 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝑣𝑖 . Cette forme linéaire
n’est pas appropriée et cette droite surestime/sous-estime le véritable coût
marginal.
› Ce résultat est attendu: 𝑣𝑖 = 𝛽3 𝑋2𝑖 ² + 𝑢𝑖 .
› Dans ce cas 𝑣𝑖 reflétera l’autocorrélation à cause de la mauvaise spécification du
modèle.
› Le phénomène de cobweb (toile d’araignée)
› Ce modèle introduit de façon très simple la question de la stabilité de l’équilibre
dans un modèle de concurrence pure et parfaite. L’idée est de supposer que l’offre
s’adapte avec une période de retard aux variations du prix. (les retards)
𝑂𝑓𝑓𝑟𝑒𝑡 = 𝛽1 + 𝛽2 𝑃𝑟𝑖𝑥𝑡−1 + 𝑢𝑡
Sources de L’autocorrélation des erreurs
› Le phénomène de cobweb (toile d’araignée)
𝑂𝑓𝑓𝑟𝑒𝑡 = 𝛽1 + 𝛽2 𝑃𝑟𝑖𝑥𝑡−1 + 𝑢𝑡
› Dans la régression de la consommation sur le revenu, il est fréquent d’observer que
la consommation de la période courante dépend de celle de la période antérieure.
𝐶𝑡 = 𝛽1 + 𝛽2 𝑅𝑡 + 𝛽3 𝐶𝑡−1 + 𝑢𝑖
› Les consommateurs ne modifient pas facilement leurs consommations, si on
néglige la terme retardé, le terme d’erreur résultant reflètera une configuration
systématique.
› La non-stationnarité
› Voir le chapitre des séries chronologiques
Nature de L’autocorrélation des erreurs
Distinction 2
› Autocorrélation positive
› Autocorrélation négative
Représentation graphique de l’autocorrélation
Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.
PRODUCTION
100
(1) La méthode graphique
.3 80
.2
60
.1
40
.0 60 70 80 90 100 110 120 130
.06 SALAIRE
-.1
-.2
.04
-.3
1960 1965 1970 1975 1980 1985 1990 1995 2000 2005
.02
RESID_STAND RESID
RESID
.00
-.04
La plus part des résidus sont groupés dans les
deuxième et le quatrième quadrants, ce qui -.06
C’est le ratio de la somme des carrées des différences dans les résidus successifs à la
SCR
Hypothèses sous jacentes à la statistique 𝑑:
1. Le modèle comporte une valeur en ordonnée à l’origine.
2. Les variables explicatives ne sont pas stochastiques.
3. Les erreurs sont produites par un processus AR(1)
4. Les erreurs sont supposé avoir une distribution normale.
5. Le modèle de régression ne contient pas des valeurs retardées de la
variable dépendante ou l’une de variable explicative.
6. Dans les données, il n’y a pas d’observation omise
La détection de l’autocorrélation
(2) Le test de Durbin et Watson (construction)
La distribution exacte de ce test est difficile à trouver, car il dépend des valeurs de
𝑋𝑡 , car 𝑑 est calculée à partir des 𝑢𝑡 . Il n’y a pas de valeur critique unique menant à
l’acceptation ou au rejet de 𝐻0 (n’existe pas une corrélation sérielle positive ou
négative).
Cependant DW ont dérivé une limite inférieur 𝑑𝐿 et 𝑑𝑈 une limite supérieur, de telle
que si 𝑑 calculé se situe en dehors de ces valeurs critiques, on peut prendre une
décision sur la présence d’une corrélation sérielle positive ou négative.
Ces limites dépendent
seulement de 𝑛 et 𝑘
(nombre de paramètres)
la table de 𝐷𝑊
s’étendent de 6 à 200 et
jusqu’à 20 variables.
La détection de l’autocorrélation
(2) Le test de Durbin et Watson (procédure du test)
𝑡=𝑛 𝑡=𝑛 2 𝑡=𝑛 2 𝑡=𝑛
𝑡=2 (𝑢𝑡 − 𝑢𝑡−1 )² 𝑡=2 𝑢𝑡 + 𝑡=2 𝑢𝑡−1 + 2 𝑡=2 𝑢𝑡 𝑢𝑡−1
𝑑= 𝑡=𝑛 = 𝑡=𝑛
𝑡=1 (𝑢𝑡 ) ² 𝑡=1 (𝑢𝑡 ) ²
𝑡=𝑛
𝑡=𝑛 2 𝑡=𝑛 2 𝑡=2 𝑢𝑡 𝑢𝑡−1
Puisque 𝑡=2 𝑢𝑡 ≈ 𝑡=2 𝑢𝑡−1 on peut écrire : 𝑑 = 2 1 − 𝑡=𝑛 𝑢 2
=2 1−𝜌
𝑡=1 𝑡
› Calculer 𝑑
dl du 4-dl 4-du
0 4
d=0,1738
Remarque :
Si un modèle contient une des valeur (s) décalée (s) de la variable dépendante, le test
𝑑 s’établit souvent autour de 2, ce qui suggère l’absence d’autocorrélation (premier
ordre). Ce sui signifie que les modèle AR ne souffrent pas d’autocorrélation.
En fait Durbin à construit le test ℎ pour tester la corrélation sérielle dans de tels
modèles. Cependant, ce test n’est pas aussi puissant.
Les remèdes de l’autocorrélation des erreurs
› Essayer de trouver s’il s’agit d’une autocorrélation pure et non le résultat d’une
mauvaise spécification du modèle.
salaires réels a diminuer 0,75 unités par an. C 0.113409 0.308559 0.367543 0.7150
Après prise en compte de fait, si l’indice de la LOG(PRODUCTION)
@TREND
1.028295
-0.007528
0.077552
0.001539
13.25937
-4.890317
0.0000
0.0000
productivité augmentait d’une unité, en R-squared 0.990015 Mean dependent var 4.490151
moyenne l’indice des salaires réels croit de Adjusted R-squared
S.E. of regression
0.989551
0.017903
S.D. dependent var
Akaike info criterion
0.175142
-5.144691
1,01 unités. Ce qui est intéressant à noter est Sum squared resid 0.013782 Schwarz criterion -5.025431
› Au lieu d’utiliser la MCG, on peut utiliser la MCO, mais corriger les écarts-types
de l’autocorrélation par un procédé développé par Newey et West.
› Les écarts-types corrigés sont nommés par (écarts-types cohérents avec
hétéroscedasticité et autocorrélation) écarts–types CHA de Newey-West.
› Eviews effectue cette correction.
› Il est a signalé que ce procédé est réservé au grands échantillons
HAC standard errors & covariance (Bartlett kernel, Newey-West fixed
Exemple : Salaire Productivité bandwidth = 4.0000)