Beruflich Dokumente
Kultur Dokumente
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
2 Estimation des paramtres et tests dhypothses. Principes gnraux 2.1 Estimation : relations entre les coefcient de rgression et les paramtres thoriques . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Le principe . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Les tests dhypothses . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Test de lhypothse c = 0 : F global . . . . . . . . . . . 2.2.2 Test de lhypothse k = 0 : t-test . . . . . . . . . . . . .
23 25 25 28 33 33 35
3 Tests de restriction linaires et variables muettes 39 3.1 Tests de restriction linaires sur les paramtres du modle . . . . . 39 3.1.1 Approche gnrale . . . . . . . . . . . . . . . . . . . . . 39 3.1.2 Applications : tests de changement structurel . . . . . . . 44 3
49 49 51 52 53 55 55 57 59 62 65 65 65 68 71 74 77 77 79 83 89 95
. . . . . . . .
. . . . . . . .
(1.1) LOY ER = 1 + 2 NBREpers + 3 NBREch + 4 Sexe + 5 DIST qui est du genre : y = 1 x1 + 2 x2 + 3 x3 + 4 x4 + 5 x5 avec x1 :variable constante, prenant toujours la valeur 1, do : y = 1 + 5 k xk k=1 Sil ny a quune seule variable explicative (en plus de la constante) on a une rgression linaire simple, autrement il sagit dune rgression linaire multiple. exemple 2 (Pindick et Rubinfeld 1999) : dpenses trimestrielles en voitures neuves (DeV oitN) et salaires trimestriels (Salaires) (Ex3-3) 5
TAB . 1.1 variables y et xi Et en particulier, la matrice des observations concernant les variables indpendantes est note X(N,K) . Do, tant donns y et X : calculer les coefcients de rgression, cest dire les paramtres de la relation linaire. colonne k de X : note xk ligne i de X : note xi Soit (1 , 2 , ..., K ) = vecteur quelconque, pour lobservation i, on compare yi et 1 + K k xik , gnralement diffrents, soit ei cet cart : ei = yi 1 + k=2 K k xik Lajustement par les moindres carrs consiste minimiser la somme k=2 des carrs des carts :
N K 2
min
i=1
yi 1
k xik
k=2
Calcul des coefcients de la rgression : Soit e le vecteur des carts : e = y X do la somme des carrs des carts
N
ee=
i=1
do
d(e e) d
Economtrie applique y
yi yi y = 1 + 2 x2
1.2 Interprtation
1.2.1 Rgression linaire simple
y = 1 + 2 x2 1 x12 . . = . . . . 1 xN 2 yi i xi2 yi
i
X X =
x1 x2
x1 x2
1 ... 1 x12 . . . xN 2
N i xi2
xi2 2 i xi2
i
X y =
1 ... 1 x12 . . . xN 2
y1 . . . yi = . . . yN
xi2 )2 =
i i
yi . . . . . . (1) =
i
xi2 )1 + (
i
x2 )2 i2
xi2 yi . . . . . . (2)
(1) en divisant tout par N cela donne 1 + 2 x2 = y donc la droite de rgression passe par (y, x2 ) Si lon remplace 1 par y 2 x2 dans (2) on a alors : 7
xi2
i
2 [
i
x2 i2
Nx2 ] 2
=
i
xi2 yi y xi2
2
i
(xi2 x2 )2 = =
Sy2 S22
(xi2 x2 )(yi y)
Soit donc 2 =
et 1 = y 2 x2
Interprtation de 2 : un diviseur prs (par le nombre dobservation-1) Sy2 mesure la covariation entre y et x2 et le signe de 2 est dtermin par le sens de cette covariation. y
y = 1 + 2 x2 y
x2
La Figure 1.2 montre le cas dune covariation positive : lorsque yi > y, le plus souvent xi > x. On a donc : Sy2 > 0
X y =
de (1) en divisant tout par N on obtient :1 + 2 x2 + 3 x3 = y donc le plan de rgression passe par y, x2 , x3 avec 1 = y 2 x2 3 x3 remplac dans (2) et (3) on a : 2
i
N1 + beta2 i xi2 + beta1 i xi3 = i yi . . . (1) x + 2 i x2 + 3 i xi2 xi3 = i xi2 yi . . . (2) i2 1 i i2 1 i xi3 + 2 i xi3 xi2 + 3 i x2 = i xi3 yi . . . (3) i3
(xi2 x2 )2 + 3
2
i
(xi3 x3 )(xi2 x2 ) + 3
Ou encore : 2 S22 + 3 S23 = Sy2 2 S32 + 3 S33 = Sy3 Donc les 2 et 3 sont fonction des covariations non seulement entre y et (x2 et x3 ) mais aussi entre x2 et x3 .
yi = 1 +
k=2
k xik
do y = X b et les rsidus sont les ei = yi yi do le vecteur des rsidus ei = y X b. Variation totale : TSS = i (yi y)2 = Syy (total sum of squares) Variation explique : ESS = i (yi y)2 (explained sum of squares) 2 2 Variation rsiduelle : RSS = i (yi yi ) = i (ei ) (residual sum of squares) Ces trois quantits sont lies par le rsultat fondamental : 9
y y y X = y y y y
Cette dernire expression est gale TSS ESS : en effet : TSS ESS = 2 2 2 2 i (yi y) = i yi i yi puisque i yi = i yi . Or : i (yi y)
2 yi = y y = (X ) (X ) = X X = [(X X)1 X y] X X i
Economtrie applique R2 = 0 : ESS = 0 = i (yi y)2 yi = y, i ce qui correspond 2 = 3 = . . . = K = 0. En effet, le modle simple y = 1 entraine min1 (yi 1 )2 1 = y do yi = y. Globalement (x2 , . . . , xK ) nexplique rien par rapport un modle o on pose yi = y R2 = 1 : RSS = 0 = i e2 ei = 0 i do yi = yi i. Le modle i explique parfaitement les donnes. Voir le listing : le document 1 du cours, pour ESS, RSS, TSS, et R2 : les exemples 1 et 2.
Pour le calcul il est parfois commode dutiliser les observations centres par rapport aux valeurs moyennes : On a vu que : 2 s22 + 3 s23 = sy2 2 s32 + 3 s33 = sy3 soit s22 s23 s32 s33 do si lon note "c" pour centr : x12 x2 x13 x3 . . . . . . Xc = xi2 x2 xi3 x3 . . . . . . xN 2 x2 xN 3 x3 11 2 3 sy2 sy3
Il vient que c = (Xc Xc )1 Xc yc car Xc Xc c = Xc yc dautre part : T SS = 2 i (yi y) = yc yc galement : y i = 1 + 2 xi2 + 3 xi3 y = 1 + 2 x2 + 1 x3 donc yi y = 2 (xi2 x2 ) + 3 (xi3 x3 ) do ESS = 2 y y i (yi y) = ( y) ( y) avec y vecteur des composantes et y y = Xc c (daprs les deux lignes au-dessus) do :
y1 y . . . yc = yi y . . . yN y
ESS = (Xc c ) (Xc c ) = c Xc Xc c = c Xc yc Do pour calculer les caractristiques de la rgression de y sur x2 , x3 il faut utiliser les lments de la matrice symtrique : syy sy2 sy3 s2y s22 s23 s3y s32 s33
Xc Xc =
Xc y c =
sy2 sy3
et :
= c
, 1 = y 2 x2 3 x3
Pour les calculs des sij , il convient dutiliser la formule suv = v) = i uivi Nuv do : do syy = 272,sy2 = 62,sy3 = 52,s22 = 16,s23 = 12,s33 = 10 do 162 + 123 = 62 122 + 103 = 52 2 3 = 1 16 10 122 10 12 1216 12 62 52 =
i (ui u)(vi
0.25 5.5
Economtrie applique y 30 20 36 24 40
i
x2 4 3 6 4 8
x3 10 8 11 9 12
yx3
x2 2
x2 3
x2 x3
yi = 150 25 50 y = 30 x2 = 5 x3 = 10
Lquation de rgression scrit : y = 23.75 0.25x2 + 5.5x3 Ce sont les annes dexprience dans lentreprise qui sont importantes (effet positif). A x2 constant, une anne de plus accroit le salaire de 5 500$. Par contre, avoir plus dannes dducation a un effet ngatif sur le salaire. Commentaire sur lordonne lorigine : il est dangereux dextrapoler hors chantillon... Supposons quon ait fait une rgression linaire de y juste sur x2 . Dans ce cas : 2 = Sy2 = 3.875 S22
ESS(x2 ) = 2 Sy2 =
Si lon fait prsent une rgression de y juste sur x3 , dans ce cas : 3 = Sy3 = 5.2 S33
ESS(x3 ) = 3 Sy3 =
Do, sans x3 , leffet de x2 sur y est positif. Mais avec x3 , leffet de x2 sur y est ngatif. Pourquoi ? Quel est le bon effet ? 13
1.5 La multicolinarit
Sur le plan de la mesure descriptive de la qualit de lajustement linaire (par rapport au R2 ). La part de variation explique par la rgression est une fonction non dcroissante du nombre de variables explicatives. Pour r < K :
K
1 ,...,K
(yi i
k xik )2
k=2
RSS(x2 , . . . , xK ) = min
1 ,...,K
(yi i
k xik )2
k=2
Sans la prcdente contrainte. Donc le minimum obtenu ici sans contrainte ne peut par dnition qutre infrieur ou gal au minimum obtenu avec contrainte. En consquence : ESS(x2 , . . . , xr ) ESS(x2 , . . . , xr ) Dans notre illustration prcdente : ESS(x2 , x3 ) = 271.5 ESS(x2 ) = 240.25 ESS(x3 ) = 270.40 Dans une rgression, la mesure de la contribution dune variable lexplication de la variation totale de y dpend des autres variables explicatives prises conjointement en considration. Pour y, x2 , x3 par exemple, quelle est la contribution de x2 ? La rgression simple de y sur x2 donne : ESS(x2 ). La rgression multiple de y sur x2 , x3 donne : ESS(x2 |x3 ) = ESS x2 , x3 ESS(x3 ). En rgle gnrale, ces deux quantits sont diffrentes. Dans le cas de notre illustration : ESS(x2 ) = 240.25 ESS(x2 |x3 ) = 272 270.40 = 1.60 La raison de cette diffrence est lexistence de covariations entre les variables explicatives. Il y a un problme de multicolinarit. Avec y, x2 , x3 : supposons cov(x2 , x3 ) = 0, cela implique que S23 = S32 = 0. Dans ce cas :
Xc X c =
S22 0 0 S33 14
Les coefcients obtenus en rgression multiple sont donc les mmes que ceux obtenus en rgression simple de y sur x2 et de y sur x3 . On a galement :
ESS(x2 , x3 ) = c Xc yc = Sy2 S22 Sy3 S33
Sy2 Sy3
= ESS(x2 ) + ESS(x3 ) do : ESS(x2 |x3 ) = ESS(x2 ). Dans le cas de rgresseurs orthogonaux, tout peut se ramener des rgressions simples. Dans le cas contraire, ce nest pas possible : le coefcient de rgression dune variable est fonction des autres variables explicatives, de mme que son pouvoir explicatif. Un biais de spcication peut rsulter de loubli de variables signicatives explicatives : le biais des variables manquantes. Pour y, x2 et x3 , on a : (1.4) (1.5) 2 S22 + 3 S23 = Sy2 2 S32 + 3 S33 = Sy3 (1) (2)
En divisant lquation (1) par S22 , on obtient : 2 + 3 Cest dire : 2 + 3 a32 = ay2 Ici a32 reprsente le coefcient de x2 dans la rgression simple de x3 sur x2 , ay2 reprsente le coefcient de x2 dans la rgression simple de y sur x2 . En consquent, si x3 est une variable explicative de y, 3 = 0 et cov(x2 , x3 ) = 0 donc S32 = 0 donc a32 = 0. Par consquent, le coefcient de x2 dans la rgression simple de y sur x2 , ay2 mlange deux effets : Un effet direct de x2 sur y : toutes choses gales par ailleurs (x3 constante). Cet effet est mesur par 2 . Un effet indirect de x2 sur y, via x3 : mesur par 3 a32 :
32 x2 x3 y
15
Leffet de x2 sur y est en fait ngatif. Leffet positif observ dans la rgression simple rsulte dune covariance positive entre x2 et x3 dans lchantillon et dun effet positif de x3 sur y (do un effet indirect positif de x2 sur y via x3 . Enn, les cas de multicolinarit extrme peuvent conduire labsence de so lution pour les coefcient de rgression car X X ou Xc Xc nadmettent pas dinverse.
Economtrie applique engendr par les xi , nous notons cet espace L(X). Nous cherchons donc le vecteur y L(X) tel que ce vecteur soit le plus proche possible du vecteur y. On peut crire y = y + u, et nous cherchons donc y tel que u soit le plus petit possible. En utilisant la norme usuelle quest la norme euclidienne, la norme de u est : 2 2 ||u|| = i ui = i (yi yi ) . Trouver le u de norme minimale revient donc minimiser la somme des carrs des rsidus. le thorme du plus court chemin nous dit que u (qui relie y et un vecteur de lespace L(X)) est de norme minimale lorsquil est ortogonal L(X), cest dire lorsque y est le projet orthogonal de y sur L(X). Le principe est reprsent sur la Figure 1.3, p. 18. Pour trouver les coefcients , il faut donc trouver le vecteur u orthogonal L(X). Pour cela, on rsoud le systme des quations normales1 qui reprsente les produits scalaires de u avec les vecteurs xi (qui doivent tre nuls pour assurer lorthogonalit entre u et L(X)). u x1 = 0 u x2 = 0 Xu=0 . . . u x = 0
n
Qui assurent, que u est un vecteur normal lespace L(X), cest dire orthogonal celui-ci.
17
Y u
L(X)
F IG . 1.3 Projection de Y sur L(X) Corrlation entre variables explicatives : biais des variables manquantes, et multicolinarit Biais des variables manquantes Lorsque lon omet dans une rgression multiple une variable ayant un impact causal sur la variable explique y, il y a automatiquement un risque de biais dans lestimation des coefcients des variables explicatives. Ce biais existe ds lors que la variable omise est corrle avec une ou plusieurs des variables explicatives. En effet, dans ce cas, les variations de la variables omises, qui ont un effet sur la variable explicative, sont corrles avec les variations de la variables explicative, et lon va attribuer cette dernire une part de leffet sur y de la variable omise. Prenons lexemple dune rgression : y = 1 + 2 x2 + 3 x3 + Supposons que lon omette dans la rgression la variable x3 alors quelle agit sur y et quelle est corrle avec x2 . Le coefcient que lon obtient en rgression simple pour x2 nest pas le mme que celui obtenu en rgression multiple. La Figure 1.4 permet de voir plus prcisment la diffrence qui existe entre les deux coefcients : lorsque le vecteur des observations de la variable x3 est corrl avec le vecteur des observations de la variables x2 , ils ne sont pas orthogonaux. Ds lors, les coefcients a2 et 2 de x2 , respectivement en rgression sinple et en rgression multiple en incluant x3 , ne sont pas gaux. Dans ce cas simple en deux dimension, il est possible de voir trs facilement la diffrence qui existe entre ces deux coefcients : cest 3 cos . On retrouve ici la formule vue prcdemment puisque le coefcient de corrlation entre deux vecteurs est la gnralisation de la notion de cosinus pour des vecteurs n-dimensionnels. a2 = 2 + 3 Cor(x2 , x3 ) 18
Economtrie applique
x2
a2 2 y
3 cos()
a3
x3
Ce que montre la Figure 1.4, cest aussi que si lon rgresse y sur le projet de x2 sur lespace orthogonal au vecteur x3 , alors lestimation est sans biais. Cest une illustration du thorme de Frish-Waugh selon lequel les estimations de effectues dans les deux modles suivant sont identiques : y = X + Z + MZ y = MZ X + MZ Ici, Z est une matrice contenant un ensemble de variables zk de coefcient k . La matrice MZ = I PZ est la matrice de projection sur lespace orthogonal lespace engendr par les variables zk . Ce rsultat signie que pour avoir une bonne estimation de , il faut soit prendre en compte les variables zk soit ne conserver que linformation contenue dans y et X qui est orthogonale L(Z). Multicolinarit Le problme de multicolinarit vient du fait que lorsque des variables explicatives sont fortement corrles entre elles, il devient difcile de dpartager leurs effets respectifs. Les estimations de leurs coefcients deviennent alors trs sensibles de faibles variations dans les valeurs observes. La Figure 1.5 montre cette situation : deux vecteurs y lgrement diffrents peuvent donner des estimations trs distinctes pour les coefcients des variables x2 et x3 si 19
x2 2
2 1
y y x1
F IG . 1.5 Cas de multicolinarit : projection sur le plan (x1 , x2 ) ces dernires sont fortement corrles. Rappelons que la matrice de variance des coefcients C = (2 , 3 ) est gale
V (C ) = (XC XC )1 2
Or
(XC XC )1 =
1
|XC XC |
o A est la matrice transpose des cofacteurs de XC XC (voir les complments dalgbre en Annexe, p. 86). On calcule trs facilement : |XC XC | = (x2 )2 (x3 )2 ( (x2 x3 )2 . Or on a :
1
|XC XC |
(x2 )2
(x3 )2 (
(x2 )2 (x3 )2 1 ( x2 x3 )2
Cor(x2 , x3 )2 1 Lorsque la corrlation entre x2 et x3 tend vers 1 ou -1, les variances de 2 et 3 qui sont les termes sur la diagonale de V (C ) tendent donc vers linni. En somme, si les variables x2 et x3 sont fortement corrles, les coefcients obtenus sont trs alatoires. Corrlation entre les variables explicatives et les rsidus Si la projection orthogonale reprsente la meilleure estimation pour y, cest que nous supposons que le vecteur des erreurs est asymptotiquement2 ortho2
Cest dire quil tend tre orthogonal lorsque le nombre dobservation tend vers linni
20
Economtrie applique gonal aux variables explicatives : il nest pas corrl avec celles-ci. Choisir un u orthogonal L(X) est donc la meilleure mthode pour estimer y. Toutefois, si le vecteur nest pas asymptotiquement orthogonal, et que lon a cov(xi , i) 0 pour certaines variables explicatives, la projection orthogonale ne donne plus une estimation sans biais. La Figure 5.2 p. 77 reprsente graphiquement cette situation. Ce type de problme sera trait dans la section 5 sur les variables endognes.
21
22
k xik + i
i joue ici le rle de variable fourre tout : "it really comprises no more than giving a name to our ignorance and specifying for it a broad quantitative form". Consquences : Pour quune droite de rgression soit une bonne estimation dune droite thorique, il faut des hypothses sur les i . Concernant lestimation du modle, il y a ici un problme car les points du nuage ne sont pas "harmonieusement" distribus autour de la droite thorique. De ce fait, lestimation est un processus dinfrence statistique : utilisation de donnes connues via les observations pour tester la validit dun modle inconnu car innobservable. La qualit des estimations dpend des hypothses faites en particulier sur les termes derreur i . De ces hypothses dpend la qualit des relations entre les k (paramtres thoriques), et les k (coefcients estims par la rgression).
23
Modle conomique suggr par la thorie Modle conomtrique mise en forme du modle conomique sous forme empiriquement testable Informations a priori Estimation du modle Tests dhypothses Rsultats des tests conformes au modle Utilisation du modle (prvision et politique conomique) Rsultats des tests non conformes au modle Donnes
Reformulation du modle
24
Economtrie applique y
y = 1 + 2 x2 y = 1 + 2 x2
x2
2.1 Estimation : relations entre les coefcient de rgression et les paramtres thoriques
2.1.1 Le principe
Relation thorique : (2.1) yi = 1 +
k
k xik + i
k xik + ei
Relation entre : = 1 2 . . . K = 1 2 . . . K
et
Pourquoi cela ? On peut considrer z, une variable alatoire estimateur dun paramtre a. Daprs lingalit de Bienaym-Tchebitcheff, quelque soit la distribution de z,on a : V(z) P[|z E(z)| ] 2 Do, si z est sans biais : E(z) = a, alors
a+
La probabilit que z appartienne cet intervalle est infrieure 1 V(z)/2 . Si z est efcace, V(z) est minimal et la probabilit dappartenir cet intervalle est dautant plus forte. Enn, si V(z) 0 quand la taille N de lchantillon en fonction duquel z est dtermin augmente, on a la convergence en probabilit. Problme ici : est un vecteur alatoire. Or si z est un vecteur alatoire : z1 . . . z= . zi . . zM On peut dnir. E(z) = E(z1 ) . . . . E(zi ). . E(zM )
Economtrie applique
z1 E(z1 ) zi E(zi ) zM E(zM ) z1 E(z1 ) . . . V(z) = zi E(zi ) . . . zM E(zM ) V(z) = V(z1 ) . . . . . . . . . cov(zM , z1 ) cov(z1 , z2 ) .. . cov(z1 , zM ) . . . . . V(zi ) . . .. . . . V(zM )
Hypothse 1 (Bruit blanc) E() = 0 (vecteur nul) Alors E() = , lestimateur est sans biais. De plus : E() = 0 V() = E[] et V() = E[(b )(b ) ] avec b = (X X)1 X . Ceci donne : V() = E[(X X)1 X X(X X)1 ] = (X X)1 X E()X(X X)1 Hypothse 2 (Homoscdasticit) V()) = 2 I. Avec 2 = V(i ), i
Tous les i ont mme variance. Dans le cas contraire il y a htroscdasticit. Par exemplbe les dpense de consmmation des mnates fort niveau de evenu peuvent avoir une variabilit plus grande que celle des mnages faible revenu. Do, dans lquation c = 1 + 2 Ri + i , V(i ) peut tre fonction des valeurs prises par R. Dans le cas contraire, on parle dautocorrlation : les i ne sont pas indpendant dans le temps. Dans le cadre de donnes temporelles, une autocorrlation positive implique par exemple quun t ngatif va avoir tendance tre suivi dun t+1 ngatif, et inversement (voir Figure 2.2). Cela induit un biais possible dans lestimation des paramtres. Si lon a V() = 2 I alors V() = 2 (X X)1 . Do : E() = V() = 2 (X X)1 27 Hypothse 3 (Non autocorrlation) cov(i , j ) = 0 i = j
y = 1 + 2 x2
x2
2.1.2 Applications
Rgression linaire simple y = b1 + 2 x2 X X = (X X)1 = do V(2 ) = 2 De plus on a : S22 =
i
N i xi2
i
xi2 2 i xi2
i
1 2 i xi2 ( N 2 i xi2 (
xi2 )2 =
x2 i xi2 i2 N i xi2 2
xi2 )2
x2 i2
xi2 )2 N
(x2 x2 ) = i2 2
x2 2x i2
i
xi2 + Nx2 2
i
S22 =
i
x2 i2
2 ( N 2 S22
xi2 )2 + N(
i
xi2 2 ) = N
x2 i2
xi2 )2 N
On a donc :
V(2 ) =
On a galement V(1 ) = 2 N(
i i
xi2 )2
(
xi2 )2 28
xi2 ))2 N
2 i x2 i2 N S22
Economtrie applique Lorsque N , S22 = i (x2 x2 ) do V(2 ) 0 et V(1 ) 0. Par 2 i2 p p consquent 2 2 et 1 1 . Exemple 4 : Donnes concernant la production y et le nombre dheures de travail x2 . Nombre N dobservation : 10. y 11 10 12 6 10 7 9 10 111 10 x2 10 7 10 5 8 8 6 7 9 10 668 952 789 x2 2 y2 yx2
= 96 80
2 =
Sy2 S22
i yi x N yx = x2 i2 x22 V(2 ) = N i i2 2
1 = y 2 x2 V(1 ) = 2 =
2 N
2 S22
2 i (xi2 S22
V(2 ) = et
1 = 9.6 0.75(8) = 3.6 2 668 = 2.39 2 V(1 ) = 10 28 Le problme est ici que la variance des coefcients de rgression est inconnue car 2 est inconnu. 2 = V() peut tre estime partir de la variance empirique des rsidus :V(e) = N (ei e)2 . Or e = 0, do V(e = e e = i e2 . Mais i i=1 on veut un estimateur sans biais de 2 . Dans le cadre gnral des rgressions multiples, un estimateur sans biais de 2 est s2 = s2 =
e e N K
do ici :
RSS RSS = N K 10 2 29
R2 = 0.518
et
y=
k=2
k xk
N i xi2 . . .
i
i xi2 x2 x2
. . .
i xiN x2 xN
xiN
xN x2
xN xN
et k = s kk , k. Il est parfois utile de faire abstraction de lordonne lorigine. Prenons c = (Xc Xc )1 Xc yc , et yc = Xc c + , avec = i i/N. En remplaant, on obtient : c = c + (Xc Xc )1 X c( ). Or Xc = i (xik xk ) = 0. Do : 30
V(k ) = s2 kk k [1, K]
Economtrie applique
c = c + (Xc Xc )1 Xc Sous les hypothses 1, 2, et 3 prcdentes, E(c ) = c , V(c ) = 2 (Xc Xc )1 et : S22 S2N . . . Xc Xc = . . . SN 2 S N N
Si lon reprend lexemple 3 du chapitre 1 : y le salaire, x2 le nombre dannes dducation, x3 le nombre dannes dexprience au travail.
Xc Xc =
16 12 12 10
0.5 53
1 16(10) 122
= 0.156
16 16(10)122
= 0.25
Voir le doc. 1 cours (sur les listings) : Std. Err. exemples 1 et 2. Le rle de lhypothse de normalit A ce stade, nous savons que : suit une distribution de probabilit. E() = V() peut tre estime par V() Et donc, pour chaque coefcient on a E(k ) = k et lcart type est k = V(k ). On souhaite dpasser le stade dune simple estimation ponctuelle. Par exemple : Construire des intervalles de conance dans lesquels le paramtre inconnu k (ou les paramtres inconnus ) ont une probabilit donne de se trouver (on choisira en gnral une probabilit de 95%). Construire des tests dhypothses : par exemple tester lhypothse k = 0 (la variable nest pas explicative) ou c = 0 (aucune des variablesmise part la constantenest explicative). 31
Mais encore une fois, k est inconnu. On peut lestimer par k . Cette approximation implique une perte de prcision : (1) t =
k k k
TN K k [1, K]
TN K est une distribution appele de Student Fisher et est plus tale quune loi normale. On a galement : (2) F =
1 (c (K1)s2 c ) (Xc Xc )(c c )
FK1,N K
F suit une loi de Fisher-Snedecor de degr de libert K 1 et N K. Le rsultat (1) permet de dterminer une intervalle de conance pour k . Ainsi, pour N K grand, t suit une loi normale et on a : P[|t| > 1.96] = 0.05 Do En remplaant t on obtient : P[1.96 t 1.96] = 0.95
k 1.96k
k + 1.96k Prob=0, 95
32
Economtrie applique Si on rpte le calcul de k avec des chelles diffrentes, selon les (avec le mme X), 95% des intervalles calculs contiendront la vraie valeur du paramtre k .
H0 non H0
En rgle gnrale, on ne peut pas dcrotre simultanment les deux risques et ici on cherche minimiser le risque de premire espce. Dans une premire approche, deux tests sont couramment pratiqus : H0 : c = 0 : aucune variable x2 , . . . xk nest explicative au sens statistique. H0 : k = 0 : la variable xk nest pas explicative, au sens statistique.
F =
1 (c (k1)s2
F =
ESS k1 RSS N K
F =
MSE MSR
33
0,05
Rgion de rejet
si Fcalcul F0,05 : accpte hypothse c = 0 si Fcalcul > F0,05 : rejet une au moins des variables x2 , . . . xk est signicative ? Grandeur du pouvoir explicatif et caractre signicatif des variables explicatives : ide est quon peut avoir un R2 faible et cependant rejeter lhypothse c = 0. Les rsultats du test dpendent en particulier de N : car Fstat est une fonction croissante de N. On sait que ESS = R2 TSS et RSS = (1 R2 ) TSS do F =
R2 K1 1R2 NK
R2 >
K1 1 + F0,05 ( N K )
do par exemple : pour K = 10, on a : N = 20 F0,05 = 3, 02 R2 > 0, 731 N = 40 F0,05 = 2, 21 R2 > 0, 13 N = 60 F0,05 = . . . R2 > 0, 03, il suft dexpliquer 3% de TSS pour rejeter lhypothse c = 0. do : 34
Economtrie applique Exemple 4 y =production, x2 =nombre dheures de travail, N = 10 ESS = 15, 75 1 ESS = 14, 65 8 MSE = 15, 75 F = 8, 62 avec R2 = 0, 5188 galement MSR = 1, 83 =
0,518 1 0,482 8
ou F0,05 (1, 8) = 5, 32 do rejet de lhypothse c = 0. Ici, dans la rgression simple : c = 2 . Exemple 3 y =salaires, x2 annes dducation, x3 annes exprience travail, N = 5 ESS = 271, 5 2 ESS = 0, 5 2 MSE = 135, 75 F = 543 avec R2 = 0, 998 galement MSR = 0, 25 =
0,998 2 0,002 2
t0,05
+t0,05 Prob=0, 95
Prob[|tk | > t0,005 ] = 0, 05 do le test : si k = 0 vrai, |tk | t0,005 avec une probabilit de 0, 95. si|tk | t0,005 : acceptek = 0 si|tk | > t0,005 : rejet : risque de premire espce = 0, 05 35
Remarque : Commentaires sur le listing : propos de Prob > F et P > |t| : instructif de prciser le risque de premire espce (seuil de signicativit) associ la valeur de la Fstat ou la tstat calcule. pour Nbrepers on a P > |t| qui gure pour une valeur = 0, 337 : signication : si je construit mon t-test pour lhypothse N brepers = 0 en prenant comme valeur de rfrence le t calcul sur chantillon (= 0, 898), alors Prob[|tk | > 0, 989] = 0, 337 donc . . . donc : en rejetant lhypothse N brepers = 0 pour |t| > 0, 898, Prob = 0, 337 de rejet de lhypothse si elle est vraie. t = 0, 898 serait statistiquement signicative au sueil de 0, 337
0, 898
+0, 898
Prob = 0, 377
pour Prob > F = 0, 000 : test construit sur rgion de rejet de c = 0 dtermine par F > 40, 05 donne une proba quasiment = 0 de rejet de c = 0 si elle est vraie. Remarque :
0 On peut tester des hypothses autres que k = 0 : par exemple : k = k ,
en utilisant
0 k k k
et donc la rgion docceptation (au seuil de 5%) est dtermine 0 k k t0,05 ] = 0, 95 donc k [ 0 t0,05 k ] accepte
k k
36
Economtrie applique Remarque : t-test symtrique et asymtrique jusquici : implicitement : on teste lhypothse k = 0 contre k = 0 do on admet des valeurs ou pour k . Parfois : restriction priori sur le rgime des paramtres : par exemple : k > 0 et on teste lhypothse k = 0 contre k > 0. avec une table stat donnant le t0,05 pour test symtrique (k = 0 contre k = 0), on a :
0, 025
0, 025
t0,05
+t0,05
F IG . 2.4 Test symtrique si on utilise cette table pour test asymtrique (k = 0 contre k > 0), dans ce cas, il faut une lecture correspondant un t0 , 10 (symtrique).
0, 05
Rgion limine
Rejet Accept.
37
38
Et pour tester ce genre dhypothses, deux pratiques de test sont possibles et ici quivalents. 39
(J, N K) degr de libert. Lide sous-jacente est que si les contraintes R = q sont vraies, alors le fait dimposer ces restrictions au modle ne doit pas impliquer une perte importante de qualit de lajustement linaire. Donc la quantit RSS RSS doit tre faible do une valeur faible de F . Dans le cas contraire, on a un F avec une grande valeur. Pour tester lhypothse R = q on estime donc le modle sans contrainte et le modle avec contrainte. Si cette hypothse est vraie, F = (RSS RSS)/J RSS /(N K) F (J, N K)
Si F > F0.05 : rejet de lhypothse. Si F F0.05 : acceptation de lhypothse. Ceci suppose que lon puisse intgrer les contraintes dans lcriture du modle. Cest parfois possible. Exemple de la fonction de consommation macroconomique : C = 1 + 2 RT + 3 RNT +
RSS = e e et RSS = e e . Or e = y X X( ) donc e = e X( ) do e e = [e X( )] [e X( )] = e e ( ) X e e X( ) + ( ) X X( ). Et comme X e = 0 = e X, on a : e e e e = ( ) X X( ).
1
40
Economtrie applique Pour lhypothse 2 + 3 = 1 : 3 = 1 2 , cela conduit au modle : () C RNT = 1 + 2 (RT RNT ) + Avec deux variables : C RNT et RT RNT . Pour lhypothse 2 = 3 , on a : C = 1 + 2 (RT RNT ) + L aussi le modle est deux variables. Il est cependant parfois difcile dintgrer les contraintes dans le modle (*) pour arriver estimer sous contraintes. On peut alors adopter une autre approche. Test de Wald : en terme de matrice estime des variances et covariances de Principe du test : Soit lhypothse R = q. Le test repose sur la comparaison entre R et q. Un cart important entre R et q est en dfaveur de lhypothse. Le test utilise galement une F statistique : F = (R q) [R(X X)1 R ]1 (R q)/J e e/(N K) F(J,N K)
Toute linformation disponible pour construire ce test nutilise que les rsultats du modle non contraint, savoir : vecteur des paramtres estims du modle non contraint e e/(N K) = s2 estimation sans biais de V(i ) avec le modle non contraint, de sorte que, en remarquant que V() = s2 (X X)1 , matrice estime des variances et covariances de . La F statistique peut encore scrire : F = (R q) [RV()R ]1 (R q) J
La procdure du test est donc la suivante : on estime le modle sans contrainte, on construit la F statistique avec la matrice V() et : F > F0.05 : rejet de lhypothsse R = q F F0.05 : acceptation de lhypothse R = q Exemple 5 : (Greene 2000, p. 240) [voir listing] doc. 2 cours. Considrons la fonction dinvestissement suivante : Invt = 1 + 2 temps + 3 P NB + 4 Int + 5 Inf lat + 41
Les estimations du modle non contraint : 1 = 0.50907 = 0.01658 2 : 3 = 0.67038 = 0.0023259 4 5 = 0.000094012 do 2 0.67038 R = 3 0.0024199
4 +5
0.01658
Et
V() est donne (attention lordre des variables : rcrire en mettant la constante en premier) Test de Wald : F = (Rq) [RV()R ](Rq)/3 = 1266.3525 et F0.05 (3.10) = 3.71 do le rejet de lhypothse jointe. Mais parmi les trois hypothses, quelles sont les fausses ? 42
2 0.37038 R q = 3 1 0.0024199
4 +5
0.01658
Economtrie applique Pour 2 = 0 : time trend : on peut regarder le t2 de la rgression : t2 = 8.409 et P > |t| 0 do le rejet de 2 = 0. 3 = 1 : on peut tester lhypothse 3 = 1 contre 3 < 1 (test asymtrique). 1 t3 = 3 dl=10. t3 = 0.670381 = 5.994 or t0.1 = 1.812 do t3 < 0.054997 1.812 on rejette donc lhypothse 3 = 1 et on accepte 3 < 1. Pour 3 + 4 = 0 : seul le taux dintrt rel compte. On peut refaire un test de Wald (voir le listing du test Int + INf lat = 0) avec R = [00010] et q = [0]. On obtient F(1,10) = 3.25 < F0.05 = 4.96 Lhypothse est donc accepte. On peut aussi transformer le modle par intgration de la restriction do le modle (*) : Invt = 1 + 2 temps + 3 P NB + 4 (Int Inf l) +
Int rel
On peut ds lors faire un test en terme de RSS : do (voir les listings) :RSS = 0.000597484, RSS = 0.000450811 et F = RSS RSS = 3.25 galement. RSS /10 Remarques Il est vident que dans lapproche en termes de RSS, on a : F =
2 (R2 R )/J (RSS RSS)/J = RSS /(N K) (1 R2 )/(N K)
= = k = 0) est un test de K 1 0 2 0 . . = . 0 K 1 0 . . . 0
Une approche en terme de RSS implique donc deux rgressions : la premire sur x2 , , xk et lautre simplement avec y = 1 + (modle *). 2 Dans ce dernier modle, 1 = y do yi = y, i et donc R (entre y et y, R2 /(K+1) est nul do F = (1R2 )/(N K) . Ceci est galement le rsultat du Fglobal du Chapitre 2 : F = R2 TSS /(K 1) ESS /(K 1) = RSS /(N K) (1 R2 ) TSS /(N K) 43
= t2 k
Remarque 4 : dans le cas dhypothses sexprimant sous la forme de fonctions non linaires des paramtres (non donn en cours, voir Greene (2000, p. 363) le test de Wald repose sur un 2 J degr de libert.
Economtrie applique Sous forme matricielle : y 1 = X1 1 + 1 y 2 = X2 2 + 2 N1 obs. N2 obs. y1 y2 N1 observations, K = 5 paramtres. (1-1) N2 observations, K = 5 paramtres. (1-2) X1 0 0 X2 1 2 1 2
(3.2)
X1 est une matrice (N1 , K) et X2 une matrice (N2 , K). On a par ailleurs : N1 + N2 = N = 16 2K = 10 paramtres Pour estimer les 10 paramtres, on peut videmment rentrer les donnes sous la forme gnrale. Mais, les deux sous-modles tant entirement diffrents, on peut montrer que lestimation de (3.2) et ses caractristiques peuvent sobtenir sparment partir de lestimation de (1-1) et lestimation de (1-2). En particulier : RSS(1) = RSS(11) + RSS(12) . Modle contraint (*) Il dpend des contraintes formules. a) Hypothse 1 = 2 : il y a une seule et mme relation quelque soit lanne considre (i 1947, . . . , 1962, N = 16). yi = 1 + 2 T rend + 3 INGP + 4 P NB + 5 F orcArm + i y = X +
[N,1] [N,K] [K,1]
N = 16 observations K = 5 paramtres Et dans ce cas le nombre de contraintes est J = 5. Do, pour tester cette hypothse : F = (RSS RSS)/J RSS /(N1 + N2 2K)
avec RSS = RSS(11) + RSS(12) , cest dire : 1.52 = 0.344 + 0.808. Do (voir listing) : F = (4.934 1.152)/5 = 3.93 < F0.05 (5,6) = 4.39. 1.152/(16 10)
Les deux premires colonnes de 0 et de 1 sont des variables muettes D1 et D2 . La matrice Z est compose des variables T rend, INBP , P NB, F orcArm. Si lon rgresse y sur D1 , D2 et les autres variables (voir listing), Stata limine D2 . La raison est que si lon rajoute une constante, on a multicolinarit parfaite, ce qui veut dire ici : D1 = 0 i 1954, donc cste = 42.02035 D1 = 1 i 1954, donc cste = 42.02035 1.523557 = 40.49686 Une autre manire dobtenir le mme rsultat est dimposer labsence de constante. Stata sort alors : D2 = 42.02039 et D1 = 40.49686. Dans les deux cas : RSS = 3.178, J = 4 do : F = (3.178 1.52)/4 = 2.63 1.52/(16 10)
1 2 Lhypothse c = c est donc accepte. Remarque : ce genre de test est souvent appel test de Chow . Une hypothse implicite est qeu V(ei ) = 2 , i N, donc on suppose des changements structurels avec cependant une variance des termes derreur identique. Lutilisation des variables muettes est trs gnrale pour prendre en considration des changements structurels. Soit par exemple :
yi = + xi2 + i i N = N1 N2 Et on suppose que : yi = (1) + (1) xi2 + i pour i N1 yi = (2) + (2) xi2 + i pour i N2 46
Economtrie applique Le modle non contraint est donc quivalent deux quations spares. On peut aussi les crire sous la forme dun seul modle : soit D2 = 0 pour i N1 et D2 = 1 pour i N2 et le modle yi = + (2) D2 + xi2 (2) xi2 + i Do i N1 : yi = + xi2 + i i N2 : yi = ( + 2 ) + ( + 2 )xi2 + i
47
48
et est estimateur sans biais, efcace (i.e. de variance minimale), convergent en probabilit vers , distribu normalement si est distribu normal et sur de grands chantillons si non normal, distribu asymptotiquement normal. Modle de rgression linaire gnralis : MCG E() = 0 V() = 2 , matrice dnie positive do en particulier les hypothses 2 et 3 des MCO du chapitre 2 non vries : hyp. 2 : homoscdasticit : V(i ) = 2 , i hyp. 3 : non autocorrlation : Cov(i , j ) = 0, i, j tq i = j et dans ce cas : pour = (X X)1 X y donc = + (X X)1 , on a toujours E() = mais V() = (X X)1 X X(X X)1 devient alors : V() = 2 (X X)1 X X(X X)1 do les problmes : 49 (2)
Le problme est quen rgle gnrale, est inconnue : il faudrait lestimer en plus de 2 , ce qui ferait en tout gnralit N (N +1) paramtres supplmentaires 2 estimer, avec N observations. . .impossible. Ainsi, on met habituellement des restrictions sur la matrice pour pouvoir pratiquer les MCG (en particulier, htroscdasticit, autocorrlation). Cela conduit alors remplacer dans les formules prcdentes par . 50
Economtrie applique
4.2 Htroscdasticit
Ici, seule lhypothse 2 des MCO est non vrie. On a ainsi : 2 1 0 0 . .. .. . . . 0 . . . . .. . . 2 V() = . . . . . i . .. .. . . . 0 . 2 0 0 N
Les raisons de lhtroscdasticit : en particulier sur cross-sections (coupes instantanes) variance des prots des grandes entreprises suprieure celle des petites dpenses des mnages : plus grande variabilit possible pour les hauts revenus Exemple 7 voir listing : (document 3 cons, htro-cons-chap4) : Sur le nuage de points, la variabilit des dpenses de consommation est apparente, et plus vidente encore sur le graphique des rsidus. On a : DepCons = + Revenu + Supposons alors V(i ) = 2 Revenu2 , de sorte que : i Rev2 1 .. . 2 2 Rev2 V() = = i .. . Il est vident que dans ce cas : 1 Rev1 .. . 1 P = Revi Rev2 N
..
. 1 RevN
, car P P = I
P > |t|
Var signif = 0 signif = 0 bien que M CG < M CO en raison de V(M CG ) < V(M CO ) en particulier.
Lapproche gnrale est alors la suivante : dceler lhtroscdasticit avec les tests en cas dhtroscdasticit, procder aux corrections
Economtrie applique Dans le modle : y = X +, on suppose que lune des variables x2 , xk , xK est responsable de lhtroscdasticit : par exemple, V(i ) = 2 x2 . On alors raik lise le test comme suit : on range les observations par ordre croissant des valeurs de xk et on distingue deux souschantillons : ch. 1 : grande variance grandes valeurs de xk , taille N1 ch. 2 : faible variance faibles valeurs de xk , taille N2 On fait la rgression de y sur x2 , . . . xK successivement pour ch. 1 (ce qui donne RSS1 ) et ch. 2 (RSS2 ), (avec RSS1 >RSS2 ) et alors : Sous H0 : les variances sont les mmes dans les deux souschantillons et F = RSS1 /(N1 K) suit une distribution de Fisher (N1 K, N2 K) degrs de RSS2 /(N2 K) libert (On prend parfois N1 , N2 N ). 3 Dans lexemple HtroCons (listing), on a : RSS2 = 1.893, RSS1 = 20.299 et N1 K = N2 K = 6 do F = 10.723. Comme le fractile 5% dune loi de Fisher (6, 6) est : q0.05 (F (6, 6)) = 4.28, on rejette lhypothse H0 . Test de BreuschPagan (ou CookWeisberg) : On fait une hypothse sur lhtroscdasticit du genre : V(i) = 2 f (0 + 1 Z1 + + r Zr ) la forme fonctionnelle f pouvant tre diverse.
e2 i RSS/N
a:
On teste lhypothse H0 [1 = = r = 0]. Pour ce faire, on rgresse les sur Z1 , Zr et tant donne lESS associe cette rgression, sous H0 , on
ESSassocie 2 (r) 2 [dans STATA : la commande hettest ; sans spcication de variables explicatives de lhtroscdasticit, introduit la variable y . Autrement il faut spcier : hettest Z1 Zr ]
Dans lexemple HtroCons : (listing) avec V(i ) = 2 f (0 + 1 Revenu + 2 2 Revenu2 ) on obtient 2 = 8.30. Or, q0.05 (2) = 5.991 : on rejette subsquemment lhypothse H0 .
Si on fait une hypothse sur la nature de lhtroscdasticit : Par exemple : 1 .. . 2 2 i V(i ) = = .. . N avec i = f (0 + 1 Zi1 + + r Zir ). On sait que pour les MCG : 1 P =
1
..
1 i
..
.
1 N
et le M CG est obtenu dans le cadre de la rgression P y = P X +P , cest--dire K xik 1 i yi k + + . Ici, les MCG sont souvent appels = 1 i i i i k=2 Weighted Least Squares ou MCP (moindres carrs pondrs) ; le poids = 1 i accord chaque observation i est inversement proportionnel limportance de V(i). Le problme est quon ne connat pas : il faut donc lestimer. Aprs avoir rejet lhypothse dhomoscdasticit dans le test de Breusch-Pagan, avec bien souvent comme forme fonctionnelle : V(i ) = 2 exp(1 Zi1 + + r Zir ), 2 asymptotiquement connue, on peut crire : e2 = i + vi , vi terme derreur. La i procdure destimation de (id est des i ) conduit utiliser lexpression prcdente. Do : e2 = 2 exp(1 Zi1 + + r Zir ) + vi i Puis : log e2 = log 2 + 1 Zi1 + + r Zir + log vi i 54
Economtrie applique et en rgressant le log e2 sur Z1 , Zr , on obtient par les MCO, les 1 , r i i = exp(1 Zi1 + + r Zir ) do le modle des MCG praticable : y i = 1 i 1 i
K
+
k=2
x ik i
i + i
Dans lexemple HtroCons (listing) : avec lhypothse V(i ) = 2 exp(1 Revenu+ 2 Revenu2 ), on obtient les estimateurs MCG suivants : Cff t Cff t
MCG avec
prcdent
4.3 LAutocorrlation
4.3.1 Gnralits
Il peut advenir que V() = 2 I car cov(i , is ) = 0 pour certains i et s. Cest par exemple le cas dans des chantillons coupe instantane si lordre des incides dobservation traduit un ordre naturel. Mais cela arrive aussi surtout dans des donnes longitudinales o lordre temporel a une importance. exemple 8 : Icecream-Chap.4 - Autocorrlation Document 3 cons (listing) Consommation de crme glace sur des donnes mensuelles. Si on rgresse : const = 1 + 2 pricet + 3 incomet + t = 0.90 2.03 pricet + 0.0002135 incomet Cependant, on obtient quasiment rien de signicatif, sauf la constante, la ri gueur : les variances des M CO sont surestimes (non efcaces). Le graphe de la consommation prdite par la rgression et la consommation observes en fonction de time est suggestif, et les deux graphiques concernant les rsidus et qui montrent la persistence deffets de mme sens le sont plus encore : et1 > 0 et > 0 et et1 < 0 et < 0, cest--dire quon a covariation positive de et , et1 , ou encore autocorrlation positive (cf. graph. et , et1 ). Comme le comportement des rsidus est cens reter la comportement des t (mais pas toujours), cela suggre 55
t =
r=0
r utr
On a alors1 :
+
E(t ) = E(ut )
r=0
r = E(ut )
1 =0 1
+
V(t ) =
r=0
V( utr ) = V(ut )
r=0
2r
ou encore :
2 V(t ) = u
1 = 2 1 2
+ r=0
56
2 u 2 = 1 2
2 . . . T 1 T 2
Dans ce cas, comme prcdemment, M CO est non efcace et donc les V(k ) 2 1 calculs partir de s (X X) ne sont pas minimales et en particulier les tstat sont sous-estimes.
d=
t=2
(et et1 )2
T
e2 t
t=1
Il se trouve que : avec une autocorrlation (+), [et et et1 souvent de mme signe] d faible avec une autocorrlation (), [et et et1 frquemment de signe =] d fort On peut alors se demander quel est lintervalle de valeurs dans lequel varie d. Le numrateur scrit :
T T T T
t=2
(et et1 ) =
e2 t
t=2
e2 t1
t=2
et et1
t=2
e2 t
t=1
e2 t
t=2
e2 t1
t=2
Il vient alors :
d 2 1
et et1 t=2 T 2 et
t=1
rt,t1 =
T
t=2
(et e)(et1 e)
T
et et1
t=2 T
, car e = 0 e2 t
t=2
(et e)2
t=2
(et1 e)2
t=2
On a donc : d = 2(1 rt,t1 ) et comme rt,t1 [1, +1], on a d [0, 4]. On lit donc dans la table de DurbinWatson deux valeurs dinf et dsup (en fonction de T et du nombre de rgresseurs) ce qui donne : 58
Economtrie applique d 0 dinf dsup 2 4 dsup 4 dinf 4 autocor. (+) indter. rej. hyp. autocor. indter. autocor. () TAB . 4.1 DurbinWatson Rem. : Cela suppose que la rgression contient un terme constant et ce nest divemment indicatif que dun AR(1). Il ny a pas de variance explique endogne dtache.Il est noter lexistence dautres tests plus gnraux, tels que BreuschGodfrey par exemple qui teste des AR(p) ou MA(p). Dans lexemple 8 : Icecream-chap4. Autocorrlation (listing), on a : d = 0.4235 et d(3, 30) dans la table donne 1.28 (3 est le nombre de rgresseurs, constante incluse) Do une autocorrlation (+).
2 u 2 = 1 2
de sorte que pour les MCG, P y = (P X)+P , cela donne, si on note x1 , x2 , . . . xT les vecteurs ligne de la matrice X : 1 2 y1 y2 y1 . . . 1 2 x1 x2 x1 . . .
P =
et :
Py = yt yt1 . . .
yT yT 1
PX = t x xt1 . . . = 1 2 1 u2 . . . ut . . . uT
xT xT 1
P = t t1 . . .
2
1 2 1 2 1 . . .
T T 1
aprs calculs
60
Economtrie applique Le modle des MCG scrit alors : pour t = 1, 1 2 y1 = 1 2 1 + pour t = 1, yt yt1 = (1 )1 +
k
k=2
1 2 xk +
1 2 1
k=2
k (xtk xt1,k ) + t t1
ce qui est, sauf pour lobservation t = 1, ce quon obtient en faisant les diffrences du premier ordre : K yt = 1 + k xtk + t
k=2
En soustrayant :
yt1 = 1 +
k xt1,k + t1
k=2
yt yt1 = (1 )1 +
k=2
k (xtk xt1,k ) + t t1
=ut
Le problme est que est inconnu. On peut lestimer cependant de diffrentes faons (cf. PraisWinsten) : par ex. : cfcient dautocorrlation du premier ordre : = rt,t1 avec le d de DurbinWatson : d = 2(1 r) puis = 1 d 2 On utilise ensuite pour les MCG praticables : on peut faire soit : Les MCG complets : en conservant la premire observation, estimateurs de PraisWinsten M CG Les MCG sur les T 1 obs ; en liminant la premire observation, estimateur de CochraneOrcutt En rgle gnrale, les MCG sont itratifs, ce qui veut dire : 1. Les MCO sur y = X + donnent e rsidus et estims puis MCG() M CG donne 2. On obtient alors de nouveaux rsidus e = y X M CG , ce qui donne alors estim. Puis MCG( ) donne M CG 3. Nouveaux rsidus e = y X MCG( ) etc. . .
M CG M CG 2 i ei ).
On sarrte lorsque le rsultat est stationnaire (min Cette dmarche est critiquable puisque de toutes faons, les estimateurs sont efcaces chaque tape 61
Densit
2 est constant
E(y) = 0 + 1 x
x F IG . 4.1 Rgression, hypothse dhomoscdasticit Inversement, dans le cas de lhtroscdasticit, cette distribution nest pas forcment la mme pour tout x. Un cas frquent est celui dune augmentation de la variabilit de y pour des plus grandes valeurs de x, la distribution des i est donc plus tale pour des xi plus grands : Figure 4.2.
62
Economtrie applique
Densit
2 nest pas constant
E(y) = 0 + 1 x
63
64
Dans le cas contraire, si dans lquation y = 1 + K k xk + , il existe une k=2 variable xk telle que cov(xk , k ) = 0, alors cette variable est appele une variable endogne.
(5.2) x = W + u
2 Avec E(u) = 0, Var(u) = u et cov(u, v) = cov(u, W ) = 0.
65
x)(yi y) 2 i (xi x)
Quand N +, la covariance empirique1 et la variance empirique convergent en probabilit vers la covariance et la variance de la population. On a donc : +
p
x)(i ) 2 i (xi x)
cov(x, ) Var(x)
En consquence, lestimateur des MCO est non convergent en probabilit vers si cov(x, ) = 0. Mesure du biais : cov(x, ) = cov(W + u, v u) = E [(W + u E(W + u)) (v u)] = E [(W E(W ) + u) (v u)] = E[((W E(W ))v] E[((W E(W ))u] + E[uv] E[u2 ] 2 = u
2 2 Var(x) = Var(W + u) = Var(W ) + Var(u) + 2cov(W, u) = W + u
Do : plim = 1
2 u 2 2 W + u
1 2 2 1 + u /W
2 Il ny a donc convergence en probabilit de vers que si u = 0. Cest dire 2 2 sil ny a pas derreurs de mesure. Le rapport u /W peut tre compris comme le rapport du bruit sur le vrai signal, plus il est lev, plus le biais est important.
1
66
Economtrie applique Le problme de la simultanit (modle quations simultanes) Soit le modle keynsien : (5.4) (5.5) c = + y + y =c+z c : consommation par tte y : revenu par tte z : autres dpenses (exogne)
On suppose que lon a : E() = 0, Var() = 2 et cov(z, ) = 0. Ici, y est endogne : elle est simultanment dtermine avec c, elle est donc fonction de dans lquation de consommation macro. De la forme structurelle : 1 1 1 c y = 0 0 1 1 z + 0
On va tirer la forme rduite qui exprime les variables endognes c et y en fonction des variables exognes z et des constantes : 1 (5.6) c = + z+ 1 1 1 1 1 (5.7) y = + z+ 1 1 1 On voit bien que c et y endognes (car fonction de ) do de par MCO sur (5.4) on a : (ct c)(yt y) Scy = t = 2 Syy t (yt y) avec ct c = (yt y) + (t ) il vient : =+ Et donc : plim = +
1 N 1 N t (yt
donc par les MCO sur (5.4) ne converge pas en probabilit vers . Mesure du biais 67
cov(y, ) =
Do :
Variable instrumentale : on appelle variable instrumentale une variable non corrle avec et cependant corrle avec la variable explicative endogne. Ici cest le cas de z, car cov(z, ) = 0, et dans lquation (5.5), y = c + z, on a cov(y, z) = 0. Par ailleurs, on a : ct = + yt + t (ct c) = (yt y) + (t )
t
(ct c)(zt z) =
t (t
(yt y)(zt z) +
(t )(zt z)
(5.8)
Scz =+ Syz
)(zt z) Syz
p
On appelle IV lestimateur de par la mthode des variables instrumentales, z tant ici "linstrument". On remarque que : Scy Scz = IV = M CO = Syz Syy Gnralisation de la mthode des IV : Soit : yi = 1 + 2 x2i + 3 x3i + i Aprs centrage, on obtient :
c yi = 2 xc + 3 xc + ei 2i 3i
Donc, quand on calcule ces 2 et 3 , on pose le systme dquation linaires suivant, appel systme des quations normales2 : (5.9) (5.10) (5.11) (5.12) Do :
c (yi 2 xc + 3 xc )xc = 0 2i 3i 2i c (yi 2 xc + 3 xc )xc = 0 2i 3i 3i
ei xc = 0 2i
i
ei xc = 0 3i
i
Soit encore :
Xc yc (Xc Xc )c = 0 c = (Xc Xc )1 Xc yc
2
Voir p. 7
69
c Do, sous forme matricielle, en posant Zc = [xc , z3 ], Zc matrice des variables 2 instrumentales (avec x2 exogne, linstrument pour x2 est x2 elle mme). Do (5.14) et (5.14) peuvent alors scrire : Zc yc (Zc Xc )c,IV = 0
au lieu de :
Xc yc (Xc Xc )c,M CO = 0
c,IV = (Zc Xc )1 Zc yc
Avec yc = Xc c + ( ), il vient :
c,IV = (Zc Xc )1 Zc (Xc c + ( )) = c + (Zc Xc )1 Zc En consquence, quant la taille de lchantillon augmente, Zc , vecteur des c composantes i xc i et i z3i i tend vers cov(x2 , ) et cov(z3 , ) donc vers le 2i vecteur nul et ainsi plim c,IV = c .
70
Economtrie applique
Modle Termes derreur dt , ot Variables exognes rt , mt Structure du modle paramtres j , et j Variables endognes qt , et pt
5.3 Lidentication
Quest-ce quun modle ? Exemple : quilibre partiel sur un march : qd = 1 + 2 p + 3 r + d (demande) qo = 1 + 2 p + 3 m + o (offre) qd = qo (quilibre) La forme structurelle du modle scrit : q = 1 + 2 p + 3 r + d (demande) q = 1 + 2 p + 3 m + o (offre) Ici : r reprsente le revenu national (exogne), m les conditions mtorologiques (exogne). On a donc : cov(r, d ) = cov(r, 0 ) = 0 et cov(m, d ) = cov(m, 0 ) = 0. Il y a donc deux variables endognes, q et p, et deux variables exognes r et m. Toute variable endogne est fonction de tous les termes derreur : ceci apparat de manire vidente avec la forme rduite du modle : elle consiste crire les variables endognes comme fonction des seules variables exognes et des termes derreur de la forme structurelle. 1 d 1 b3 0 q 1 2 r + = o 1 0 3 p 1 2 m Solution de : q = 2 1 + 1 2 + 3 2 r 2 3 m + 2 d 2 o 2 2 2 2 2 2 2 2 q = 1 1 + 3 r 3 m + d o 2 2 2 2 2 2 2 2 71
Ce qui donne : Sqm = Smp 2,IV + Sm2 3,IV Sqr = Spr 2,IV + S22 3,IV Car mc rc . . . . . . c p mc . . . . . . 2,IV 3,IV mc rc . . . c q . . .
De mme pour la fonction doffre : qo = 1 + 2 p + 3 r + o La variable p est l encore endogne, mais r est exclue de lquation, elle constitue donc un instrument possible : Zc = [r c , mc ], Xc = [pc , mc ] Ici le modle est identi car chaque quation est identie. 72
Economtrie applique Cela nest pas le cas du modle de march prcdemment examin : qd = + p + d qd = + p + o q = + p + d q = + p + o
Il ny a pas ici dinstruments pour lever le biais dendognit de p, dans aucune des quations. La constante 1 est quivalente une variable endogne, mais elle est utilise pour estimer la constante dans la rgression. Il est possible dappliquer les MCO sur donnes non centres par rapport aux valeurs moyennes pour calculer et . Par exemple partir des deux quations normales : i ei 1 = 0 i ei pi = 0 avec ei = qi pi . Do :
i qi
N ( i pi ) = 0 2 i qi pi ( i pi ) ( i pi ) = 0
N + ( i pi ) = i qi ( i pi ) + ( i p2 ) = i
i qi pi
Soit encore :
Mais p est endogne et ne peut donc pas tre utilis dans lquation Ceci est visible sur la forme rduite du modle : q = d + o p = 1 + 1 d o q = + uq p = + up
i ei pi
= 0.
Les quations de la forme rduite sont ici identies (il ny a pas de variables explicatives endognes). Les MCO sont donc justis : MCO et MCO sont des estimations de (= q ) et (= p ), les valeurs dquilibre du march : MCO = q et MCO = p. Mais il nest pas possible de remonter de et au calcul des paramtres de la forme structurelle (MCI). Car : = =
Or = 2 /2 , do M CI = Scz /Syz , cest dire le mme rsultat que celui donn par les IV. Le calcul de lestimation de ne peut se faire partir de : c c c i ei yi = 0 avec ei = ci yi . On utilise donc z comme variable instrumentale :
c ei zi = 0 = i i c c (cc IV yi )zi = 0 i
Scz Syz
Les variables y et w sont ici exognes. La courbe de demande est sous-identie : il ny a pas de variable exogne exclue de lquation pour lever le biais dendognit de p. La courbe doffre est par contre sur-identie puisquil existe deux variables exognes pour lever le biais dendognit de p. On peut utiliser : 74
Economtrie applique Soit y comme variable instrumentale : 2,IV = Soit w comme variable instrumentale :
2,IV = c i ei yi c = 0, ei = qi 2 pc . Avec : i
Sqy Spy
c i ei wi c = 0, ei = qi 2 pc . Avec : i
Sqw Spw
On dispose donc potentiellement de deux estimateurs, chacun tendant en probabilit vers 2 . Les valeurs estimes obtenues avec chacun de ces estimateurs sont cependant diffrentes. Ceci se retrouve avec les MCI : il y a deux manires diffrentes de calculer 2 partir des paramtres de la forme rduite. La forme structurelle du modle sans les constantes scrit : q c = 2 pc + o pc = 2 pc + 3 y c + 4 w c + d La forme rduite est : q c = 2 3 y c + 2 4 w c + uq 2 3 2 2 3 4 qc = w c + up yc + 2 3 2 2 do : q c = y y c + w w c + uq q c = y y c + w w c + u p Et : 2 = y /y = w /w . On a donc, partir de lestimateur de la forme rduite deux estimateurs de 2 : 2,IV = y y et
2,IV =
w w
La mthode des doubles moindres carrs (two stages least squares, 2SLS) consiste ne pas renoncer linformation disponible la fois sur y et w. Lide est de dnir une variable z qui utilise toute linformation disponible sur y et w, avec cov(z, p) = 0 et comme y et w sont des variables exognes : cov(y, d,o) = cov(w, d,o) = 0, alors on peut trouver p, fonction linaire de y et w tel que cov(p, d,o ) = 0. La mthode des doubles moindres carrs consiste utiliser p comme "instrument" : on rgresse q sur p pour estimer 2 . 75
Mthode des IV : y comme instrument : 2,IV = Mthode des MCI : comme y y Sqy Spy
2 =
2,IV
Mthode des 2SLS : 1. Premire tape : pc = y y c 2. Deuxime tape : rgression de q sur p, do : 2,2SLS = 2,2SLS y Sqy Sqy Sq p = = Sp p y Syy (y )2 Syy Sqy Sqy = Spy = Spy Syy Syy 76
Economtrie applique
L(X)
F IG . 5.2 Projection de Y sur L(X) lorsque cov(xk , k ) > 0 Dans ce cas, trouver une variable instrumentale revient trouver une variable z orthogonale , mais non orthogonale L(X). Autrement dit : cov(z, xk ) = 0 cov(z, ) = 0 On va ds lors pouvoir estimer les coefcients k en projettant orthogonalement nos vecteurs y et xk sur L(Z). En faisant ainsi, on ne retient de nos variable explicative xk que ce qui est (asymptotiquement) orthogonal aux perturbations : Figure 5.3. On remplace la rgression : y = X + 77
L(Z)
X PZ X IV
L(X)
F IG . 5.3 Projection des variables sur L(Z) par : PZ y = PZ X + PZ La matrice PZ est la matrice de projection orthogonale sur L(Z). Lestimateur du vecteur des coefcients est :
2SLS = (X Pz X)1 X PZ y
Remplaons PZ X, parX : 2SLS = (X X)1 X y On peut donc considrer que 2SLS est obtenu en rgressant y sur X, projection orthogonale des variables X sur L(Z). Cest la raison pour laquelle on appelle cette mthode "rgression deux tapes". On peut en effet considrer que lon fait tout dabord la rgression de X sur Z puis que lon rgresse y sur les valeurs estimes obtenues X. On peut dailleurs faire en pratique ces deux tapes pour obtenir 2SLS , plutt que de rgresser y sur X. Cependant, si les coefcients sont les mmes, la matrice des variances covariances nest pas bonne lorsque lon procde de la sorte, et cela pose problme pour estimer la signicativit des coefcients. On a en effet : V(2SLS ) = E[(2SLS )] = E[((X PZ X)1 X PZ )((X PZ X)1 X PZ ) ] 78
Economtrie applique
V(2SLS ) = E[(X PZ X)1 X PZ PZ X(X PZ X)1 ] = 2 (X PZ X)1
Or : 2 =
Lorsque lon opre la rgression en deux tapes, pour rgresser y sur X, on a : y = PZ X 2SLS Avec : 2SLS = (X PZ X)1 X PZ y. En consquence on a : RSS2SLS = (y PZ X2SLS ) (y PZ X2SLS ) Le RSS2SLS reprsente la somme des rsidu lorsque y est explique par PZ X. Or en ralit, une fois lestimation 2SLS obtenu, ces coefcients estims sont utilis pour prdire y partir de X et non de PZ X. Le RSS du modle est donc : RSS = (y X2SLS ) (y X2SLS ) Les logiciels calculent cette valeur de la RSS automatiquement lorsquon utilise une commande pour raliser des variables instrumentales (ivreg pour stata par exemple). Il faut faire attention au fait que la matrice de variance covariance ne sera par contre pas bonne si lon fait les deux tapes la main.
RSS N K
79
80
Annexes
81
83
On appelle transpose dune matrice A, note A en conomtrie, et souvent A en mathmatiques, la matrice dont les lignes sont formes avec les lments des colonnes de A. Il y a comme une symtrie par rapport la diagonale de la matrice. En particulier, le vecteur transpos dun vecteur ligne est un vecteur colonne et vice et versa : v1 v2 = . V = v1 v2 vn V (1,n) . (n,1) . vn
t
Un vecteur est une matrice une ligne ou une colonne. Le vecteur peut tre en colonne, ou en ligne. v11 v21 V = . U = u11 u12 u1m . (1,m) . (n,1) vn1
I. Oprations On peut multiplier deux matrices en avec une formule un peu complique crire formellement, mais trs simple raliser en pratique. Pour plus de simplicit, on peut poser le produit matriciel ainsi :
A . B = (n,m) (m,k)
.. .
84
Economtrie applique On aura remarqu que pour que ce produit ait un sens, il faut que le nombre de colonnes de A gale le nombre de lignes de B. Le produit de deux vecteurs dcoule de ce principe. Il suft de remplacer A et B par des vecteurs pourvu que le nombre de colonne de lun soit gal au nombre de ligne de lautre. Nous utiliserons souvent en conomtrie le produit dun vecteur V avec le vecteur transpos de V . Deux types de multiplications de ce type existent. La premire donne un scalaire (un nombre rel) qui est la somme des carrs des lments de V , la seconde donne une matrice compose des carrs des lments de V . Tout dpend de la place respective du vecteur V et de son vecteur transpos V dans la multiplication.
v1 v2 . . . vn
n
(1,n) (n,1)
V . V =
v1 v2 vn
2 vi i=1
V . V = (n,1) (1,n)
v1 v2 . . . vn
v1 v2 vn 2 v1 v1 v2 v1 vn 2 v1 v2 v2 v2 vn . . .. . . . . . 2 v1 vn vn
Une matrice A( n, n) est de rang n si son dterminant est non nul. Pour calculer le dterminant |A| de A : A = (n,n) a11 a12 a1n a21 a22 a2n . . .. . . . . . an1 an2 ann
Petite opration prliminaire, on marque chaque lment de la matrice dun plus ou dun moins selon la rgle simple : plus si i + j est pair, et moins si i + j est 85
A = (n,n)
On "dveloppe" selon une ligne ou une colonne, par exemple la premire colonne : a+ a.2n a a.1n 22 12 . a32 a3n a a.3n 32 +a21 (1) . . . + . .. .. . . . . . . . . . . . + . + an2 ann an2 ann
11 21
|A| =a11
+ an1 (1)(n+1)
a 12 a+ 22 . . .
.. .
a.1n a.2n . . .
a.n1,2 a+ n1,n
n1
ij est le cofacteur de llment aij , ij = (1)(i+j) fois le dterminant dune matrice extraite de A lorsque lon retire de A la ligne i et la colonne j 1 . On rapplique cette formule du calcul du dterminant chaque cofacteur jusqu obtenir des cofacteurs correspondant une matrice (1,1). Le cofacteur est alors gal au scalaire correspondant. L encore la pratique est plus aise que la comprhension de la description thorique. En particulier, il faut essayer de dvelopper selon les lignes ou les colonnes les plus simples (comprenant le plus de zros et de 1) pour simplier les calculs. Pour les matrices (2,2) qui seront sans doute lhorizon indpass de votre exprience en cours de matrise dconomtrie applique, les calculs sont simplicismes :
(2,2)
A =
a+ a 11 12 a a+ 21 22
Les signes insrs initialement dans la matrice A permettent de retrouver facilement le signe du cofacteur.
86
Economtrie applique Tout ceci nous permet darriver la formule de linverse dune matrice A : 11 12 1n 1 21 22 2n A1 = . . .. . |A| . . . . n1 n2 nn
En franais, A1 est gale la matrice transpose des cofacteurs de A divise par le dterminant de A. Il est vident que A1 nexiste que si le dterminant de A nest pas nul. Pour une matrice (2,2), le calcul est l encore simplicisme : A = a11 a12 a21 a22 , A1 = 1 a11 a22 a21 a12 a22 a12 a21 a11
(2,2)
87
88
89
90
Economtrie applique
La loi normale
0.50 0.51 0.52 0.53 0.54 0.55 0.56 0.57 0.58 0.59 0.60 0.61 0.62 0.63 0.64 0.65 0.66 0.67 0.68 0.69 0.70 0.71 0.72 0.73 0.74 0.75 0.76 0.77 0.78 0.79 0.80 0.81 0.82 0.83 0.84 0.85 0.86 0.87 0.88 0.89 0.90 0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98 0.99
0.000 0.0000 0.0251 0.0502 0.0753 0.1004 0.1257 0.1510 0.1764 0.2019 0.2275 0.2533 0.2793 0.3055 0.3319 0.3585 0.3853 0.4125 0.4399 0.4677 0.4959 0.5244 0.5534 0.5828 0.6128 0.6433 0.6745 0.7063 0.7388 0.7722 0.8064 0.8416 0.8779 0.9154 0.9542 0.9945 1.0364 1.0803 1.1264 1.1750 1.2265 1.2816 1.3408 1.4051 1.4758 1.5548 1.6449 1.7507 1.8808 2.0537 2.3263
0.001 0.0025 0.0276 0.0527 0.0778 0.1030 0.1282 0.1535 0.1789 0.2045 0.2301 0.2559 0.2819 0.3081 0.3345 0.3611 0.3880 0.4152 0.4427 0.4705 0.4987 0.5273 0.5563 0.5858 0.6158 0.6464 0.6776 0.7095 0.7421 0.7756 0.8099 0.8452 0.8816 0.9192 0.9581 0.9986 1.0407 1.0848 1.1311 1.1800 1.2319 1.2873 1.3469 1.4118 1.4833 1.5632 1.6546 1.7624 1.8957 2.0749 2.3656
0.002 0.0050 0.0301 0.0552 0.0803 0.1055 0.1307 0.1560 0.1815 0.2070 0.2327 0.2585 0.2845 0.3107 0.3372 0.3638 0.3907 0.4179 0.4454 0.4733 0.5015 0.5302 0.5592 0.5888 0.6189 0.6495 0.6808 0.7128 0.7454 0.7790 0.8134 0.8488 0.8853 0.9230 0.9621 1.0027 1.0450 1.0893 1.1359 1.1850 1.2372 1.2930 1.3532 1.4187 1.4909 1.5718 1.6646 1.7744 1.9110 2.0969 2.4089
0.003 0.0075 0.0326 0.0577 0.0828 0.1080 0.1332 0.1586 0.1840 0.2096 0.2353 0.2611 0.2871 0.3134 0.3398 0.3665 0.3934 0.4207 0.4482 0.4761 0.5044 0.5330 0.5622 0.5918 0.6219 0.6526 0.6840 0.7160 0.7488 0.7824 0.8169 0.8524 0.8890 0.9269 0.9661 1.0069 1.0494 1.0939 1.1407 1.1901 1.2426 1.2988 1.3595 1.4255 1.4985 1.5805 1.6747 1.7866 1.9268 2.1201 2.4573
0.004 0.0100 0.0351 0.0602 0.0853 0.1105 0.1358 0.1611 0.1866 0.2121 0.2378 0.2637 0.2898 0.3160 0.3425 0.3692 0.3961 0.4234 0.4510 0.4789 0.5072 0.5359 0.5651 0.5948 0.6250 0.6557 0.6871 0.7192 0.7521 0.7858 0.8204 0.8560 0.8927 0.9307 0.9701 1.0110 1.0537 1.0985 1.1455 1.1952 1.2481 1.3047 1.3658 1.4325 1.5063 1.5893 1.6849 1.7991 1.9431 2.1444 2.5121
0.005 0.0125 0.0376 0.0627 0.0878 0.1130 0.1383 0.1637 0.1891 0.2147 0.2404 0.2663 0.2924 0.3186 0.3451 0.3719 0.3989 0.4261 0.4538 0.4817 0.5101 0.5388 0.5681 0.5978 0.6280 0.6588 0.6903 0.7225 0.7554 0.7892 0.8239 0.8596 0.8965 0.9346 0.9741 1.0152 1.0581 1.1031 1.1503 1.2004 1.2536 1.3106 1.3722 1.4395 1.5141 1.5982 1.6954 1.8119 1.9600 2.1701 2.5758
0.006 0.0150 0.0401 0.0652 0.0904 0.1156 0.1408 0.1662 0.1917 0.2173 0.2430 0.2689 0.2950 0.3213 0.3478 0.3745 0.4016 0.4289 0.4565 0.4845 0.5129 0.5417 0.5710 0.6008 0.6311 0.6620 0.6935 0.7257 0.7588 0.7926 0.8274 0.8633 0.9002 0.9385 0.9782 1.0194 1.0625 1.1077 1.1552 1.2055 1.2591 1.3165 1.3787 1.4466 1.5220 1.6072 1.7060 1.8250 1.9774 2.1973 2.6521
0.007 0.0175 0.0426 0.0677 0.0929 0.1181 0.1434 0.1687 0.1942 0.2198 0.2456 0.2715 0.2976 0.3239 0.3505 0.3772 0.4043 0.4316 0.4593 0.4874 0.5158 0.5446 0.5740 0.6038 0.6341 0.6651 0.6967 0.7290 0.7621 0.7961 0.8310 0.8669 0.9040 0.9424 0.9822 1.0237 1.0669 1.1123 1.1601 1.2107 1.2646 1.3225 1.3852 1.4538 1.5301 1.6164 1.7169 1.8384 1.9954 2.2262 2.7478
0.008 0.0201 0.0451 0.0702 0.0954 0.1206 0.1459 0.1713 0.1968 0.2224 0.2482 0.2741 0.3002 0.3266 0.3531 0.3799 0.4070 0.4344 0.4621 0.4902 0.5187 0.5476 0.5769 0.6068 0.6372 0.6682 0.6999 0.7323 0.7655 0.7995 0.8345 0.8705 0.9078 0.9463 0.9863 1.0279 1.0714 1.1170 1.1650 1.2160 1.2702 1.3285 1.3917 1.4611 1.5382 1.6258 1.7279 1.8522 2.0141 2.2571 2.8782
0.009 0.0226 0.0476 0.0728 0.0979 0.1231 0.1484 0.1738 0.1993 0.2250 0.2508 0.2767 0.3029 0.3292 0.3558 0.3826 0.4097 0.4372 0.4649 0.4930 0.5215 0.5505 0.5799 0.6098 0.6403 0.6713 0.7031 0.7356 0.7688 0.8030 0.8381 0.8742 0.9116 0.9502 0.9904 1.0322 1.0758 1.1217 1.1700 1.2212 1.2759 1.3346 1.3984 1.4684 1.5464 1.6352 1.7392 1.8663 2.0335 2.2904 3.0902
91
1 m 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
0.60 0.325 0.289 0.277 0.271 0.267 0.265 0.263 0.262 0.261 0.260 0.260 0.259 0.259 0.258 0.258 0.258 0.257 0.257 0.257 0.257 0.257 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255 0.255
0.70 0.727 0.617 0.584 0.569 0.559 0.553 0.549 0.546 0.543 0.542 0.540 0.539 0.538 0.537 0.536 0.535 0.534 0.534 0.533 0.533 0.532 0.532 0.532 0.531 0.531 0.531 0.531 0.530 0.530 0.530 0.530 0.530 0.530 0.529 0.529 0.529 0.529 0.529 0.529 0.529 0.529 0.528 0.528 0.528 0.528 0.528 0.528 0.528 0.528 0.528
0.80 1.376 1.061 0.978 0.941 0.920 0.906 0.896 0.889 0.883 0.879 0.876 0.873 0.870 0.868 0.866 0.865 0.863 0.862 0.861 0.860 0.859 0.858 0.858 0.857 0.856 0.856 0.855 0.855 0.854 0.854 0.853 0.853 0.853 0.852 0.852 0.852 0.851 0.851 0.851 0.851 0.850 0.850 0.850 0.850 0.850 0.850 0.849 0.849 0.849 0.849
0.90 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 1.309 1.309 1.308 1.307 1.306 1.306 1.305 1.304 1.304 1.303 1.303 1.302 1.302 1.301 1.301 1.300 1.300 1.299 1.299 1.299
0.95 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 1.696 1.694 1.692 1.691 1.690 1.688 1.687 1.686 1.685 1.684 1.683 1.682 1.681 1.680 1.679 1.679 1.678 1.677 1.677 1.676
0.9750 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.040 2.037 2.035 2.032 2.030 2.028 2.026 2.024 2.023 2.021 2.020 2.018 2.017 2.015 2.014 2.013 2.012 2.011 2.010 2.009
0.9900 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 2.453 2.449 2.445 2.441 2.438 2.434 2.431 2.429 2.426 2.423 2.421 2.418 2.416 2.414 2.412 2.410 2.408 2.407 2.405 2.403
0.9950 63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.744 2.738 2.733 2.728 2.724 2.719 2.715 2.712 2.708 2.704 2.701 2.698 2.695 2.692 2.690 2.687 2.685 2.682 2.680 2.678
0.9990 318.309 22.327 10.215 7.173 5.893 5.208 4.785 4.501 4.297 4.144 4.025 3.930 3.852 3.787 3.733 3.686 3.646 3.610 3.579 3.552 3.527 3.505 3.485 3.467 3.450 3.435 3.421 3.408 3.396 3.385 3.375 3.365 3.356 3.348 3.340 3.333 3.326 3.319 3.313 3.307 3.301 3.296 3.291 3.286 3.281 3.277 3.273 3.269 3.265 3.261
0.9995 636.619 31.599 12.924 8.610 6.869 5.959 5.408 5.041 4.781 4.587 4.437 4.318 4.221 4.140 4.073 4.015 3.965 3.922 3.883 3.850 3.819 3.792 3.768 3.745 3.725 3.707 3.690 3.674 3.659 3.646 3.633 3.622 3.611 3.601 3.591 3.582 3.574 3.566 3.558 3.551 3.544 3.538 3.532 3.526 3.520 3.515 3.510 3.505 3.500 3.496
92
Economtrie applique
Limites des valeurs critiques de la statistique de DURBIN-WATSON signicativit de 5%, points QL et QU N 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 45 50 55 60 65 70 75 80 85 90 95 100 =2 QL QU 1.077 1.361 1.106 1.371 1.133 1.381 1.158 1.392 1.180 1.401 1.201 1.411 1.221 1.420 1.240 1.429 1.257 1.437 1.273 1.446 1.288 1.454 1.302 1.461 1.316 1.468 1.328 1.476 1.341 1.483 1.352 1.489 1.363 1.496 1.373 1.502 1.383 1.508 1.393 1.514 1.402 1.519 1.411 1.524 1.419 1.530 1.427 1.535 1.435 1.540 1.442 1.544 1.475 1.566 1.503 1.585 1.527 1.601 1.549 1.616 1.567 1.629 1.583 1.641 1.598 1.652 1.611 1.662 1.624 1.671 1.635 1.679 1.645 1.687 1.654 1.694 =3 QL QU 0.945 1.543 0.982 1.539 1.015 1.536 1.046 1.535 1.075 1.535 1.100 1.537 1.125 1.538 1.147 1.541 1.168 1.543 1.188 1.546 1.206 1.550 1.224 1.553 1.240 1.556 1.255 1.560 1.270 1.563 1.284 1.567 1.297 1.570 1.309 1.573 1.321 1.577 1.332 1.580 1.343 1.584 1.354 1.587 1.364 1.590 1.373 1.594 1.382 1.597 1.391 1.600 1.430 1.615 1.462 1.628 1.490 1.640 1.514 1.652 1.536 1.662 1.554 1.671 1.571 1.680 1.586 1.688 1.600 1.696 1.612 1.703 1.623 1.709 1.634 1.715 =4 QL QU 0.814 1.750 0.857 1.728 0.897 1.710 0.933 1.696 0.967 1.685 0.998 1.676 1.026 1.669 1.053 1.664 1.078 1.660 1.101 1.657 1.123 1.654 1.143 1.652 1.162 1.651 1.181 1.650 1.198 1.650 1.214 1.650 1.229 1.650 1.244 1.650 1.258 1.651 1.271 1.652 1.283 1.653 1.295 1.654 1.307 1.655 1.317 1.656 1.328 1.658 1.338 1.659 1.383 1.666 1.421 1.674 1.452 1.681 1.480 1.689 1.503 1.696 1.524 1.703 1.543 1.709 1.560 1.715 1.575 1.721 1.589 1.726 1.602 1.732 1.613 1.736 =5 QL QU 0.685 1.977 0.734 1.935 0.779 1.900 0.820 1.872 0.859 1.848 0.894 1.828 0.927 1.812 0.958 1.797 0.986 1.786 1.013 1.775 1.038 1.767 1.062 1.759 1.083 1.753 1.104 1.747 1.124 1.743 1.143 1.739 1.160 1.735 1.177 1.732 1.193 1.730 1.208 1.728 1.222 1.726 1.236 1.725 1.249 1.723 1.261 1.723 1.273 1.722 1.285 1.721 1.336 1.720 1.378 1.721 1.414 1.724 1.444 1.727 1.471 1.731 1.494 1.735 1.515 1.739 1.534 1.743 1.551 1.747 1.566 1.751 1.579 1.755 1.592 1.758 =6 QL QU 0.562 2.220 0.615 2.157 0.664 2.104 0.710 2.060 0.752 2.022 0.792 1.991 0.828 1.964 0.863 1.940 0.895 1.919 0.925 1.902 0.953 1.886 0.979 1.873 1.004 1.861 1.028 1.850 1.050 1.841 1.070 1.833 1.090 1.825 1.109 1.819 1.127 1.813 1.144 1.807 1.160 1.803 1.175 1.799 1.190 1.795 1.204 1.792 1.218 1.789 1.231 1.786 1.287 1.776 1.334 1.771 1.374 1.768 1.408 1.767 1.438 1.767 1.464 1.768 1.486 1.770 1.507 1.772 1.525 1.774 1.542 1.776 1.557 1.778 1.571 1.780
93
94
95
(bi ai )
Ainsi, sur R la longueur dun segment [a, b] est b a, et sur R2 la mesure dun rectangle est (b1 a1 )(b2 a2 ). Plus gnralement, on dnit une mesure (positive) sur un espace X comme une application satisfaisant ces deux principes : i () = 0 ii Pour toute suite (An )n1 de parties de X,
n=1
An
n=1
(An )
La premire condition implique que la mesure dune partie vide de X est nulle, et que la mesure de lunion de deux parties distinctes est la somme des mesure des parties (la mesure de la surface de deux carrs distincts est la somme des surfaces des deux carrs). Les mesures de Lebesgues sont des mesures particulires. De mme une mesure de probabilit est un type de mesure particulier. Une mesure de probabilit possde une proprit additionnelle : iii (X) = 1 La mesure sur lensemble de lespace est gale 1. On note usuellement P les mesures de probabilit. Soit P une mesure de probabilit, et A une partie de X, P (A) est la probabilit de A mesure par P .
La thorie actuelle des probabilit mobilise laxiomatique de Kolmogorov, qui fut le premier dans les annes 30 formaliser rigoureusement mathmatiquement la thorie des probabilits.
1
96
Economtrie applique Lois et densit de probabilit Supposons une plage stendant dun point A un point B. Sur cette plage se trouvent des plagistes. Ces derniers ne sont pas rpartis de manire homogne. En particulier la prsence dune vendeur de glace au milieu (C) en attire un plus grand nombre. On se propose grce un histogramme de reprsenter la rpartition de la population des plagistes sur AB. On dcoupe la plage en segments gaux de longueur AB/20. Ce faisant, on a dj utilis une mesure, la mesure de comptage qui associe chaque partie, le nombre dlments contenu dans cette partie. Ici on a mesur le nombre de plagistes sur chaque parcelle de plage. Supposons maintenant que lon divise les valeurs reprsentes dans notre histogramme par le nombre total de plagistes sur AB, an de reprsenter les proportions de plagistes de AB prsents sur chaque parcelle. Si vous avez suivi ce qui prcde vous aurez devin que ce faisant on a remplac la mesure de comptage sur AB par une mesure de probabilit P . La proportion de plagistes de la plage AB prsents sur la plage AB est en effet gale un... Notre histogramme reprsente prsent une mesure de probabilit sur AB. Supposons que Marc ait rendez-vous avec Julie sur la plage. Sil na aucune indication sur sa place a priori, les valeurs de lhistogramme lui donnent la probabilit de trouver Julie sur telle ou telle parcelle. Numrotons les parcelles de 1 20 de A vers B. Soit x le numro de la parcelle o se trouve Julie, x est appel la ralisation dune variable alatoire X. On appelle loi de probabilit, une mesure de probabilit associe une variable alatoire : elle donne pour toute pav dun espace Rp , la probabilit que X se trouve dans ce pav. Notre histogramme reprsente la loi de probabilit de X : pour chaque parcelle de AB, il nous donne la probabilit que x soit cette parcelle, et pour tout ensemble de parcelle, la somme des probabilit nous donne la probabilit que x appartienne cet ensemble de parcelles. Cette loi est discrte : elle nous donne donne des valeurs positives pour la probabilit des vnements : Pr(x = 2) par exemple. Supposons prsent que notre plage est trs grande et trs fortement peuple, on peut alors dcouper cette plage en parcelles de plus en plus petites. De telle sorte que la probabilit de trouver Julie sur une parcelle donne devient trs petite, et tend vers 0. Notre histogramme devient prsent une courbe lisse. Il ne permet plus de mesurer la probabilit de trouver Julie en un point (une petite parcelle), mais la surface sous la courbe entre deux points reprsente la probabilit de trouver Julie sur ce segment. La loi de probabilit de X est prsent continue, et notre courbe reprsente les valeurs de la densit de probabilit de X. Soit f cette densit, on a : d Pr f (x) = dx La densit de probabilit reprsente donc la vitesse de laugmentation de proba97
98
Bibliographie
G REENE , W. (2000) : Econometric analysis. Prentice Hall International, London. P INDICK , R., ET D. RUBINFELD (1999) : Econometric Models and Economic Forecasts. Mc GrawHill. WOOLDRIDGE , J. (2002) : Econometric analysis of cross section and panel data. MIT Press, Cambridge Massachussets.
99
Index
quations normales, 7, 17 quations simultanes, 67 2SLS, voir variables instrumentales autocorrlation, 27 autocorrlation, 5562 biais des variables manquantes, 18 bruit blanc, 27 efcacit de lestimateur, 26 endognit, 20, 65 quations normales, 17, 69 erreurs de mesure, 65 Fisher loi de -, 32 forme rduite, 71 htroscdasticit, 51 htroscdsticit, 55 homoscdasticit, 27 identication, 71 multicolinarit, 19 Newey-West correction de -, 59 rgion dacceptation, 33 risque de deuxime espce, 33 risque de premire espce, 33, 34 Spurious correlation, 16 Student loi de -, 32 100 t-test, 35 test, 33 de BreuschPagan, 53 de Chow, 46 de CookWeisberg, 53 de DurbinWatson, 5759 de GoldfeldQuandt, 52 de Wald, 4143 de White, 52 du 2 , 57 en terme de RSS, 4041 test asymtrique, 37 test symtrique, 37 two stages least squares, voir variables instrumentales variable explicative, 33, 34 variables endognes, 21 variables instrumentales, 68, 78 variables manquantes, voir biais des variables manquantes biais des -, 15 Variables muettes, 46