Beruflich Dokumente
Kultur Dokumente
Figueiredo
Econometria
Prof. Adriano Marcos Rodrigues Figueiredo
Verso de 21/01/20081
CUIAB - MT
SUMRIO
1.
2.
3
4
5
6.
Introduo.......................................................................................................................... 3
Pressuposies do Modelo de Regresso Linear Clssico ................................................ 4
2.1. Pressuposio 1: A relao entre Y e X linear......................................................... 6
2.2. Pressuposio 2: O erro aleatrio tem mdia zero ..................................................... 9
2.3. Pressuposio 3: O erro aleatrio tem varincia constante (presena de
homocedasticidade) ............................................................................................................... 9
2.4. Pressuposio 4: Os erros aleatrios so independentes (ou no
autocorrelacionados) ............................................................................................................ 10
2.5. Pressuposio 5: As variveis explicativas so no aleatrias (so fixas) ............... 11
2.6. Pressuposio 6: O erro tem distribuio normal, com mdia zero e varincia
constante: ............................................................................................................................. 11
2.7. Pressuposio 7: Ausncia de relao linear exata entre as variveis
explicativas (no multicolinearidade) .................................................................................. 12
Estimao ........................................................................................................................ 13
Anexo 1: Estimao utilizando matrizes no Excel: ............................................................. 19
Anexo 2: Exerccios: ............................................................................................................ 20
Violaes nas Pressuposies Clssicas do Modelo de Regresso Linear ..................... 24
4.1. Pressuposio 1: A relao entre Y e X linear....................................................... 24
4.2. Pressuposio 2: O erro aleatrio tem mdia zero ................................................... 31
4.3. Pressuposio 3: O erro aleatrio tem varincia constante (presena de
homocedasticidade) ............................................................................................................. 37
4.4. Pressuposio 4: Os erros aleatrios so independentes (ou no
autocorrelacionados) ............................................................................................................ 53
4.5. Pressuposio 5: As variveis explicativas so no aleatrias (so fixas) ............... 65
4.6. Pressuposio 6: O erro tem distribuio normal, com mdia zero e varincia
constante: ............................................................................................................................. 65
4.7. Pressuposio 7: Ausncia de relao linear exata entre as variveis
explicativas (no multicolinearidade) .................................................................................. 68
4.8. Resumo ..................................................................................................................... 72
Referncias Bibliogrficas .............................................................................................. 73
Programas Recomendados .............................................................................................. 73
1. Introduo
A Econometria como a utilizao da estatstica aplicada economia tem como
instrumento fundamental a anlise de regresso, que consiste na obteno dos parmetros para
uma dada relao existente entre as variveis dependentes e independentes.
Na regresso linear simples (RLS), estima-se a relao existente entre apenas 2
variveis, uma dependente (endgena ou explicada), Y, e uma independente (exgena ou
explicativa ou explicadora), X, como uma funo matemtica qualquer: Y = f (X).
Na regresso linear mltipla (RLM), estima-se a relao existente entre mais de duas
variveis: Y = f (X1, X2, ..., Xn).
O modelo a ser estimado normalmente possui componente aleatrio, requerendo a
incluso de um erro que captar os efeitos das variveis importantes para explicar Y, mas que
no esto no modelo. Representa-se ento, o efeito das demais variveis explicativas por um
termo aditivo ui, denominado resduo ou erro. O modelo torna-se:
cuja expresso geral matricial
em que uma matriz de parmetros a serem estimados (incluindo o intercepto e os
coeficientes angulares) e um vetor de resduos ou erros aleatrios.
O formato matricial linear aberto ser:
Y1 1 X 11
Y 1 X
21
2 =
M M M
Yn 1 X n1
L X 1k 0 1
L X 2 k 1 2
+
O M M M
L X nk k n
Y1
1 X 11
Y
1 X
2
21
Y=
;X =
M
M M
Yn n x 1
1 X n1
L X 1k
0
1
L X 2k
1
; =
; = 2
M
M
O M
L X nk n x ( k +1 )
k ( k +1 ) x 1
n n x 1
omisso de variveis
problemas de especificao
Pode-se dizer que Y nunca pode ser previsto exatamente. Portanto, para cada valor de
X, existe uma distribuio de probabilidade dos valores de Y, com mdia
e varincia constante 2.
O objetivo da anlise de regresso estimar uma curva atravs da nuvem de pontos do
diagrama de disperso, sendo que a forma da curva deve ser pressuposta pelo pesquisador.
Neste caso, a teoria a respeito da relao estudada, a anlise da disperso dos pontos e os
estudos anteriores acerca desta relao ajudaro nesta definio.
1. Relao Linear
Problema
(o que acontece se as
pressuposies no forem atendidas)
Notao Escalar
Notao Matricial
Y = X +
No linearidade,
Erro de especificao dos Xs
Erro de especificao
Heterocedasticidade
E() = I
Autocorrelao
A matriz X no-estocstica
Cov(X, ) = 0
Multicolinearidade
i ~ N (0, )
Erros no-normais
~ N (0, I)
i = 1, 2, 3, ..., n
* Em que Y = [Yi] um vetor nX1 das observaes da varivel dependente; X = [Xij] uma matriz nXp das observaes das variveis independentes; = [i]
um vetor nX1 dos erros aleatrios; = [j], j = 0, 1, 2, ..., k um vetor pX1 de parmetros a serem estimados; a varincia do erro, tambm a ser estimada; I
uma matriz identidade de ordem mXn; k o nmero de variveis independentes; p = K + 1 o nmero de parmetros; n o nmero de observaes; E
significa valor esperado ou esperana matemtica.
Agradeo a Andrea Francisca Conceio Mendes pela digitao desta tabela.
7. Erro tem distribuio normal
Forma funcional
Y = AX11 X 2 2 X 3 3 e
em que os parmetros podem assumir valores diferentes de um e, ainda, tem-se a
multiplicao de variveis explicativas. A funo acima pode ser linearizada transformandose as variveis em logaritmos, obtendo:
lnY = lnA + 1.lnX1 + 2.lnX2 + 3. lnX3 +
Y * = 0 + 1X1* + 2 X *2 + 3 X *3 +
A funo linearizada pode ser estimada da forma tradicional lembrando que os
parmetros estimados sero agora da funo transformada, que no caso log-log (CobbDouglas), equivalem s elasticidades. A funo transformada pode ser vista como linear nos
parmetros (os parmetros so todos em primeira potncia) e nas variveis transformadas
(X*=lnX).
Outros modelos no podem ser transformados e so os chamados intrinsecamente nolineares. Por exemplo, possvel perceber que a funo abaixo no pode ser linearizada:
Y = A1 + 2 e 3X1 + 4 e5X 2 + e
Esses modelos devem ser estimados por Mnimos Quadrados No-Lineares ou
Mxima Verossimilhana No-Linear.
Algumas formas funcionais utilizadas em economia da produo podem ser:
Cobb-Douglas logaritmizada:
log y = a 0 + a i log x i
i =1
y = a 0 + a i x i
CES:
i =1
Generalizada Leontief:
i =1
i =1 j=1
Translog:
Quadrtica:
y = a 0 + a i x i + a ij x i x j
i =1 j=1
y = a 0 + a i x i + a ij x i x j
i =1
i =1 j=1
demandada (Q) de um produto seja funo do preo do produto (P) e da renda (R), e que o
comportamento da demanda do produto analisado na realidade est em conformidade com a
teoria. O modelo correto seria:
(A) Qt = 0 + 1.Pt + 2.Rt + t*
em que os so parmetros estimados e o resduo aleatrio.
Imagine agora que, por algum motivo, estimou-se a demanda em funo apenas do
preo do produto, fazendo:
(B) Qt = 0 + 1.Pt + t.
em que so parmetros e as demais variveis como anteriormente citadas.
A questo : quais as conseqncias sobre os estimadores de M.Q.O. (ou sobre os
estimados)? Qual o efeito sobre 0 e 1 em razo da excluso de R do modelo?
Se Pt for altamente correlacionado com Rt, a retirada de Rt trar um alto vis (alta
tendenciosidade) e os parmetros estimados sero muito diferentes do valor esperado:
estimado E()
ou seja, os parmetros estimados sero inconsistentes e no limite E() .
Os testes de hipteses no sero vlidos e as estimativas de varincias tambm sero
tendenciosas.
explicativas do que as que deveriam estar no modelo correto. Imagine que o modelo deveria
ter apenas P e que foi estimado com P e Z, sendo Z uma varivel irrelevante no modelo.
(A) Qt = 0 + 1.Pt + t.
modelo correto
i = 1, 2, ..., n
Ou na forma matricial,
E() = 0
Dado que E() = 0, ento E(Y) = E[ X + ] = E[ X] +E[ ] = E[ X] + 0
Portanto, E(Y) = X e o modelo fornece solues adequadas estatisticamente. Essa
pressuposio importante para ter confiana na estimao por = (XX)-1XY. Caso os
erros no tenham mdia zero, o estimador = (XX)-1XY ser tendencioso.
presena de Heterocedasticidade
10
observao diferente entre as observaes. A amostra vem de uma populao onde os erros
no so homogneos.
1
= 2
M
n n x 1
11
21
1 2
2
2 1 2
Var Cov ( ) = E ( ) = E
M
M
n 1 n 2
0
2
E ( ) = I = E
M
0
2
M
0
L 1 n
L 2 n
O
M
L 2n
L 0
O M
L 2
L
Assim, ao escrever que var-cov() = 2.I, ao mesmo tempo se diz que as varincias so
homocedsticas iguais a 2 (diagonal principal tem todos os valores iguais a 2, i=j) e que as
autocorrelaes entre resduos de observaes distintas so nulas (valores nulos fora da
diagonal principal, ij).
i = 1, 2, ..., n
12
13
Prticas:
1. aumenta as varincias dos parmetros estimados:
aumenta V() = s2(XX)-1
(XX)-1 = (1/|XX|) . Adj(XX)
como |XX| 0 => (XX)-1 e V()
2. aumenta erro-padro
3. reduz t => induz no-significncia => estarei aceitando o fato de que ela
no importante no modelo em virtude da multicolinearidade
4. Estimativas muito sensveis: tirando uma ou duas observaes, as estimativas
alteram muito => melhor ter um modelo onde as alteraes no alteram
muito as estimativas, uma certa estabilidade do modelo em termos de
magnitudes e sinais
3 Estimao
14
Y X
' = Y X
)(
X Y +
X X
' = Y Y Y X
( ' )
=0
= 2 X Y + 2 X X
= X Y
X X
= ( X X )1 X Y
Vlida para no
multicolinearidade de X
Portanto, o estimador dos parmetros pelo mtodo de Mnimos Quadrados Ordinrios
(MQO) :
1
X Y
(k+1 x 1) = ( X X )
ee
SQRes SQRes
=
=
n p
n p
G.L.
)= E
Var Cov(
mas
= ( X X )1 X Y
)(
= ( X X )1 X ( X + ) = ( X X )1 X X + ( X X )1 X
= I . + ( X X )1 X
= ( X X )1 X
) = E ( X X )1 X ( X X )1 X
Var Cov(
1
1
) = E ( X X ) X X ( X X )
Var Cov(
)(
15
) = ( X X )1 X E [ ] X ( X X )1
Var Cov(
) = ( X X )1 X 2 IX ( X X )1
Var Cov(
Ou seja,
) = 2 ( X X ) X X ( X X )
Var Cov(
1
) = 2 I ( X X )1
Var Cov(
) = 2 ( X X ) 1
Var Cov(
ou
) = s 2 ( X X )1
Var Cov(
Desta forma, tem-se as equaes essenciais para a estimao. Segue quadro resumo
abaixo, com os estimadores de MQO.
Quadro 2. Estimadores de Mnimos Quadrados Ordinrios.
Estimadores dos
parmetros
= ( X X )1 X Y
ee
SQRes SQRes
=
=
n p
n p
G.L.
) = s 2 ( X X )1
Var Cov(
s2 =
O valor dos erros padres dos parmetros sero obtidos a partir da raiz da varincia
dos parmetros, ou seja, tirando-se a raiz da diagonal principal da var-cov().
Os parmetros devem ter anlise de significncia, por meio de um teste de hiptese do
tipo t-Student:
H0 : j = 0
H1 : j 0
tcalculado =
( bilateral )
j
s
~ tn p
G .L.
Os softwares economtricos em geral disponibilizam o valor da probabilidade (pvalue) associado ao valor de t calculado. Desta forma, pode-se comparar com nveis
predeterminados de significncia para rejeitar ou no a hiptese nula. Em geral, costuma-se
observar os p-values comparando a 10%, 5% ou 1% para concluir a respeito da hiptese nula.
Espera-se, para que a varivel X tenha efeito no-nulo sobre Y, que rejeite-se a hiptese nula
e que assim, os valores calculados dos parmetros permitam uma interpretao econmica
deste efeito.
16
Y
(reta estimada)
SQTot=SQReg + SQRes
Em que SQTot a soma dos quadrados totais (relativa variao total), SQRes a
soma do quadrado dos resduos (relativa variao no explicada) e SQReg a soma dos
quadrados da regresso (relativa variao explicada por X).
SQTot = yi2 = yi2 + 2 yi e i + e i2 = ( Yi Y ) = Y Y nY 2
2
X Y
SQRes = e i2 = e' e = Y Y
SQReg = yi2 = Yi Y
= Y Y nY 2
17
X Y nY 2
X Y
Y Y
= 1
2
Y Y nY
Y Y nY 2
SQRes
( n-p )
R2 = 1
SQTot
( n-1)
Em gral, quanto maior o nmero de variveis X, maior o valor de R2, mas para o R2
ajustado esta regra no vale. Justamente para evitar a incluso equivocada de variveis
explicativas que se usa o R2 ajustado. Assim, a incluso de uma varivel irrelevante poder
elevar o valor de R2, mas no necessariamente elevar o valor de R2 ajustado.
2
2
Se n for grande e p pequeno em relao a n, a diferena entre R e R ser pequena.
Se n for pequeno e p grande em relao a n, a diferena entre ambos pode ser grande e o valor
ajustado ser mais importante.
Outro indicador o Teste F da regresso (F-statistic). Procura-se saber se o modelo
tem suporte estatstico. o Teste de significncia global da regresso: os Xs em conjunto
explicam Y de forma significativa. A hiptese nula de que todos os parmetros em conjunto
so nulos. A Hiptese alternativa prev pelo menos um parmetro no nulo.
H 0 : 1 = 0,2 = 0,...,k = 0
H1 : pelo menos um
Define-se a estatstica de teste como:
i 0
18
SQReg
p-1
F=
~ Fp 1,n p
SQRes
G .L.
n-p
Se Fcalculado > Ftabelado , ento rejeita-se H0 e concluo pela existncia de ao menos um X
explicando Y. Deseja-se um P-value (F de significao) menor que 10%, 5% ou 1%,
similarmente ao teste de t dos parmetros.
Esses indicadores em geral so obtidos em todos os softwares economtricos ou
estatsticos. Pode-se mencionar alguns: Excel, Eviews, Stata, SAS, SPSS, Gauss, MatLab,
TSP. Alguns sites podem auxiliar ao leitor:
http://www.oswego.edu/~economic/econsoftware.htm
http://www.economics.ltsn.ac.uk/software/econometrics.htm
http://emlab.berkeley.edu/eml/index.shtml
O anexo apresenta rotinas para execuo dos clculos usando matrizes no Excel. Um
software bastante interessante, plataforma livre e com verso em portugus o GRETL, no
link: http://gretl.sourceforge.net/gretl_portugues.html .
19
20
Anexo 2: Exerccios:
1. De acordo com a metodologia economtrica, responda verdadeiro (V) ou falso (F):
( ) A heterocedasticidade um problema no modelo de regresso clssico pois altera os
erros-padres dos parmetros.
21
22
Coefficient
Std. Error
t-Statistic
Prob.
C
LOG(IGP)
LOG(PIB)
LOG(U)
-17.74151
-0.020270
2.450833
0.425183
3.737840
0.002273
0.407685
0.068249
-4.746459
-8.918010
6.011589
6.229885
0.0001
0.0000
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.818600
0.792686
0.082646
0.143439
29.03559
1.724283
5.414171
0.181513
-2.002847
-1.807827
31.58878
0.000000
Dependent Variable: W
Method: Least Squares
Date: 03/22/06 Time: 11:10
Sample: 1980 2004
Included observations: 25
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
IGP
PIB
U
-290.8117
-0.326847
0.046182
21.07782
327.1702
0.193898
0.034176
8.048040
-0.888870
-1.685664
1.351321
2.619000
0.3841
0.1067
0.1910
0.0160
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.255609
0.149268
37.48923
29514.30
-123.8954
0.607152
228.0943
40.64528
10.23163
10.42665
2.403666
0.096187
7. Seja um exemplo do PIB Real (REALGDP) como funo do Consumo Real (REALCONS),
Investimento Real (REALINVS), Gastos Reais do Governo (REALGOVT), e Transaes
Lquidas Reais com o Exterior (REALINT), OBS a varivel de tendncia. Encontre o R2, R2
ajustado, os coeficientes, erros-padres e valores de t para completar os resultados e
analise-os a seguir:
23
Coefficient
REALCONS
REALINVS
REALGOVT
REALINT
OBS
C
1.123936
0.516396
0.538837
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
1.928942
121.9011
40.65281
327224.9
-1042.252
0.246057
Std. Error
0.044046
0.056164
1.089732
0.370999
24.04763
t-Statistic
Prob.
44.48754
11.72401
9.594029
-1.558385
0.0000
0.0000
0.0000
0.1207
0.0000
0.0000
5.069154
4562.646
2113.962
10.27698
10.37458
109744.5
0.000000
24
4.1.
O nome vem do pesquisador Ramsey para o Regression Specification Error Test ou teste de erro de
especificao da regresso (No Eviews, ver na janela da equao o teste de estabilidade (Stability
Tests) e definir o nmero de termos estimados).
O teste baseado na regresso aumentada
Y = X + Z +
em que X so as variveis explicativas e Z so variveis dependentes estimadas e elevadas a uma
potncia
Z = [ Yest2 Yest3 Yest4]
aumentada).
A idia olhar a significncia dos para ver se os termos acrescentados so relevantes no
modelo, indicando erro de especificao.
Procedimento do teste:
1) estima-se Y = X +
2) obtm-se os valores previstos de Y e gera-se Yest2 Yest3
ou mais se
Ramsey, J. B. (1969) Tests for Specification Errors in Classical Linear Least Squares Regression Analysis, Journal
25
5) Estatstica de Teste;
2
2
Rnovo
Rvelho
nmero de novos regressores (m)
F=
2
1 Rnovo
n nmero parametros no novo mod elo (p)
F ~ Fm,n-p
m o nmero de novos regressores
n-p o nmero de observaes menos o nmero de parmetros no
novo modelo
6) Comparar o F do item 5 com o F da tabela, para o nvel de significncia,
numerador m e denominador n-p. Como a hiptese nula de que no h
Implementao no Eviews:
No Eviews, aps a estimao dos parmetros, abre-se a janela da equao e depois clica-se
em View, e posteriormente em Stability Tests. A opo do teste RESET aparecer em outra janela
perguntando quantos termos ajustados sero includos (fitted terms). O aluno deve estabelecer
quantos termos (sugere-se at 3) e clica-se em ok. O programa gerar a estatstica de teste RESET
de Ramsey, mas aqui a hiptese nula um pouco diferente do teste calculado anterior, pois o
programa testa se todos os parmetros so zeros, o que indicar que no h erro. Portanto, se a
probabilidade de F do Eviews for abaixo do nvel de significncia (por exemplo, 10%) (F alto),
pode-se dizer que rejeita-se a hiptese nula e existe um erro de especificao. Se o F for baixo,
aceita-se que =0 e, portanto, no h erro de especificao.
No exemplo, mostra-se que existe erro de especificao.
Tabela 1. Exemplo de sada do Eviews para o Ramsey RESET Test.
Ramsey RESET Test:
F-statistic
Log likelihood ratio
5.281559
15.74446
Probability
Probability
0.001932
0.001279
26
Test Equation:
Dependent Variable: QSOJA
Method: Least Squares
Date: 06/06/03 Time: 14:57
Sample: 1988:09 1998:05
Included observations: 117
Variable
Coefficient
Std. Error
t-Statistic
Prob.
FERTILIZANTE
TRATOR
MO
C
FITTED^2
FITTED^3
FITTED^4
304.1298
18591.29
115237.7
-230604.7
2.664804
-0.005642
4.43E-06
135.0469
8231.767
51069.36
101861.3
1.165269
0.002453
1.92E-06
2.252031
2.258481
2.256493
-2.263908
2.286857
-2.300025
2.302617
0.0263
0.0259
0.0260
0.0255
0.0241
0.0233
0.0232
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.532456
0.506954
39.33059
170158.4
-592.0310
0.770973
322.2544
56.01272
10.23985
10.40510
20.87869
0.000000
Outra forma olhar os diferentes modelos e comparar o R2 ajustado. Quanto mais prximo
de 1 melhor ser a estimao. deficiente para o caso de varivel omitida.
Outras opes so observar os coeficientes do critrio de Akaike e Schwarz, fornecidos na
sada da estimao do Eviews. Menores coeficientes AIC e SIC indicam melhores ajustamentos da
regresso, mas s podem ser comparados se as unidades das variveis das diferentes regresses
forem as mesmas (por exemplo, no se aplica numa comparao entre Y e outra com LogY). Devese olhar todos os critrios para melhor anlise dos resultados.
O Critrio de Informao de Akaike (ou AIC de Akaikes Information Criterion) ou o
Critrio de Informao de Schwarz ou Bayesiano (ou SIC de Schwarzs Information Criterion ou
em alguns livros BIC de Bayesian Information Criterion) so expressos no Eviews da forma j
logaritmizada como:
27
Anexo
Fazendo o teste RESET para investigar se existe erro de especificao:
1) fazer a estimao original a ser testada
28
2) na janela Equation, entrar em View, Stability Tests, Ramsey Reset Test como na figura a
seguir:
29
30
4.2.
31
A maior dificuldade que no existe teste formal para essa pressuposio. similar a um
erro de especificao do modelo, como por exemplo, com variveis relevantes omitidas do modelo.
O modelo com uma correta especificao provavelmente no ter problemas com mdia dos
resduos no nula.
Normalmente se faz o teste simples de H0: mdia igual a zero para investigar a violao
ou no da pressuposio. Valores elevados para a probabilidade indicaro a aceitao da hiptese
nula e confirmao da pressuposio.
Anexo:
Roteiro para testar mdia dos resduos nula:
32
33
observado
Actual
11484.0
9348.00
8429.00
10079.0
9240.00
8862.00
6216.00
8253.00
8038.00
7476.00
5911.00
7950.00
6134.00
5868.00
3160.00
5872.00
previsto
Fitted
10943.9
9417.85
9502.75
9184.43
8884.84
9288.01
7311.47
7595.20
8297.50
7559.49
5955.55
6004.86
6802.14
6544.46
3992.40
5035.14
resduos
Residual
540.083
-69.8452
-1073.75
894.568
355.164
-426.006
-1095.47
657.800
-259.501
-83.4900
-44.5506
1945.14
-668.142
-676.458
-832.395
836.855
Na janela do Workfile, na serie Resid, possvel fazer o teste t para a mdia dos erros igual a
zero:
34
35
Na janela View da Series: Resid, escolher a opo Tests for Description Stats, Simple
Hypothesis Tests:
36
Value
-1.15E-14
Probability
1.0000
37
4.3.
Pressuposio 3: O erro aleatrio tem varincia
constante (presena de homocedasticidade)
A presena de heterocedasticidade no gera vis ou tendenciosidade nos parmetros
angulares. Entretanto, os parmetros de M.Q.O. no sero os mais eficientes (pois o M.Q. O.
superestimar o verdadeiro erro-padro e presena de heterocedasticidade) e a estimao
dever ser feita por Mnimos Quadrados Generalizados (M.Q.G.), que consiste em um
M.Q.O. para variveis transformadas que satisfazem as hipteses usuais de mnimos
quadrados. A mecnica passa pela diviso de todas as variveis, por exemplo, pelo respectivo
desvio-padro do resduo, ou caso o desconhea, pela varivel explicativa correlacionada ao
resduo.
Procede-se da seguinte forma. Primeiro realiza-se o teste de Glejser, que entre outros
como o de Goldfeld-Quandt, apresenta-se mais eficiente e auxilia na implementao da
correo do problema. Esse teste permite que se indique a exata relao existente entre a
varivel X e os resduos (Diaz, 2000)3.
Passos:
1. estimar o modelo inicial: Y = X +
2. com os resduos de 1, estimar as regresses auxiliares:
a. |ei| = 0 + 1Xi
b. |ei| = 0 + 1Xi2
c. |ei| = 0 + 1(1/Xi)
d. |ei| = 0 + 1(Xi)
e. |ei| = 0 + 1Xih
em que h denota uma potncia.
Se o 1 for diferente de zero em alguma das regresses auxiliares (pelo teste
usual de t), ento rejeita-se a hiptese nula de que no h heterocedasticidade.
Portanto, existe heterocedasticidade. Caso todas as regresses tenham 1= 0,
ento no existe heterocedasticidade.
DIAZ, M.D.M. Problemas economtricos no modelo linear geral. In: VASCONCELLOS, M.A.S.; ALVES, D.
(Coords.) Manual de econometria. So Paulo:Atlas, 2000. p.105-137.
38
White, Halbert (1980) A Heteroskedasticity-Consistent Covariance Matrix and a Direct Test for
39
Se
2.956033
16.24547
Probability
Probability
0.010300
0.012495
40
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/06/03 Time: 17:59
Sample: 1988:09 1998:05
Included observations: 117
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
FERTILIZANTE
FERTILIZANTE^2
TRATOR
TRATOR^2
MO
MO^2
9515.997
-810.4509
18.85117
-2061.748
245.7209
76907.49
-230942.8
6550.445
551.7908
15.37210
2106.302
236.7449
29850.12
103719.0
1.452725
-1.468765
1.226324
-0.978848
1.037914
2.576455
-2.226620
0.1491
0.1448
0.2227
0.3298
0.3016
0.0113
0.0280
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.138850
0.091878
2805.201
8.66E+08
-1091.297
1.307013
1663.833
2943.689
18.77430
18.93956
2.956033
0.010300
41
4.638220
32.83525
Probability
Probability
0.000034
0.000143
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/06/03 Time: 18:01
Sample: 1988:09 1998:05
Included observations: 117
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
FERTILIZANTE
FERTILIZANTE^2
FERTILIZANTE*TRA
TOR
FERTILIZANTE*MO
TRATOR
TRATOR^2
TRATOR*MO
MO
MO^2
-20557.49
445.3517
25.26911
-120.1672
9888.589
600.7180
15.80557
87.69892
-2.078910
0.741366
1.598748
-1.370224
0.0400
0.4601
0.1128
0.1735
-13077.63
864.9398
309.3549
-22449.97
426444.0
-365960.5
3137.312
3116.365
253.6114
12081.31
90390.39
130236.2
-4.168419
0.277548
1.219799
-1.858240
4.717802
-2.809975
0.0001
0.7819
0.2252
0.0659
0.0000
0.0059
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.280643
0.220136
2599.568
7.23E+08
-1080.772
1.549746
1663.833
2943.689
18.64567
18.88176
4.638220
0.000034
42
Coefficient
Std. Error
t-Statistic
Prob.
SALES
C
0.031900
192.9931
0.008329
990.9858
3.830033
0.194749
0.0015
0.8480
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.478303
0.445697
2759.153
1.22E+08
-167.0891
3.015607
3056.856
3705.973
18.78767
18.88660
14.66916
0.001476
3.057178
5.212492
Probability
Probability
0.076975
0.073811
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/06/03 Time: 18:32
Sample: 1 18
Included observations: 18
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
SALES
SALES^2
-6219665.
229.3508
-0.000537
6459809.
126.2197
0.000449
-0.962825
1.817077
-1.194952
0.3509
0.0892
0.2507
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.289583
0.194861
13195639
2.61E+15
-319.0171
1.694567
6767046.
14706011
35.77968
35.92808
3.057178
0.076975
Neste caso, com os dados em seo cruzada (indstrias dos EUA), no foi possvel
deixar de rejeitar a hiptese nula de homocedasticidade ao nvel de 10% de significncia,
como observado pelo valor da probabilidade de Obs*R-squared = 0,073811, menor que 0,10.
Existe problema de heterocedasticidade nos resduos.
Mostram-se agora os resultados com a correo de White, obtidos no Eviews fazendo
alterao na janela da estimao, clicando em Options e selecionando a caixa
heteroskedasticity, e clicando em White. Os resultados so:
43
Coefficient
Std. Error
t-Statistic
Prob.
SALES
C
0.031900
192.9931
0.010147
533.9317
3.143815
0.361457
0.0063
0.7225
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.478303
0.445697
2759.153
1.22E+08
-167.0891
3.015607
3056.856
3705.973
18.78767
18.88660
14.66916
0.001476
Observe que agora na sada do Eviews, indica-se que foi utilizada a opo White
Heteroskedasticity-Consistent Standard Errors & Covariance, e pode-se comparar os
resultados com os da Tabela 4, sem essa opo de White. De modo geral, nesse exemplo, os
erros-padres estavam subestimados. Pode-se observar que o modelo com heterocedasticidade
apresenta vis nos erros padres, podendo ser negativo ou positivo, dependendo do estudo.
Quanto aos parmetros, no ocorrem alteraes.
Aps a correo de White no cabe mais a nova realizao do teste, pois os resultados
j foram obtidos com os resduos alterados pelo critrio de White.
44
Anexo
Roteiro para estimao no Eviews Heterocedasticidade
Gujarati, Tabela 11.5 (Table11-5.wf1), p. 388 Teste de Glejser
1. estimar modelo normalmente:
Estimation Command:
=====================
LS (PD) (VENDAS) C
Estimation Equation:
=====================
PD = C(1)*VENDAS + C(2)
Substituted Coefficients:
=====================
PD = 0.03190033243*VENDAS + 192.9931098
Dependent Variable: PD
Method: Least Squares
Date: 03/04/05 Time: 16:00
Sample: 1 18
Included observations: 18
Variable
Coefficient
Std. Error
t-Statistic
Prob.
VENDAS
C
0.031900
192.9931
0.008329
990.9858
3.830033
0.194749
0.0015
0.8480
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.478303
0.445697
2759.153
1.22E+08
-167.0891
3.015607
3056.856
3705.973
18.78767
18.88660
14.66916
0.001476
45
46
47
Dependent Variable: ME
Method: Least Squares
Date: 03/04/05 Time: 18:18
Sample: 1 18
Included observations: 18
Variable
Coefficient
Std. Error
t-Statistic
Prob.
VENDAS
C
0.011939
578.5710
0.005704
678.6950
2.093059
0.852476
0.0526
0.4065
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.214951
0.165886
1889.657
57132868
-160.2756
1.743294
1650.432
2069.046
18.03062
18.12955
4.380896
0.052633
48
Dependent Variable: ME
Method: Least Squares
Date: 03/04/05 Time: 18:18
Sample: 1 18
Included observations: 18
Variable
Coefficient
Std. Error
t-Statistic
Prob.
SQR(VENDAS)
C
7.971957
-507.0202
3.363146
1007.684
2.370387
-0.503154
0.0307
0.6217
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.259901
0.213645
1834.761
53861578
-159.7449
1.785727
1650.432
2069.046
17.97166
18.07059
5.618732
0.030672
49
Me em funo de 1/vendas:
Dependent Variable: ME
Method: Least Squares
Date: 03/04/05 Time: 18:20
Sample: 1 18
Included observations: 18
Variable
Coefficient
Std. Error
t-Statistic
Prob.
1/(VENDAS)
C
-19924566
2273.702
12318138
604.6990
-1.617498
3.760056
0.1253
0.0017
0.140538
0.086822
1977.188
62548360
-161.0906
1.505561
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
1650.432
2069.046
18.12118
18.22011
2.616300
0.125313
Correo:
Fazer PD/(SQR(Vendas)) em funo de 1/(SQR(Vendas)) e de (SQR(Vendas))
50
Coefficient
Std. Error
t-Statistic
Prob.
1/SQR(VENDAS)
SQR(VENDAS)
-246.6769
0.036798
381.1285
0.007114
-0.647228
5.172315
0.5267
0.0001
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.364889
0.325195
7.257134
842.6560
-60.15658
2.885313
8.855264
8.834378
6.906286
7.005216
9.192455
0.007933
51
Mtodo de White:
TESTE
3.057178
5.212492
Probability
Probability
0.076975
0.073811
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 03/04/05 Time: 18:32
Sample: 1 18
Included observations: 18
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
VENDAS
VENDAS^2
-6219665.
229.3508
-0.000537
6459809.
126.2197
0.000449
-0.962825
1.817077
-1.194952
0.3509
0.0892
0.2507
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.289583
0.194861
13195639
2.61E+15
-319.0171
1.694567
6767046.
14706011
35.77968
35.92808
3.057178
0.076975
52
Dependent Variable: PD
Method: Least Squares
Date: 03/04/05 Time: 18:29
Sample: 1 18
Included observations: 18
White Heteroskedasticity-Consistent Standard Errors & Covariance
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
VENDAS
192.9931
0.031900
533.9317
0.010147
0.361457
3.143815
0.7225
0.0063
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.478303
0.445697
2759.153
1.22E+08
-167.0891
3.015607
3056.856
3705.973
18.78767
18.88660
14.66916
0.001476
53
4.4.
Pressuposio 4: Os erros aleatrios so independentes
(ou no autocorrelacionados)
A principal conseqncia da violao desta pressuposio a ineficincia dos
estimadores de M.Q.O. mas, continuam no-tendenciosos. Nesta situao, da mesma forma
que para a heterocedasticidade, melhor utilizar o mtodo de Mnimos Quadrados
Generalizados (M.Q.G.).
Imagine um modelo mais comum, com autocorrelao de 1. Ordem:
t = t 1 + t
em que o parmetro de autocorrelao e um termo de erro bem comportado, ou seja,
no autocorrelacionado normal de mdia zero e varincia 2, ou tambm chamado de rudo
branco (white noise).
O coeficiente de autocorrelao pode ser obtido pela expresso
Cov( t , t 1 )
[Var( t )]1 / 2 [Var( t 1 )]1 / 2
DW =
t 1 )
t =2
= 2(1 )
2
t
t =1
em que
=0
= +1
= -1
54
em que
dL = limite inferior => vem da tabela para n observaes e k variveis explanatrias
dU = limite superior => vem da tabela para n observaes e k variveis explanatrias
55
Exemplo:
Para k = 3 (referente a um modelo com X1, X2 e X3), para n = 30 observaes, a tabela de
DW para 5% de significncia nos fornece dL = 1,21 e dU=1,65, e portanto,
4-dL = 4 1,21 = 2,79
4 dU = 4 1,65 = 2,35
Para 0<DW<1,21 = rejeio de Ho e autocorrelao positiva
Para 1,21<DW<1,65 = rea inconclusiva
Para 1,65<DW<2,35 = aceitao de Ho e no-autocorrelao
Para 2,35<DW<2,79 = rea inconclusiva
Para 2,79<DW<4 = rejeio de Ho e autocorrelao negativa
As deficincias neste mtodo so:
Uma alternativa para contornar essas deficincias via teste h de Durbin, para casos
de varivel dependente defasada como varivel explicativa. O teste calculado por
h=
T
1 T.Var ()
em que
T nmero de observaes
parmetro da varivel dependente defasada.
Outro procedimento que contorna as deficincias do teste DW e tem sido incorporado
maioria dos softwares economtricos o teste de Breusch-Godfrey de autocorrelao
superior, ou de Multiplicador de Lagrange para Correlao Serial (Serial Correlation LM
Test).
Este teste bastante til para detectar autocorrelao de ordens maiores que a
primeira, ou seja, para AR(P>1) em que P a ordem da autocorrelao. A hiptese nula ser
56
2
0
O procedimento ser:
1. estimar o modelo de regresso pelo mtodo usual de MQO e obter resduos t;
2. estimar o modelo de t como funo das demais variveis X do modelo a e
tambm de variveis t defasadas (t-1 t-2 ... etc), utilizando para estas defasagens
os resduos obtidos em a;
3. obter o valor de R2 desta regresso b;
4. A estatstica de teste ser LMBG = (n-p).R2 ~ 2p graus de liberdade. P o nmero
de defasagens includas na regresso b.
Se a estatstica de teste LMBG > valor crtico de 2p ento se rejeita a hiptese nula e
existe autocorrelao serial de ordem P, ou seja, pelo menos um i 0. Neste teste, pode-se
ter variveis X ou mesmo Y defasadas, o que representa uma vantagem sobre o teste DW.
Yt Yt 1 = 1 (1 ) + 2 (X t X t 1 ) + t
57
ou
Y* = 1* + 2.X1* + t*
4) Recalcula-se (2) e verifica-se a convergncia para .
5) Repetem-se os passos (2) a (4) at que a convergncia seja menor que 0,01.
A implementao no Eviews prev a insero de um termo AR(1) na especificao das
variveis da equao. O programa far a estimao considerando a correo para o
autoregressivo de primeira ordem.
58
Anexo
Autocorrelao
Para a equao da taxa de retorno RR em funo do crescimento (Growth) e da
inflao (Inflation):
Dependent Variable: RR
Method: Least Squares
Date: 03/07/05 Time: 20:19
Sample: 1954 1981
Included observations: 28
Variable
Coefficient
Std. Error
t-Statistic
Prob.
GROWTH
INFLATION
C
3.943315
-2.499426
3.531812
1.293445
1.082101
8.111369
3.048693
-2.309789
0.435415
0.0054
0.0294
0.6670
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.572374
0.538164
14.20223
5042.582
-112.4388
1.896592
5.875000
20.89837
8.245632
8.388368
16.73114
0.000024
DW = 1,8965
Teste de Breusch-Godfrey: SERIAL CORRELATION LM TEST
59
0.319962
0.757950
Probability
Probability
0.729357
0.684563
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 03/07/05 Time: 20:23
Variable
Coefficient
Std. Error
t-Statistic
Prob.
GROWTH
INFLATION
C
RESID(-1)
RESID(-2)
-0.371429
-0.131592
1.737633
-0.014931
-0.177451
1.426117
1.125693
8.657860
0.211928
0.222006
-0.260448
-0.116898
0.200700
-0.070455
-0.799306
0.7968
0.9080
0.8427
0.9444
0.4323
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.027070
-0.142136
14.60506
4906.081
-112.0546
1.787912
-3.68E-15
13.66610
8.361046
8.598940
0.159981
0.956406
60
Coefficient
Std. Error
t-Statistic
Prob.
LOG(IPI)
LOG(PCBOLSA)
LOG(CONST)
LOG(PALU)
C
0.467509
0.279443
-0.005152
0.441449
-1.500441
0.165987
0.114726
0.142947
0.106508
1.003020
2.816541
2.435745
-0.036038
4.144737
-1.495923
0.0093
0.0223
0.9715
0.0003
0.1472
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.936090
0.925864
0.121749
0.370573
23.34039
0.954940
3.721145
0.447149
-1.222692
-0.989160
91.54312
0.000000
10.02749
8.840634
Probability
Probability
0.004163
0.002946
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 03/07/05 Time: 21:12
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LOG(IPI)
LOG(PCBOLSA)
LOG(CONST)
LOG(PALU)
C
RESID(-1)
-0.104877
0.089288
0.045395
-0.009785
-0.368385
0.567066
0.146079
0.102299
0.123362
0.091346
0.867570
0.179076
-0.717946
0.872811
0.367981
-0.107125
-0.424617
3.166620
0.4797
0.3914
0.7161
0.9156
0.6749
0.0042
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.294688
0.147748
0.104357
0.261370
28.57711
1.521486
8.14E-17
0.113041
-1.505141
-1.224901
2.005497
0.114145
61
Para AR(2):
Breusch-Godfrey Serial Correlation LM Test:
F-statistic
Obs*R-squared
9.417751
13.50683
Probability
Probability
0.001028
0.001167
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 03/07/05 Time: 21:13
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LOG(IPI)
LOG(PCBOLSA)
LOG(CONST)
LOG(PALU)
C
RESID(-1)
RESID(-2)
-0.036780
0.028677
0.082020
-0.017166
-0.552588
0.795135
-0.489015
0.134421
0.095271
0.112179
0.082432
0.785758
0.184599
0.191703
-0.273620
0.301008
0.731149
-0.208239
-0.703255
4.307363
-2.550900
0.7868
0.7661
0.4721
0.8369
0.4890
0.0003
0.0179
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.450228
0.306809
0.094116
0.203731
32.31415
1.918606
8.14E-17
0.113041
-1.687610
-1.360664
3.139250
0.021333
6.169355
13.70695
Probability
Probability
0.003321
0.003332
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 03/07/05 Time: 21:25
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LOG(IPI)
LOG(PCBOLSA)
LOG(CONST)
LOG(PALU)
C
RESID(-1)
RESID(-2)
RESID(-3)
-0.029746
0.025964
0.078075
-0.025278
-0.512105
0.854409
-0.592317
0.126950
0.137274
0.096960
0.114254
0.085213
0.802317
0.219535
0.278293
0.244219
-0.216691
0.267780
0.683340
-0.296644
-0.638283
3.891895
-2.128395
0.519819
0.8304
0.7914
0.5015
0.7695
0.5299
0.0008
0.0447
0.6084
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.456898
0.284093
0.095646
0.201259
32.49727
2.002055
8.14E-17
0.113041
-1.633151
-1.259498
2.644009
0.038212
Ainda tem, mas menos que para AR(2). Observe que o termo de RESID(-3) j no
significativo. Optar por corrigir para AR(2).
62
Coefficient
Std. Error
t-Statistic
Prob.
LOG(IPI)
LOG(PCBOLSA)
LOG(CONST)
LOG(PALU)
C
AR(1)
AR(2)
0.440700
0.291534
0.102063
0.429664
-2.197667
0.773165
-0.531683
0.165083
0.103733
0.175677
0.118912
1.211239
0.187424
0.192075
2.669563
2.810420
0.580969
3.613298
-1.814395
4.125212
-2.768097
0.0143
0.0105
0.5674
0.0016
0.0839
0.0005
0.0115
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.960153
0.948768
0.096996
0.197571
29.62381
1.850840
Inverted AR Roots
.39+.62i
.39 -.62i
3.765864
0.428531
-1.615986
-1.282935
84.33634
0.000000
63
64
65
4.5.
Pressuposio 5: As variveis explicativas so no
aleatrias (so fixas)
Se as variveis explicativas e os termos aleatrios forem correlacionados, haver
inconsistncia dos estimadores de mnimos quadrados ordinrios. Deve-se utilizar o estimador
de
variveis
instrumentais.
mtodo
de
Variveis
instrumentais
prev
que
4.6.
Pressuposio 6: O erro tem distribuio normal, com
mdia zero e varincia constante:
O teste para deteco mais usual o Bera-Jarque, ou teste BJ, o qual testa a simetria e
a curtose da distribuio dos resduos em relao curva normal.
A curtose est associada ao achatamento da distribuio, quanto mais chata menor o
valor da curtose (K). Exemplo: K>3 (distribuio mais em p), K<3 (distribuio mais
chata).
A curtose (em ingls kurtosis) definida pela expresso:
1
K=
N
Yi Y
t =1 Var
( )
1
S=
N
Yi Y
t =1 Var
( )
2 = Var ( ) = s
N 1
N
BJ =
1
(n p ) S 2 +
6
66
1
4
(K 3)2 ] ~ 2gl = 2
Se rejeitar H0:erros normais, tenho que descobrir qual a distribuio real dos
resduos e fazer nova deduo do estimador dos parmetros.
Em geral, para amostras grandes, aplica-se o Teorema do Limite Central
argumentando que no limite tem-se a normalidade da distribuio dos resduos.
Roteiro para testar no Eviews:
1) estimar a regresso
2) no menu equation, acionar View/Residual Tests/histogram
3) a anlise fornece o histograma com uma tabela de estatsticas descritivas da serie de
resduos, contendo o skewness (simetria) e a kurtosis (curtose). Se K for prximo de 3,
ento prxima da normal.
Exemplo 1: se K=2,95 e 2tab = 1,76 e o p-value=0,41, para H0: erro normal, ento p-value
maior que 0,10 indica a aceitao de H0, ou seja, os erros so normais.
Exemplo 2:
Ex12_22, Gujarati (p.447):
Std. Dev = 0,085542
Skewness = 0,047155
Kurtosis = 2,367936
BJ = 0,47 e p-value = 0,78 => aceita H0: erros normais
Anexo
Erros Normais: Equation/View/Residual Tests/Histogram Normality Test
67
68
4.7.
Pressuposio 7: Ausncia de relao linear exata entre
as variveis explicativas (no multicolinearidade)
A deteco do problema passa por diversas anlises:
1. Ocorrncia de R2 alto e ts no-significativos;
2. Altas correlaes simples entre as variveis explicativas, por exemplo, acima de 0,8;
3. Altas correlaes parciais entre os Xs: verificar o coeficiente de correlao parcial quando
algumas variveis so consideradas constantes;
4. Regresses auxiliares: fazer a regresso considerando o Xi como varivel dependente das
demais variveis Xj
X1 = f(X2, X3, X4, ... , Xn)
X2 = g(X1, X3, X4, ... , Xn)
X3 = h(X1, X2, X4, ... , Xn)
Etc
Esta alternativa permite identificar quais variveis esto mais relacionadas. Se o R2 da
regresso auxiliar for alto, ento se tem a indicao de multicolinearidade;
5. Regra de Klein: a multicolinearidade no prejudicial se
R2Y X1, X2, ... , Xk > R2 Xi X2, ... , Xk
6. Verificar a estabilidade das estimativas
Y = f(X1)
Y = f(X1,X2)
Y = f(X1, X2, X3)
As solues para a presena de multicolinearidade passam pela retirada de variveis
problemticas, ou omisso de variveis, deixando aquela mais relevante para a pesquisa. As
regresses auxiliares auxiliaro na escolha entre as variveis para decidir qual ser retirada do
modelo. O problema com a omisso de variveis a insero de erro de especificao. Outra
opo aumentar o tamanho da amostra, caso possvel. O aumento da amostra o mesmo que
reduzir a micronumerosidade e com isto ganha-se observaes que tendem a no estar
observando uma perfeita relao com outras variveis. Uma terceira opo transformar as
variveis problemticas, fazendo razes entre elas (Xi/Xj), como os preos relativos. A
69
limitao com este procedimento que se perde a relao direta, ficando apenas com
parmetros que refletem relaes para a razo.
O clculo das correlaes parciais no direto nem simples quando se tratar de
regresso mltipla. Uma alternativa usar pacotes que j contm a rotina, como por exemplo
o Stata, fazendo uso de comandos como a seguir, para o exemplo dado em Greene
(2002:p.30): . pcorr y year g interest p
Partial correlation of y with
Variable | Corr.
Sig.
-------------+-----------------year | -0.9385
0.000
g | 0.9693
0.000
interest | -0.5410
0.069
p | 0.0153
0.962
Ou seja, retorna as correlaes parciais de y com respeito a cada varivel da lista (year,
g, interest, p).
Outro mtodo a anlise do Fator de varincia inflacionria (FVI), ou no ingls
Variance Inflation Factor (VIF), ou ainda, Fator de inflao da Varincia (Gujarati, 2006:
p.282),
para
cada
varivel
explicativa.
e obtm-se o
Neste
caso,
faz-se
estimao
de
70
71
4.8.
72
Resumo
Pressuposio
Teste
Hiptese Nula: H0
Problema
RESET de Ramsey
Se rejeitar H0
Se rejeitar H0
Glejser
3. Varincia do erro constante
White
4. Erros independentes
Se rejeitar H0
Se rejeitar H0
Durbin-Watson (DW)
Se rejeitar H0
h-Durbin
Se rejeitar H0
LM de Breusch-Godfrey
Se rejeitar H0
Matriz de correlao
No h correlao
H0: R
> R
Xi X2, ... , Xk
2
Y X1, X2, ... , Xk
< R
Xi X2, ... , Xk
Se rejeitar H0
* Em que Y = [Yi] um vetor nX1 das observaes da varivel dependente; X = [Xij] uma matriz nXp das observaes das variveis independentes; = [i]
um vetor nX1 dos erros aleatrios; = [j], j = 0, 1, 2, ..., k um vetor pX1 de parmetros a serem estimados; a varincia do erro, tambm a ser estimada; I
uma matriz identidade de ordem mXn; k o nmero de variveis independentes; p = K + 1 o nmero de parmetros; n o nmero de observaes; E
significa valor esperado ou esperana matemtica.
73
5 Referncias Bibliogrficas
6. Programas Recomendados
GRETL - http://gretl.sourceforge.net/gretl_portugues.html
EVIEWS - http://www.eviews.com/
STATA - http://www.stata.com/
LIMDEP - http://www.limdep.com/