Beruflich Dokumente
Kultur Dokumente
2 et
4.2 b2 ~ N 2 , 2 ~ N (0,1)
xt x
t yt y�
e� t y t b1 b2 x t
t ) E ( yt ) E (b1 ) E ( b2 ) xt 1 2 xt 1 2 xt 0
E (e�
yt 1 1
(b) E ( y ) E E yt E ( yt )
T T T
1 1
1 2 xt 1 2 xt 1 2 x
T T T
A constante (1/ T ) pode ser trazida para fora da esperança. A ordem da soma podem ser
trocados porque a esperança de uma soma é a soma das esperanças.
1 1
(c) var y var ( y1 y 2 K yT ) 2 var( y1 y 2 K yT )
T T
1 T T
1 T T 2 2
2 var( yt ) 2 cov( yt , ys ) 2 2 0 2
T t 1 s t t 2 T t 1 T T
O fator (1/ T 2 ) sai para fora na frente em virtude do resultado var ay a var y . A
2
variância de uma soma é igual a soma das variâncias mais duas vezes a soma de todas as
covariâncias possíveis. As covariâncias são zero por hipótese.
(d) Falso. Quando rodamos uma regressão de y contra x, é melhor termos uma maior dispersão
dos dados do que um agrupamento dos mesmos. Assim, a reta de mínimos quadrados será
uma melhor estimativa da reta de regressão sublinhada. Quando os valores de x estão
muito agrupados, a reta de mínimos quadrados pode ser ajustada próxima dos pontos
igualmente bem em qualquer direção. Dessa forma, nessas circunstâncias, ela é uma
estimativa pouco confiável. Também, como o nosso objetivo é ter uma boa idéia para onde
vai a reta de mínimos quadrados, a afirmação confunde a reta de regressão de mínimos
2
quadrados com o modelo de regressão sublinhado. O objetivo é obter uma reta de mínimos
quadrados tão próxima quanto possível da verdadeira reta de regressão sublinhada.
4.4 (a) ˆ 2
eˆt2 2,04672
T 2
Assim,
(c) O valor b2 0,18 sugere que um aumento de 1% na porcentagem de homens com 18 anos
ou mais, com diploma de ensino médio, levará a um aumento de $180 na média de
rendimentos de homens que têm 18 anos ou mais.
(d) b1 y b2 x 15,187 0,18 69,139 2,742
xt x xt2 T x 2
2
(e)
Assim,
xt2 xt x
2
T x 2 2088,5 51 69,1392 = 245.879
(f) Para Arkansas
eˆt yt yˆt yt b1 b2 xt 12,274 2,742 0,18 58,3 0,962
(c) wt =0
(d) xt wt =1
(e) Os valores dos resíduos de mínimos quadrados et são (1, 1, 1, 2, 3).
(f) ˆ 2
eˆt2
16
5,333
T 2 3
ˆ 2 5,3333
ˆ b2
(g) var 0,5333
xt x
2
10
ˆ 2 x ˆ 2
vâr b2 0,0502 côv b1, b2 0,00886
xt x 2 x t x
2
(b) 2 = 0,004644
(b) 2 = 0,002493
(b) 2 = 0,004106
(b) ˆ 2 eˆ 2
t
0,60807
0,04677
T 2 13
ˆ 2
(c) vâr b2 0,0001671
xt x 2
4.12 (a) A estimativas de mínimos quadrados (com os erros padrão nos parênteses abaixo dos
coeficientes estimados) são
para 1988: impôstot = 0,0180 + 0,17628 rendat
(0,0357) (0,0059)
para 1989: impôstot = 0,1085 + 0,22658 rendat
(0,0629) (0,0100)
(b) O coeficiente 2 é a taxa de imposto marginal que mostra a variação no imposto quando a
renda muda em uma unidade. Os valores estimados de 2 de 0,176 para 1988 e 0,227 para
1989 sugerem que (i) em 1988, para um aumento de um dólar na renda, 17,6 centavos de
imposto seriam pagos, e (ii) em 1989, 22,7 centavos seriam pagos de imposto para um
dólar de aumento na renda.
(c) Como a reta de regressão de mínimos quadrados passa pela média das variáveis
(dependente e explanatórias), o imposto predito para a média da renda será igual ao valor
médio do imposto; isto é,
imposto = b1 + b2 renda
imposto médio
Assim, Taxa de imposto média=
renda média
A tabela abaixo mostra a média das rendas, os impostos preditos dessas rendas médias e as
taxas média e marginal de imposto para 1988 e 1989. Nós esperaríamos que a taxa de
imposto marginal fosse maior do que a taxa média de impostos. Na verdade, esse é o caso,
embora a taxa marginal seja somente uma pouco maior.
(d) Tomando a variância estimada como a verdadeira variância, nós temos, para 1989,
0,04 0,04
P z P 4 z 4 0,9999
0,01 0,01
0,01 b 0,01
(ii) P b2 2 0,01 P 2 2
P 1 z 1 0,68
0,01
var b2 0, 01
Assim, nós podemos ter praticamente certeza de que o erro amostral não será maior do que
0,04 e que existe uma probabilidade de 0,68 de que não será maior do que 0,01.
(e) A equação estimada por mínimos quadrados é
impôstot 0,0734 0,2037 renda t
(0,0517) (0,0084)
Os valores estimados de 1 e 2 e seus erros padrão obtidos dos dados combinados estão
compreendidos entre os valores das equações separadas. Nós podemos esperar que os
erros padrão provenientes dos dados combinados sejam menores do que aqueles
provenientes de cada estimação separada. Isso porque “dobramos” o tamanho da amostra.
Contudo, a maior variância estimada do erro dos dados combinados ( 2 = 0,0255,
comparado com 12 = 0,0065 e 22 = 0,0186) significa que os erros padrão da amostra
combinada não são menores do que aqueles para 1988. As hipóteses implícitas de que
necessitamos quando utilizamos dados combinados são as de que os valores para 1 e 2
são os mesmos para 1988 e 1989 e que os termos de erro para 1988 e 1989 são
provenientes da mesma distribuição de probabilidade (tenham a mesma variância 2).
1 1
4.13 b1 = y b2 x = yt x wt yt xwt yt qt yt
T
T
onde qt (1/ T ) x wt . Assim, b1 é uma função linear de y1, y2, ..., yT e é chamado de um
estimador linear. Observe que
1
qt T
T
x wt 1 como wt 0
6
1
qt xt
T
xt x wt x t 0 como wt xt 1
Conseqüentemente, b1 q t y t q t 1 2 x t et 1 q t et , e
E b1 1 q t E et 1
b1 q t ct 1 2 x t et 1 q t et 1 ct 2 ct x t ct et
Para b1 ser não viesado e linear, nós precisamos que E( b1 ) = 1 , o que requere que
ct 0 e ct x t 0 . Então,
b1 1 q t et ct et 1 q t ct et
Nós desejamos provar que a variância de b1 é pelo menos tão boa quanto a variância de
b1 1 q t et . Agora,
var(b1) = q t2 var et 2 q t2
var b1 qt ct var et 2 qt ct 2 qt2 2 ct2 2 2 ct qt
2 2
1
Mas, ct q t ct x ct w t 0 das condições
ct 0 e ct xt 0 e do
T
resultado abaixo da equação (4.3.4). Assim,
var b1 2 q t2 2 ct2 var b1 2 ct2 var b1
y2 y1 1 1
4.14 (a) bEZ y2 y1 kt yt
x2 x1 x2 x1 x2 x1
1 1
onde k1 , k2 , e k3 = k4 = ... = kT = 0
x 2 x1 x 2 x1
y y1 1 1
(b) E bEZ E 2 E y2 E y1
x2 x1 x2 x1 x2 x1
7
1 1
1 2 x2 1 2 x1
x2 x1 x2 x1
2 x2 x x2 x1
2 1 2 2
x2 x1 x2 x1 x2 x1 x2 x1
Assim, bEZ é um estimador não viesado.
1 1 2 2
(c) var bEZ k t2 var et 2 k t2 2
x 2 x1 x 2 x1 x 2 x1
2 2 2
2 2
(d) Se et ~ N 0, 2 , então bEZ ~ N 2 ,
x 2 x1 2
(e) Para convencer F.A. Cilita que var(b2) < var(bEZ), nós precisamos mostrar que
2 2
2 x 2 x1 2
xt x
2
ou que
x 2 x1 2 xt x
2
2
Considere
x2 x x1 x
2
x2 x1 x x x1 x 2 x2 x x1 x
2 2 2
2
2 2 2
Assim, nós precisamos mostrar que
T
2 xt x x2 x x1 x 2 x2 x x1 x
2 2 2
t 1
ou que
T
x1 x x2 x 2 x2 x x1 x 2 xt x 0
2 2 2
t 3
ou que
T
x1 x x 2 x 2 xt x 0.
2 2
t 3
Esta última desigualdade claramente se mantém. Assim, bEZ não é tão bom quanto o
estimador de mínimos quadrados.
Ao invés de provar o resultado diretamente, como fizemos acima, nós poderíamos também
citar o teorema de Gauss Markov para o professor F. A. Cilita.
y 2 y3
y1 y y 2 y
y *
y 2
b* * 1 2 3 1
x x1 x2 x3 x x 2 x
x1 2 3 1
2
2 1 1
y1 y2 y3
x2 x3 2 x1 x2 x3 2 x1 x2 x3 2 x1
3
w1 y1 w2 y2 w2 y 3 wt y t
t 1
2 1
onde w1 , w2 w3
x2 x3 x1 x2 x3 2 x1
1
2 ( x2 x3 2 x1 ) 2
x2 x3 2 x1
y y3 2 y1 1
2
(c) var(b* ) var 2 var( y 2 ) var( y3 ) 4 var( y1 )
x2 x3 2 x1 x2 x3 2 x1
6 2
x2 x3 2 x1
2
(d) Não. O teorema de Gauss Markov nos fala que o estimador de mínimos quadrados é o
melhor estimador linear não tendencioso. Desse teorema, nós sabemos que
var(b* ) var(b2 ). Assim,
62 2
x2 x3 2 x1
2 T
xt x
2
t 1
T
4.16 (a) Um estimador linear para 2 é um que pode ser escrito como blinear kt yt para algum
t 1
valor constante kt .
9
T2 T1
yt yt T2 T1
t 1
t 1
T1 yt T2 yt
y2 y1 T T1
bsmart 2 t 1 t 1
x2 x1 x2 x1 T1T2 x2 x1
T2 T1 T2 T1
1 1
yt T x x yt k2 yt k1 yt
T2 x2 x1 t 1 1 2 1 t 1 t 1 t 1
1 1
onde k2 e k1
T2 x2 x1 T1 x2 x1
T2 T1
E (bsmart ) k2 E ( yt ) k1 E ( yt )
t 1 t 1
T2 T1
k2 (1 2 xt ) k1 (1 2 xt )
t 1 t 1
T2 T1
k2T21 k2 2 xt k1T11 k1 2 xt
t 1 t 1
1 2 x2 1 2 x1
x2 x1 x2 x1 x2 x1 x2 x1
2 x2 x1
2
x2 x1
T2 T1
1 1
2 var( yt )
var( yt )
T22 x2 x1 T12 x2 x1
2
t 1 t 1
2 2 2 1 1
T2 x2 x1 T1 x2 x1 x2 x1
2 2 2
T2 T1
(d) O estimador de mínimos quadrados deveria ser escolhido porque, do teorema de Gauss
Markov, sua variância é menor do que a var(bsmart ).
10
(d) Um estimador é uma fórmula ou regra para calcular uma estimativa. Não depende da
amostra de dados observada. Uma estimativa é o valor de um estimador calculado para uma
determinada amostra de dados.
x2 x yt y 655 0,502
4.17 (a) b2
x2 x
2
1305
Esse valor sugere que uma unidade adicionada em x elevará y em 0,502 unidades.
(b) b1 y b2 x xt
yt 405 475
b2 0,5019 20,82
T T 8 8
Nós estimamos a média de y como 20,82 quando x 0.
(c) A reta de regressão ajustada passa no ponto ( x , y ) se y b1 b2 x . Nós temos,
b1 b2 x 20,825 0,5019 59,375 50,625 y .
Para yt permanecer igual nos dois modelos, nós necessitamos que 1 1* e *2 2 10.
Assim, 1 permanece invariável e 2 passa a ser 10 vezes menor.
Para visualizar como as estimativas de mínimos quadrados mudam, observe que
T xt* yt xt* yt 10 T xt yt xt yt b2
b2*
T x xt* 100(T x xt
2 2
*2 2
t
10
t
b2
b1* y b2* x * y 10 x y b2 x b1
10
Assim, a estimativa de mínimos quadrados b1 permanece inalterada e a estimativa de mínimos
quadrados b2 se torna 10 vezes menor.
Como et permanece inalterado, sua variância também permanece inalterada. Isso ocorre
t T 2 e
porque � e�
2 2
t yt b1 b2 xt yt b1 b2 xt
e� * *
10 yt 10 1 10 2 xt 10 et
e escrevemos o novo modelo como
yt* 1* *2 xt et*
b1* y * b2* x 10 y 10 b2 x 10 b1
t ( yt b1 b2 xt ) (10 yt 10 b1 10 b2 xt )
*2
e� * * * 2 2
100 yt b1 b2 xt 100 e�
2 2
t