Sie sind auf Seite 1von 11

1

Capítulo 4 Soluções dos Exercícios

Soluções para os Exercícios do Capítulo 4

4.1 Se o desempenho de um estimador é bom em um processo de amostragem repetido, no sentido


de que ele produz estimativas próximas do verdadeiro valor do parâmetro, então, antes de nós
tomarmos uma amostra, nós podemos dizer que a probabilidade de se obter uma estimativa
próxima do verdadeiro valor do parâmetro é alta.

 2  et
4.2 b2 ~ N 2 , 2 ~ N (0,1)
   xt  x   

4.3 (a) Agora,

t  yt  y�
e� t  y t  b1  b2 x t

t )  E ( yt )  E (b1 )  E ( b2 ) xt  1   2 xt  1   2 xt  0
E (e�

  yt  1 1
(b) E ( y )  E    E   yt     E ( yt ) 
 T  T T
1 1 
   1   2 xt    1  2  xt  1   2 x
T T T
A constante (1/ T ) pode ser trazida para fora da esperança. A ordem da soma podem ser
trocados porque a esperança de uma soma é a soma das esperanças.
1  1
(c) var  y   var  ( y1  y 2  K  yT )   2 var( y1  y 2  K  yT )
T  T
1 T T
1 T T  2 2
 2  var( yt )  2 cov( yt , ys )  2  2  0  2 
T t 1 s t t  2 T t 1 T T

O fator (1/ T 2 ) sai para fora na frente em virtude do resultado var  ay   a var  y  . A
2

variância de uma soma é igual a soma das variâncias mais duas vezes a soma de todas as
covariâncias possíveis. As covariâncias são zero por hipótese.
(d) Falso. Quando rodamos uma regressão de y contra x, é melhor termos uma maior dispersão
dos dados do que um agrupamento dos mesmos. Assim, a reta de mínimos quadrados será
uma melhor estimativa da reta de regressão sublinhada. Quando os valores de x estão
muito agrupados, a reta de mínimos quadrados pode ser ajustada próxima dos pontos
igualmente bem em qualquer direção. Dessa forma, nessas circunstâncias, ela é uma
estimativa pouco confiável. Também, como o nosso objetivo é ter uma boa idéia para onde
vai a reta de mínimos quadrados, a afirmação confunde a reta de regressão de mínimos
2

Capítulo 4 Soluções dos Exercícios

quadrados com o modelo de regressão sublinhado. O objetivo é obter uma reta de mínimos
quadrados tão próxima quanto possível da verdadeira reta de regressão sublinhada.

4.4 (a) ˆ 2 
 eˆt2  2,04672
T 2
Assim,

 eˆt2  2,04672(T  2)  2,04672  49  100, 29


(b) ep(b2 )  var(b2 )  0,00098  0,031305
�2
var(b2 ) 
 ( xt  x ) 2
Assim,
ˆ 2 2,04672
  xt  x 
2
   2088,5
var  b2  0,00098

(c) O valor b2  0,18 sugere que um aumento de 1% na porcentagem de homens com 18 anos
ou mais, com diploma de ensino médio, levará a um aumento de $180 na média de
rendimentos de homens que têm 18 anos ou mais.
(d) b1  y  b2 x  15,187  0,18  69,139  2,742

  xt  x    xt2  T x 2
2
(e)

Assim,

 xt2   xt  x 
2
 T x 2  2088,5  51 69,1392 = 245.879
(f) Para Arkansas
eˆt  yt  yˆt  yt  b1  b2 xt  12,274  2,742  0,18  58,3  0,962

4.5 (a) Verdadeiro.


(b) Falso. É mostrado como a média de y muda quando x varia, não como o valor real de y
muda.
(c) Falso. A média dos resíduos é zero, mas eles não são todos iguais a zero.
(d) Verdadeiro.
(e) Falso. O método de mínimos quadrados minimiza a soma dos quadrados dos resíduos.
(f) Verdadeiro.

  xt  x   10 , os valores par wt são (0,2; 0,1; 0,0; 0,2; 0,1).


2
4.6 (a) Utilizando
3

Capítulo 4 Soluções dos Exercícios

(b) Dados os valores  yt  y  como (3, 0, 1, 0, 4), nós temos

b2   wt  yt  y  =  0,2 3   0,1 0   01    0,2 0    0,1  4  1

(c)  wt =0

(d)  xt wt =1

(e) Os valores dos resíduos de mínimos quadrados et são (1, 1, 1, 2, 3).

(f) ˆ 2 
 eˆt2 
16
 5,333
T 2 3
ˆ 2 5,3333
ˆ  b2  
(g) var   0,5333
  xt  x 
2
10

4.7 (a) Utilizando um software, nós obtemos



vâr  b1   ˆ 
2 x 2
t

  0,00195
 T  x  x
t
2


ˆ 2  x ˆ 2
vâr  b2    0,0502 côv b1, b2    0,00886
  xt  x  2  x t  x
2

(b)  2 = 0,004644

4.8 (a) var(


 b1) = 0,07555 var( ov(b1 , b2 ) = 0,009888
 b2 ) = 0,001297 c

(b)  2 = 0,002493

4.9 (a) var(


 b1) = 0,00003459 var(
 b2 ) = 0,00733  v(b1 , b2 ) = 0,00005243
co

(b)  2 = 0,004106

4.10 (a) Se xt = c para todos t, então x = c e xt  x = c  c = 0 para todos os t e,


conseqüentemente,   xt  x   0 .
2

(b) Esse resultado é o mesmo do Exercício 3.10.


(c) Com a estimação dos mínimos quadrados, nós estamos tentando estimar o efeito de uma
mudança no xt sobre yt. Se xt é uma constante e não varia, é impossível mensurar o efeito de
uma mudança.
4

Capítulo 4 Soluções dos Exercícios

4.11 (a) Os resíduos de mínimos quadrados, dado por et  y t  b1  b2 x t , são


0,17808 0,33548 0,08713 0,10974 0,08234
0,04945 0,02206 0,09467 0,08273 0,16012
0,14301 0,32960 0,35220 0,12481 0,35258

(b) ˆ 2   eˆ 2
t

0,60807
 0,04677
T 2 13
ˆ 2
(c) vâr  b2    0,0001671
  xt  x  2

4.12 (a) A estimativas de mínimos quadrados (com os erros padrão nos parênteses abaixo dos
coeficientes estimados) são
para 1988: impôstot = 0,0180 + 0,17628 rendat
(0,0357) (0,0059)
para 1989: impôstot = 0,1085 + 0,22658 rendat
(0,0629) (0,0100)

(b) O coeficiente 2 é a taxa de imposto marginal que mostra a variação no imposto quando a
renda muda em uma unidade. Os valores estimados de 2 de 0,176 para 1988 e 0,227 para
1989 sugerem que (i) em 1988, para um aumento de um dólar na renda, 17,6 centavos de
imposto seriam pagos, e (ii) em 1989, 22,7 centavos seriam pagos de imposto para um
dólar de aumento na renda.
(c) Como a reta de regressão de mínimos quadrados passa pela média das variáveis
(dependente e explanatórias), o imposto predito para a média da renda será igual ao valor
médio do imposto; isto é,
imposto = b1 + b2 renda
imposto médio
Assim, Taxa de imposto média=
renda média

A tabela abaixo mostra a média das rendas, os impostos preditos dessas rendas médias e as
taxas média e marginal de imposto para 1988 e 1989. Nós esperaríamos que a taxa de
imposto marginal fosse maior do que a taxa média de impostos. Na verdade, esse é o caso,
embora a taxa marginal seja somente uma pouco maior.

Imposto Taxa Taxa


Renda Médio Média Marginal
Média Previsto do Imposto do Imposto

1988 5,5348 0,9577 0,1730 0,176


5

Capítulo 4 Soluções dos Exercícios

1989 5,7444 1,1931 0,2077 0,227

(d) Tomando a variância estimada como a verdadeira variância, nós temos, para 1989,

vâr  b2    0,01 2  var b2 


Como b2 é normalmente distribuído, nós podemos proceder da seguinte forma:
(i) P b2   2  0,04  P  0,04  b2   2  0,04
  0,04 b  2 0,04 
 P  2 
 var  b  var b2  var b2  
 2

  0,04 0,04 
 P z   P   4  z  4   0,9999
 0,01 0,01 

  0,01 b   0,01 
(ii) P b2   2  0,01  P  2 2
  P  1  z  1  0,68
 0,01
 var b2  0, 01 

Assim, nós podemos ter praticamente certeza de que o erro amostral não será maior do que
0,04 e que existe uma probabilidade de 0,68 de que não será maior do que 0,01.
(e) A equação estimada por mínimos quadrados é
impôstot   0,0734  0,2037 renda t
(0,0517) (0,0084)
Os valores estimados de 1 e 2 e seus erros padrão obtidos dos dados combinados estão
compreendidos entre os valores das equações separadas. Nós podemos esperar que os
erros padrão provenientes dos dados combinados sejam menores do que aqueles
provenientes de cada estimação separada. Isso porque “dobramos” o tamanho da amostra.
Contudo, a maior variância estimada do erro dos dados combinados (  2 = 0,0255,
comparado com  12 = 0,0065 e   22 = 0,0186) significa que os erros padrão da amostra
combinada não são menores do que aqueles para 1988. As hipóteses implícitas de que
necessitamos quando utilizamos dados combinados são as de que os valores para 1 e 2
são os mesmos para 1988 e 1989 e que os termos de erro para 1988 e 1989 são
provenientes da mesma distribuição de probabilidade (tenham a mesma variância 2).

1 1 
4.13 b1 = y  b2 x =  yt  x  wt yt     xwt  yt   qt yt
T 
T

onde qt  (1/ T )  x wt . Assim, b1 é uma função linear de y1, y2, ..., yT e é chamado de um
estimador linear. Observe que
1
 qt T
T
 x  wt  1 como  wt  0
6

Capítulo 4 Soluções dos Exercícios

1
 qt xt 
T
 xt  x  wt x t  0 como  wt xt  1
Conseqüentemente, b1   q t y t   q t   1   2 x t  et    1   q t et , e

E  b1    1   q t E  et    1

Assim, b1 é um estimador não viesado para 1.


Para demonstrar que b1 é o melhor estimador linear não tendencioso para 1, nós
começamos definindo qualquer outro estimador linear como b1   k t y t    q t  ct  y t ,
onde os kt são qualquer conjunto de constantes e ct = kt  qt. Nós podemos escrever b1 como

b1    q t  ct   1   2 x t  et    1   q t et   1  ct   2  ct x t   ct et

Para b1 ser não viesado e linear, nós precisamos que E( b1 ) = 1 , o que requere que
 ct  0 e  ct x t  0 . Então,
b1   1   q t et   ct et   1    q t  ct  et

Nós desejamos provar que a variância de b1 é pelo menos tão boa quanto a variância de
b1   1   q t et . Agora,

var(b1) =  q t2 var  et    2  q t2

 
var b1    qt  ct  var  et    2   qt  ct    2  qt2  2  ct2  2 2  ct qt
2 2

1
Mas,  ct q t  ct  x  ct w t  0 das condições
  ct 0 e  ct xt  0 e do
T
resultado abaixo da equação (4.3.4). Assim,
 
var b1   2  q t2   2  ct2  var  b1    2  ct2  var  b1 

Segue que b1 é o melhor estimador linear não tendencioso para 1.

y2  y1  1   1 
4.14 (a) bEZ    y2    y1   kt yt
x2  x1  x2  x1   x2  x1 
1 1
onde k1  , k2  , e k3 = k4 = ... = kT = 0
x 2  x1 x 2  x1

 y  y1  1 1
(b) E  bEZ   E  2   E  y2   E  y1 
 x2  x1  x2  x1 x2  x1
7

Capítulo 4 Soluções dos Exercícios

1 1
  1  2 x2    1  2 x1 
x2  x1 x2  x1

 2 x2  x  x2 x1 
  2 1  2     2
x2  x1 x2  x1  x2  x1 x2  x1 
Assim, bEZ é um estimador não viesado.

 1 1  2 2
(c) var  bEZ    k t2 var  et    2  k t2   2   

  x 2  x1   x 2  x1    x 2  x1 
2 2 2

 2 2 
(d) Se et ~ N  0,  2  , então bEZ ~ N  2 , 
  x 2  x1  2 
(e) Para convencer F.A. Cilita que var(b2) < var(bEZ), nós precisamos mostrar que
2 2

2  x 2  x1  2
  xt  x 
2
ou que
 x 2  x1  2   xt  x
2
2
Considere

 x2  x    x1  x  
2
 x2  x1   x  x    x1  x   2  x2  x   x1  x 
2 2 2

  2
2 2 2
Assim, nós precisamos mostrar que
T
2  xt  x    x2  x    x1  x   2  x2  x   x1  x 
2 2 2

t 1

ou que
T
 x1  x    x2  x   2  x2  x   x1  x   2  xt  x   0
2 2 2

t 3

ou que
T
 x1  x    x 2  x    2  xt  x   0.
2 2

t 3

Esta última desigualdade claramente se mantém. Assim, bEZ não é tão bom quanto o
estimador de mínimos quadrados.
Ao invés de provar o resultado diretamente, como fizemos acima, nós poderíamos também
citar o teorema de Gauss Markov para o professor F. A. Cilita.

4.15 (a) Para mostrar que b* é um estimador linear, nós escrevemos


8

Capítulo 4 Soluções dos Exercícios

y 2  y3
 y1 y  y  2 y
y *
 y 2
b*  * 1   2 3 1
x  x1 x2  x3 x  x  2 x
 x1 2 3 1
2
2 1 1
 y1  y2  y3
x2  x3  2 x1 x2  x3  2 x1 x2  x3  2 x1
3
 w1 y1  w2 y2  w2 y 3   wt y t
t 1

2 1
onde w1  , w2  w3 
x2  x3  x1 x2  x3  2 x1

Assim, b* é um estimador linear.


(b) Do item (a),
 y  y3  2 y1  1
E (b* )  E  2    E  y2   E  y3   2 E  y1  
 x2  x3  2 x1  x2  x3  2 x1
1
  1   2 x2  1   2 x3  2(1   2 x1 ) 
x2  x3  2 x1

1
  2 ( x2  x3  2 x1 )   2
x2  x3  2 x1

Assim, b* é um estimador não viesado de 2 .

 y  y3  2 y1  1
2 
(c) var(b* )  var  2   var( y 2 )  var( y3 )  4 var( y1 ) 
 x2  x3  2 x1   x2  x3  2 x1 
6 2

 x2  x3  2 x1 
2

(d) Não. O teorema de Gauss Markov nos fala que o estimador de mínimos quadrados é o
melhor estimador linear não tendencioso. Desse teorema, nós sabemos que
var(b* )  var(b2 ). Assim,

62 2

 x2  x3  2 x1 
2 T
  xt  x 
2

t 1

T
4.16 (a) Um estimador linear para 2 é um que pode ser escrito como blinear   kt yt para algum
t 1

valor constante kt .
9

Capítulo 4 Soluções dos Exercícios

T2 T1

 yt  yt T2 T1
t 1
 t 1
T1  yt  T2  yt
y2  y1 T T1
bsmart   2  t 1 t 1
x2  x1 x2  x1 T1T2  x2  x1 
T2 T1 T2 T1
1 1
  yt  T  x  x   yt   k2 yt   k1 yt
T2  x2  x1  t 1 1 2 1 t 1 t 1 t 1

1 1
onde k2  e k1 
T2  x2  x1  T1  x2  x1 

Assim, bsmart é um estimador linear para 2 .


(b) Um estimador não viesado para um parâmetro é um estimador no qual a esperança dele é
igual ao verdadeiro valor do parâmetro. Agora,
T2 T1
bsmart   k2 yt   k1 yt
t 1 t 1

T2 T1
E (bsmart )  k2  E ( yt )  k1  E ( yt )
t 1 t 1

T2 T1
 k2  (1   2 xt )  k1  (1   2 xt )
t 1 t 1

T2 T1
 k2T21  k2 2  xt  k1T11  k1 2  xt
t 1 t 1

1  2 x2 1 2 x1
   
 x2  x1   x2  x1   x2  x1   x2  x1 
2  x2  x1 
  2
x2  x1

Assim, bsmart é um estimador não viesado para 2 .


T2 T1
(c) var(bsmart )   k22 var  yt    k12 var  yt 
t 1 t 1

T2 T1
1 1
2   var( yt )
 var( yt ) 
T22  x2  x1  T12  x2  x1 
2
t 1 t 1

2 2 2 1 1
     
T2  x2  x1  T1  x2  x1   x2  x1 
2 2 2
 T2 T1 
(d) O estimador de mínimos quadrados deveria ser escolhido porque, do teorema de Gauss
Markov, sua variância é menor do que a var(bsmart ).
10

Capítulo 4 Soluções dos Exercícios

(d) Um estimador é uma fórmula ou regra para calcular uma estimativa. Não depende da
amostra de dados observada. Uma estimativa é o valor de um estimador calculado para uma
determinada amostra de dados.

  x2  x   yt  y   655  0,502
4.17 (a) b2 
  x2  x 
2
1305

Esse valor sugere que uma unidade adicionada em x elevará y em 0,502 unidades.

(b) b1  y  b2 x    xt
yt 405 475
 b2   0,5019   20,82
T T 8 8
Nós estimamos a média de y como 20,82 quando x  0.
(c) A reta de regressão ajustada passa no ponto ( x , y ) se y  b1  b2 x . Nós temos,
b1  b2 x  20,825  0,5019  59,375  50,625  y .

4.18 Considere o modelo


yt  1   2 xt  et

Agora defina xt*  10 xt , e considere um novo modelo

yt  1*  *2 xt*  et  1*  10 *2 xt  et

Para yt permanecer igual nos dois modelos, nós necessitamos que 1  1* e *2  2 10.
Assim, 1 permanece invariável e 2 passa a ser 10 vezes menor.
Para visualizar como as estimativas de mínimos quadrados mudam, observe que
T  xt* yt   xt*  yt 10  T  xt yt   xt  yt  b2
b2*   
T  x    xt*  100(T  x    xt 
2 2
*2 2
t
10
t

b2
b1*  y  b2* x *  y   10 x  y  b2 x  b1
10
Assim, a estimativa de mínimos quadrados b1 permanece inalterada e a estimativa de mínimos
quadrados b2 se torna 10 vezes menor.

Como et permanece inalterado, sua variância também permanece inalterada. Isso ocorre
t  T  2 e
porque �   e�
2 2

t  yt  b1  b2 xt  yt  b1  b2 xt
e� * *

4.19 Considere o modelo


yt  1   2 xt  et
Multiplicando por 10, obtemos
11

Capítulo 4 Soluções dos Exercícios

10 yt  10 1  10 2 xt  10 et
e escrevemos o novo modelo como
yt*  1*  *2 xt  et*

Para os dois modelos serem iguais, com um xt inalterado, é necessário

yt*  10 yt 1*  10 1 *2  10 2 et*  10 et

Assim, os valores dos parâmetros 1 e 2 serão 10 vezes maior.


Para visualizar como as estimativas de mínimos quadrados mudam, nós definimos
T  xt yt*   xt  yt* 10  T  xt yt   xt  yt 
b2*    10 b2
T  x    xt  T  xt2    xt 
2 2 2
t

b1*  y *  b2* x  10 y  10 b2 x  10 b1

Assim, as estimativas de mínimos quadrados b1 e b2 se tornam 10 vezes maior.

var( et* )  var(10 et )  100 var( et )


Assim, a variância do termo de erro passa a ser 100 vezes maior. Isso também é verdadeiro
t  T  2 e
para a estimativa da variância do erro porque �   e�
2 2

t  ( yt  b1  b2 xt )  (10 yt  10 b1  10 b2 xt )
*2
e� * * * 2 2

 100  yt  b1  b2 xt   100 e�
2 2
t

Das könnte Ihnen auch gefallen