Sie sind auf Seite 1von 7

§1. Capítulo 1. Ejercicios Resueltos.

Ejercicio 1.1.

a)
M vs. Y
5.5

5.0

4.5

4.0

3.5
M

3.0

2.5

2.0

1.5
4 5 6 7 8 9 10 11
Y

Dependent Variable: Y
Method: Least Squares
Date: 09/01/09 Time: 11:20
Sample: 1981 1990
Included observations: 10

Variable Coefficient Std. Error t-Statistic Prob.

C 1.168145 0.483419 2.416420 0.0421


M 1.715553 0.126008 13.61458 0.0000

R-squared 0.958626 Mean dependent var 7.550000


Adjusted R-squared 0.953454 S.D. dependent var 1.732211
S.E. of regression 0.373717 Akaike info criterion 1.046218
Sum squared resid 1.117312 Schwarz criterion 1.106735
Log likelihood -3.231091 F-statistic 185.3568
Durbin-Watson stat 1.775444 Prob(F-statistic) 0.000001

1
b) El intercepto en YN i = a + bM i + ε i ( i = 1, 2,..., n ) es el ingreso nacional (YN ) que es

independiente de la variable explicativa que es la cantidad de dinero ( M ) . La pendiente

(1.71553) es el incremento en el ingreso nacional cuando la cantidad de dinero se


incrementa en una unidad.

c) Conforme al dato, YN = 12 en 1991 por lo que 12 = 1, 618145 + 1, 715553M . Por lo tanto,


12 − 1,168145
M= = 6.313914522. Es decir, la cantidad de dinero deberá ser 6.31 millones
1, 715553
de dólares para que el ingreso nacional sea 12 millones de dólares en el año 1991.

Ejercicio 1.2.

La recta de regresión estimada en el texto es

Dependent Variable: G
Method: Least Squares
Date: 09/01/09 Time: 16:15
Sample: 1 8
Included observations: 8

Variable Coefficient Std. Error t-Statistic Prob.

C 1.375000 0.368776 3.728556 0.0098


IP 0.120370 0.025915 4.644832 0.0035

R-squared 0.782407 Mean dependent var 3.000000


Adjusted R-squared 0.746142 S.D. dependent var 0.654654
S.E. of regression 0.329843 Akaike info criterion 0.831917
Sum squared resid 0.652778 Schwarz criterion 0.851777
Log likelihood -1.327668 F-statistic 21.57447
Durbin-Watson stat 3.230496 Prob(F-statistic) 0.003523

La recta de regresión que pide se estime en el ejercicio es IPi = a + bGi + ε i , la cual está
dada por

Dependent Variable: IP
Method: Least Squares
Date: 09/01/09 Time: 16:16

2
Sample: 1 8
Included observations: 8

Variable Coefficient Std. Error t-Statistic Prob.

C -6.000000 4.284784 -1.400304 0.2110


G 6.500000 1.399405 4.644832 0.0035

R-squared 0.782407 Mean dependent var 13.50000


Adjusted R-squared 0.746142 S.D. dependent var 4.810702
S.E. of regression 2.423840 Akaike info criterion 4.820901
Sum squared resid 35.25000 Schwarz criterion 4.840761
Log likelihood -17.28360 F-statistic 21.57447
Durbin-Watson stat 3.147163 Prob(F-statistic) 0.003523

El diagrama de dispersión entre las dos variables es


24

20

16
IP

12

4
1.6 2.0 2.4 2.8 3.2 3.6 4.0 4.4
G
¿Porqué los dos resultados son diferentes? La primera regresión es Gi = a + bIPi + ε i , en la
que tenemos como variable endógena a los puntos promedios de los alumnos y como
variable explicativa al ingreso de los padres, además de la variable estocástica. Aquí la
teoría nos dice que el rendimiento académico puede estar explicado por el bienestar
económico de la familia.

Si, al revés, consideramos como la variable endógena o dependiente al ingreso de los


padres y como variable explicativa al rendimiento académico de los hijos, estamos

3
sustancialmente cambiando la recta de regresión estimada y por consiguiente los
parámetros estimados deberían ser diferentes.

Ejercicio 1.3.

a) El modelo original está dado por Y = a + bX . El modelo transformado está dado por
Y = a '+ b ' X ∗ , donde X ∗ = 10 X .

Estimación de b por mínimos cuadrados ordinarios en el modelo original. Se realiza


conforme a la siguiente expresión
n n n
n∑ X iYi − ∑ X i ∑ Yi
b= i =1 i =1 i =1
2
⎛ ⎞ n n
n∑ X i2 − ⎜ ∑ X i ⎟
i =1 ⎝ i =1 ⎠
Estimación de b por mínimos cuadrados ordinarios en el modelo transformado. Se realiza
conforme a la siguiente expresión
n n n n n n
n∑ X i∗Yi − ∑ X i∗ ∑ Yi n∑ 10 X iYi − ∑10 X i ∑ Yi
10 1
b' = i =1 i =1 i =1
2
= i =1 i =1 i =1
2
= 2
b = b.
n
⎛ ⎞ n
⎛ ⎞ n n 10 10
n∑ X i∗ 2 − ⎜ ∑ X i∗ ⎟ n∑102 X i2 − ⎜102 ∑ X i ⎟
i =1 ⎝ i =1 ⎠ i =1 ⎝ i =1 ⎠
Por lo tanto, al multiplicar la variable explicativa X i por un factor de 10 el parámetro
estimado correspondiente a esta variable explicativa fue dividido por 10.

Estimación de a por mínimos cuadrados ordinarios en el modelo original. Se realiza


conforme a la siguiente expresión
n n

∑Y i ∑X i
a= i =1
−b i =1

n n
Estimación de a ' por mínimos cuadrados ordinarios en el modelo transformado. Se realiza
conforme a
n n n n

∑ Yi b ∑ X i∗ ∑ Yi 10∑ X i
a' = i =1
−b' i =1
= i =1
− i =1
= a.
n n n 10
Por lo tanto, el intercepto es el mismo en ambos modelos.

b) En esta sección el modelo transformado queda de la siguiente manera:


Y ∗ = c1 + c2Y X ∗ = d1 + d 2 X
Calcularemos los parámetros a, a ', b, b ' correspondientes a los modelos original y
transformado al igual que en la parte a) de este ejercicio. La única diferencia en la
solución será que utilizaremos en este caso las fórmulas de los estimadores de mínimos
cuadrados ordinarios en su versión de desvíos con respecto a las medias de las variables
endógena y explicativa.

4
Computamos primero
E (Y ∗ ) = E ( c1 + c2Y ) = c1 + c2 E (Y ) .
E ( X ∗ ) = E ( d1 + d 2 X ) = d1 + d 2 E ( X ) .
Estimación de b en el modelo original en su versión desvíada con respecto a la media

b=
∑ xi yi
∑ xi2
Estimación de b ' en el modelo transformado en su versión desvíada con respecto a la
media

b' =
∑ ⎡⎣( d1 + d2 X i ) − ( d1 + d2 E ( X i ) )⎤⎦ ⎡⎣( c1 + c2Yi ) − ( c1 + c2 E (Yi ) )⎤⎦ =
∑ ⎡⎣( d1 + d2 X i ) − ( d1 + d2 E ( X i ) )⎤⎦
2

=
∑ d2 xi c2 yi = d2c2 b = c2 b.
∑ d 22 xi d 22 d2
Por lo tanto, la conclusión es que si se multiplica a la variable explicativa por d 2 , el
parámetro estimado de la pendiente debe dividirse por ese número. Asimismo, si se
multiplica la variable explicada por c2 , el parámetro estimado para la pendiente debe
multiplicarse por ese mismo número. La adición de constantes en la transformación de
variables tanto explicativa como explicada no altera a los coeficientes de mínimos
cuadrados ordinarios.

Sabemos que a = 0 en el primer modelo original en su versión de desvíos.

Estimación de a ' en el modelo transformado en su versión desvíada con respecto a la


media
a ' = E (Y ∗ ) − b ' E ( X ∗ ) = ( c1 + c2 E (Y ) ) − 2 b ( d1 + d 2 E ( X ) ) =
c
d2
c2 d1 cd
= c1 − b + c2 E (Y ) − c2bE ( X ) = c1 − 2 1 b + c2 a.
d2 d2

Ejercicio 1.4.

Si todas las observaciones de la variable explicativa o independiente son las mismas


tenemos que
⎛c⎞
⎜ ⎟
c
X =⎜ ⎟
⎜#⎟
⎜ ⎟
⎝c⎠
Veamos que le ocurre primero al estimador de la pendiente de mínimos cuadrados
ordinarios. Tendremos el modelo Yi = α + β X i + ε i . Por consiguiente, estimaremos a
β utilizando la expresión

5
β=∑
0 xi yi
= .
∑x 0 2
i

Lo que indica que la pendiente está indefinida. Asimismo,


α = y−βx
Pero como β está indefinido, α también lo estará.

Lo que aquí ocurre es lo siguiente. Como la variable explicativa siempre es la misma, es


imposible determinar su efecto sobre la variable endógena. Es necesario que la variable
explicativa cambie de valor a efectos de poder estimar su efecto sobre la endógena.

Ejercicio 1.5.

(
Pruebe que la línea de regresión estimada pasa a través del punto de la media X , Y . )
Ayuda: Muestre que X y Y satisfacen la ecuación Y = a + bX , donde a y b están
definidos como en el texto por las ecuaciones (1.2) y (1.3).

Solución.

Sabemos que
n n n
n∑ X iYi − ∑ X i ∑ Yi
b= i =1 i =1
2
y que a = Y − b X
i =1
n
⎛ ⎞ n
n∑ X − ⎜ ∑ X i ⎟
i
2

i =1 ⎝ i =1 ⎠
Por consiguiente, hallamos a b y luego con b hallamos a a, de ahí tenemos que
a = Y −bX

Por lo tanto

Y = a + bX
(
lo que demuestra que la recta de regresión pasa por el punto X , Y . )
Ejercicio 1.6.

El intercepto es este caso es el gasto autónomo del ingreso en ropas pero como es
negativo no tiene un interés práctico ya que no hay gasto negativo en ropas.

Ejercicio 1.7.

1)

Dependent Variable: G
Method: Least Squares

6
Date: 09/01/09 Time: 17:51
Sample: 1 8
Included observations: 8

Variable Coefficient Std. Error t-Statistic Prob.

C 2.875000 1.002023 2.869194 0.0285


IP -0.018519 0.070415 -0.262991 0.8014

R-squared 0.011396 Mean dependent var 2.625000


Adjusted R-squared -0.153371 S.D. dependent var 0.834523
S.E. of regression 0.896237 Akaike info criterion 2.831094
Sum squared resid 4.819444 Schwarz criterion 2.850955
Log likelihood -9.324377 F-statistic 0.069164
Durbin-Watson stat 1.951969 Prob(F-statistic) 0.801355

2)

Dependent Variable: G
Method: Least Squares
Date: 09/01/09 Time: 17:54
Sample: 1 7
Included observations: 7

Variable Coefficient Std. Error t-Statistic Prob.

C 1.467105 0.467827 3.135996 0.0258


IP 0.111842 0.036048 3.102612 0.0268

R-squared 0.658148 Mean dependent var 2.857143


Adjusted R-squared 0.589777 S.D. dependent var 0.556349
S.E. of regression 0.356334 Akaike info criterion 1.009058
Sum squared resid 0.634868 Schwarz criterion 0.993604
Log likelihood -1.531703 F-statistic 9.626203
Durbin-Watson stat 3.111331 Prob(F-statistic) 0.026774

Los estimadores son sensibles a los datos muestrales obviamente. Para ser un outlier
debe estar muy alejado de la recta de regresión, que no parece ser el caso aquí.

Das könnte Ihnen auch gefallen