Beruflich Dokumente
Kultur Dokumente
Ejercicio 1.1.
a)
M vs. Y
5.5
5.0
4.5
4.0
3.5
M
3.0
2.5
2.0
1.5
4 5 6 7 8 9 10 11
Y
Dependent Variable: Y
Method: Least Squares
Date: 09/01/09 Time: 11:20
Sample: 1981 1990
Included observations: 10
1
b) El intercepto en YN i = a + bM i + ε i ( i = 1, 2,..., n ) es el ingreso nacional (YN ) que es
Ejercicio 1.2.
Dependent Variable: G
Method: Least Squares
Date: 09/01/09 Time: 16:15
Sample: 1 8
Included observations: 8
La recta de regresión que pide se estime en el ejercicio es IPi = a + bGi + ε i , la cual está
dada por
Dependent Variable: IP
Method: Least Squares
Date: 09/01/09 Time: 16:16
2
Sample: 1 8
Included observations: 8
20
16
IP
12
4
1.6 2.0 2.4 2.8 3.2 3.6 4.0 4.4
G
¿Porqué los dos resultados son diferentes? La primera regresión es Gi = a + bIPi + ε i , en la
que tenemos como variable endógena a los puntos promedios de los alumnos y como
variable explicativa al ingreso de los padres, además de la variable estocástica. Aquí la
teoría nos dice que el rendimiento académico puede estar explicado por el bienestar
económico de la familia.
3
sustancialmente cambiando la recta de regresión estimada y por consiguiente los
parámetros estimados deberían ser diferentes.
Ejercicio 1.3.
a) El modelo original está dado por Y = a + bX . El modelo transformado está dado por
Y = a '+ b ' X ∗ , donde X ∗ = 10 X .
∑Y i ∑X i
a= i =1
−b i =1
n n
Estimación de a ' por mínimos cuadrados ordinarios en el modelo transformado. Se realiza
conforme a
n n n n
∑ Yi b ∑ X i∗ ∑ Yi 10∑ X i
a' = i =1
−b' i =1
= i =1
− i =1
= a.
n n n 10
Por lo tanto, el intercepto es el mismo en ambos modelos.
4
Computamos primero
E (Y ∗ ) = E ( c1 + c2Y ) = c1 + c2 E (Y ) .
E ( X ∗ ) = E ( d1 + d 2 X ) = d1 + d 2 E ( X ) .
Estimación de b en el modelo original en su versión desvíada con respecto a la media
b=
∑ xi yi
∑ xi2
Estimación de b ' en el modelo transformado en su versión desvíada con respecto a la
media
b' =
∑ ⎡⎣( d1 + d2 X i ) − ( d1 + d2 E ( X i ) )⎤⎦ ⎡⎣( c1 + c2Yi ) − ( c1 + c2 E (Yi ) )⎤⎦ =
∑ ⎡⎣( d1 + d2 X i ) − ( d1 + d2 E ( X i ) )⎤⎦
2
=
∑ d2 xi c2 yi = d2c2 b = c2 b.
∑ d 22 xi d 22 d2
Por lo tanto, la conclusión es que si se multiplica a la variable explicativa por d 2 , el
parámetro estimado de la pendiente debe dividirse por ese número. Asimismo, si se
multiplica la variable explicada por c2 , el parámetro estimado para la pendiente debe
multiplicarse por ese mismo número. La adición de constantes en la transformación de
variables tanto explicativa como explicada no altera a los coeficientes de mínimos
cuadrados ordinarios.
Ejercicio 1.4.
5
β=∑
0 xi yi
= .
∑x 0 2
i
Ejercicio 1.5.
(
Pruebe que la línea de regresión estimada pasa a través del punto de la media X , Y . )
Ayuda: Muestre que X y Y satisfacen la ecuación Y = a + bX , donde a y b están
definidos como en el texto por las ecuaciones (1.2) y (1.3).
Solución.
Sabemos que
n n n
n∑ X iYi − ∑ X i ∑ Yi
b= i =1 i =1
2
y que a = Y − b X
i =1
n
⎛ ⎞ n
n∑ X − ⎜ ∑ X i ⎟
i
2
i =1 ⎝ i =1 ⎠
Por consiguiente, hallamos a b y luego con b hallamos a a, de ahí tenemos que
a = Y −bX
Por lo tanto
Y = a + bX
(
lo que demuestra que la recta de regresión pasa por el punto X , Y . )
Ejercicio 1.6.
El intercepto es este caso es el gasto autónomo del ingreso en ropas pero como es
negativo no tiene un interés práctico ya que no hay gasto negativo en ropas.
Ejercicio 1.7.
1)
Dependent Variable: G
Method: Least Squares
6
Date: 09/01/09 Time: 17:51
Sample: 1 8
Included observations: 8
2)
Dependent Variable: G
Method: Least Squares
Date: 09/01/09 Time: 17:54
Sample: 1 7
Included observations: 7
Los estimadores son sensibles a los datos muestrales obviamente. Para ser un outlier
debe estar muy alejado de la recta de regresión, que no parece ser el caso aquí.