Sie sind auf Seite 1von 18

Econometría Aplicada

UNIDAD 2: ANÁLISIS DE REGRESIÓN MÚLTIPLE


2.1 Estimación e interpretación de los estimadores MCO
 El modelo general de regresión lineal múltiple poblacional puede expresarse
como:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + ⋯ + 𝛽𝑘 𝑥𝑘 + 𝑢

 En este modelo, 𝛽0 es el intercepto y 𝛽𝑖 es el parámetro asociado a la variable


independiente 𝑥𝑖 .
 𝛽𝑖 mide el impacto marginal de 𝑥𝑖 sobre la variable dependiente 𝑦.
 Nuevamente, el término 𝑢 es la perturbación que contiene otros factores no
observados.
2.1 Estimación e interpretación de los estimadores MCO
 Ejemplo:
𝑙𝑜𝑔 𝑠𝑎𝑙𝑎𝑟𝑦 = 𝛽0 + 𝛽1 𝑙𝑜𝑔 𝑠𝑎𝑙𝑒𝑠 + 𝛽2 𝑐𝑒𝑜𝑡𝑒𝑛 + 𝛽3 𝑐𝑒𝑜𝑡𝑒𝑛2 + 𝑢

Donde 𝑠𝑎𝑙𝑎𝑟𝑦 es el sueldo de un𝑐𝑒𝑜𝑡𝑒𝑛


director general o CEO, variable que está
relacionada con las ventas de la empresa (𝑠𝑎𝑙𝑒𝑠) y su antigüedad en la
organización (𝑐𝑒𝑜𝑡𝑒𝑛)
 Este es un modelo de regresión múltiple (con k = 3)
 Recuerde que la linealidad del modelo de regresión significa que la ecuación
es lineal en los parámetros 𝛽𝑖
2.1 Estimación e interpretación de los estimadores MCO
 Supuesto clave:
𝐸 𝑢 𝑥1 , … , 𝑥𝑘 = 0
Ninguno de los factores en el término de error no observado debe estar
correlacionado con las variables explicativas y que se ha trabajado de manera
correcta la relación funcional entre las variables.
 Este es un modelo de regresión múltiple (con k = 3)
 Recuerde que la linealidad del modelo de regresión significa que la ecuación
es lineal en los parámetros 𝛽𝑖
2.1 Estimación e interpretación de los estimadores MCO
 La mecánica de estimación es similar al caso del modelo de regresión simple.
Se buscan los estimadores 𝛽𝑖 en la ecuación:

𝑦 = 𝛽0 + 𝛽1 𝑥1 + ⋯ + 𝛽𝑘 𝑥𝑘

que minimicen la suma de los cuadrados de los residuales:

𝑛
2
𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘
𝑖=1
2.1 Estimación e interpretación de los estimadores MCO
 Se puede hacer la analogía con el modelo de regresión simple y, utilizando el
cálculo diferencial, se obtendría el siguiente sistema de k+1 ecuaciones:

2 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘 = 0

2 𝑥𝑖1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘 = 0


2 𝑥𝑖𝑘 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘 = 0
2.1 Estimación e interpretación de los estimadores MCO
 Interpretación:
Por ejemplo, en la ecuación:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2
Los estimadores 𝛽1 y 𝛽2 se interpretan como los efectos marginales
(efectos parciales o ceteris paribus):
∆𝑦 = 𝛽1 ∆𝑥1 + 𝛽2 ∆𝑥2
Cuando 𝑥2 se mantiene constante: ∆𝑦 = 𝛽1 ∆𝑥1 y cuando 𝑥1 se mantiene
constante: ∆𝑦 = 𝛽2 ∆𝑥2
El estimador 𝛽0 es el valor predicho para y cuando 𝑥1 = 0 y 𝑥2 = 0
2.1 Estimación e interpretación de los estimadores MCO
Bondad de ajuste:
𝒏 𝟐
 Suma total de cuadrados (STC) como: 𝑺𝑻𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
 Suma explicada de cuadrados (SEC) como: 𝑺𝑬𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
 Suma residual de cuadrados (SRC) como: 𝑺𝑹𝑪 = 𝒖
𝒊=𝟏 𝒊

𝑺𝑻𝑪 = 𝐒𝐄𝐂 + 𝐒𝐑𝐂

𝟐
𝑺𝑬𝑪 𝑺𝑹𝑪
𝑹 = =𝟏−
𝑺𝑻𝑪 𝑺𝑻𝑪
2.2 Valor esperado de los estimadores MCO
Supuestos:
 Supuesto RLM.1: Linealidad en los parámetros
𝑦 = 𝛽0 + 𝛽1 𝑥1 + ⋯ + 𝛽𝑘 𝑥𝑘 + 𝑢
 Supuesto RLM.2: Muestreo aleatorio
Se cuenta con una muestra aleatoria de tamaño 𝑛, que sigue el modelo
poblacional de la ecuación.
 Supuesto RLM.3: No hay colinealidad perfecta
En la muestra, ninguna de las variables independientes es constante y no hay
ninguna relación lineal exacta entre las variables independientes.
 Supuesto RLS.4: Media condicional cero.
𝐸 𝑢 𝑥1 , … , 𝑥𝑘 = 0
2.2 Valor esperado de los estimadores MCO
Teorema:
 Bajo los supuestos RLM.1 a RLM.4:
𝐸 𝛽𝑗 = 𝛽𝑗 , 𝑗 = 0,1, … , 𝑘

Los estimadores son insesgados: lo que quiere decir que el procedimiento


mediante el cual se obtienen las estimaciones de MCO es insesgado cuando se le
considera aplicado a todas las muestras aleatorias posibles.
Práctica con e-views
Utilice los datos del archivo HPRICE1.wf1 para estimar el modelo:

𝑝𝑟𝑖𝑐𝑒 = 𝛽0 + 𝛽1 𝑠𝑞𝑟𝑓𝑡 + 𝛽2 𝑏𝑑𝑟𝑚𝑠 + 𝑢


donde 𝑝𝑟𝑖𝑐𝑒 es el precio de casas dado en miles de dólares, 𝑠𝑞𝑟𝑓𝑡 es la superficie de la casa en
pies cuadrados, y 𝑏𝑑𝑟𝑚𝑠 es el número de habitaciones de la casa.
a) Escriba los resultados en forma de ecuación.
b) ¿Cuál es el incremento en precio estimado para una casa con una habitación más,
manteniendo constante la superficie?
c) ¿Cuál es el incremento en precio estimado para una casa con una habitación adicional de
140 pies cuadrados? Compare con la respuesta anterior.
d) ¿Qué porcentaje de la variación en el precio se explica por la extensión en pies cuadrados y
el número de habitaciones?
2.2 Valor esperado de los estimadores MCO
Inclusión de variables irrelevantes en un modelo de regresión: (sobre-especificación del
modelo)
Suponga que se especifica un modelo como:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 𝑥3 + 𝑢
Y que este satisface los supuestos RLM.1 a RLM.4, pero 𝑥3 no tiene ningún efecto sobre 𝑦
𝛽3 = 0 .

 En términos de esperanza condicional: 𝐸 𝑦 𝑥1 , 𝑥2 , 𝑥3 = 𝐸 𝑦 𝑥1 , 𝑥2 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2


 Pero si estimamos la ecuación 𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 𝑥3 , los estimadores seguirán
siendo insesgados: 𝐸 𝛽𝑖 = 𝛽𝑖
 Sin embargo, puede tener efectos indeseables en la varianza de los estimadores.
2.2 Valor esperado de los estimadores MCO
Sesgo de una variable omitida:
Suponga que el verdadero modelo poblacional es el siguiente:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝑢
Y que este satisface los supuestos RLM.1 a RLM.4. y que nos interesa estudiar el valor de 𝛽1
El modelo se estima de la siguiente manera:
𝑦 = 𝛽0 + 𝛽1 𝑥1
 En este último modelo: 𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝑣, donde 𝑣 = 𝛽2 𝑥2 + 𝑢
 Se puede verificar que 𝛽1 = 𝛽1 + 𝛽2 𝛿1 , donde 𝛽1 y 𝛽2 son los estimadores que se
obtendrían en el verdadero modelo y 𝛿1 es la pendiente de la regresión simple de 𝑥2 sobre
𝑥1 .
 Entonces, 𝐸 𝛽1 = 𝐸 𝛽1 + 𝛽2 𝛿1 = 𝐸 𝛽1 + 𝐸 𝛽2 𝛿1 = 𝛽1 + 𝛽2 𝛿1
2.2 Valor esperado de los estimadores MCO
Sesgo de una variable omitida:

𝐸 𝛽1 = 𝐸 𝛽1 + 𝛽2 𝛿1 = 𝐸 𝛽1 + 𝐸 𝛽2 𝛿1 = 𝛽1 + 𝛽2 𝛿1
 Cuando 𝛽2 = 0, el estimador es insesgado (obvio!)
 Cuando 𝛿1 = 0, el estimador es insesgado. Entonces, se puede concluir que si
𝑥1 y 𝑥2 no están correlacionados en la muestra, el estimador 𝛽1 es insesgado.
2.3 Varianza de los estimadores de MCO
Supuesto RLM.5: Homocedasticidad
El error u tiene la misma varianza para cualquier valor de las variables
explicativas: 𝑽𝒂𝒓 𝒖 𝒙𝟏 , … , 𝒙𝒌 = 𝝈𝟐
 A los supuestos RLM.1 a RLM.5 se les conoce como supuestos de Gauss-
Markov (para regresiones de corte transversal)3

𝑽𝒂𝒓 𝒚 𝒙𝟏 , … , 𝒙𝒌 = 𝝈𝟐
2.3 Varianza de los estimadores de MCO
Teorema:
 Bajo los supuestos RLM.1 a RLM.5, condicionales en los valores muestrales
de las variables independientes,
𝝈𝟐
𝑽𝒂𝒓 𝜷𝒋 =
𝑺𝑻𝑪𝒋 𝟏 − 𝑹𝟐𝒋
𝑛 2
donde 𝑆𝑇𝐶𝑗 = 𝑖=1 𝑥𝑖𝑗 − 𝑥𝑗 es la variación muestral total de 𝑥𝑗 y 𝑅𝑗2 es la
R-cuadrada de la regresión de 𝑥𝑗 sobre las otras variables independientes (e
incluyendo un intercepto)
La magnitud de 𝑉𝑎𝑟 𝛽𝑗 tiene importancia práctica: una varianza grande significa
un estimador menos preciso, intervalos de confianza grandes y pruebas de
hipótesis menos exactas.
2.3 Varianza de los estimadores de MCO
Estimación de 𝝈𝟐 :
 El estimador insesgado de 𝜎 2 en el caso general de la regresión múltiple es
𝒏 𝟐
𝒖
𝒊=𝟏 𝒊
𝝈𝟐 =
𝒏−𝒌−𝟏
El término 𝑛 − 𝑘 − 1 representa los grados de libertad para el problema
general con 𝑛 observaciones y 𝑘 variables independientes.
La magnitud de 𝑉𝑎𝑟 𝛽𝑗 tiene importancia práctica: una varianza grande significa
un estimador menos preciso, intervalos de confianza grandes y pruebas de
hipótesis menos exactas.
2.4 Eficiencia de MCO
Teorema de Gauss-Markov:
 Bajo los supuestos RLM.1 a RLM.5, los estimadores obtenidos por MCO (𝛽𝑖 )
son los mejores estimadores lineales insesgados (MELI) de 𝛽𝑖

Das könnte Ihnen auch gefallen