Sie sind auf Seite 1von 7

RESUMEN DEL CAPITULO 7

Anlisis de regresin mltiple: el problema de estimacin

El modelo con dos variables suele ser inadecuado en la prctica. Es el caso del ejemplo consumo-ingreso,
donde se supuso implcitamente que slo el ingreso X se relaciona con el consumo Y. Pero la teora econmica
rara vez es tan simple, pues, adems del ingreso, muchas otras variables probablemente afectan el gasto de
consumo. Es probable que la demanda de un bien dependa no slo de su propio precio sino tambin de los
precios de otros bienes competitivos o complementarios, del ingreso del consumidor, de la condicin social, etc.
Por consiguiente, se necesita ampliar el modelo simple de regresin con dos variables para considerar modelos
con ms de dos variables. La adicin de variables conduce al anlisis de los modelos de regresin mltiple, es
decir, modelos en los cuales la variable dependiente, o regresada, Y, depende de dos o ms variables
explicativas, o regresoras.
El modelo de regresin mltiple ms sencillo posible es la regresin de tres variables, con una variable
dependiente y dos variables explicativas.

Modelos con tres variables: Notacin y supuestos

Al generalizar la funcin de regresin poblacional (FRP) de dos variables, podemos escribir la FRP de tres
variables as:
Yi 1 + 2 X 2i + 3 X 3i + u i
Donde Y es la variable dependiente, X2 y X3 las variables explicativas (o regresoras), u es el trmino de
perturbacin estocstica, e i la i-sima observacin; en caso de que los datos sean series de tiempo, el
subndice t denotar la t-sima observacin.1
Supuestos
1) Modelo de regresin lineal, o lineal en los parmetros.
2) Valores fijos de X o valores de X independientes del trmino de error. En este caso,
esto significa que se requiere covarianza cero entre ui y cada variable X.
cov (ui, X2i) cov (ui, X3i) 0
3) Valor medio de la perturbacin ui igual a cero.
E(ui |X2i, X3i) 0
por cada i
4) Homoscedasticidad o varianza constante de ui.
var (ui ) 2
5) No autocorrelacin, o correlacin serial, entre las perturbaciones.
cov (ui, uj )

6) El nmero de observaciones n debe ser mayor que el de parmetros por estimar, que en el
presente caso son 3.
7) Debe haber variacin en los valores de las variables X.
8) No debe haber colinealidad exacta entre las variables X. No hay relacin lineal exacta entre X2
y X3
9) No hay sesgo de especificacin. El modelo est especificado correctamente.
El supuesto #8, que establece la no existencia de una relacin lineal exacta entre X2 y X3, se conoce
tcnicamente como supuesto de no colinealidad, o de no multicolinealidad cuando hay ms de una relacin
lineal exacta.

Informalmente, la no colinealidad significa que ninguna de las regresoras puede escribirse como combinacin
lineal exacta de las regresoras restantes en el modelo.
De manera formal, la no colinealidad significa que no existe un conjunto de nmeros 2 y 3, al menos uno
diferente de cero, tales que
2 X 2i + 3 X 3i 0

Interpretacin de la ecuacin de regresin mltiple

Con los supuestos del modelo de regresin clsico, se cumple que, al tomar la esperanza condicional de Y en
ambos lados de Yi 1 + 2 X 2i + 3 X 3i + u i, obtenemos:
E (Yi | X 2i , X 3i )

1 + 2 X 2i + 3i X 3i

Expresado en palabras, del supuesto E (Yi | X 2i , X 3i ) 1 + 2 X 2i + 3i X 3i se obtiene la media


condicional o el valor esperado de Y condicionado a los valores dados o fijos de las variables X2 y X3. Por
consiguiente, como en el caso de dos variables, el anlisis de regresin mltiple es el anlisis de regresin
condicional sobre los valores fijos de las variables explicativas, y lo que obtenemos es el valor promedio o la
media de Y, o la respuesta media de Y a los valores dados de las regresoras X.

Significado de los coeficientes de regresin parcial

Los coeficientes de regresin 2 y 3 se conocen como coeficientes de regresin parcial o coeficientes


parciales de pendiente. El significado del coeficiente de regresin parcial es el siguiente: 2 mide el cambio en
el valor de la media de Y, E(Y), por unidad de cambio en X2, con X3 constante. Expresado de otra forma,
proporciona el efecto directo o neto que tiene una unidad de cambio de X2 sobre el valor medio de Y, neto
de cualquier efecto que X3 pueda ejercer en la media Y. De igual forma, 3 mide el cambio en el valor medio de
Y por unidad de cambio en X3, cuando el valor de X2 se conserva constante.4 Es decir, da el efecto directo o
neto de una unidad de cambio en X3 sobre el valor medio de Y, neto de cualquier efecto que X2 pudiera tener
sobre la media Y.
En realidad, cmo haramos para conservar constante la influencia de una regresora? Para averiguarlo,
tenemos el ejemplo de la mortalidad infantil. Recuerde que en ese ejemplo Y = mortalidad infantil (MI), X2 = PIB
per cpita (PIBPC) y X3 = tasa de alfabetizacin en las mujeres (TAM). Suponga que deseamos conservar
constante la influencia de la TAM. Como TAM puede tener algn efecto sobre MI as como sobre PIBPC para
cualesquiera datos concretos, lo que podemos hacer es eliminar la influencia (lineal) que TAM ejerce tanto en
MI como en PIBPC, al hacer la regresin de MI sobre TAM y la regresin de PIBPC sobre TAM en forma
separada, y luego buscar los residuos obtenidos de tales regresiones.

Estimacin de MCO y MV de los coeficientes de regresin parcial

Para estimar los parmetros del modelo de regresin con tres variables consideraremos primero el mtodo de
mnimos cuadrados ordinarios (MCO), y luego, brevemente, el mtodo de mxima verosimilitud (MV).
Estimadores de MCO
Para encontrar los estimadores de MCO, escribamos primero la funcin de regresin muestral (FRM)
correspondiente a la FRP de la siguiente manera:

Yi 1 + 2 X 2i + 3 X 3i + u i (#1)
Donde u i es el trmino residual, la contraparte muestral del trmino de perturbacin estocstico ui.
El procedimiento MCO consiste en seleccionar los valores desconocidos de los parmetros de formai que la
suma de cuadrados de los residuos (SCR) lo ms pequea posible. Simblicamente, u2 sea:
min
u2 i (Yi 1 2 X 2i 3 X 3i )2
Donde la expresin para la SCR se obtiene por simple manipulacin algebraica de #1.
El procedimiento ms directo para obtener los estimadores que reducen a 2 es diferenciarla respecto de las
incgnitas, igualar a cero las expresiones resultantes y resolverlas al mismo tiempo. De este procedimiento se
obtienen las siguientes ecuaciones normales:
Y

1 + 2 X 2 + 3 X 3

(7.4.3)
2

Yi X 2i

X 2i + 2

+ 3

Yi X 3i

X 3i + 2

X 2i X 3i + 3

(7.4.4)

X 2i X2i 3i
X2

(7.4.5)

3i

De la ecuacin (7.4.3) vemos al instante que


1

Y 2 X 2 3 X 3

(7.4.6)

Que es el estimador de MCO del intercepto poblacional 1.


Conforme a la convencin de permitir que las letras minsculas denoten desviaciones de las medias
mustrales, se derivan las siguientes frmulas de las ecuaciones normales (7.4.3) a (7.4.5):
x 2 3i

yi x2i
x2

2i

i 3i
2i

yx
x2

2i

x2i x3i

x3i

x2i x3i
i 2i

x2

y x
3

yi x3i

2i 3i

x x
2x

3i

x2i x3i

Que dan los estimadores de MCO de los coeficientes de regresin parcial poblacionales, 2 y 3,
respectivamente.

El coeficiente mltiple de determinacin R2 y el coeficiente mltiple de correlacin R.


En el caso de dos variables vimos que r 2, mide la bondad de ajuste de la ecuacin de regresin; es decir, da la
proporcin o porcentaje de la variacin total en la variable dependiente Y explicada por la variable (nica) explicativa
Esta notacin de r 2 se extiende fcilmente a los modelos de regresin con ms de dos variables. As, en el modelo
tres variables buscamos conocer la proporcin de la variacin en Y explicada por las variables X2 y X3 conjuntamen
medida que da esta informacin se conoce como coeficiente de determinacin mltiple, y se denota por R2;
conceptualmente se asemeja a r 2.

La funcin de produccin Cobb-Douglas: ms sobre la forma funcional

En la seccin 6.4 demostramos cmo convertir, mediante transformaciones apropiadas, las relaciones no lineales en
relaciones lineales, de forma que se facilite trabajar dentro del marco del MCRL. Las diversas transformaciones
analizadas all en el contexto del caso de dos variables se amplan sin dificultad a los modelos de regresin mltiple
esta seccin demostramos estas transformaciones con una extensin multivariada del modelo log-lineal de dos varia
hay ms en los ejercicios y en los ejemplos ilustrativos en el resto de este libro. El ejemplo especfico es la conocida
funcin de produccin Cobb-Douglas de la teora de produccin.
La funcin de produccin Cobb-Douglas, en su forma estocstica, se expresa como
Yi

1 X 2 X 3 eu i
2i

3i

donde Y produccin
X2 insumo trabajo
X3 insumo capital
u trmino de perturbacin estocstica
e base del logaritmo natural
De la ecuacin (7.9.1) es claro que la relacin entre la produccin y los dos insumos es no lineal. Sin embargo, si
transformamos este modelo, mediante la funcin logaritmo, tenemos:
ln Yi

ln 1 + 2 ln X 2i + 3 ln X 3i + u i

(7.9.2)

0 + 2 ln X 2i + 3 ln X 3i + u i

donde 0 = ln 1.
Escrito de esta forma, el modelo es lineal en los parmetros 0, 2 y 3, y por consiguiente es
un modelo de regresin lineal. Observe, sin embargo, que es no lineal en las variables Y y X, aunque s lo es en sus logaritmos. En resumen, (7.9.2) es un modelo log-log, doble-log o log-lineal, el equivalente en la
regresin mltiple al modelo log-lineal con dos variables (6.5.3).
Las propiedades de la funcin de produccin Cobb-Douglas son bien conocidas:

1. 2 es la elasticidad (parcial) de la produccin respecto del insumo trabajo, es decir, mide el cambio porcentu
la produccin debido a una variacin de 1% en el insumo trabajo, con el insumo capital constante (vase el
ejercicio 7.9).

2. De igual forma, 3 es la elasticidad (parcial) de la produccin respecto del insumo capital, con el insumo trab
constante.

3. La suma (2 + 3) da informacin sobre los rendimientos a escala, es decir, la respuesta de la produccin a u


cambio proporcional en los insumos. Si esta suma es 1, existen rendimientos constantes a escala, es decir, la
duplicacin de los insumos duplica la produccin, la triplicacin de los insumos la triplica, y as sucesivamente
suma es menor que 1, existen rendimientos decrecientes a escala: al duplicar los insumos, la produccin crec
menos del doble. Por ltimo, si la suma es mayor que 1, hay rendimientos crecientes a escala; la duplicacin
insumos aumenta la produccin en ms del doble.

Modelos de regresin polinomial

La clase de modelos de regresin mltiple, los modelos de regresin polinomial, de amplio uso en la investiga
economtrica relacionada con funciones de costo y de produccin. Al introducir estos modelos, ampliamos la
de modelos a todos los que se aplica fcilmente el modelo clsico de regresin lineal.

Para ordenar las ideas, considere la figura 7.1 que relaciona el costo marginal (CM) de corto plazo de la prod
de un bien (Y ) con el nivel de su produccin (X ). La curva de CM de la figura, la curva con forma de U de los
de texto, muestra que la relacin entre CM y produccin es no lineal. Si se cuantificara esta relacin a partir d
puntos dispersos dados.
Geomtricamente, la curva CM de la figura 7.1 representa una parbola. Matemticamente, la parbola est
representada por la siguiente ecuacin:
0 + 1 X + 2 X 2

(7.10.1)

Que se denomina una funcin cuadrtica o, ms generalmente, un polinomio de segundo grado en la variable
mayor potencia de X representa el grado del polinomio (si se agregara X 3 a la funcin anterior, sera un polin
de tercer grado, y as sucesivamente).
La versin estocstica de (7.10.1) se escribe as:
Yi

0 + 1 X i + 2 X + u i

(7.10.2)

Que se denomina regresin polinomial de segundo grado.

Tenga en cuenta que, en estos tipos de regresiones polinomiales, slo hay una variable explicativa al lado de
pero aparece elevada a distintas potencias, convirtindolas en modelos de regresin mltiple. A propsito, ob
que si se supuso que Xi es fija o no estocstica, los trminos de Xi elevados a alguna potencia tambin se ha
fijos o no estocsticos.

Presentan estos modelos problemas especiales de estimacin? Como el polinomio de segundo grado (7.10.2) o el polinomio de grado k (7.10.13) son lineales en los parmetros, las se estiman me
las metodologas usuales de MCO o MV. Pero, qu sucede con el problema.
FIGURA 7.1

Curva de costo marginal


en forma de U.
Costo marginal

CM

Produccin

Coeficientes de correlacin parcial

El coeficiente de correlacin r es medida del grado de asociacin lineal entre dos variables. Para el modelo d
regresin con tres variables podemos calcular tres coeficientes de correlacin: r12 (correlacin entre Y y X2),

(coeficiente de correlacin entre Y y X3) y r23 (coeficiente de correlacin entre X2 y X3); observe que el subn
1 representa a Y por conveniencia notacional. Estos coeficientes de correlacin se denominan coeficientes de
correlacin bruta o simple, o coeficientes de correlacin de orden cero, y se calculan a partir de la definicin d
coeficiente de correlacin dada en (3.5.13).

Pero consideremos ahora esta interrogante: podemos decir en realidad que r12 mide el verdadero grado d
asociacin (lineal) entre Y y X2 cuando existe una tercera variable X3 que puede estar asociada a ellas? Es
pregunta es anloga a la siguiente: suponga que el verdadero modelo de regresin es (7.1.1) pero omitimos d
modelo la variable X3, y slo hacemos la regresin Y sobre X2 para obtener el coeficiente de la pendiente de
ejemplo, b12. Ser igual este coeficiente al verdadero coeficiente 2 si, para empezar, se estimara el mode
(7.1.1)? La respuesta debe ser clara a partir del anlisis en la seccin 7.7. En general, r12 tal vez no refleje e
verdadero grado de asociacin entre Y y X2 en presencia de X3. De hecho, es probable que d una falsa imp
de la naturaleza de la asociacin entre Y y X2, como demostraremos en breve. Por consiguiente, lo que se ne
es un coeficiente de correlacin que sea independiente de la influencia, si hay alguna, de X3 sobre X2 y Y. Di
coeficiente de correlacin se obtiene y se conoce apropiadamente como coeficiente de correlacin parcial. En
cuanto concepto, es similar al coeficiente de regresin parcial

En este captulo se present el modelo ms sencillo posible de regresin lineal mltiple, a saber, el mode
de regresin con tres variables. Se entiende que el trmino lineal se refiere a linealidad en los parmetro
no necesariamente en las variables.

Aunque un modelo de regresin con tres variables es, en muchas formas, una extensin del modelo con
variables, hay algunos conceptos nuevos, como coeficientes de regresin parcial, coeficientes de correla
parcial, coeficiente de correlacin mltiple, R2 ajustada y no ajustada (por grados de libertad),
multicolinealidad y sesgo de especificacin.

En este captulo se consider tambin la forma funcional del modelo de regresin mltiple, como la funci
de produccin Cobb-Douglas y el modelo de regresin polinomial.

Si bien R2 y R2 ajustada son medidas globales que indican la forma en que el modelo escogido se ajusta
un conjunto dado de datos, no debe exagerarse su importancia. Los aspectos crticos son las expectativa
tericas en que se basa el modelo en trminos de los signos a priori de los coeficientes de las variables
incluidas en l y, como se muestra en el siguiente captulo, su significancia estadstica
.
Los resultados presentados en este captulo se generalizan fcilmente a un modelo de regresin lineal
mltiple que implique cualquier nmero de regresoras. Pero el lgebra se vuelve te- diosa. Este tedio se
evita al recurrir al lgebra matricial. Para el lector interesado, la extensin al modelo de regresin de k
variables mediante lgebra matricial se presenta en el apndice C, opcional. Pero el lector general puede
leer el resto del texto sin conocer mucho de lgebra matricial.