Sie sind auf Seite 1von 79

Editado: Legacy academia online

Autor: Marta García

Contacto: legacy.online@gmx.com

E-Books & Papers for Statisticians


INDICE

Capítulo 1.- INTRODUCCIÓN

1.1.- Concepto de Econometría.


1.2.- Clase de datos
1.3.- Modelos econométricos y sus clases.

Capítulo 2.- MODELO DE REGRESIÓN LINEAL GENERAL: ESTIMACION

2.1.- Hipótesis del Modelo de Regresión Lineal General.


2.2.- Especificación del modelo
2.3.- Estimación por Mínimos Cuadrados Ordinarios. Interpretación de los coeficientes
2.4.- Propiedades de los estimadores por Mínimos Cuadrados Ordinarios.
2.5.- Estimadores Máximo Verosímiles.
2.6.- Bondad del ajuste de un modelo.
2.7.- Elasticidad

Capítulo 3.- MODELO DE REGRESIÓN LINEAL GENERAL: VERIFICACION DE HIPOTESIS

3.1 - Verificación de hipótesis sobre un coeficiente del modelo.


3.2 - Test general de restricciones lineales. Algunos casos particulares.
3.3 - Predicción por punto y por intervalo.
3.4 - Evaluación de la capacidad predictiva de los modelos.
3.5 - Selección de modelos

Capítulo 4.- AMPLIACIONES DEL MODELO DE REGRESIÓN LINEAL

4.1.- Regresión con variables explicativas binarias.


4.2.- Modelos no lineales.

Capítulo 5.- ALGUNOS PROBLEMAS DEL MODELO DE REGRESIÓN LINEAL

5.1 - Introducción.
5.2 - Errores de especificación.
5.2.1 - Omisión de variables relevantes.
5.2.2 - Inclusión de variables irrelevantes.
5.3 - Multicolinealidad
5.4 - Heteroscedasticidad.
5.5- Autocorrelación.
5.6- Otros tests de diagnóstico

E-Books & Papers for Statisticians


Capitulo 1. Introducción

1.1 Concepto de econometría

“La Econometría se ocupa de la cuantificación de los fenómenos económicos y de la


verificación de las Teorías Económicas, haciendo uso para ello de las estadísticas económicas
(datos) y aplicando a tal fin métodos especiales de inferencia estadística.
Estos métodos se aplican a modelos estocásticos que expresan formalmente aquellas Teorías
Económicas junto con otras especificaciones relativas a los procesos generadores de los datos
económicos”, es decir, se ocupa de la creación de un modelo econométrico que desarrolla
matemáticamente una teoría económica, explicando una variable en función de las variables
de las que depende, y cuantificando esa relación, para definirla, predecir y simular.

1.2 Clases de datos

1. Datos de series temporales


2. Datos de corte transversal
3. Panel de datos (combinación de 1. y 2.)

1. Datos de series temporales

Los datos de series temporales, como sugiere el nombre, son datos que han ido coleccionando
durante el tiempo en una o más variables. Los datos de series temporales van asociados a una
frecuencia que representa una medida el intervalo o la regularidad con la que los datos se han
obtenido o registrado en el tiempo (diario, mensual, trimestral, anual, etc.). Se representan
con el subíndice T. (Xt)

En series temporales, se suele utilizar el subíndice t para denotar el número que le


corresponde a la observación y el subíndice T para indicar el número total de observaciones
disponibles. Por ejemplo,

Ejemplos de series temporales:

-PIB o desempleo (frecuencia trimestral y mensual respectivamente)


-Déficit presupuestario del gobierno (frecuencia anual)
-Oferta monetaria (frecuencia semanal)
-Valor del Índice bursátil (frecuencia: cuando ocurre la transacción).

Las series temporales (variables que se observan longitudinalmente a lo largo del tiempo) se
pueden clasificar en:

E-Books & Papers for Statisticians


• Variables flujo: expresan una magnitud que puede considerarse un flujo o una corriente. El
valor observado corresponde a todo el periodo temporal que se toma como unidad (por
ejemplo, las ventas de una empresa, el número de turistas, el PIB, etc.).

• Variables stock: expresan magnitudes que pueden considerarse stocks o niveles y el valor
observado corresponde a una medición en un instante del tiempo dentro del periodo temporal
tomado como unidad (generalmente el último momento o el momento central). Por ejemplo,
las rentabilidades, los ocupados, los parados, el número de empresas que cotizan en bolsa, etc.

Los datos pueden ser cuantitativos (por ejemplo, tipos de cambio, precios, número de acciones
en circulación, etc.), o cualitativos (por ejemplo, los días de la semana, una calificación del
crédito, productos financieros adquiridos por particulares durante un periodo de tiempo, etc.)

2. Datos de corte transversal

Los datos de corte transversal son datos de una o más variables observadas en un mismo
instante o intervalo de tiempo. Se representan con el subíndice i (Xi)

Por ejemplo:

- Una encuesta del uso de los servicios de intermediación bursátil en internet.


- Rendimientos de los valores que cotizan en la bolsa de Nueva York (NYSE: New York Stock
Exchange) bajo un corte transversal.
- Una muestra de la calificación crediticia de los bonos en los bancos del Reino Unido.

Problemas que podrían ser abordados usando datos de corte transversal:

- La relación entre el tamaño de la empresa y la rentabilidad de invertir en sus acciones.


- La relación entre el PIB de un país y la probabilidad de que el gobierno pague su deuda
soberana.

3. Datos de panel

Los datos de panel tienen ambas dimensiones (series temporales y datos de corte transversal).
Por ejemplo, los precios diarios de un número de acciones “blue chips” durante dos años. Blue
chip es uno de los términos más utilizados en el parqué para denominar a las acciones más
valoradas por los inversores. Por ejemplo, el Ibex 35 tiene como blue chips: Telefónica , Banco
Santander, BBVA e Iberdrola.

En datos de corte transversal, se suele utilizar el subíndice i para denotar el número que le
corresponde a la observación y el subíndice N para indicar el número total de observaciones
disponibles.

E-Books & Papers for Statisticians


1.3 Modelo econométrico

Definición:

Un modelo econométrico especifica una forma funcional entre las variables implicadas, que
depende de parámetros. Se construye para cuantificar y contrastar la relación entre las
variables objeto de estudio, utilizando datos reales y métodos estadísticos.

A diferencia del modelo económico, recoge la naturaleza estocástica que gobierna las
relaciones entre variables. Para ello, se introduce el denominado ‘término de perturbación
aleatoria’ (ui o ut).

En consecuencia el término de perturbación aleatoria captará todos los errores y factores no


considerados en el modelo y que influyen en las variaciones de la variable dependiente o
explicada. La aparición de estos errores (perturbaciones) se puede deber, principalmente, a
una o más de las siguientes causas:

a) La propia aleatoriedad del comportamiento humano. Para un mismo precio la demanda


puede ser diferente por una diferencia de gustos.

b) Errores de medición en una o más de las variables.

c) Errores en la agregación de los valores de una o más variables.

d) Omisión de variables explicativas relevantes.

e) Elección de una forma funcional incorrecta.

Utilidades de un modelo econométrico

El modelo econométrico tiene tres utilidades principales:

1. Análisis estructural

Cuantificación de las relaciones que han existido entre las variables implicadas en el periodo de
análisis, a través del conocimiento del signo y valor de los parámetros estimados. Es decir,
sirve para conocer como inciden en la endógena, variaciones de las variables explicativas.

2. Predicción

Dados unos valores a futuro para las variables explicativas, y conociendo la expresión
matemática que relaciona las variables explicativas y la variable endógena, es posible predecir
los valores que tomará a futuro la variable objeto de estudio.

E-Books & Papers for Statisticians


3. Simulación o evaluación de políticas:

Efectos que tienen sobre la endógena diferentes estrategias que se planteen de las variables
explicativas. Se establecen unos valores objetivos o deseables para la exógena con el fin de
estudiar como reaccionaria la variable endógena.

En general, el modelo econométrico es una herramienta de análisis que ayuda en la toma de


decisiones tanto a nivel económico en general (macro) como en el ámbito de la dirección de
empresas (micro)

Elementos de un modelo econométrico:

- las ecuaciones

- las variables

- los parámetros o coeficientes y sus restricciones

- los datos (de corte transversal, series temporales, datos de panel)

Clases de ecuaciones

1. Estocásticas. Tienen término de perturbación y parámetros a estimar. Se clasifican en:

Ecuaciones de comportamiento: Tratan de explicar de qué forma toman decisiones los agentes
económicos. Por ejemplo, el consumo de las familias...

Ecuaciones Tecnológicas: Tratan de explicar las interdependencias entre los factores


productivos y el producto, es decir, la tecnología incorporada al proceso económico. Por
ejemplo, la función de producción Cobb- Douglas...

Ecuaciones Institucionales: Expresan aquellos aspectos cuantificables de la organización social,


legislación, etc, que influyen directamente en las variables que intervienen en el modelo

2. No estocásticas. No tienen término de perturbación ni parámetros a estimar.

Se clasifican en:

Ecuaciones de definición o contables: Expresan relaciones que se van a cumplir siempre en


virtud de su construcción. No lleva coeficientes acompañando a las variables.

Ecuaciones de ajuste: Describen el supuesto proceso de ajuste que se produce en mercados


particulares cuando existe un exceso por parte de la demanda o de la oferta. Un caso
particular son las ecuaciones de equilibrio.

E-Books & Papers for Statisticians


Ecuaciones de
comportamiento

Ecuaciones
Estocásticas
Tecnológicas

Ecuaciones
institucionales
Ecuaciones

Ecuaciones de
definición o
contables
No estocásticas
Ecuaciones de
ajuste

Tipos de variables

A. Variables endógenas:: sus valores actuales vienen determinados por el modelo. Dentro del
modelo, estas variables
ariables se influyen mutuamente (Y( t)
B. Variables predeterminadas:
predeterminadas sus valores actuales no vienen determinados por el modelo.
modelo
Las variables predeterminadas pueden ser a su vez:

- Variables exógenas: sus valores se determinan fuera del modelo, no vienen influídas por él,
pero sí influyen
uyen en las variables endógenas.
- Variables endógenas retardadas: variables endógenas referidas a un momento o período de
tiempo anterior al que estamos considerando. Sus valores han sido determinados por el
modelo en períodos anteriores, luego en la actualidad ya están determinadas (X
( t-1).

Tipos de modelos

• Según la evolución
volución temporal de las variables endógenas:

1) Modelos estáticos: todas las variables endógenas se refieren a un mismo instante de


tiempo.

Yt = α + βXt + ut

E-Books & Papers for Statisticians


2) Modelos dinámicos: cuando aparecen endógenas retardadas como variables
explicativas.

Yt = α + βXt + λYt−1 + ut

• Según el tipo de ecuaciones:

1) Modelos lineales: cuando todas las ecuaciones son lineales en los parámetros y en las
variables.

2) Modelos no lineales: cuando alguna ecuación no es lineal en las variables o en los


parámetros.

• Según la dirección de la causalidad entre las variables endógenas en un modelo


multiecuacional:

1) Modelos interdependientes o de ecuaciones simultáneas: todas las variables


endógenas están interrelacionadas, y por tanto, sus valores se determinan de forma
simultánea.

2) Modelos recursivos: es posible determinar un orden de causalidad entre las variables


endógenas, y por tanto, sus valores se determinan de forma escalonada.

Modelos no lineales

Existen dos tipos de modelos no lineales:

• Modelos intrínsecamente lineales. Son modelos no lineales respecto a las variables, pero sí
respecto a los parámetros. Pueden linealizarse.

• Modelos intrínsecamente no lineales. Son modelos no lineales respecto a las variables ni a


los parámetros. No pueden linealizarse.

E-Books & Papers for Statisticians


1. POTENCIAL
NO LINEALIZABLES
NO LINEALES ENLOS
PARAMETROS PERO
LINEALIZABLES
2. EXPONENCIAL

MODELOS NO
LINEALES
3. POLINÓMICO
LINEALIZABLES

4. HIPERBOLA
NO LINEALES EN LAS
VARIABLES (LINEALES
EN LOS PARAMETROS)
5.SEMILOGARITMICO

6.TERM.INTERACCION

Fases para la elaboración de un modelo econométrico

Las principales etapas que hay que cubrir en un modelo econométrico se pueden resumir en
las cuatro siguientes:

1. Especificación: determinación del tema objeto de análisis y definición de las variables


explicativas que se incluirán en el modelo.

2. Selección del tema objeto de análisis.

3. Selección de las variables explicativas más importantes, variables que a nivel general
influyen de una manera importantes sobre la variable endógena

4. Análisis de los antecedentes econométricos:


econométricos: búsqueda de modelos similares a la
materia objeto de análisis.

5. Estimación: consiste en el cálculo del valor de los parámetrosa través de la ayuda de


un programa informático (Eviews). Para realizar esta fase es necesario previamente
haber realizado
alizado una búsqueda y depuración de datos.

Es necesaria la obtención de datos suficientes, homogéneos y actualizados.

E-Books & Papers for Statisticians


La estimación de la perturbación aleatoria será el error que cometo con mi modelo al estimar,
que incluirá precisamente las variables que dejo fuera de la explicación (aquellas que tienen
poca importancia sobre la variable que trato de analizar).

6. Validación: a través de la interpretación de los resultados analizaremos la bondad del


modelo. De tal manera que si el modelo no es bueno para explicar a la variable
endógena deberé perfeccionarlo a través de:
- Una reespecificación de las variables explicativas, es decir, es posible que haya
olvidado incluir alguna variable importante por lo cual el modelo me esté dando un
grado de error elevado.
- Una nueva búsqueda de los datos utilizados, ya que si no son los correctos pueden
estar añadiendo un componente errático a la estimación.

7. Utilización: para realizar:

- Análisis estructural: cuantificar las relaciones entre las X y la Y.


- Predicción: anticipar los valores a futuro de la Y
- Simulación: efectos sobre Y de distintas estrategias de las X.

E-Books & Papers for Statisticians


Capitulo 2. MODELO DE REGRESION LINEAL GENERAL

2.1 Hipótesis del Modelo de Regresión Lineal General

1. El modelo de regresión es lineal en los parámetros. Quiere decir que los parámetros β no se
encuentran elevados a ningún número, ni divididos, etc

Puede ocurrir que el modelo, inicialmente, no sea lineal en los parámetros pero mediante una
transformación adecuada, puede convertirse en lineal en los parámetros.

2. Los coeficientes del vector b son constantes.

3. Hipótesis sobre el vector de perturbaciones (u):

a) La esperanza matemática de la perturbación o los errores es cero E(ui)=0.

b) La varianza de ui es constante, hay homocedasticidad.

c) No autocorrelación entre las perturbaciones, es decir, no están relacionadas consigo


mismas.

Las perturbaciones aleatorias con distintos subíndices son independientes entre sí.

Esta hipótesis de no autocorrelación no se suele cumplir cuando se trabaja con series


temporales. En general, la autocorrelación entre ui y uj obedece a que las perturbaciones
siguen un comportamiento sistematico, esto es, no siguen un comportamiento aleatorio.

d) El vector de perturbaciones aleatorias u tiene una distribución normal multivariante.


Distribución de ui (variable aleatoria)

4. Hipótesis sobre los regresores (Matriz X)

a) La matriz X es una matriz no estocástica (fija en el muestreo, no es aleatoria)

Esta hipótesis implica que los valores de X son los mismos, para las diferentes muestras de Y. Si
no se cumple esta hipótesis, los resultados de la estimación por MCO se mantendrían
prácticamente idénticos siempre que introdujéramos el supuesto adicional de independencia
entre los regresores y la perturbación aleatoria. En el caso de dependencia, es posible
mantener MCO siempre que los regresores sean exógenos en sentido débil con respecto a los
parámetros de interés.

b) La matriz de datos X tiene rango k.

c) Debe haber variabilidad en los datos de cada regresor.

5. El modelo de regresión está correctamente especificado.

Es decir, no se han omitido variables relevantes o se han incluido variables irrelevantes, y la


forma funcional es la correcta.

E-Books & Papers for Statisticians


2.2 Especificación del modelo

Nomenclatura

El modelo de regresión lineal general (MRLG), expresado para corte transversal, es el


siguiente:

Yi = β1+β2 X2i+.......+βk Xki + ui, i= 1, ..., n

donde:

• Y: es la variable a explicar, explicada o dependiente. Es la variable central del análisis.

• Xj, j= 2, ..., k: se denominan regresores, variables explicativas o variables independientes. Son


los factores que según la teoría económica o el razonamiento lógico, explican el
comportamiento de y.

• βj, j= 1, ..., k: son los k parámetros a estimar. Son constantes desconocidas para el analista.βj
recoge la relación entre xji e yi.

• ui: es una variable aleatoria inobservable y se denomina término de perturbación aleatoria o


error. Este término recoge la aleatoriedad presente en las relaciones entre variables
económicas. Al introducir ui en la ecuación, ésta es estocástica en lugar de determinista y por
tanto, más adecuada para representar la realidad económica.

Descomposición estadística de Yi

El modelo establece que la variable dependiente yi puede descomponerse en dos partes: una
sistemática y otra aleatoria.

•La parte sistemática o determinista es β1+β2 X2i+.......+βk Xki y contiene los factores
observables que afectan a yi. Una vez estimados los parámetros

βj a partir de unos datos, la parte sistemática queda estimada.

•La parte aleatoria es ui. Es la parte no explicable de yi. El término ui es una variable aleatoria
inobservable y la distribución de probabilidad supuesta para dicha variable determina la
distribución de probabilidad de yi. Por ser una variable aleatoria no se puede estimar; a lo
sumo, podremos estimar algunos de los parámetros de su distribución de probabilidad a partir
de una muestra dada (media, varianza, ...).

Dado que ui es una variable aleatoria, yi también será una variable aleatoria. Es decir, cada
observación de la variable dependiente es una variable aleatoria cuya realización es el dato
que observamos.

E-Books & Papers for Statisticians


Expresión matricial del MRLG

Consideremos la ecuación siguiente:

Yi = β1+β2 X2i+.......+βk Xki + ui

La ecuación se puede expresar matricialmente de la forma:

Y = Xβ + u

donde:

• Y: vector nx1de observaciones de la variable dependiente.

•X: matriz nxk de regresores; sus columnas son los valores para las variables independientes:1,
x2i, ..., xki (Nota 1)

• β: vector kx1de parámetros a estimar.

• u: vector nx1de términos de perturbación aleatoria (inobservable).

Nuestro objetivo va a ser estimar β a partir de una muestra de datos sobre X e Y.

Nota 1: La primera columna de la matriz X, corresponde a una variable invisible de valor 1 que
acompaña al término independiente, por tanto, siempre que el modelo conste de término
independiente, esta columna será un columna de 1.

2.3 Estimación por MCO

• Estimar consiste en utilizar la información muestral para asignarle valores numéricos a los
parámetros.

• Un estimador es una expresión, fórmula o método función de las observaciones de la


muestra. Será, pues, una variable aleatoria con una determinada media, varianza, modelo de
probabilidad, etc.

• Una estimación es el valor numérico resultante de aplicar la expresión del estimador a un


conjunto específicos de datos.

No existe un criterio único para estimar. Los dos métodos más frecuentes son los siguientes:

— mínimos cuadrados ordinarios (MCO)

— máxima verosimilitud (MV).

E-Books & Papers for Statisticians


Dado el modelo poblacional siguiente:

Yi = β1+β2 X2i+....+βk Xki + ui , ui∼iid N(0, σ2)

o, matricialmente:

y=Xβ+u, u∼N(0, σ2 I)

Representamos el modelo estimado a partir de una muestra dada de tamaño n por la siguiente
expresión:

Yi = β1+β2 X2i+....+βk Xki + ei

o bien, matricialmente, por esta otra:

Y=Xβ + e Y = Xβ

La expresión matricial del Estimador Mínimo Cuadrático ordinario o EMCO:

β= (X´ X)-1 X´ Y

A través de esta expresión, obtendremos la estimación de los parámetros β, a efectos prácticos


la estimación se lleva a cabo con un programa informático (Eviews)

Observando la expresión del estimador MCO vemos que su existencia va a depender de la


existencia de la matriz (X´X)-1. Por eso, la única hipótesis que se ha de cumplir es que:

X sea matriz no singular, o ρ(X) = k esto es, debe cumplirse que |X′X| = 0. En ese caso, se
verifica que el rango de X es igual al número de parámetros del modelo y, por tanto, existirá la
matriz (X´X)-1 que interviene en la expresión del EMCO.

Estimación por intervalos (intervalo de confianza para β)

La estimación realizada a través de la expresión matricial de MCO, da como resultado una


estimación puntual del parámetro, podemos llevar a cabo una estimación por intervalos, de tal
manera que aseguramos con una determinada probabilidad que el verdadero valor del
parámetro estará contenido en dicho intervalo.

Formalmente, se define por la siguiente expresión:

Prob(Li< βj< Ls) = 1−α

donde:

•βj: parámetro poblacional desconocido

•Li y Ls: límites inferior y superior respectivamente del intervalo

•1−α: nivel de confianza del intervalo

E-Books & Papers for Statisticians


•α: nivel de significación

La fórmula para la obtención del intervalo:

Prob (βje − tα/2n-k Sβ < βj< βje + tα/2n-k Sβ ) = 1−α

Siendo:

- βje : estimación puntual. Parámetro estimado a través de MCO

- Sβ :El error estándar del estimador.

- tα/2n-k : Valor del nivel de confianza del intervalo,(1−α),a través del valor tα/2n−k

Obtenido el resultado del intervalo, el verdadero valor del parámetro βj estará contenido en
dicho intervalo, con una probabilidad del (1- α)%

Por tanto, dada una estimación puntual del parámetro, βj, la amplitud del intervalo será mayor
cuanto:

• Mayor sea el error estándar del estimador.

• Mayor sea el nivel de confianza establecido. Es decir, cuanta más seguridad queramos para
que el intervalo construido incluya al verdadero parámetro.

Interpretación de los coeficientes

La interpretación de los coeficientes del modelo va a depender del tipo de modelo con el que
estemos trabajando, si se trata de un modelo lineal o de modelos no lineales.

Modelo lineal:

β 0: (β que acompaña al termino independiente) es la ordenada en el origen, será el valor de la


variable endógena (y) cuando el resto de variables exógenas valen 0. No tiene sentido
económico.

β j: Pendiente del modelo, es el incremento marginal (1ºderivada). Cuando la variable exógena a


la que acompaña el coeficiente aumenta una unidad, la variable endógena Y aumentara en β
unidades, permaneciendo constantes el resto de exógenas.

Modelo Interpretación βj

E-Books & Papers for Statisticians


Lineal Si x 1 u.  y β u. (*)
Potencial (doble log) Si x 1 %  y β % = Exy
Semilogaritmico x Si x 1 %  y β/100 u.
Exponencial (log en Y) Si x 1 u.  y β*100 %

(*) Si X aumenta 1 unidad, Y aumenta β unidades

2.4 Propiedades estimadores MCO

Los estimadores MCO son: ELIO

a) Lineales. Es lineal (porque es una combinación lineal de y)

b) Insesgados, no hay sesgo (error) entre la realidad y la estimación realizada. Es insesgado.

c) Óptimos, porque la varianza del estimador es mínima.

Dentro de la clase de estimadores lineales e insesgados, el estimador MCO tiene mínima


varianza, es decir, es un estimador ÓPTIMO de acuerdo con el TEOREMA DE GAUSS-MARKOV.

Para poder obtener el estimador MCO, en principio, sólo se exige que pueda calcularse la
matriz inversa de X´X.

Sin embargo, si deseamos, además, que los estimadores gocen de buenas propiedades en
muestras finitas (lineales, insesgados y óptimos), se exige también que:

-X debe ser una matriz fija (no estocástica) para que los estimadores sean lineales,

-E[u] = 0 para que los estimadores sean insesgados,

-Además de lo anterior, que la perturbación aleatoria sea homoscedástica y no esté


autocorrelacionada para que los estimadores sean óptimos (teorema de Gauss-Markov)

Nótese que en ningún se exige que las perturbaciones aleatorias sigan una distribución normal.

2.5 Estimador Máximo-Verosímil (MV)

Existe otro método de estimación, muy utilizado sobre todo porque proporciona estimadores
que gozan de buenas propiedades en muestras grandes (propiedades asintóticas, esto es,
cuando n tiende a infinito). Es el estimador Máximo-Verosímil (MV).

Este método propone como estimador de β , aquel que haga máxima la probabilidad de
generar los valores de la muestra, esto es, aquel que maximiza la función de verosimilitud de y.

Para poder obtener el estimador MV vamos a exigir, además de las hipótesis antes
mencionadas, la normalidad en las perturbaciones aleatorias, ui.

E-Books & Papers for Statisticians


Los estimadores MV gozan de buenas propiedades asintóticas:

• Consistentes (el sesgo desaparece con muestras grandes),

• Asintóticamente normales (Normalidad asintótica),

• Asintóticamente eficientes (Eficiencia asintótica).

Los estimadores MCO coinciden con los MV cuando ui sigue una normal, por tanto, también
poseen dichas propiedades asintóticas.

2.6 Bondad de ajuste: Coeficiente de Determinación (R2)

También denominado bondad de ajuste, es utilizado para estudiar la capacidad de ajuste del
modelo, nos informa qué tanto por ciento de la variable endógena viene explicado por el
modelo.

Será un coeficiente adimensional y solo podrá tomar valores entre cero y uno: 0 ≤ R2 ≤ 1.

Si multiplicamos R2 por 100 la interpretación será:

• R2 * 100: es el porcentaje de la variación de Y explicado por el modelo, es decir, por las


variables independientes.

• (1−R2) * 100: es el porcentaje de la variación de Y no explicado por el modelo, es decir,


residual.

Se emplea para seleccionar entre varios modelos, cuál tiene un mejor ajuste. Aquel que tenga
un mayor valor del coeficiente, será mejor, con ciertas limitaciones.

Se obtiene a través de la descomposición de suma de cuadrados, que establece que la suma


de cuadrados total (SCT) tiene una parte explicada por el modelo (SCE) y otra residual (SCR). En
definitiva, la variabilidad de Y tiene una parte explicada por las variables del modelo y otra
residual.

SCT= SCE+SCR

A partir de se define el coeficiente de determinación por cualquiera de las siguientes


expresiones:

 
R2 =  = 1 - 

E-Books & Papers for Statisticians


Limitaciones R2:

• Tiende a elegir el modelo con mayor número de variables explicativas, aunque estas sean
irrelevantes. Tiende a la sobreparametrizacion.
• Solo se puede utilizar para comparar modelos en los siguientes casos:
 Modelos con la misma variable dependiente.
 Modelos con el mismo número de variables independientes y coeficientes.
 Todos los modelos deben tener o no término independiente.

Para solventar estas limitaciones se recurre al coeficiente de determinación corregido R2

Las características que presenta son las siguientes:

• puede ser negativo incluso aunque haya término independiente en el modelo. No obstante,
cuanto más próximo a 1, mejor modelo.

• Siempre es menor o igual que el R2.

• penaliza incluir variables independientes adicionales. El criterio será, pues, el elegir el


modelo con R2 corregido más alto.

Otros Criterios de Selección de modelos

Criterios de información:

— Coeficiente Akaike (AIC)

— Coeficiente de Schwarz (SBIC)

Estos coeficientes por si solos, no nos proporcionan ninguna información, solo se utilizan para
la comparación entre dos modelos, aquel modelo que arroje un valor más bajo de dichos
coeficientes será mejor.

2.7 Elasticidad

Cuando las variables explicativas que intervienen en el modelo que estamos estimando vienen
expresadas en distintas unidades de medida no serán directamente comparables sus
correspondientes parámetros, para evitar este problema y comprobar qué variable exógena es
la que más influye en la endógena recurrimos al valor de la elasticidad.

La elasticidad es una medida adimensional (lo que permite comparar) y se puede calcular para
cualquier punto de la muestra, generalmente utilizamos el punto medio como medida
estándar.

E-Books & Papers for Statisticians


Formula general de cálculo:


E xy = *


Siendo:

= Derivada parcial de Y respecto a X


X: valor puntual de x, normalmente se utiliza el valor medio

Y: valor puntual de y, normalmente se utiliza el valor medio

Según el tipo de modelo con el que estemos trabajando la formula general se transforma en
las siguientes:

Modelo Interpretación βj

Lineal Exy= β * (X/Y)


Potencial (doble log) Exy= β
Semilogarítmico x Exy= β/Y
Exponencial (log en Y) Exy= β*X

Truco: Para modelos con logaritmos, habrá que eliminar de la formula de la elasticidad en el
modelo lineal la variable que tenga logaritmos en el modelo.

E-Books & Papers for Statisticians


CAPITULO 3- MRLG: Verificación de hipótesis

Para el desarrollo de este capítulo necesitamos tener claro cuáles son los elementos de un
contraste de verificación de hipótesis:

•Hipótesis nula (Ho) y alternativa (H1).

•Estadístico de contraste o estadístico observado (fórmula)

•Nivel de confianza o de significación (α)

La hipótesis nula recoge una afirmación acerca de la población de la que proceden los datos.
Esta afirmación implica una restricción en el campo de valores que pueden tomar todos o
algunos de los parámetros βj del modelo. El contraste nos permite decidir si la muestra cumple
la afirmación realizada en la hipótesis nula.

3.1 - Verificación de hipótesis sobre un coeficiente del modelo.

Verificar una hipótesis sobre un coeficiente permite contrastar el valor de dicho coeficiente, en
este caso, la hipótesis nula que contrastaremos establece que el parámetro βj toma un
determinado valor β (H0: βj = β). La hipótesis alternativa, en cambio, puede tomar una de las
tres formas siguientes:

1. Contraste unilateral (con la cola de la derecha): H1: βj > β

2. Contraste unilateral (con la cola de la izquierda): H1: βj < β

3. Contraste bilateral (con dos colas): H1: βj ≠ β

siendo β un determinado valor (0, 1, -2,...).

Para llevar a cabo el contraste calculamos el siguiente estadístico t-student:

 –

Tobs=


Para realizar contrastes de un sólo coeficiente, existe una relación entre el estadístico t-
student y la F-defisher-Snedecor, que viene dado por la siguiente expresión:

Fobs = (tobs )2

Una vez obtenido el valor observado del estadístico (Fobs ó tobs), a partir de los datos muestrales
se compara con el correspondiente valor crítico (tc), para un nivel de significación del 5% (α=
0,05), el valor crítico lo podemos encontrar en la tabla correspondiente a la t-student, los
grados de libertad serán n-k:
c
- Contraste unilateral: T n-k, 0.05

E-Books & Papers for Statisticians


- Contraste bilateral: Tcn-k, 0.025

Siendo:

- N: número de observaciones.
- K: número de parámetros del modelo.

La regla de decisión del contraste dependerá de la hipótesis alternativa, para los tres casos
planteados:

1. Si tobs > tc Rechazamos Ho al nivel de significación del 5%.

2. Si tobs <−tc Rechazamos Ho al nivel de significación del 5%.

3. Si tobs no está comprendido en el intervalo [-tc, tc] Rechazamos Ho al nivel de significación


del 5%.

El caso más relevante de verificación de hipótesis sobre un coeficiente del modelo es el


contraste de significación individual, permite verificar si la variable que acompaña al
coeficiente es significativa o no, contrastando si el coeficiente es igual a cero, si así lo fuera, la
variable que lo acompaña es irrelevante ya que se anularía.

Ho: β1 = 0

H1: β1 ≠ 0

En este caso la fórmula del contraste quedaría simplificada:



Tobs= 

Tcn-k, 0.025

Regla de decisión: Si tobs no está comprendido en el intervalo [-tc, tc] Rechazamos Ho al nivel
de significación del 5%.

E-Books & Papers for Statisticians


3.2 - Test general de restricciones lineales.

Queremos verificar "q" restricciones lineales sobre los parámetros del modelo, es decir, "q"
relaciones lineales entre los "k" parámetros βj del modelo.

• c. significación individual (q= 1)


Ho: β1 = 0
H1: β1 ≠ 0

• c. significación conjunta (q=k−1)


Ho: β1 =......= β5 = 0
H1: Ho no cierta

• c. sobre un subconjunto de coeficientes (q= 2)


Ho: β1=β3= 0
H1: Ho no cierta

• c. sobre un subconjunto de coeficientes (q= 2)


Ho: β1 = β4
β3+β4= 1
H1: Ho no cierta

La expresión del estadístico que nos va a permitir verificar cualquier conjunto de relaciones
lineales es la siguiente:

cr /
Fobs= 


Cuyo valor critico: Fcq, n-k

siendo:

• SCRCR=Suma de cuadrados de residuos del modelo estimado imponiendo las restricciones


contenidas en la Ho.

• SCRSR=Suma de cuadrados de residuos del modelo estimado sin imponer restricciones.

• q = número de restricciones contenidas en Ho.

• kSR= Número de parámetros en el modelo sin restricciones

Para llevar a cabo este contraste se realizan dos estimaciones, una del modelo sin aplicar las
restricciones impuestas en la hipótesis nula (será el modelo más amplio o que contiene más
información), este será el modelo sin restricción, del cual utilizaremos la suma de cuadrados de
los residuos sin restricción ( !"#$ ) para la formula, el segundo modelo se estimará
introduciendo las restricciones especificadas en Ho, será el modelo restringido (reducido o que
contiene menos información)

E-Books & Papers for Statisticians


Regla de decisión:

- Si Fobs > Fc → Rechazamos la hipótesis nula al nivel de significación del α%, es decir,
diremos que la evidencia muestral no nos permite aceptar como cierta la hipótesis
nula, los datos no proceden de una población con las características expresadas en Ho.
- Si Fobs < Fc  Aceptamos la hipótesis nula al nivel de significación del α%, es decir, la
evidencia muestral nos lleva a aceptar como ciertas las restricciones establecidas en la
hipótesis nula.

Casos particulares

• Contraste de significación global o conjunta.

Este contraste implica verificar si todos los regresores o variables explicativas consideradas en
bloque, de forma conjunta, son relevantes o explicativas de la variable dependiente, es decir,
si el modelo es significativo en su conjunto.

Dado el siguiente modelo:

Yi = β1 + β2 X2i + β3 X3i + β4 X4i +........+ βk Xki +ui

El contraste consiste en verificar las siguientes restricciones:

Ho: β2 = β3 = .... = βK = 0

H1: Ho no cierto

En este caso el número de restricciones q = K - 1, ya que en la hipótesis nula no se incluye el


término independiente.

El estadístico del contraste será:

 ⁄%&  )⁄(%


Fobs= =
 ⁄(% & )⁄%&

Valor crítico: FcK-1 , n-k

Regla de decisión: Fobs < Fc  se aceptará Ho y el modelo no es significativo en su conjunto, es


decir, que Y no dependerá de las variables independientes en conjunto. En este caso diremos
que las variables independientes no son explicativas de Y, o lo que es lo mismo, no influyen en
Y.

E-Books & Papers for Statisticians


• Test de cambio estructural o test de Chow.

Decimos que se ha producido un cambio estructural cuando son cambios importantes que
afectan a la misma estructura de un sistema y debemos recoger la transformación del modelo
haciendo referencia al mundo antes y después de dicho cambio es distinto.

El test de Chow nos permite verificar si, dada una muestra, esta procede de una población o de
más de una población. Es decir, permite verificar si los parámetros poblacionales se mantienen
o no estables en la población.

Aplicaciones del test:

- Caso de series temporales: contrastar un cambio estructural en el tiempo, en un determinado


momento del tiempo se ha producido un cambio que sospechamos ha influido en la estructura
de nuestro modelo. Ej. Crisis económica, una guerra, etc

- Casos de datos de corte transversal: el test de Chow nos permite contrastar diferencias de
estratos o secciones, por ejemplo entre hombres y mujeres, diferencia entre países, etc

El planteamiento que hacemos es que tenemos los dos posibles modelos teóricos siguientes:

1. Un único modelo para toda la muestra:

Yt = β1 + β2 X2t +........+βk Xkt + ut, t= 1, ..., T

Este primer modelo representa la estabilidad estructural (el modelo no cambia en todo el
periodo estudiado)

2. Un modelo formado por dos ecuaciones, una para cada subperiodo:

(I) Yt = β11 + β12 X2t +........+β1kXkt + u1t t1 = 1, ..., T1 (3.6)

(II) Yt = β21+ β22X2t +.........+β2kXkt + u2t t2 =T1+1, ..., T

Este modelo refleja el cambio estructural, en el caso de una serie temporal, tendremos un
modelo antes del cambio estructural y otro después. En caso de tratarse de datos de corte
transversal, tendremos un modelo para un subconjunto y otro para el otro,

En caso de ser valido este segundo modelo sí existiría diferencia entre los subconjuntos o
habría un cambio estructural.

E-Books & Papers for Statisticians


La hipótesis a contrastar son las siguientes:

Ho: no hay cambio estructural

β11 = β21

β12 = β22

.........

β1k= β2k

H1: Ho no cierta (si hay cambio estructural)

El estadístico para el contraste es un caso particular de la expresión del TGRL, que quedaría de
la siguiente forma:

*+,-  (*+& / *+0)⁄


Fobs=
*+& / *+0⁄(2& / 20)  03

c
Valor critic: F q , (t1 + t2) - 2k

donde:

• q = número de restricciones (En este caso q=K)

• SCRcr: Es la SCR al estimar un único modelo para toda la muestra.

• SCRsr = SCR1 + SCR2. Es decir, es la suma de dos SCR resultantes al estimar para cada una de
las dos submuestras.

En este contraste, Ho equivale a ausencia de cambio estructural.

Regla de decisión:
c
Si Fobs > F  Rechazamos Ho al 5% , es decir, rechazamos la igualdad de coeficientes para las
dos submuestras, rechazamos la ausencia de cambio estructural. Aceptamos que existe un
cambio estructural o una diferencia entre ambos subconjuntos.

Otros tests de restricciones

Existen otros tests más generales que permiten verificar cualquier tipo de restricción, lineal o
no y que tienen, además, las siguientes características:

• Se basan en la función de verosimilitud de la muestra, es decir, en el método de estimación


por MV.

• Son válidos asintóticamente, es decir, en muestras grandes.

E-Books & Papers for Statisticians


Se trata de los tres tests siguientes: Test de Wald, Test de la razón de verosimilitudes y Test del
multiplicador de Lagrange. Veremos los dos primeros:

• Test de la Razón de Verosimilitudes (RV)

Se realiza comparando los valores de la función de verosimilitud del modelo con y sin las
restricciones contenidas en la Ho. Su expresión es la siguiente:

RVo = −2 (lnLcr−lnLsr ) ~ Ji -dosq

donde:

• lnLcr: es el logaritmo de la función de verosimilitud en el modelo restringido (con las


restricciones).

• lnLsr: es el logaritmo de la función de verosimilitud en el modelo sin restringir.

Siempre se va a verificar que lnLSR ≥ lnLCR, por tanto, cuando estas dos cantidades sean casi
iguales, no habrá mucha diferencia entre estimar el modelo con y sin restricciones. Por el
contrario, cuando sean muy distintas, el valor del RVo será elevado y rechazaremos Ho. La
regla de decisión será:

- Si RVo > Ji-dosq(0,05) Rechazamos la Ho al 5%


- Si RVo < Ji-dosq(0,05)  Aceptamos la Ho al 5%

• Test de Wald

Es un contraste asintótico, es decir, es más fiable en muestras grandes. Se utiliza para verificar
restricciones tanto lineales como no lineales.

Se demuestra que el estadístico de Wald viene dado por la siguiente expresión:

W = q * F ~ Ji-dosq

Siendo q = número de restricciones y F el estadístico correspondiente al TGRL

Se puede establecer la siguiente relación entre estos dos tests: W ≥ RV

Ejemplo:

H0: β 2 = 2β3

H1: no es cierta H0

El test de Wald se puede realizar a través del programa Eviews, la salida correspondiente al
test seria:

E-Books & Papers for Statisticians


P-valor
Estadístico

Estadístico observado: w= 13.6

P-valor= 0.0002

Regla decisión: p-valor < 0.05 Rechazamos la hipótesis nula, con un nivel de confianza del 95%
no podemos aceptar que β2 = 2β3

3.3 Predicción

Clases de predicción

Con un modelo de regresión estimado es posible obtener tres clases de predicciones:

a) Predicción (o, mejor, simulación) histórica

b) Predicción ex post

c) Predicción ex ante.

La primera es la que se obtiene dando a la(s) variable(s) explicativa(s) los valores muestrales. Si
el modelo ajusta bien a los datos, la predicción histórica se ajustará bien a la realidad muestral.
Puede utilizarse para valorar la capacidad descriptiva del modelo.

La segunda, que es más interesante, es la que resulta cuando se da a la(s) X valores reales
conocidos que no son los muestrales. Esto es lo que ocurre cuando el analista se guarda una
parte de la información a la hora de estimar y luego la usa para ver si le modelo predice bien.
La submuestra no utilizada para estimar se usa para obtener predicciones ex post a fin de
valorar la capacidad predictiva del modelo.

E-Books & Papers for Statisticians


La tercera es la predicción propiamente dicha, que es la que se hace en la práctica con un
modelo estimado que ha pasado todos los tests y luego se usa para anticipar lo que va a
ocurrir en el futuro o lo que ocurriría dadas determinadas circunstancias que vendrían
definidas por los valores de las X.

Intervalo de predicción

Al llevar a cabo la predicción obtenemos un valor único de predicción, pero puede ser
interesante conocer el intervalo de predicción, será el intervalo que con una confianza del α%
estará comprendido el verdadero valor de la predicción:

Yp ± tn-k * Sp

Siendo:

- Yp  Valor de la predicción
- tn-k  Valor critico de la t-student
- Sp  Varianza de la predicción o error de predicción.
- tn-k * Sp  Semiamplitud

Cuando más pequeña sea la semiamplitud, más confianza merecerá la predicción.

Nótese que dicha semiamplitud depende de dos factores:

1. Valor crítico de la t-student (cuando el tamaño muestral es muy grande, dicho valor tiende a
2).

2. El error de predicción (cuanto más pequeño mejor).

Si el valor observado ya es conocido y no está dentro del intervalo de predicción, entendemos


que la predicción es mala.

Errores de predicción

Analizando el error de predicción podemos identificar hasta tres fuentes de error de


predicción:

1. Utilizamos una estimación de β

2. No contemplamos la existencia de up

3. X puede no ser conocida en la predicción y sus valores también habría que estimarlos

E-Books & Papers for Statisticians


El error de predicción en el caso de predecir el valor esperado es más pequeño:

Eso significa que la incertidumbre en el caso de predecir el valor esperado será menor que en
el caso de predecir el valor individual.

El predictor tanto del valor individual como del valor esperado es lineal, insesgado y óptimo.

Los errores cometidos en la simulación histórica tienen su origen en tres causas:

a) el carácter estocástico del modelo que hace que los valores de Y dependan de factores
aleatorios incontrolados (en la predicción, el término de error se supone igual a su esperanza
matemática, que es cero)

b) los parámetros están estimados y, por tanto, dependen de los errores de muestreo por lo
que, en general, difieren de los correspondientes al proceso generador de los datos (modelo
“verdadero”)

c) el modelo puede contener errores de especificación en sentido amplio que no hayan sido
detectados y corregidos.

Los errores de predicción correspondientes a la predicción ex post incorporarán todos los


errores mencionados en el apartado anterior, pudiendo verse incrementados por los
correspondientes a los cambios estructurales que se hayan podido producir.

Los errores de la predicción ex ante comprenden todos los anteriores más los que introduzca
el analista al anticipar los valores de las X. Estos errores son ajenos al modelo y dependen,
entre otras cosas, de la habilidad del analista. Por eso la predicción ex ante no sirve para
valorar la capacidad predictiva de los modelos.

3.4 - Evaluación de la capacidad predictiva de los modelos.

Para evaluar la capacidad predictiva de un modelo utilizaremos los siguientes indicadores que
nos servirán también para evaluar su capacidad de ajuste, sí al obtenerlos utilizamos valores
dentro del periodo muestral utilizado para el ajuste, obtendremos los estadísticos de
capacidad de ajuste, en cambio si a la hora de obtenerlos utilizamos los datos fuera del
periodo muestral obtendremos estadísticos que valoran la capacidad predictiva.

Todos se utilizan comparando los valores reales de la variable dependiente con sus valores
predichos o ajustados.

Estos indicadores son los siguientes:

1) Raíz del error cuadrático medio (RECM)

2) Error absoluto medio (EAM)

E-Books & Papers for Statisticians


3) Porcentaje del error absoluto medio (PEAM)

4) Coeficiente de desigualdad de Theil

Los tres primeros indicadores por sí solos no aportan información acerca de la capacidad de
predicción o de ajuste de un modelo, pero sí nos permiten comparar entre dos modelos, aquel
que arroje un menor valor de dichos estadísticos será más recomendable para predecir o
ajustar, el parámetro más adecuado para la comparación seria el PEAM ya que viene
expresados en términos relativos (%), en cambio el resto vendría expresado en las mismas
unidades que la variable endógena.

El índice de Theil es una medida de desigualdad, por sí mismo nos permite extraer
conclusiones a cerca de la capacidad predictiva del modelo, el valor resultante está entre 0 y 1,
cuanto más cercano sea el valor a 1, peor será la capacidad predictiva o de ajuste del modelo.
El dicho índice permite ser desagregado en tres componentes:

- Proporción del error


- Proporción de la varianza
- Proporción de la covarianza

La mayor proporción del estadístico Theil debe estar recogida por la proporción de la
covarianza, ya que si estuviera en la proporción de error las predicciones serian sesgadas, y en
la varianza serian irregulares.

El valor del índice de Theil es dado por la fórmula: Theil= 1-exp(-R).

Dichos estadísticos se suelen obtener con el programa Eviews al llevar a cabo la predicción,
este sería el resultado:

- Root Mean Squared Error RECM, Raíz del error cuadrático medio.
- Mean Absolute Error  MAE, Error absoluto medio.
- Mean Abs, Percent Error PEAM, porcentaje del error absoluto medio.
- Theil Inequality Coefficient Estadístico Theil.
- Bias proportion Proporción correspondiente al error del Theil.
- Variance proportion Proporción correspondiente a la varianza del Theil.
- Covariance proportion Proporción correspondiente a la covarianza del Theil.

E-Books & Papers for Statisticians


3.5 - Selección de modelos

Especificar y seleccionar el modelo adecuado para explicar la variable endógena es primordial,


para ello podemos seguir los siguientes pasos:

1. Partiendo de las existentes Teorías Económicas y la información procedente de


trabajos de modelización, adoptar una especificación inicial del modelo.

2. Al modelo inicial aplicarle los contrastes de mala especificación o de error de


especificación, para determinar si dicho modelo sufre algún tipo de inadecuación
respecto a la evidencia proporcionada por los datos.
- E(u/X)=0
- Los parámetros del modelo (β y σ2) son constantes (no hay cambio estructural y
homoscedasticidad)
- Covarianzas nulas en el término de pertubación (No autocorrelación)
- El término de perturbación sigue una distribución normal. En esta etapa se aplican una
batería de test (contraste Reset-Ramsey, estimaciones recursivas, test de chow, test de
White, test de Breusch-Godfrey, test de normalidad…etc).

3. Una vez que se ha garantizado que el modelo está libre de error de especificación la
siguiente etapa es buscar especificaciones con una parametrización más escueta
frente al modelo elegido, utilizar los criterios de selección para escoger el más
adecuado.

4. Una vez que seleccionamos el modelo definitivo en C), tratamos de comprobar si


existen otros modelos rivales, en cuyo caso, tendremos que verificar si el modelo
propuesto abarca o no a los modelos rivales a través de contrastes para modelos
anidados y no anidados. Destacamos el contraste de Abarcamiento de Mizon y Richard
y el contraste J de Davidson y Mackinnon.

Criterios de selección basados en un indicador distinguimos:

A. Métodos no paramétricos (RECM, EAM, PEAM y THEIL)

B. R2 corregido, AIC de Akaike, SC de Schwarz y HQ de Hannan y Quinn. El modelo que arroje


un valor de estos estadísticos menor será preferible.
&
Criterio de información de Akaike (AIC): Akaike = ((−2lnL + 2k)

&
Criterio de información de Schwarz (SBIC): SBIC = ( (−2lnL + k ln n)

Donde lnL es el valor obtenido al estimar el modelo por MV. Para n > 8 se cumple que Akaike <
SBIC. Normalmente, se mueven en el mismo sentido, es decir, que con ambos criterios
elegiríamos el mismo modelo como el mejor modelo. No obstante, en caso de que llegáramos

E-Books & Papers for Statisticians


a modelos distintos aplicando estos criterios, suele recomendarse SBIC porque Akaike tiende al
sobreajuste, es decir, a elegir modelos con demasiadas variables.

E-Books & Papers for Statisticians


Capítulo 4.- AMPLIACIONES DEL MODELO DE REGRESIÓN LINEAL

4.1.- Regresión con variables explicativas binarias.

Definición V. ficticia o binaria: Variables que toman el valor 1 cuando se da una situación o
clase y 0 cuando no se da. Las variables ficticias permiten discriminar el comportamiento de la
variable dependiente por grupos.

Las variables ficticias se utilizan para introducir en el modelo:

- Variables cualitativas (Ej. Genero)


- Cambio estructural
- Variaciones estacionales
- Valores atípicos

Trampa de las ficticias  Habrá que introducir en el modelo tantas variables ficticias como
clases haya menos 1, sino provocará un problema de multicolinealidad. Otra opción para evitar
el problema de multicolinealidad es eliminar el término independiente.

Por ejemplo, queremos introducir una variable ficticia que recoja los distintos sectores de la
economía, hay 3 sectores, por tanto, para que no se produzca una relación lineal perfecta,
debemos introducir en el modelo solo 2 sectores:

W1=1 para el sector primario

W1=0 cuando no estemos en el sector primario

W2=1 para el sector secundario

W2=0 cuando no estemos en el sector secundario

Introducimos solo las variables ficticias W1 y W2, ya que cuando ambas valgan 0 nos
encontraremos en el sector terciario, asi están recogidos los tres sectores.

Las variables ficticias se pueden introducir en el modelo recogiendo un cambio de origen y/o
cambio de escala:

1. Cambio de origen

Se introducen en el modelo sumando, como una variable normal con su correspondiente


parámetro. Si queremos introducir una ficticia que recoja las categorías A y B, solo habrá que
introducir una variable ficticia que valga 1 cuando se de la categoría A y 0 cuando no.

Modelo: Yt= α + β1Xt + β2W +ut

E-Books & Papers for Statisticians


Siendo: w= 1 si se da A

w= 0 si no se da A

El efecto diferencial será:

E [:⁄; = 0] = α + β1X (Valor de Y cuando se da B)

E [:⁄; = 1] = α + β2 + β1X (Valor de Y cuando se da A)

Si W=1

β1 Si W=0

α + β2 β1

La ordenada en el origen cuando nos encontremos en la categoria A será: α + β2

La ordenada en el origen cuando nos encontremos en la categoria B será: α

La pendiente será la misma en ambos casos: β1

2. Cambio de escala

Para recoger en el modelo un cambio de escala o de pendiente a través de una variable ficticia
habrá que introducir la variable ficticia multiplicando a la variable exógena. De nuevo
queremos introducir una ficticia que recoja las categorías A y B, habrá que crear solo una
ficticia que recoja uno de los dos casos:

Modelo: Yt= α + β1Xt + β2W Xt +ut

E-Books & Papers for Statisticians


Siendo: w= 1 si se da A
w= 0 si no se da A

El efecto diferencial será:

E [:⁄; = 0] = α + β1X
E [:⁄; = 1] = α + ( β1+β2) X

Si W=1

β1+ β2
Si W=0

β1

En este caso la ordenada en el origen permanece igual estemos en la categoría A o B, pero


cambiará la pendiente:

- Pendiente si nos encontramos en la categoría A (w=1) = β1+ β2

- Pendiente si nos encontramos en la categoría B (w=0) = β1

Contrastes

Una de las razones para introducir variables ficticias en el modelo, es poder contrastar si
realmente existen diferencias para la endógena según la categoría en que nos encontremos, es
decir, ¿realmente hay diferencias entre la categoría A y B para Y?

Para ello llevamos a cabo el siguiente contraste:

H0: β2=0 (Todos los coeficientes que acompañen a la ficticia)

H1: β2≠0

De tal manera que si aceptamos la hipótesis nula, no podemos afirmar que existan diferencias
entre ambas categorías.

E-Books & Papers for Statisticians


Casos

1. Modelo en logaritmos:

Log (Yt)= α + β1Xt + β2W +ut

Un modelo en logaritmos cambia la interpretación del coeficiente que acompaña a la variable


ficticia:

β2 * 100 = Diferencia porcentual de Y según la categoría que se encuentro.

2. Interacción de las ficticias

Si hay interacción entre dos o más variables ficticias, el efecto de una ellas depende del valor
que tomen las otras y viceversa.

Por ejemplo, creamos un modelo para explicar los salarios, en función del género, de si tiene
estudios o no, y de su productividad.

Para formular el modelo debemos crear las variables ficticias correspondientes a género y
estudio:

G=1 si es mujer

G= 0 si no es mujer (hombre)

ES=1 si tiene estudios

ES= 0 si no tiene estudios

S= Salarios

P= Productividad

El modelo introduciendo las variables ficticias como termino interacción para que recojan el
hecho de que puede ser mujer y tener estudios, o no ser mujer y no tener estudios.

Log (St)= α + β1Pt + β2G + β3G*ES+ β4ES +ut

De esta forma podemos estudiar la diferencia salarias según distintas opciones:

E(S/Mujer, sin estudios)= α + β1Pt + β2

E(S/Hombre, sin estudios)= α + β1Pt

E(S/Mujer, con estudios)= α + β1Pt + β2 + β3+β4

¿Cuál sería la ordenada en el origen de una mujer con estudios? α + β2 + β3+β4

Con este modelo podemos llevar a cabo varios contrastes:

¿Existe diferencia salarial entre hombres y mujeres?

E-Books & Papers for Statisticians


H0: β2= β3=0

H1: β2≠ β3≠0

¿Existe diferencia salarial entre los que no tienen estudios y los que si?

H0: β3= β4=0

H1: β3≠ β4≠0

¿Existe diferencia salarial entre mujeres y hombres que no tienen estudios y los que si?

H0: β3 =0

H1: β3 ≠0

3. Variables ficticias estacionales

Con datos temporales, es frecuente disponer de observaciones con periodicidad inferior al


año, es decir, disponer de datos trimestrales, mensuales, etc. Para recoger las variaciones
provocadas por la estacionalidad se utilizan variables ficticias.

Por ejemplo, si las observaciones de las variables fueran trimestrales, dado que tenemos 4
trimestres por año, hemos de introducir 3 variables ficticias en la ecuación. Con tres ficticias,
recogeríamos los valores medios de Yt en los 4 trimestres.

Yt = β1+β2 X2t + δ2 W2t + δ3 W3t + δ4 W4t + ut

En este caso, δj, j= 2,3,4, recoge la variación que se produce en el trimestre j respecto al primer
trimestre. Por ejemplo, δ2=50 indica que, por término medio, la variable dependiente en el
segundo trimestre de cada año es 50 unidades superior al valor que toma en el primer
trimestre.

Generalmente y con la finalidad de poder obtener los efectos estacionales de todos los
trimestres se define la variable ficticia estacional:

WJ = 1 en el trimestre J-ésimo, –1 en el primer trimestre y 0 en el resto (J = 2, 3, 4)

E(Yt/t = 1er trimestre) = b1 + b2 – (δ2+ δ3 + δ4 ),

E(Yt/t = 2º trimestre) = b1 + b2 + δ2

E(Yt/t = 3er trimestre) = b0 + b2 + δ3

E(Yt/t = 4º trimestre) = b1 + b2 + δ4

E-Books & Papers for Statisticians


Por tanto, independientemente del trimestre considerado la tendencia es la misma y los
efectos estacionales, que se expresan en la misma unidad de medida de la variable, vienen
dados por:

1er trimestre  – (δ2+ δ3 + δ4 ),

2º trimestre  δ2

3er trimestre  δ3

4º trimestre  δ4

Se verifica que la suma de los efectos estacionales es cero.

Contrastes de hipótesis

• ¿Existen diferencias en la variable dependiente entre el primer y segundo trimestre?

Ho: δ2= 0

H1: δ2≠0

• ¿Existen diferencias en la variable dependiente entre el primer y cuarto trimestre?

Ho: δ4 = 0

H1: δ4≠0

• ¿Existen diferencias en la variable dependiente entre el tercer y cuarto trimestre?

Ho: δ3 = δ4 = 0

H1: δ3 = δ4 ≠ 0

• ¿Existe evidencia de estacionalidad en la variable dependiente?

Ho: δ2 = δ3 = δ4 = 0

H1: δ2 = δ3 = δ4 ≠ 0

4. Cambio Estructural con variables ficticias

Al trabajar con series temporales es muy habitual encontrarse con cambio estructurales,
momentos en el tiempo en los que la estructura del modelo cambia. A partir de las variables
ficticias podemos recoger un cambio estructural producido en el modelo, creando una variable
ficticia que tome el valor 1 antes de dicho cambio y 0 después, así recogeremos el cambio
producido en la estructura del modelo.

E-Books & Papers for Statisticians


Ejemplo: Modelo con cambio estructural a causa de la crisis de 2008:

Yt = β1+β2 X2t + δ2 W2t + μ(X2t * W2t) + ut

Donde:

Y: Consumo de un bien

X2: Precio del bien

W2 = 1 antes de la crisis (1999 - 2008)

W2= 0 después de la crisis (2008 -2015)

Si queremos verificar la existencia o no de cambio estructural, es decir, si la financiera.


Haremos:

Ho: δ2= μ = 0

H1: No cierta H0

El contraste se llevaría a cabo con el TGRL.

Nota: La opción del test de Chow de cambio estructural es menos eficiente que utilizar
variables ficticias por no considerar la información de toda la muestra, además en el caso de
que la muestra incluya pocas observaciones, las submuestras resultarían muy pequeñas y se
podría perder una cifra significativa de grados de libertad.

4.2.- Modelos no lineales.

Existen dos tipos de modelos no lineales:

• Modelos intrínsecamente lineales. Son modelos no lineales respecto a las variables, pero sí
respecto a los parámetros. Pueden linealizarse y estimarlos por MCO.

• Modelos intrínsecamente no lineales. Son modelos no lineales respecto a las variables ni a


los parámetros. No pueden linealizarse.

E-Books & Papers for Statisticians


1. POTENCIAL
NO LINEALIZABLES NO LINEALES ENLOS
PARAMETROS PERO
LINEALIZABLES
2. EXPONENCIAL

MODELOS NO
LINEALES
3. POLINÓMICO
LINEALIZABLES

4. HIPERBOLA
NO LINEALES EN LAS
VARIABLES (LINEALES
EN LOS PARAMETROS)
5.SEMILOGARITMICO

6.TERM.INTERACCION

1. Modelo potencial o doblemente logarítmico

A. Modelo:

Forma original: YT=β1 X1tβ2 X2tβ3

Linealización: se toman logaritmos en ambos miembros de la igualdad:

Log(Yt) = β1+β2* Log(X1t)+β 3* Log(X2t)+ ut

El modelo resultante de la linea


nealización
lización se denomina doblemente logarítmico, ya que tanto la
variable endógena como las exógenas vienen expresadas en logaritmos. La estimación se lleva
a cabo por MCO.

B. Aplicaciones:

E-Books & Papers for Statisticians


Se suele utilizar para estimar funciones de producción, la más importante en Economía
modelada con este modelo es la Función de Producción Cobb-Douglas, además se utiliza
cuando se quiere conocer la elasticidad de una variable con respecto a otra directamente.

La Función de Producción Cobb-Douglas es la siguiente:

Qi = A Kβ1 Lβ2 eui

siendo

•Q = Producción

•L= factor trabajo (número empleados o número horas trabajadas)

•K =factor capital (stock de capital en euros, en $, etc.)

•α recoge el progreso técnico o la productividad de los factores (debido a la organización


industrial, al conocimiento de los trabajadores, al empleo de tecnología, etc.)

•El valor de los parámetros estará entre 0 y 1:

0< β1<1

0< β2<1

La función se linealiza tomando logaritmos:

Ln Qi = α + β1 LnKi + β2 LnLi +ui

Un contraste de interés en este modelo es el siguiente:

Ho: β1+β2= 1

H1: Ho no cierta

La restricción impuesta en la hipótesis nula equivale a la existencia de rendimientos constantes


a escala.

C. Interpretación parámetros

La característica más relevante de un modelo potencial es que sus parámetros β son


directamente la elasticidad entre la variable que acompañan y la variable endógena, en este
caso es constante.

Eyx = β

β= Variación porcentual que experimenta la variable endógena cuando la variable exógena


aumenta un 1%.

E-Books & Papers for Statisticians


D. Incremento marginal

Los incrementos marginales de Y con respecto a cada variable explicativa ya no son constantes,
sino que dependen de los valores correspondientes.
 
= β2
 

2. Exponencial

A. Modelo:
β1+β2*X1t+β3*X2t+ut
Forma original: Yt= e

Linealización: Tomando logaritmos

Log (Yt) = β1+β2*X1t+β 3*X2t+ut

Este modelo linealizado se denomina modelo semilogarítmico en Y, ya que, solo aparece


logaritmo en la variable endógena.

B. Aplicaciones:

Frecuente en funciones de salarios y en funciones de oferta de trabajo.

C. Interpretación parámetros

Multiplicado β por 100 representa una Tasa de variación, de forma que si la variable exógena
incrementa 1 unidad, la variable endógena experimenta una variación de β*100 %.

Cuando se trabaja con series temporales. Si X es el tiempo (t= 1, 2, 3, ….), entonces β2 en el


modelo siguiente, es la TASA DE CRECIMIENTO INSTANTÁNEO de Y a lo largo del tiempo, es
decir, el incremento relativo esperado de Y (en tanto por uno) que se produce cuando
transcurre una unidad de tiempo.

D. Incremento marginal


IM=  = β

La variable endógena varía en β unidades cuando la variable exógena aumenta una unidad.

E. Elasticidad

Eyx =βX

Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.

E-Books & Papers for Statisticians


3. Semi-logarítmico

A. Modelo:

Forma original: eYi = A Xiβ eui

Linealización: Tomando logaritmos

Yt = β1+β2+ Log (X1t)+β 3 +ut

B. Interpretación parámetros

β representa la variación que experimenta Y ante un incremento relativo de X, es decir, si β se


divide por 100, β /100 representa el número de unidades de variación de Y cuando X aumenta
un 1%.

C. Incremento marginal

 β
IM=  = 

El crecimiento de la variable Y ante cambios de X es menos que proporcional, no es constante


y va a depender del valor que tomemos de X.

D. Elasticidad

Eyx =β/Y

Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.

4. Polinómico

A. Modelo:

Yt = β1+β2*X21t+β3*X22t + ut

El modelo polinomico no necesita ser linealizado para llevar a cabo su estimación por MCO,
pero si es interesante contrastar su linealidad, contrastando si el parámetro que acompaña a la
variable que tiene un exponente es igual a 0.

Ho: β2 = 0 Ho: β3 = 0

H1: β 2 ≠ 0 H1: β3 ≠ 0

E-Books & Papers for Statisticians


Cuando en el modelo solo aparece una variable exógena al cuadrado se denomina modelo
parabólico: Yt = β1+β2*X21t + ut ; ya que su representación grafica forma una parábola.

El problema que puede presentar este tipo de modelos es el de la multicolinealidad. Sin


embargo, el problema de la multicolinealidad no debe preocupar salvo si k es muy grande,
cosa que no ocurre en las aplicaciones habituales.

B. Aplicaciones:

Funciones de salarios o funciones de costes se suelen representar a través de un modelo


parabólico.

C. Incremento marginal

Una característica importante de un modelo polinómico es que su incremento marginal no es


constante, es decir, el efecto de X sobre Y no es constante sino que depende del valor de X en
que lo calculemos, normalmente se sustituye el valor de X por su valor medio, para calcular el
incremento medio marginal.

Para un modelo parabólico:



IM=  = 2 * β2 X1t

D. Elasticidad

Debemos aplicar la formula general de la elasticidad para obtenerla:


 
Eyx = -  * 

En un modelo parabólico el resultado sería:

Eyx = 2 * β2 X21t / Y

Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.

5. Hiperbola

A. Modelo:
&
Modelo original: Yt=β1+ β2* &? + ut

Para linealizar el modelo debemos llevar a cabo una transformacion:


&
Z= &?

E-Books & Papers for Statisticians


Sustituyendo Z en el modelo original conseguimos un modelo lineal estimable por MCO:

Yt=β 1+β2*Zt+ ut

B. Usos

Se pueden distinguir dos casos:

Caso A: α >0, β<0

El modelo se aplica para describir relaciones en las que Y presenta un “techo”. Por ej. El
consumo de muchos productos alimenticios crece en función de los ingresos medios
familiares, pero tiene un límite. La Propensión Marginal al Consumo es siempre positiva y no es
constante sino decreciente con la renta; se trata de bienes inferiores. El parámetro α
representa el techo (curvas de gasto de Engel)

Caso B: β > 0

La forma de la curva es muy distinta; un uso del modelo sería representar la curva de Phillips
(con α < 0) o la curva de coste fijo medio de producción (con α > 0).

C. Incremento marginal

 β

=- 

El crecimiento de la variable Y ante cambios de X es menos que proporcional, no es constante


y va a depender del valor que tomemos de X.

D. Elasticidad
β
Eyx = - 

Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.

6. Termino interacción

A. Modelo:

Modelo original: Yt=β 1+β2* X1t * X2t + ut

Para linealizar el modelo debemos llevar a cabo una transformación:

Z= X1t * X2t

E-Books & Papers for Statisticians


Sustituyendo Z en el modelo original conseguimos un modelo lineal estimable por MCO:

Yt=β 1+β2*Zt+ ut
B. Usos

Curvas de gasto de Engel: los gastos familiares en un determinado producto dependen de la


renta de las familias y el tamaño de las familias.

C. Incremento marginal


IM= = β2X2


D. Elasticidad

&
Eyx1 =β2X2

Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.

Cuadros resumen modelos no lineales

MODELO Linealización

Potencial YT=β 1 X1tβ2 X2tβ3 Log(Yt) = β1+β2* Log(X1t)+β 3* Log(X2t)+ ut

Exponencial Yt= eβ1+β2*X1t+β3*X2t+ut Log(Yt) = β1+β2*X1t+β3*X2t+ut

Semi-logarítmico eYi = A Xiβ eui Yt = β1+β2+ Log(X1t)+β3 +ut

Polinómico Yt = β1+β2*X21t+β3*X22t + ut

Hipérbola & &


Yt=β 1+β2* &? + ut Z= &? ; Yt=β1+β2*Zt+ ut

Termino interacción Yt=β 1+β2* X1t * X2t + ut Z= X1t * X2t ; Yt=β1+β2*Zt+ ut

E-Books & Papers for Statisticians


MODELO Interpretación βj Incremento marginal Elasticidad

β % = Exy  
Potencial Si x 1 %  y IM= = β2 Eyx = β
 


Exponencial Si x 1 u.  y β*100 % IM= =β Eyx =βX


Semi-logarítmico Si x 1 %  y β/100 u.  β Eyx =β/Y


IM= =
 

Polinómico Igual modelo lineal   


IM= Eyx = - *
  

Hipérbola Igual modelo lineal  β β



=- 
Eyx = - 

Termino interacción Igual modelo lineal  &


IM=  = β2X2 Eyx1 =β2X2

E-Books & Papers for Statisticians


Capitulo 5. Incumplimiento de las hipótesis del modelo de
regresión lineal
1.1 Introducción

Los supuestos básicos del modelo de regresión lineal general son:

I. El comportamiento de Y se ajusta al modelo para todo el período muestral.

II. Las variables explicativas que forman la matriz X son no estocásticas (fijas en el muestreo).

III. El rango de la matriz X es igual a k < n (no hay multicolinealidad perfecta, y por tanto se
puede invertir la matriz X´X, y disponemos de n > k).

IV. La esperanza matemática del término de perturbación es cero, E(u) = 0.

V. La matriz de varianzas y covarianzas del término de perturbación es var(u) = σ2In.

VI. Las perturbaciones siguen distribuciones normales.

Bajo los supuestos básicos (I, II, III, IV, V) del modelo de regresión lineal, los estimadores MCO
gozan de buenas propiedades en muestras finitas: lineales, insesgados y óptimos.

Además, cuando u sigue una distribución normal (supuesto VI), hay una serie de implicaciones
importantes:

1. los estimadores MCO también siguen una distribución normal.

2. Los estimadores MCO coinciden con los estimadores MV.

3. Los estimadores MCO gozan de buenas propiedades asintóticas (las mismas que la de los
estimadores MV (consistencia, normalidad asintótica, insesgadez y eficiencia asintótica).

4. Es posible realizar inferencias con la t y la F.

5.2 ERRORES DE ESPECIFICACION

Ramsey (1969) demostró que cualquiera de los siguientes errores de especificación produce
que E[u] ≠ 0 (media no nula en la perturbación):

1. Variables omitidas. X no incluye todas las variables relevantes.

2. Forma funcional incorrecta. Algunas o todas las variables del modelo deberían ser
transformadas en logaritmos, incrementos, etc.

E-Books & Papers for Statisticians


3. Correlación entre X y u. Dicha correlación puede ser debida, entre otras causas, a errores de
medida en X, simultaneidad (modelos de ecuaciones simultáneas) o presencia de
autocorrelación en modelos dinámicos.

Bajo tales errores de especificación, los estimadores MCO serán, por lo general, sesgados e
inconsistentes y la inferencia convencional no será válida.

En sentido amplio, errores de especificación hacen referencia al incumplimiento de cualquiera


de las hipótesis sobre las que descansa el modelo y los procedimientos de inferencia asociados
a él. Por tanto, podemos clasificarlos de acuerdo con el siguiente esquema:

1. Errores relacionados con la matriz X:

a) Omisión de variables relevantes


b) Inclusión de variables irrelevantes.
c) Forma Funcional Incorrecta.
d) Rango de X inferior a K.
e) Correlación no nula entre X y u.

2. Errores relativos al término de perturbación:

a) u no se distribuye como una normal.


b) Heteroscedasticidad de u.
c) Autocorrelación de u.
d) formulación incorrecta del término de perturbación.

3. Cambio estructural de β

En sentido estricto, sin embargo, por error de especificación se entiende que la matriz X es
incorrecta, es decir, no contiene a los regresores correctos para explicar a Y.

Este error incluye los dos tipos siguientes:

1. Omisión de variables relevantes.

2. Inclusión de variables irrelevantes.

1. Omisión de variables relevantes.

Cuando se omiten variables relevantes, los estimadores por MCO son sesgados, así como los
tests del análisis de la variancia (significación conjunta) y de la “t” de Student (significación
individual), por lo que se invalidan los procedimientos de inferencia estadística.

Consecuencias omisión

E-Books & Papers for Statisticians


1) E (@A2) ≠ β2. Esto significa que el estimador del coeficiente β2, que acompaña a la variable
incluida en la ecuación mal especificada, es sesgado Incluso el signo del estimador podría ser
contrario al esperado. El sesgo del estimador β únicamente desaparece cuando los dos
regresores implicados son ortogonales o independientes.

2) E ( A 2e) > σ2. La varianza del término de perturbación se estima de forma sesgada. En
concreto, la varianza residual corregida obtenida a partir de la ecuación mal especificada, en
promedio, sobreestimará la verdadera varianza de u. La consecuencia inmediata de este
resultado es que la inferencia queda invalidada, es decir, se invalidan los estadísticos t y F.

3) Var (@A2) ≤ Var (β2) ; La varianza del estimador es menor la del estimador del modelo real o
correcto ya que es un estimador con restricciones.

Al omitir variables relevantes de una ecuación, los coeficientes de las variables incluidas
estimados sesgadamente, varianza de la perturbación sobreestimada y procedimientos
convencionales de inferencia invalidados.

2. Inclusión de variables irrelevantes.

Esto no ocurre cuando se incluyen variables irrelevantes. Los estimadores MCO son insesgados
y procede la inferencia estadística. Sin embargo son menos eficientes.

1) E(@A2 ) = β2. Esto significa que el estimador del coeficiente β2, que acompaña a la variable
incluida en la ecuación mal especificada, es insesgado

2) E( A 2e) = σ2. La varianza del término de perturbación se estima de forma insesgada. . La


consecuencia inmediata de este resultado es que la inferencia continua siendo válida.

3) Var (@A2) ≥ Var (β2); La varianza del estimador es mayor la del estimador del modelo real o
correcto. Por tanto aumenta la varianza de los estimadores de los coeficientes de las variables
relevantes, lo que puede llevarnos a aceptar Ho, y a que los intervalos de confianza sean más
grandes, perdiéndose en precisión y en eficiencia.

Al añadir variables irrelevantes, los coeficientes y la varianza de las perturbaciones se estiman


insesgadamente, pero la varianza de los estimadores aumenta, aunque los procedimientos de
inferencia continúan siendo válidos.

Estos resultados parecen indicar que, en caso de duda, es mejor optar por el modelo de más
variables ya que resulta más grave omitir variables relevantes que incluir variables
irrelevantes.

E-Books & Papers for Statisticians


Sin embargo, hay que tener presente que los estimadores obtenidos cuando se añaden más
variables irrelevantes, son menos precisos, en general, que los de los modelos con menos
variables. Por tanto, el coste de añadir variables irrelevantes se traduce en una menor
eficiencia.

Resumen:

Modelo correcto
Especificación Yt= β1+ β2X1+ut Yt= β1+ β2X1 + β3X2 +ut

CORRECTO OMISIÓN V.

Yt= β3+ β4X1+ut -@CB es ELIO CB es lineal pero sesgado


-@
- Procede la inferencia CB ) < Var (@
-Var(@ C& )
- ̅ e es sesgado
2

- No procede la inferencia

INCLUSION V. IRRELEVANTE CORRECTO


Yt= β3+ β4X1 + β5X2 +ut
-@CB y @
CF lineales, insesgados -@CB y @
CF son ELIO
- ̅ e es insesgado
2
- Procede la inferencia
- Procede la inferencia

Soluciones

Las soluciones requieren un estudio de sus posibles causas:

-Si obedece a la omisión de variables relevantes, deberíamos identificar dichas variables e


incorporarlas al modelo.

-Si obedece a una forma funcional incorrecta, deberíamos especificar un nuevo modelo no
lineal (algunas o todas las variables del modelo deberían ser transformadas en logaritmos,
incrementos, etc.)

-Si obedece a un problema de autocorrelación en el modelo dinámico, se produce un problema


de inconsistencia e ineficiencia. El problema de la inconsistencia podría resolverse, por
ejemplo, aplicando VI. Para resolver, además, el problema de la eficiencia, podemos arrancar
de la estimación por VI y estimar el modelo bajo el esquema de autocorrelación detectado
(esquema ARMA) utilizando métodos no lineales basados en procedimientos iterativos
similares a Cochrane-Orcutt.

E-Books & Papers for Statisticians


TEST

- Test de variables omitidas

A través del test de variables omitidas podemos comprobar si hemos dejado fuera del modelo
una variable que es relevante y mejoraría el modelo.

Partiendo del modelo de ejemplo: COt= β1+ β2P1t+ β3P2t + β4Rt+ut

Comprobamos si deberíamos haber introducido la variable R al cuadrado. El contraste seria:

H0: Variable R2 no relevante

H1: Variable R2 relevante, significativa en el modelo, debería incluirse.

El resultado obtenido con el programa Eviews:

Estadístico P-valor

E-Books & Papers for Statisticians


Resultado: El estadístico observado es RV= 0.11 y su probabilidad asociada 0.73, realizando el
contraste a un nivel de significación del 5%, podemos aceptar la hipótesis nula, ya que p-valor
> 0.05, variable R2 no relevante, no hemos cometido un error por omisión de variable
relevante.

- Test de variables redundantes

A través del test de variables redundantes comprobamos si hemos introducido en el modelo


una variable que no aporta información, porque está referida a la misma magnitud que otra
variable del modelo y mejoraría el modelo si la excluyésemos.

Partiendo del modelo de ejemplo: COt= β1+ β2P1t+ β3P2t + β4Rt+ut

Comprobamos si no deberíamos haber introducido la variable P2, por ser una variable
redundante. El contraste seria:

H0: Variable P2 no es redundante

H1: Variable P2 es redundante en el modelo

El resultado realizado el contraste con el programa Eviews:

Estadístico P-valor

E-Books & Papers for Statisticians


Resultado: El estadístico observado es RV= 15.09 y su probabilidad asociada 0.0001, realizando
el contraste a un nivel de significación del 5%, rechazamos la hipótesis nula, ya que p-valor <
0.05, variable P2 es redundante, hemos cometido un error por inclusión de variable
irrelevante.

- Test Reset-Ramsey

Reset-Ramsey demostró que si la media de las perturbaciones es nula no existen errores de


especificación.

H0: no hay errores de especificación, E(ui)=0

H1: hay errores de especificación, E(ui)≠ 0

Regresión auxiliar:

COi =αi + α2 x1i+α3 x2i+α4 x3i+α5 Fitted2 + Vi

Estadístico RV= R2 * n

Para el ejemplo utilizamos una potencia.

Estadístico P-valor

Regresión
auxiliar

El valor observado del estadístico es RV= 1.59 con una probabilidad asociada de 0.2, llevando a
cabo el contraste a un nivel de significación del 5%, aceptamos la hipótesis nula (p-valor <
0.05), no hay errores de especificación en el modelo.

E-Books & Papers for Statisticians


5.3. MULTICOLINEALIDAD

Concepto: Presencia de relaciones lineales entre dos o más regresores (las Columnas de X).
Cuando la relación lineal se presenta entre dos variables hablamos de colinealidad.

Clases

1. Multicolinealidad perfecta, es la que se presenta cuando hay una o más relaciones lineales
exactas entre los regresores. Por ejemplo, cuando el coeficiente de correlación entre dos
regresores es igual a la unidad. Se viola la hipótesis de la regresión lineal. La consecuencia es
que no se pueden calcular los estimadores MCO porque (X’X) no se puede invertir.

2. Multicolinealidad de grado, es la que aparece cuando existen relaciones lineales


significativas entre los regresores, aunque estas no sean exactas. Por ejemplo, cuando en un
modelo con dos variables explicativas, el coeficiente de correlación entre los correspondientes
regresores es próximo a la unidad.

Si la multicolinealidad es de grado, es posible obtener los estimadores MCO pero en la medida


en que la(s) relación(es) entre los regresores se aproximen a la situación de multicolinealidad
perfecta (r12 ≈ 1 o -1), se presentarán problemas:

a) Varianzas grandes de los estimadores

b) Amplios intervalos de confianza: Al ser las varianzas elevadas, los intervalos de confianza
son más amplios, por lo que los estimadores son menos precisos. Además, hay una tendencia a
aceptar la hipótesis nula en el contraste de significación individual.

c) Inestabilidad de los estimadores ante pequeñas variaciones muestrales.

Es decir, si aumentamos la muestra, podemos encontrarnos con grandes variaciones en las


estimaciones. Esto es consecuencia de que la varianza del estimador MCO es muy grande en
presencia de multicolinealidad alta.

d) Dificultad para interpretar los coeficientes de regresión βj.

El coeficiente de regresión expresa el incremento de Y cuando Xj aumenta en una unidad,


suponiendo que el resto de las variables explicativas permanecen constantes (supuesto difícil
de mantener cuando la correlación lineal entre las variables es muy alta).

e) La multicolinealidad grave hace imposible determinar el efecto aislado de cada regresor


sobre la endógena, esto es, la capacidad explicativa individual de cada una de las variables
explicativas consideradas. Esto se debe a que las variables explicativas altamente
correlacionadas proporcionan, en parte, la misma información a la hora de explicar el
comportamiento de la variable endógena. No obstante, este hecho no influye a la hora de
determinar la capacidad explicativa conjunta del modelo. Esto justifica que mientras que las t-

E-Books & Papers for Statisticians


student para la significación individual no son útiles, si lo es el contraste F de significación
conjunta.

f) Debido a lo anterior, un modelo con multicolinealidad grave no es adecuado para un análisis


estructural o de simulación de políticas alternativas, pero puede emplearse como herramienta
de predicción, siempre que para el período de predicción, se admita una correlación entre las
variables, similar a la observada en el período muestral.

La multicolinealidad o colinealidad de grado es un problema muy común en la práctica


econométrica pero no conlleva el incumplimiento de ninguna de las hipótesis en las que se
asienta el modelo de regresión lineal general. Así diremos que (salvo el caso de
multicolinealidad perfecta) se puede invertir la matriz para obtener los estimadores MCO y
estos siguen siendo lineales, insesgados y óptimos.

Ortogonalidad

La ortogonalidad es la situación opuesta a la multicolinealidad perfecta.

-Dos regresores son ortogonales cuando su producto escalar es cero. En tal caso el coeficiente
de correlación es igual a cero. Esta situación es la opuesta al caso de colinealidad perfecta, en
que dicho coeficiente de correlación es igual a la unidad.

-Cuando todos lo regresores son ortogonales se cumplen las siguientes propiedades:

a) Las estimaciones de los coeficientes de regresión coinciden con las estimaciones de los
coeficientes de las regresiones “brutas” individuales.

b) Si se procede a obtener la regresión paso a paso, empezando con un solo regresor y


añadiendo en cada paso un nuevo regresor, entonces la reducción en la SCR producida en cada
paso coincide con la SCE por el correspondiente regresor en su regresión individual bruta.

Es decir, si los regresores son ortogonales no hay ninguna ambigüedad a la hora de estimar
qué parte de las variaciones de Y viene explicada por cada una de las variables X.

Detección multicolinealidad

La multicolinealidad es esencialmente un problema de la muestra y no se tiene un método


único para detectarla. Lo que se tiene en realidad son reglas prácticas:

1. Indicios:

Una evidencia de posible multicolinealidad viene determinada porque el modelo pasa el


contraste de significación conjunta pero no pasa la mayoría de los contrastes de significación
individual, contando con un R2 elevado.

E-Books & Papers for Statisticians


2. Correlaciones:

Altas correlaciones entre parejas de regresores. Si las correlaciones a pares entre las exógenas
son elevadas sería un indicio de multicolinealidad. Cuando el modelo sólo tiene dos regresores,
una correlación superior a 0,8 indicaría un problema grave de multicolinealidad. En el caso de
tres o más regresores, las correlaciones entre parejas no serían un buen indicador, ya que
estas pueden ser bajas (inferiores a 0,8) y admitirse igualmente una combinación lineal
perfecta entre los mismos regresores.

El resultado será la siguiente matriz obtenida con el programa Eviews:

Si algún valor (fuera de la diagonal principal) es cercano a 1, indicaría que hay posible
multicolinealidad.

3. Determinante matriz de correlaciones:

Obtener la matriz de correlaciones entre parejas, en ausencia de colinealidad (ortogonalidad),


el determinante de dicha matriz es 1. Pero si dicho valor está próximo a cero, sería un
indicador de multicolinealidad.

4. Test de Klein

Para llevar a cabo el test de Klein debemos realizar la regresión de cada exógena respecto al
resto, si el R2 de alguna de las estimaciones es superior que el R2 del modelo principal estamos
ante un caso de multicolinealidad grave.

Utilizar la siguiente alguna técnica experimental como la siguiente:

-Se hayan las regresiones de Y respecto a cada X, una a una. Se selecciona la regresión más
plausible atendiendo tanto a la teoría económica como a los resultados estadísticos obtenidos
(signos de los coeficientes, significación estadística, etc.).

-Se van añadiendo variables adicionales. Cada variable añadida se clasifica en una de las
siguientes categorías: útil, superflua o perjudicial.

a) Útil:

- Si R2 corregido aumenta
- Los signos de los coeficientes ni su significación varian.

E-Books & Papers for Statisticians


b) Superflua:

- No mejora R2 corregido
- No cambia los coeficientes de las demás.

c) Perjudicial:

- Afecta significativamente a los signos o a la significación de los coeficientes de las


anteriores.

Hay entonces evidencia de colinealidad o de multicolinealidad y es preciso buscar alguna


solución al problema.

Soluciones:

a) Utilizar información a priori.


b) Combinación de información de corte transversal y de series temporales.
c) Eliminación de una(s) variable(s) y el sesgo de especificación.
d) Transformación de las variables.
e) Datos nuevos.
f) Reducción de la colinealidad en las regresiones polinomiales.

5.4. HETEROCEDASTICIDAD

1. Concepto

La heteroscedasticidad implica que las varianzas para las diferentes perturbaciones


correspondientes a los diferentes períodos no son constantes, si fueran constantes habría
homocedasticidad. Es un problema que suele presentarse con mayor frecuencia en datos de
corte transversal.

2. Consecuencias: Estimadores ineficientes.

1. El estimador por MCO es lineal, insesgado pero no óptimo (no tiene mímina varianza), es
decir, no se cumple el Teorema de Gauss- Markov.

2. El estimador de la varianza de la perturbación bajo MCO ya no tiene sentido y además está


claramente sesgado al alza.

3. La matriz de varianzas y covarianzas del estimador MCO está sesgada, es más, hay un doble
sesgo

4. La t-observada y la F-observada pueden no seguir una t-student y una F-snedecor


respectivamente. En consecuencia, no procede la inferencia estadística, es decir:

• No se pueden hacer contrastes de hipótesis

E-Books & Papers for Statisticians


• No se pueden construir intervalos de confianza

3. Causas:

Algunas de las posibles razones son:

1. En los modelos en los que se quiere explicar el comportamiento del Consumo o el Ahorro en
función de los ingresos (renta), la heteroscedasticidad del término de perturbación obedece
básicamente a que a medida que aumenta los ingresos, los individuos tienen mayores
posibilidades de selección con respecto a la forma de disponer del ingreso.

2. La presencia de valores atípicos (outliers) puede ocasionar problemas de


heteroscedasticidad.

3. Si el modelo no está correctamente especificado debido a la omisión de variables


explicativas relevantes. En muchas ocasiones, lo que parece ser heteroscedasticidad puede
deberse al hecho de que algunas variables importantes han sido omitidas en el modelo.

4. Una incorrecta transformación de los datos

5. La asimetría en la distribución de uno o más regresores (variables explicativas) incluidos en


el modelo. Los ejemplos lo constituyen variables económicas como el ingreso, la riqueza y la
educación. Es bien sabido que la distribución del ingreso y la riqueza en la mayoría de las
sociedades es desigual, pues la mayor parte de estos elementos le corresponden a unos
cuantos individuos pertenecientes a los estratos superiores.

4. Detección:

A) Métodos gráficos

B) Contrastes de Heteroscedasticidad:

- Contraste de White (para datos de corte transversal)

- Contraste de ARCH (para series temporales)

- Contraste Glejer: detectar la estructura de heteroscedasticidad.

- Contraste Breusch-Pagan-Godfrey

E-Books & Papers for Statisticians


A) Gráfico de los residuos

El estudio gráfico del comportamiento de los residuos es un contraste no concluyente, pero


muy ilustrativo, ya que si se observa que el tamaño de los residuos aumenta o disminuye
considerablemente puede ser un claro indicativo de existencia de heteroscedasticidad.

La amplitud de las variaciones de los residuos a lo largo del periodo parace mantenerse
constante, es posible que exista homocedasticidad de los residuos.

B.1) Test Heteroscedasticidad: White

Es un test asintótico, se refiere a que el test es muy fuerte cuando la muestra es muy grande.

Para aplicar el Test se debe estimar el modelo por MCO y se obtiene los residuos mínimos
cuadráticos.

Se construye una regresión auxiliar en el que la variable dependiente son los residuos mínimos
cuadráticos elevado al cuadrado ei2; y como variables explicativas aparecerán las mismas
variables que el modelo original, los cuadrados de estas y sus correspondientes productos
cruzados:

Regresión auxiliar:

αi + α2 x2i+α
ei2 =α α4 x2i2+α
α3 x3i+α α5 x3i2+α
α6 x2i*x3i + Vi

Este test se utiliza para comprobar si existe homocedasticidad en el modelo.

H0: Homoscedasticidad

H1: Heteroscedasticidad

El estadístico de prueba: ML=N*R2Aux. ∼ χ2q

E-Books & Papers for Statisticians


Resultado realizando el test con el programa Eviews:

Estadístico P-valor

Regresión
auxiliar

Estadístico: ML= 4.37

Probabilidad: p-valor= 0.10

Realizando el contraste a un nivel de significación del 5% nos lleva a aceptar la hipótesis nula
(p-valor > 0.05), los residuos se comportan correctamente, son homocedasticos.

B.2) Test Arch: Heteroscedasticidad condicional autorregresiva

Este test nos permite contrastar si hay “heteroscedasticidad condicionada autorregresiva” o


“heteroscedasticidad tipo Arch”. Cuando se dispone de datos temporales correspondiente a
una variable económica o financiera se puede presentar un tipo muy concreto de
heteroscedasticidad denominado “heteroscedasticidad condicionada autorregresiva” o
“heteroscedasticidad tipo Arch”.

Contraste:

H0: no hay efecto Arch(1)

H1: si hay efecto Arch(1)

Regresión auxiliar: Los retardos incluidos en la regresión auxiliar van a depender del numero
de potencias con las que queremos llevar a cabo el contraste.

et2 = α0+ α1 et-12 + G t

E-Books & Papers for Statisticians


Estadístico: ML= Obs * R2

Valor critico: Ji-dos con p (nº potencias) grados de libertad.

Estadístico P-valor

Regresión
auxiliar

Estaditico: ML= 4.76

Probabilidad: p-valor= 0.02

Realizando el contraste a un nivel de significación del 5% nos lleva a rechazar la hipótesis nula
(p-valor < 0.05), hay heteroscedasticidad condicional autorregresiva de orden 1.

B.3) Test de Glejser

Este contraste se utiliza para encontrar una estructura o esquema sobre la variación del
término de perturbación. Una limitación que presenta este contraste es que solo es útil
cuando la heteroscedasticidad está originada por una sola variable explicativa.

Se especifican distintas regresiones auxiliares:

ei = δ0 + δ1 Zjh + Vi

Se realiza una verificación individual de δ1 en cada una de las regresiones auxiliares con el
estadístico t. De entre las regresiones auxiliares donde δ1 resulte significativo nos quedamos
con aquella que tenga mayor R2.

H0: δ0 = 0

H1: δ0 ≠ 0

Aplicamos el contraste para h=1

E-Books & Papers for Statisticians


Estadístico: ML= Obs * R2

Valor crítico: Ji-dos

Estadístico P-valor

Regresión
auxiliar

Estadístico: ML= 4.97

Probabilidad: p-valor= 0.17

Realizando el contraste a un nivel de significación del 5% nos lleva a aceptar la hipótesis nula
(p-valor > 0.05), esta no sería la estructura de heteroscedasticidad, debemos seguir probando
hasta dar con la adecuada, una vez obtenida podremos resolver el problema de la
heteroscedasticidad con dicha formulación.

B.4) Test Breusch-Pagan-Godfrey

Se utiliza para determinar la heterocedasticidad en un modelo de regresión lineal. Analiza si la


varianza estimada de los residuos de una regresión depende de los valores de las variables
independientes.

H0: Homoscedasticidad

H1: Heteroscedasticidad

Estadístico: ML= Obs * R2

Valor crítico: Ji-dos k-1 grados de libertad, siendo k numero de parámetros.

E-Books & Papers for Statisticians


P-valor
Estadístico

Regresión
auxiliar

Estadístico: ML= 4.99

Probabilidad: p-valor= 0.17

Realizando el contraste a un nivel de significación del 5% nos lleva a aceptar la hipótesis nula
(p-valor > 0.05), no hay problemas de heteroscedasticidad.

5. Soluciones

Una vez detectado que hay heteroscedasticidad en el modelo, las estimaciones por MCO no
serán eficientes y tampoco procederá la inferencia estadística. Se proponen varias soluciones:

1) Cambiar la especificación del modelo, por ejemplo, expresarlo en logaritmos neperianos, o


en forma de cocientes.

2) Aplicar MCP (mínimos cuadrados ponderados) o MCG. Tiene el inconveniente de que hay
que buscar una ponderación adecuada.

3) Realizar la estimación aplicando la Matriz de varianzas y covarianzas consistente de


White.Dicha matriz nos permitirá hacer correctamente los contrastes de hipótesis, y
comprobar si efectivamente las variables son o no relevantes.

4) Si el modelo no pasa el contraste de Heteroscedasticidad Condicional Autorregresiva, es


posible estimar un modelo ARCH a las perturbaciones (no lo vemos).

E-Books & Papers for Statisticians


5.5. AUTOCORRELACION

1. Concepto

La autocorrelación implica que las covarianzas entre dos perturbaciones para diferentes
períodos no es nula, Si las covarianzas no son nulas, implica que las perturbaciones están
correlacionadas entre sí, y se manifestará por un comportamiento sistemático en los residuos
MCO. Es un problema que suele presentarse, con mayor frecuencia, en datos de series
temporales

Es muy característico observar en el gráfico de los residuos MCO una racha de residuos
positivos seguida por otra racha de residuos negativos, y luego positivos, y así sucesivamente.

2. Consecuencias: Estimadores ineficientes

Las consecuencias de la autocorrelación son las mismas que para el caso de la


heteroscedasticidad:

1. Los estimadores MCO siguen siendo lineales e insesgados pero no son eficientes. Además,
se mantiene las propiedades asintóticas de consistencia, normalidad e insesgadez asintótica.
Sin embargo, no son eficientes asintóticamente.

2. En el caso de un modelo dinámico con perturbación autocorrelacionada, por ejemplo: Los


estimadores MCO son inconsistentes además de ineficientes.

3. El estimador de la varianza de la perturbación por MCO esta sesgada.

4. Dicho sesgo se traslada igualmente a las varianzas de los estimadores MCO, y por tanto, a la
matriz de varianzas y covarianzas.

5. Por tanto, visto lo anterior, y continuando con las consecuencias, debido a que la varianza
de las perturbaciones y las varianzas de los estimadores MCO están por lo general, sesgadas,
no procede la inferencia estadística con los estadísticos habituales de la t y la F. Si hacemos uso
de los mismos podemos cometer errores graves de especificación, como eliminar variables
relevantes (cuando aceptamos una hipótesis nula que es falsa).

6. Finalmente, cuando hay autocorrelación en las perturbaciones, las predicciones MCO no


serán correctas ya que no estaríamos considerando dicha autocorrelación. Por ejemplo, en un
modelo estático con perturbación AR(1), para predecir el periodo T+1 necesitaríamos hacer
uso del residuo en T y el valor estimado de ρ.

E-Books & Papers for Statisticians


3. Causas

Las posibles causas de la autocorrelación son:

1. La propia inercia de los acontecimientos económicos y sociales. Por ejemplo, la existencia de


Tendencias y Ciclos que no vienen explicados por el modelo.

2. Mala especificación de la forma funcional. Por ejemplo, para explicar los costes marginales
se especifica una función lineal, cuando debería haberse especificado una función cuadrática.

3. Mala especificación por omisión de variable relevantes. Por ejemplo, se omiten retardos en
las variables explicativas.

4. Transformación “incorrecta” de los datos. Por ejemplo, expresar las variables en


incrementos puede generar una perturbación autocorrelacionada (una media móvil de orden
1, MA(1), no invertible).

5. En el análisis empírico, muchas veces se trabajan con series temporales mensuales que se
agregan trimestralmente. Cuando la agregación se hace por promedio (suma de los tres meses
dividido por 3) dicha agregación introduce cierto suavizado en la nueva serie al eliminar las
fluctuaciones de la serie mensual. Este suavizado, en sí mismo, induce un patrón sistemático
en las perturbaciones, provocando autocorrelación.

En los casos 2 y 3, los errores de especificación conllevan, además de la ineficiencia dada por la
autocorrelación, inconsistencia de los estimadores MCO (al omitir variables relevantes).
Afortunadamente, dicha ineficiencia e inconsistencia se resuelven especificando
correctamente el modelo.

4. Detección

A) Métodos gráficos.

B) Contrastes de Autocorrelación:

-Contraste de Durbin-Watson

-Correlograma (función de autocorrelación)

-Contraste de Breush-Godfrey

E-Books & Papers for Statisticians


A) Gráfico de los residuos

El estudio gráfico del comportamiento de los residuos es un contraste no concluyente, pero


muy ilustrativo, ya que la existencia de rachas de residuos del mismo signo puede ser un claro
indicativo de existencia de autocorrelación.

Los residuos vienen representados en el gráfico por la línea azul, como se puede observar
existen rachas de residuos positivos y rachas de residuos negativos, indicios de que existe un
problema de autocorrelación que debemos confirmar realizando otros test.

B.1) Contraste de Durbin-Watson

El contraste de DW nos permite conocer si hay indicios de autocorrelación, nos indica si hay
posible autocorrelación de orden 1, AR(1). El contraste sería el siguiente:

H0: no hay autocorrelación del tipo AR(1)

H1: si hay autocorrelación

Este estadístico de DW depende de:

1. Tamaño de la muestra (T)

2. Número de regresores (k´ = k – 1)

Para realizar el contraste, se establecen las cotas inferior (dL) y superior (dU) para los valores
críticos del estadístico d en función de: tamaño de la muestra (T) y número de regresores (k´ =
k - 1). Conociendo T y K podemos buscar en la tabla correspondiente de DW y estableces las
cotas.

E-Books & Papers for Statisticians


Las regiones del estadístico serán:

[0-dL]  Posible autocorrelación positiva de orden 1

[dL-dU]  Zona de indecisión

[dc-2 – dL*] Posible no autocorrelación de orden 1

[dL*- dU*]  Zona de indecisión

[dU*- 4] Posible autocorrelación negativa de orden 1

Limitaciones del contraste DW:

1. El contraste es válido sólo cuando la matriz de regresores (X) sea no estocástica, es decir, no
es válido para modelos que introducen retardos de la variable dependiente (modelos
dinámicos).

2. El modelo debe tener término independiente, ya que las tablas que recogen los valores
críticos del contraste están diseñadas con esta exigencia.

3. Presenta una zona de indecisión, en el que el contraste no es concluyente.

4. Sólo sirve para contrastar que no existe un esquema AR(1). En series temporales es
frecuente que la autocorrelación siga un esquema AR(4), en ese caso el estadístico DW
indicaría que no existe autocorrelación cuando sí la hay.

5. Se recomienda que el tamaño muestral no sea inferior a 15 observaciones para obtener


conclusiones fiables.

E-Books & Papers for Statisticians


B.2) Correlograma

El correlograma permite comprobar si existe autocorrelación en los residuos, además de incluir


el contraste de Ljung-box. Es la presentación gráfica de la función de autocorrelación simple y
función de autocorrelación parcial. Además nos permite estudia cual es la estructura de
autocorrelación que representa a los residuos, según la forma grafica de sus funciones de
autocorrelación simple y parcial.

Las funciones de autocorrelación vienen representadas gráficamente con el contraste de


Barlett, dicho contraste define unas bandas de confianza de intervalo (−2K , +2K ), si la
√J √J
función de autocorrelación simple y parcial se encuentran dentro de las bandas de confianza,
podemos afirmar que no existe autocorrelación en los residuos, habría ruido blanco.

Se considera ruido blanco cuando los residuos cumplen las siguientes condiciones:

- E(u)=0
- No hay autocorrelación
- Homocedasticidad de los residuos

El Correlograma obtenido con el programa Eviews sería el siguiente:

Como podemos observar en el grafico, utilizando el contraste de Barlett, ninguna de las


columnas correspondiente a la función de autocorrelación, tanto simple como parcial,
sobresalen de las bandas de confianza, por tanto, podemos afirmar que los residuos de este
modelo son ruido blanco y no hay autocorrelación.

Veamos que contiene cada columna de la salida:

- Autocorrelation Gráfico función de autocorrelación.

- Partial correlation  Gráfico función de autocorrelación parcial.

- AC  Valores función de autocorrelación.

E-Books & Papers for Statisticians


- PAC  Valores función de autocorrelación parcial.

- Q-stat Valor estadístico Ljung-Box.

- Prob  Probabilidad asociada al estadístico Ljung-Box.

Contraste Ljung-Box

Otra forma de detectar si hay o no problema de autocorrelación a partir de un correlograma es


aplicando el contraste de Ljung-Box:

Ho: Residuos son ruido blanco

H1: Ho no cierta

Para la realización del contraste se usaran las dos últimas columnas de la salida del
correlograma. De tal forma que si la probabilidad recogida en la última columna, es mayor que
0.05 podemos afirmar que hasta ese orden de autocorrelación existe ruido blanco.

Este estadístico, Q, se distribuye como una Chi-cuadrado

B.3) Contraste de Breush-Godfrey

El contraste de B-G es más general que el test de Durbin Watson porque permite verificar
autocorrelaciones AR(P) o MA(q) y además se puede aplicar incluso en modelos que incorpore
regresores estocásticos, es decir, podemos utilizarlos en modelos dinámicos autoregresivos.

H0: no haya autocorrelación del AR(p)

H1: si hay autocorrelación

Regresión auxiliar:

et = α0 + α1 p1 + α2 p2 + α3 r + α3 et-1 +…. αp et-p + Lt

Estadístico: ML= Obs* R2

Valor critico: Chi-cuadrado con p grados de libertad (siendo p el numero de potencias incluidas
o retardos de la regresión auxiliar)

En el ejemplo que vamos trabajando procedemos a verificar la existencia de autocorrelación


de segundo orden utilizando dos potencias en el test de B-G.

H0: no haya autocorrelación del AR(2)

H1: si hay autocorrelación

E-Books & Papers for Statisticians


Estadístico P-valor

Regresión
auxiliar

Estadístico: ML= 0.59

Probabilidad: p-valor= 0.74

Realizando el contraste a un nivel de significación del 5%, podemos aceptar la hipótesis nula ya
que p-valor > 0.05, no existe autocorrelación en el modelo.

5. Soluciones

Las soluciones dependerán de las causas de la autocorrelación.

1. Si la autocorrelación obedece a que el modelo no capta adecuadamente la tendencia-ciclo


de la endógena, habría que intentar modificar el modelo buscando variables explicativas que
incorporen dicha tendencia-ciclo.

2. Si la autocorrelación obedece a una mala especificación de la forma funcional, entonces lo


correcto es corregir la forma funcional del modelo.

3. Si la autocorrelación ha sido provocada por una “transformación” inadecuada de los datos


(por ejemplo, expresar las variables en incrementos provocando una media móvil no
invertible), entonces no se debería trabajar en incrementos.

4. En general, cuando en un modelo “estático” de series temporales se detecta


autocorrelación, la mayoría de las veces obedece a una mala especificación del mismo, ya que
normalmente se han omitido variables exogénas y endógenas retardadas.

E-Books & Papers for Statisticians


5. Cuando no se encuentra una explicación a la autocorrelación, entonces se puede recurrir a
identificar el patrón de autocorrelación, esto es, el modelo AR, MA o ARMA que mejor
explique dicha autocorrelación. Es decir, aplicar MCG.

6. Finalmente, siempre queda un último recurso, que es aplicar la Matriz Consistente de


NEWEY-WEST (procedimiento similar a la Matriz Consistente de White cuando hay
heteroscedasticidad), manteniendo el resto de resultados correspondientes a MCO. Esta
matriz corrige las varianzas (errores estándar) de los estimadores MCO cuando hay
autocorrelación y/o heteroscedasticidad, ya que dichas varianzas son sesgadas e
inconsistentes. De esta forma, manteniendo las estimaciones MCO, podemos hacer inferencias
sobre el modelo (significación individual de los coeficientes). No obstante, este procedimiento
sólo debe aplicarse con muestras grandes (al menos 50 observaciones).

5.6. Otros diagnósticos

NORMALIDAD

1. Concepto

La hipótesis de normalidad en las perturbaciones no es necesaria para la obtención de los


estimadores de los coeficientes de regresión por MCO, pero es fundamental para la aplicación
de otros métodos de estimación (como MV) y para la realización de inferencia en el modelo
(para trabajar con la t y la F bajo MCO necesitamos la hipótesis de normalidad en las
perturbaciones). Asimismo, cuando los regresores son estocásticos, es fundamental la
normalidad para garantizar la distribución asintótica de la F.

Por tanto, es imprescindible un análisis del cumplimiento de esta hipótesis al analizar los
resultados de la estimación.

El contraste de Jarque-Bera plantea en la hipótesis nula la existencia de normalidad en las


perturbaciones y en la alternativa la no normalidad.

El test es el siguiente:

Ho: u se distribuye según una normal, ui ̴N(u,σ)

H1: Ho no cierta

Bajo Ho cierta, el estadístico JB tiene una distribución chi-cuadrado con 2 grados de libertad:

( .NB))
JBo = M ( S2+
F

Siendo:

E-Books & Papers for Statisticians


n: tamaño de la muestra

S: Coeficiente de asimetría

C: Coeficiente de Curtosis

Por tanto si JBo < Ji-dos2 ; se acepta la hipótesis de normalidad del término de perturbación. En
caso de rechazar Ho, no habrá consecuencias negativas sobre el proceso de estimación, pero sí
sobre el proceso de verificación de hipótesis.

El contraste de Jarque-Bera se puede obtener a través del programa Eviews:

Estadístico

P-valor

El Eviews permite obtener el histograma de los residuos y el cálculo de ciertos estadísticos


descriptivos para dicha serie (media, mediana, desviación típica, valor máximo y mínimo,
coeficiente de asimetría (skewness) y curtosis).

Si la distribución es aproximadamente normal, media y mediana deberían coincidir, el


coeficiente de asimetría (S) debería valer en torno a cero y el coeficiente de curtosis (K)
debería estar en torno a 3.

En el resultado obtenido, el coeficiente de asimetría es 0.52 podriamos considerarlo cercano a


0, el coeficiente de curtosis es 3.21, un valor que apunta a la distribución normal de los
residuos al ser cercano a 3.

Si llevamos a cabo el contraste a un nivel de significación del 5%, el estadístico JB= 0.42 con
una probabilidad asociada de 0.8, al ser mayor que 0.05 nos permite aceptar la hipótesis nula
de normalidad de los residuos.

E-Books & Papers for Statisticians


2. Causas y solución

La solución a la falta de normalidad de las perturbaciones requiere de un estudio de sus


posibles causas. En general, dicha no normalidad puede ser debida a la existencia de
observaciones atípicas (outliers) que generan distribuciones más apuntadas o con una falta de
asimetría.

Así, podemos mencionar que situaciones en las que el modelo presenta deficiencias de
especificación, como la omisión de variables relevantes o falta de linealidad, pueden
detectarse por un mayor apuntamiento de la distribución de residuos que la normal o por
fuertes asimetrías.

En estos casos, la solución consistiría en resolver esas deficiencias en primer lugar, lo que
podría eliminar simultáneamente el incumplimiento de la normalidad.

En otras ocasiones, la obtención de distribuciones de los residuos con más de una moda puede
deberse a la utilización de datos procedentes de distintas poblaciones, es decir, la existencia
de heterogeneidad en la muestra entre distintos grupos de la misma. La solución pasaría por
introducir variables ficticias en el modelo (para recoger ese distinto comportamiento en la
muestra total).

Estabilidad estructural: Estimación recursiva

La estimación recursiva permite detectar posibles cambios estructurales y sobre todo, en qué
momento se producen y a qué coeficientes puede afectar. Se trata, por tanto, de un contraste
muy general y práctico.

La estimación recursiva consiste en la estimación secuencial del modelo especificado para


distintos tamaños muestrales.

El gráfico de los coeficientes recursivos representa el comportamiento de cada uno de los


estimadores al ir añadiendo observaciones a la muestra con la que se realiza la estimación.

Las series de coeficientes se muestran junto con sus bandas de confianza (± dos veces su
desviación estándar) lo que permite intuir la presencia de inestabilidad en el modelo si los
coeficientes sufren cambios al ir variando la muestra, es decir, si no se mantienen
aproximadamente constantes.

La representación gráfica de la serie de residuos recursivos junto con sus bandas de confianza,
definidas como ±2 veces su desviación estándar, permite detectar inestabilidad en los
parámetros cuando uno o varios residuos sobrepasan sus bandas.

E-Books & Papers for Statisticians


- Coeficientes recursivos

- Residuos recursivos

- Cusum

Si los valores se empiezan a alejar de cero e incluso se salen de las bandas, estarían indicando
un posible problema de cambio estructural. No es el caso siguiente, parece haber estabilidad
estructural.

E-Books & Papers for Statisticians


- Cusum cuadrado, cusumq

El estadístico CUSUM cuadrado se utiliza para contrastar la estabilidad del modelo sumas
acumuladas de los cuadrados de los residuos recursivos, si los valores se empiezan a alejar de
su valor esperado e incluso se salen de las bandas, estarían indicando un posible problema de
cambio estructural.

Solución

La solución a un problema de error de especificación por existencia de inestabilidad en el


modelo debe resolverse incorporando el cambio estructural a la especificación del mismo.

Una idea intuitiva para situar dónde se concretan los cambios puede obtenerse con la
estimación recursiva, y básicamente con la representación gráfica de los coeficientes
recursivos.

Tendría que estudiarse qué coeficientes de regresión son los afectados. Posteriormente puede
incorporarse variables ficticias que toman el valor 1 y 0 para diferenciar el periodo muestral.
Introduciendo adecuadamente dichas variables ficticias y para cada uno de los regresores
podemos posteriormente detectar estadísticamente qué coeficientes son los afectados por un
cambio estructural mediante la realización de contrastes de significación.

E-Books & Papers for Statisticians


Cuadro resumen tests

TEST HIPOTESIS ESTADÍSTICO CRÍTICO REGRESIÓN


NULA AUXILIAR
Reset-Ramsey No hay error de RV-Likelihood Yt = α0 + α1 x1 +
especificación α2 x2 ...+ α4
Fitted2 + G t

Jarque-Bera Distribución JB X22


normal de la
variable
White Homocedasticidad ML=Obs*R2 X2p-1 ei2 =αi + α2 x2i+α3
x3i+α4 x2i2+α5
x3i2+α6 x2i*x3i + Vi

Glejer Homocedasticidad ML X2 ei = δ0 + δ1 Zjh +


Vi

Arch No hay efecto ML X2p et2 = γ0 + et-12 + G t


ARCH
D-W No DW
autocorrelación
de orden 1
Breusch- No ML X2p et = α0 + α1 x1 +
Godfrey autocorrelación α2 x2 + α3 x3..+
α5 et-1 + α6 et-2 +
Gt

Ljung-Box Residuos ruido Q-stat X2h-v


blanco

E-Books & Papers for Statisticians


E-Books & Papers for Statisticians

Das könnte Ihnen auch gefallen