Beruflich Dokumente
Kultur Dokumente
Contacto: legacy.online@gmx.com
5.1 - Introducción.
5.2 - Errores de especificación.
5.2.1 - Omisión de variables relevantes.
5.2.2 - Inclusión de variables irrelevantes.
5.3 - Multicolinealidad
5.4 - Heteroscedasticidad.
5.5- Autocorrelación.
5.6- Otros tests de diagnóstico
Los datos de series temporales, como sugiere el nombre, son datos que han ido coleccionando
durante el tiempo en una o más variables. Los datos de series temporales van asociados a una
frecuencia que representa una medida el intervalo o la regularidad con la que los datos se han
obtenido o registrado en el tiempo (diario, mensual, trimestral, anual, etc.). Se representan
con el subíndice T. (Xt)
Las series temporales (variables que se observan longitudinalmente a lo largo del tiempo) se
pueden clasificar en:
• Variables stock: expresan magnitudes que pueden considerarse stocks o niveles y el valor
observado corresponde a una medición en un instante del tiempo dentro del periodo temporal
tomado como unidad (generalmente el último momento o el momento central). Por ejemplo,
las rentabilidades, los ocupados, los parados, el número de empresas que cotizan en bolsa, etc.
Los datos pueden ser cuantitativos (por ejemplo, tipos de cambio, precios, número de acciones
en circulación, etc.), o cualitativos (por ejemplo, los días de la semana, una calificación del
crédito, productos financieros adquiridos por particulares durante un periodo de tiempo, etc.)
Los datos de corte transversal son datos de una o más variables observadas en un mismo
instante o intervalo de tiempo. Se representan con el subíndice i (Xi)
Por ejemplo:
3. Datos de panel
Los datos de panel tienen ambas dimensiones (series temporales y datos de corte transversal).
Por ejemplo, los precios diarios de un número de acciones “blue chips” durante dos años. Blue
chip es uno de los términos más utilizados en el parqué para denominar a las acciones más
valoradas por los inversores. Por ejemplo, el Ibex 35 tiene como blue chips: Telefónica , Banco
Santander, BBVA e Iberdrola.
En datos de corte transversal, se suele utilizar el subíndice i para denotar el número que le
corresponde a la observación y el subíndice N para indicar el número total de observaciones
disponibles.
Definición:
Un modelo econométrico especifica una forma funcional entre las variables implicadas, que
depende de parámetros. Se construye para cuantificar y contrastar la relación entre las
variables objeto de estudio, utilizando datos reales y métodos estadísticos.
A diferencia del modelo económico, recoge la naturaleza estocástica que gobierna las
relaciones entre variables. Para ello, se introduce el denominado ‘término de perturbación
aleatoria’ (ui o ut).
1. Análisis estructural
Cuantificación de las relaciones que han existido entre las variables implicadas en el periodo de
análisis, a través del conocimiento del signo y valor de los parámetros estimados. Es decir,
sirve para conocer como inciden en la endógena, variaciones de las variables explicativas.
2. Predicción
Dados unos valores a futuro para las variables explicativas, y conociendo la expresión
matemática que relaciona las variables explicativas y la variable endógena, es posible predecir
los valores que tomará a futuro la variable objeto de estudio.
Efectos que tienen sobre la endógena diferentes estrategias que se planteen de las variables
explicativas. Se establecen unos valores objetivos o deseables para la exógena con el fin de
estudiar como reaccionaria la variable endógena.
- las ecuaciones
- las variables
Clases de ecuaciones
Ecuaciones de comportamiento: Tratan de explicar de qué forma toman decisiones los agentes
económicos. Por ejemplo, el consumo de las familias...
Se clasifican en:
Ecuaciones
Estocásticas
Tecnológicas
Ecuaciones
institucionales
Ecuaciones
Ecuaciones de
definición o
contables
No estocásticas
Ecuaciones de
ajuste
Tipos de variables
A. Variables endógenas:: sus valores actuales vienen determinados por el modelo. Dentro del
modelo, estas variables
ariables se influyen mutuamente (Y( t)
B. Variables predeterminadas:
predeterminadas sus valores actuales no vienen determinados por el modelo.
modelo
Las variables predeterminadas pueden ser a su vez:
- Variables exógenas: sus valores se determinan fuera del modelo, no vienen influídas por él,
pero sí influyen
uyen en las variables endógenas.
- Variables endógenas retardadas: variables endógenas referidas a un momento o período de
tiempo anterior al que estamos considerando. Sus valores han sido determinados por el
modelo en períodos anteriores, luego en la actualidad ya están determinadas (X
( t-1).
Tipos de modelos
• Según la evolución
volución temporal de las variables endógenas:
Yt = α + βXt + ut
Yt = α + βXt + λYt−1 + ut
1) Modelos lineales: cuando todas las ecuaciones son lineales en los parámetros y en las
variables.
Modelos no lineales
• Modelos intrínsecamente lineales. Son modelos no lineales respecto a las variables, pero sí
respecto a los parámetros. Pueden linealizarse.
MODELOS NO
LINEALES
3. POLINÓMICO
LINEALIZABLES
4. HIPERBOLA
NO LINEALES EN LAS
VARIABLES (LINEALES
EN LOS PARAMETROS)
5.SEMILOGARITMICO
6.TERM.INTERACCION
Las principales etapas que hay que cubrir en un modelo econométrico se pueden resumir en
las cuatro siguientes:
3. Selección de las variables explicativas más importantes, variables que a nivel general
influyen de una manera importantes sobre la variable endógena
1. El modelo de regresión es lineal en los parámetros. Quiere decir que los parámetros β no se
encuentran elevados a ningún número, ni divididos, etc
Puede ocurrir que el modelo, inicialmente, no sea lineal en los parámetros pero mediante una
transformación adecuada, puede convertirse en lineal en los parámetros.
Las perturbaciones aleatorias con distintos subíndices son independientes entre sí.
Esta hipótesis implica que los valores de X son los mismos, para las diferentes muestras de Y. Si
no se cumple esta hipótesis, los resultados de la estimación por MCO se mantendrían
prácticamente idénticos siempre que introdujéramos el supuesto adicional de independencia
entre los regresores y la perturbación aleatoria. En el caso de dependencia, es posible
mantener MCO siempre que los regresores sean exógenos en sentido débil con respecto a los
parámetros de interés.
Nomenclatura
donde:
• βj, j= 1, ..., k: son los k parámetros a estimar. Son constantes desconocidas para el analista.βj
recoge la relación entre xji e yi.
Descomposición estadística de Yi
El modelo establece que la variable dependiente yi puede descomponerse en dos partes: una
sistemática y otra aleatoria.
•La parte sistemática o determinista es β1+β2 X2i+.......+βk Xki y contiene los factores
observables que afectan a yi. Una vez estimados los parámetros
•La parte aleatoria es ui. Es la parte no explicable de yi. El término ui es una variable aleatoria
inobservable y la distribución de probabilidad supuesta para dicha variable determina la
distribución de probabilidad de yi. Por ser una variable aleatoria no se puede estimar; a lo
sumo, podremos estimar algunos de los parámetros de su distribución de probabilidad a partir
de una muestra dada (media, varianza, ...).
Dado que ui es una variable aleatoria, yi también será una variable aleatoria. Es decir, cada
observación de la variable dependiente es una variable aleatoria cuya realización es el dato
que observamos.
Y = Xβ + u
donde:
•X: matriz nxk de regresores; sus columnas son los valores para las variables independientes:1,
x2i, ..., xki (Nota 1)
Nota 1: La primera columna de la matriz X, corresponde a una variable invisible de valor 1 que
acompaña al término independiente, por tanto, siempre que el modelo conste de término
independiente, esta columna será un columna de 1.
• Estimar consiste en utilizar la información muestral para asignarle valores numéricos a los
parámetros.
No existe un criterio único para estimar. Los dos métodos más frecuentes son los siguientes:
o, matricialmente:
y=Xβ+u, u∼N(0, σ2 I)
Representamos el modelo estimado a partir de una muestra dada de tamaño n por la siguiente
expresión:
Y=Xβ + e Y = Xβ
β= (X´ X)-1 X´ Y
X sea matriz no singular, o ρ(X) = k esto es, debe cumplirse que |X′X| = 0. En ese caso, se
verifica que el rango de X es igual al número de parámetros del modelo y, por tanto, existirá la
matriz (X´X)-1 que interviene en la expresión del EMCO.
donde:
Siendo:
- tα/2n-k : Valor del nivel de confianza del intervalo,(1−α),a través del valor tα/2n−k
Obtenido el resultado del intervalo, el verdadero valor del parámetro βj estará contenido en
dicho intervalo, con una probabilidad del (1- α)%
Por tanto, dada una estimación puntual del parámetro, βj, la amplitud del intervalo será mayor
cuanto:
• Mayor sea el nivel de confianza establecido. Es decir, cuanta más seguridad queramos para
que el intervalo construido incluya al verdadero parámetro.
La interpretación de los coeficientes del modelo va a depender del tipo de modelo con el que
estemos trabajando, si se trata de un modelo lineal o de modelos no lineales.
Modelo lineal:
Modelo Interpretación βj
Para poder obtener el estimador MCO, en principio, sólo se exige que pueda calcularse la
matriz inversa de X´X.
Sin embargo, si deseamos, además, que los estimadores gocen de buenas propiedades en
muestras finitas (lineales, insesgados y óptimos), se exige también que:
-X debe ser una matriz fija (no estocástica) para que los estimadores sean lineales,
Nótese que en ningún se exige que las perturbaciones aleatorias sigan una distribución normal.
Existe otro método de estimación, muy utilizado sobre todo porque proporciona estimadores
que gozan de buenas propiedades en muestras grandes (propiedades asintóticas, esto es,
cuando n tiende a infinito). Es el estimador Máximo-Verosímil (MV).
Este método propone como estimador de β , aquel que haga máxima la probabilidad de
generar los valores de la muestra, esto es, aquel que maximiza la función de verosimilitud de y.
Para poder obtener el estimador MV vamos a exigir, además de las hipótesis antes
mencionadas, la normalidad en las perturbaciones aleatorias, ui.
Los estimadores MCO coinciden con los MV cuando ui sigue una normal, por tanto, también
poseen dichas propiedades asintóticas.
También denominado bondad de ajuste, es utilizado para estudiar la capacidad de ajuste del
modelo, nos informa qué tanto por ciento de la variable endógena viene explicado por el
modelo.
Será un coeficiente adimensional y solo podrá tomar valores entre cero y uno: 0 ≤ R2 ≤ 1.
Se emplea para seleccionar entre varios modelos, cuál tiene un mejor ajuste. Aquel que tenga
un mayor valor del coeficiente, será mejor, con ciertas limitaciones.
SCT= SCE+SCR
R2 = = 1 -
• Tiende a elegir el modelo con mayor número de variables explicativas, aunque estas sean
irrelevantes. Tiende a la sobreparametrizacion.
• Solo se puede utilizar para comparar modelos en los siguientes casos:
Modelos con la misma variable dependiente.
Modelos con el mismo número de variables independientes y coeficientes.
Todos los modelos deben tener o no término independiente.
• puede ser negativo incluso aunque haya término independiente en el modelo. No obstante,
cuanto más próximo a 1, mejor modelo.
Criterios de información:
Estos coeficientes por si solos, no nos proporcionan ninguna información, solo se utilizan para
la comparación entre dos modelos, aquel modelo que arroje un valor más bajo de dichos
coeficientes será mejor.
2.7 Elasticidad
Cuando las variables explicativas que intervienen en el modelo que estamos estimando vienen
expresadas en distintas unidades de medida no serán directamente comparables sus
correspondientes parámetros, para evitar este problema y comprobar qué variable exógena es
la que más influye en la endógena recurrimos al valor de la elasticidad.
La elasticidad es una medida adimensional (lo que permite comparar) y se puede calcular para
cualquier punto de la muestra, generalmente utilizamos el punto medio como medida
estándar.
E xy = *
Siendo:
= Derivada parcial de Y respecto a X
Según el tipo de modelo con el que estemos trabajando la formula general se transforma en
las siguientes:
Modelo Interpretación βj
Truco: Para modelos con logaritmos, habrá que eliminar de la formula de la elasticidad en el
modelo lineal la variable que tenga logaritmos en el modelo.
Para el desarrollo de este capítulo necesitamos tener claro cuáles son los elementos de un
contraste de verificación de hipótesis:
La hipótesis nula recoge una afirmación acerca de la población de la que proceden los datos.
Esta afirmación implica una restricción en el campo de valores que pueden tomar todos o
algunos de los parámetros βj del modelo. El contraste nos permite decidir si la muestra cumple
la afirmación realizada en la hipótesis nula.
Verificar una hipótesis sobre un coeficiente permite contrastar el valor de dicho coeficiente, en
este caso, la hipótesis nula que contrastaremos establece que el parámetro βj toma un
determinado valor β (H0: βj = β). La hipótesis alternativa, en cambio, puede tomar una de las
tres formas siguientes:
–
Tobs=
Para realizar contrastes de un sólo coeficiente, existe una relación entre el estadístico t-
student y la F-defisher-Snedecor, que viene dado por la siguiente expresión:
Fobs = (tobs )2
Una vez obtenido el valor observado del estadístico (Fobs ó tobs), a partir de los datos muestrales
se compara con el correspondiente valor crítico (tc), para un nivel de significación del 5% (α=
0,05), el valor crítico lo podemos encontrar en la tabla correspondiente a la t-student, los
grados de libertad serán n-k:
c
- Contraste unilateral: T n-k, 0.05
Siendo:
- N: número de observaciones.
- K: número de parámetros del modelo.
La regla de decisión del contraste dependerá de la hipótesis alternativa, para los tres casos
planteados:
Ho: β1 = 0
H1: β1 ≠ 0
Tobs=
Tcn-k, 0.025
Regla de decisión: Si tobs no está comprendido en el intervalo [-tc, tc] Rechazamos Ho al nivel
de significación del 5%.
Queremos verificar "q" restricciones lineales sobre los parámetros del modelo, es decir, "q"
relaciones lineales entre los "k" parámetros βj del modelo.
La expresión del estadístico que nos va a permitir verificar cualquier conjunto de relaciones
lineales es la siguiente:
cr /
Fobs=
siendo:
Para llevar a cabo este contraste se realizan dos estimaciones, una del modelo sin aplicar las
restricciones impuestas en la hipótesis nula (será el modelo más amplio o que contiene más
información), este será el modelo sin restricción, del cual utilizaremos la suma de cuadrados de
los residuos sin restricción ( !"#$ ) para la formula, el segundo modelo se estimará
introduciendo las restricciones especificadas en Ho, será el modelo restringido (reducido o que
contiene menos información)
- Si Fobs > Fc → Rechazamos la hipótesis nula al nivel de significación del α%, es decir,
diremos que la evidencia muestral no nos permite aceptar como cierta la hipótesis
nula, los datos no proceden de una población con las características expresadas en Ho.
- Si Fobs < Fc Aceptamos la hipótesis nula al nivel de significación del α%, es decir, la
evidencia muestral nos lleva a aceptar como ciertas las restricciones establecidas en la
hipótesis nula.
Casos particulares
Este contraste implica verificar si todos los regresores o variables explicativas consideradas en
bloque, de forma conjunta, son relevantes o explicativas de la variable dependiente, es decir,
si el modelo es significativo en su conjunto.
Ho: β2 = β3 = .... = βK = 0
H1: Ho no cierto
Decimos que se ha producido un cambio estructural cuando son cambios importantes que
afectan a la misma estructura de un sistema y debemos recoger la transformación del modelo
haciendo referencia al mundo antes y después de dicho cambio es distinto.
El test de Chow nos permite verificar si, dada una muestra, esta procede de una población o de
más de una población. Es decir, permite verificar si los parámetros poblacionales se mantienen
o no estables en la población.
- Casos de datos de corte transversal: el test de Chow nos permite contrastar diferencias de
estratos o secciones, por ejemplo entre hombres y mujeres, diferencia entre países, etc
El planteamiento que hacemos es que tenemos los dos posibles modelos teóricos siguientes:
Este primer modelo representa la estabilidad estructural (el modelo no cambia en todo el
periodo estudiado)
Este modelo refleja el cambio estructural, en el caso de una serie temporal, tendremos un
modelo antes del cambio estructural y otro después. En caso de tratarse de datos de corte
transversal, tendremos un modelo para un subconjunto y otro para el otro,
En caso de ser valido este segundo modelo sí existiría diferencia entre los subconjuntos o
habría un cambio estructural.
β11 = β21
β12 = β22
.........
β1k= β2k
El estadístico para el contraste es un caso particular de la expresión del TGRL, que quedaría de
la siguiente forma:
c
Valor critic: F q , (t1 + t2) - 2k
donde:
• SCRsr = SCR1 + SCR2. Es decir, es la suma de dos SCR resultantes al estimar para cada una de
las dos submuestras.
Regla de decisión:
c
Si Fobs > F Rechazamos Ho al 5% , es decir, rechazamos la igualdad de coeficientes para las
dos submuestras, rechazamos la ausencia de cambio estructural. Aceptamos que existe un
cambio estructural o una diferencia entre ambos subconjuntos.
Existen otros tests más generales que permiten verificar cualquier tipo de restricción, lineal o
no y que tienen, además, las siguientes características:
Se realiza comparando los valores de la función de verosimilitud del modelo con y sin las
restricciones contenidas en la Ho. Su expresión es la siguiente:
donde:
Siempre se va a verificar que lnLSR ≥ lnLCR, por tanto, cuando estas dos cantidades sean casi
iguales, no habrá mucha diferencia entre estimar el modelo con y sin restricciones. Por el
contrario, cuando sean muy distintas, el valor del RVo será elevado y rechazaremos Ho. La
regla de decisión será:
• Test de Wald
Es un contraste asintótico, es decir, es más fiable en muestras grandes. Se utiliza para verificar
restricciones tanto lineales como no lineales.
W = q * F ~ Ji-dosq
Ejemplo:
H0: β 2 = 2β3
H1: no es cierta H0
El test de Wald se puede realizar a través del programa Eviews, la salida correspondiente al
test seria:
P-valor= 0.0002
Regla decisión: p-valor < 0.05 Rechazamos la hipótesis nula, con un nivel de confianza del 95%
no podemos aceptar que β2 = 2β3
3.3 Predicción
Clases de predicción
b) Predicción ex post
c) Predicción ex ante.
La primera es la que se obtiene dando a la(s) variable(s) explicativa(s) los valores muestrales. Si
el modelo ajusta bien a los datos, la predicción histórica se ajustará bien a la realidad muestral.
Puede utilizarse para valorar la capacidad descriptiva del modelo.
La segunda, que es más interesante, es la que resulta cuando se da a la(s) X valores reales
conocidos que no son los muestrales. Esto es lo que ocurre cuando el analista se guarda una
parte de la información a la hora de estimar y luego la usa para ver si le modelo predice bien.
La submuestra no utilizada para estimar se usa para obtener predicciones ex post a fin de
valorar la capacidad predictiva del modelo.
Intervalo de predicción
Al llevar a cabo la predicción obtenemos un valor único de predicción, pero puede ser
interesante conocer el intervalo de predicción, será el intervalo que con una confianza del α%
estará comprendido el verdadero valor de la predicción:
Yp ± tn-k * Sp
Siendo:
- Yp Valor de la predicción
- tn-k Valor critico de la t-student
- Sp Varianza de la predicción o error de predicción.
- tn-k * Sp Semiamplitud
1. Valor crítico de la t-student (cuando el tamaño muestral es muy grande, dicho valor tiende a
2).
Errores de predicción
2. No contemplamos la existencia de up
3. X puede no ser conocida en la predicción y sus valores también habría que estimarlos
Eso significa que la incertidumbre en el caso de predecir el valor esperado será menor que en
el caso de predecir el valor individual.
El predictor tanto del valor individual como del valor esperado es lineal, insesgado y óptimo.
a) el carácter estocástico del modelo que hace que los valores de Y dependan de factores
aleatorios incontrolados (en la predicción, el término de error se supone igual a su esperanza
matemática, que es cero)
b) los parámetros están estimados y, por tanto, dependen de los errores de muestreo por lo
que, en general, difieren de los correspondientes al proceso generador de los datos (modelo
“verdadero”)
c) el modelo puede contener errores de especificación en sentido amplio que no hayan sido
detectados y corregidos.
Los errores de la predicción ex ante comprenden todos los anteriores más los que introduzca
el analista al anticipar los valores de las X. Estos errores son ajenos al modelo y dependen,
entre otras cosas, de la habilidad del analista. Por eso la predicción ex ante no sirve para
valorar la capacidad predictiva de los modelos.
Para evaluar la capacidad predictiva de un modelo utilizaremos los siguientes indicadores que
nos servirán también para evaluar su capacidad de ajuste, sí al obtenerlos utilizamos valores
dentro del periodo muestral utilizado para el ajuste, obtendremos los estadísticos de
capacidad de ajuste, en cambio si a la hora de obtenerlos utilizamos los datos fuera del
periodo muestral obtendremos estadísticos que valoran la capacidad predictiva.
Todos se utilizan comparando los valores reales de la variable dependiente con sus valores
predichos o ajustados.
Los tres primeros indicadores por sí solos no aportan información acerca de la capacidad de
predicción o de ajuste de un modelo, pero sí nos permiten comparar entre dos modelos, aquel
que arroje un menor valor de dichos estadísticos será más recomendable para predecir o
ajustar, el parámetro más adecuado para la comparación seria el PEAM ya que viene
expresados en términos relativos (%), en cambio el resto vendría expresado en las mismas
unidades que la variable endógena.
El índice de Theil es una medida de desigualdad, por sí mismo nos permite extraer
conclusiones a cerca de la capacidad predictiva del modelo, el valor resultante está entre 0 y 1,
cuanto más cercano sea el valor a 1, peor será la capacidad predictiva o de ajuste del modelo.
El dicho índice permite ser desagregado en tres componentes:
La mayor proporción del estadístico Theil debe estar recogida por la proporción de la
covarianza, ya que si estuviera en la proporción de error las predicciones serian sesgadas, y en
la varianza serian irregulares.
Dichos estadísticos se suelen obtener con el programa Eviews al llevar a cabo la predicción,
este sería el resultado:
- Root Mean Squared Error RECM, Raíz del error cuadrático medio.
- Mean Absolute Error MAE, Error absoluto medio.
- Mean Abs, Percent Error PEAM, porcentaje del error absoluto medio.
- Theil Inequality Coefficient Estadístico Theil.
- Bias proportion Proporción correspondiente al error del Theil.
- Variance proportion Proporción correspondiente a la varianza del Theil.
- Covariance proportion Proporción correspondiente a la covarianza del Theil.
3. Una vez que se ha garantizado que el modelo está libre de error de especificación la
siguiente etapa es buscar especificaciones con una parametrización más escueta
frente al modelo elegido, utilizar los criterios de selección para escoger el más
adecuado.
&
Criterio de información de Schwarz (SBIC): SBIC = ( (−2lnL + k ln n)
Donde lnL es el valor obtenido al estimar el modelo por MV. Para n > 8 se cumple que Akaike <
SBIC. Normalmente, se mueven en el mismo sentido, es decir, que con ambos criterios
elegiríamos el mismo modelo como el mejor modelo. No obstante, en caso de que llegáramos
Definición V. ficticia o binaria: Variables que toman el valor 1 cuando se da una situación o
clase y 0 cuando no se da. Las variables ficticias permiten discriminar el comportamiento de la
variable dependiente por grupos.
Trampa de las ficticias Habrá que introducir en el modelo tantas variables ficticias como
clases haya menos 1, sino provocará un problema de multicolinealidad. Otra opción para evitar
el problema de multicolinealidad es eliminar el término independiente.
Por ejemplo, queremos introducir una variable ficticia que recoja los distintos sectores de la
economía, hay 3 sectores, por tanto, para que no se produzca una relación lineal perfecta,
debemos introducir en el modelo solo 2 sectores:
Introducimos solo las variables ficticias W1 y W2, ya que cuando ambas valgan 0 nos
encontraremos en el sector terciario, asi están recogidos los tres sectores.
Las variables ficticias se pueden introducir en el modelo recogiendo un cambio de origen y/o
cambio de escala:
1. Cambio de origen
w= 0 si no se da A
Si W=1
β1 Si W=0
α + β2 β1
2. Cambio de escala
Para recoger en el modelo un cambio de escala o de pendiente a través de una variable ficticia
habrá que introducir la variable ficticia multiplicando a la variable exógena. De nuevo
queremos introducir una ficticia que recoja las categorías A y B, habrá que crear solo una
ficticia que recoja uno de los dos casos:
E [:⁄; = 0] = α + β1X
E [:⁄; = 1] = α + ( β1+β2) X
Si W=1
β1+ β2
Si W=0
β1
Contrastes
Una de las razones para introducir variables ficticias en el modelo, es poder contrastar si
realmente existen diferencias para la endógena según la categoría en que nos encontremos, es
decir, ¿realmente hay diferencias entre la categoría A y B para Y?
H1: β2≠0
De tal manera que si aceptamos la hipótesis nula, no podemos afirmar que existan diferencias
entre ambas categorías.
1. Modelo en logaritmos:
Si hay interacción entre dos o más variables ficticias, el efecto de una ellas depende del valor
que tomen las otras y viceversa.
Por ejemplo, creamos un modelo para explicar los salarios, en función del género, de si tiene
estudios o no, y de su productividad.
Para formular el modelo debemos crear las variables ficticias correspondientes a género y
estudio:
G=1 si es mujer
G= 0 si no es mujer (hombre)
S= Salarios
P= Productividad
El modelo introduciendo las variables ficticias como termino interacción para que recojan el
hecho de que puede ser mujer y tener estudios, o no ser mujer y no tener estudios.
¿Existe diferencia salarial entre los que no tienen estudios y los que si?
¿Existe diferencia salarial entre mujeres y hombres que no tienen estudios y los que si?
H0: β3 =0
H1: β3 ≠0
Por ejemplo, si las observaciones de las variables fueran trimestrales, dado que tenemos 4
trimestres por año, hemos de introducir 3 variables ficticias en la ecuación. Con tres ficticias,
recogeríamos los valores medios de Yt en los 4 trimestres.
En este caso, δj, j= 2,3,4, recoge la variación que se produce en el trimestre j respecto al primer
trimestre. Por ejemplo, δ2=50 indica que, por término medio, la variable dependiente en el
segundo trimestre de cada año es 50 unidades superior al valor que toma en el primer
trimestre.
Generalmente y con la finalidad de poder obtener los efectos estacionales de todos los
trimestres se define la variable ficticia estacional:
E(Yt/t = 2º trimestre) = b1 + b2 + δ2
E(Yt/t = 4º trimestre) = b1 + b2 + δ4
2º trimestre δ2
3er trimestre δ3
4º trimestre δ4
Contrastes de hipótesis
Ho: δ2= 0
H1: δ2≠0
Ho: δ4 = 0
H1: δ4≠0
Ho: δ3 = δ4 = 0
H1: δ3 = δ4 ≠ 0
Ho: δ2 = δ3 = δ4 = 0
H1: δ2 = δ3 = δ4 ≠ 0
Al trabajar con series temporales es muy habitual encontrarse con cambio estructurales,
momentos en el tiempo en los que la estructura del modelo cambia. A partir de las variables
ficticias podemos recoger un cambio estructural producido en el modelo, creando una variable
ficticia que tome el valor 1 antes de dicho cambio y 0 después, así recogeremos el cambio
producido en la estructura del modelo.
Donde:
Y: Consumo de un bien
Ho: δ2= μ = 0
H1: No cierta H0
Nota: La opción del test de Chow de cambio estructural es menos eficiente que utilizar
variables ficticias por no considerar la información de toda la muestra, además en el caso de
que la muestra incluya pocas observaciones, las submuestras resultarían muy pequeñas y se
podría perder una cifra significativa de grados de libertad.
• Modelos intrínsecamente lineales. Son modelos no lineales respecto a las variables, pero sí
respecto a los parámetros. Pueden linealizarse y estimarlos por MCO.
MODELOS NO
LINEALES
3. POLINÓMICO
LINEALIZABLES
4. HIPERBOLA
NO LINEALES EN LAS
VARIABLES (LINEALES
EN LOS PARAMETROS)
5.SEMILOGARITMICO
6.TERM.INTERACCION
A. Modelo:
B. Aplicaciones:
siendo
•Q = Producción
0< β1<1
0< β2<1
Ho: β1+β2= 1
H1: Ho no cierta
C. Interpretación parámetros
Eyx = β
Los incrementos marginales de Y con respecto a cada variable explicativa ya no son constantes,
sino que dependen de los valores correspondientes.
= β2
2. Exponencial
A. Modelo:
β1+β2*X1t+β3*X2t+ut
Forma original: Yt= e
B. Aplicaciones:
C. Interpretación parámetros
Multiplicado β por 100 representa una Tasa de variación, de forma que si la variable exógena
incrementa 1 unidad, la variable endógena experimenta una variación de β*100 %.
D. Incremento marginal
IM= = β
La variable endógena varía en β unidades cuando la variable exógena aumenta una unidad.
E. Elasticidad
Eyx =βX
Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.
A. Modelo:
B. Interpretación parámetros
C. Incremento marginal
β
IM= =
D. Elasticidad
Eyx =β/Y
Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.
4. Polinómico
A. Modelo:
Yt = β1+β2*X21t+β3*X22t + ut
El modelo polinomico no necesita ser linealizado para llevar a cabo su estimación por MCO,
pero si es interesante contrastar su linealidad, contrastando si el parámetro que acompaña a la
variable que tiene un exponente es igual a 0.
Ho: β2 = 0 Ho: β3 = 0
H1: β 2 ≠ 0 H1: β3 ≠ 0
B. Aplicaciones:
C. Incremento marginal
D. Elasticidad
Eyx = 2 * β2 X21t / Y
Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.
5. Hiperbola
A. Modelo:
&
Modelo original: Yt=β1+ β2* &? + ut
Yt=β 1+β2*Zt+ ut
B. Usos
El modelo se aplica para describir relaciones en las que Y presenta un “techo”. Por ej. El
consumo de muchos productos alimenticios crece en función de los ingresos medios
familiares, pero tiene un límite. La Propensión Marginal al Consumo es siempre positiva y no es
constante sino decreciente con la renta; se trata de bienes inferiores. El parámetro α
representa el techo (curvas de gasto de Engel)
Caso B: β > 0
La forma de la curva es muy distinta; un uso del modelo sería representar la curva de Phillips
(con α < 0) o la curva de coste fijo medio de producción (con α > 0).
C. Incremento marginal
β
=-
D. Elasticidad
β
Eyx = -
Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.
6. Termino interacción
A. Modelo:
Z= X1t * X2t
Yt=β 1+β2*Zt+ ut
B. Usos
C. Incremento marginal
IM= = β2X2
D. Elasticidad
&
Eyx1 =β2X2
Eyx = Variación porcentual que experimenta la variable endógena cuando la variable exógena
aumenta un 1%.
MODELO Linealización
Polinómico Yt = β1+β2*X21t+β3*X22t + ut
β % = Exy
Potencial Si x 1 % y IM= = β2 Eyx = β
Exponencial Si x 1 u. y β*100 % IM= =β Eyx =βX
II. Las variables explicativas que forman la matriz X son no estocásticas (fijas en el muestreo).
III. El rango de la matriz X es igual a k < n (no hay multicolinealidad perfecta, y por tanto se
puede invertir la matriz X´X, y disponemos de n > k).
Bajo los supuestos básicos (I, II, III, IV, V) del modelo de regresión lineal, los estimadores MCO
gozan de buenas propiedades en muestras finitas: lineales, insesgados y óptimos.
Además, cuando u sigue una distribución normal (supuesto VI), hay una serie de implicaciones
importantes:
3. Los estimadores MCO gozan de buenas propiedades asintóticas (las mismas que la de los
estimadores MV (consistencia, normalidad asintótica, insesgadez y eficiencia asintótica).
Ramsey (1969) demostró que cualquiera de los siguientes errores de especificación produce
que E[u] ≠ 0 (media no nula en la perturbación):
2. Forma funcional incorrecta. Algunas o todas las variables del modelo deberían ser
transformadas en logaritmos, incrementos, etc.
Bajo tales errores de especificación, los estimadores MCO serán, por lo general, sesgados e
inconsistentes y la inferencia convencional no será válida.
3. Cambio estructural de β
En sentido estricto, sin embargo, por error de especificación se entiende que la matriz X es
incorrecta, es decir, no contiene a los regresores correctos para explicar a Y.
Cuando se omiten variables relevantes, los estimadores por MCO son sesgados, así como los
tests del análisis de la variancia (significación conjunta) y de la “t” de Student (significación
individual), por lo que se invalidan los procedimientos de inferencia estadística.
Consecuencias omisión
2) E ( A 2e) > σ2. La varianza del término de perturbación se estima de forma sesgada. En
concreto, la varianza residual corregida obtenida a partir de la ecuación mal especificada, en
promedio, sobreestimará la verdadera varianza de u. La consecuencia inmediata de este
resultado es que la inferencia queda invalidada, es decir, se invalidan los estadísticos t y F.
3) Var (@A2) ≤ Var (β2) ; La varianza del estimador es menor la del estimador del modelo real o
correcto ya que es un estimador con restricciones.
Al omitir variables relevantes de una ecuación, los coeficientes de las variables incluidas
estimados sesgadamente, varianza de la perturbación sobreestimada y procedimientos
convencionales de inferencia invalidados.
Esto no ocurre cuando se incluyen variables irrelevantes. Los estimadores MCO son insesgados
y procede la inferencia estadística. Sin embargo son menos eficientes.
1) E(@A2 ) = β2. Esto significa que el estimador del coeficiente β2, que acompaña a la variable
incluida en la ecuación mal especificada, es insesgado
3) Var (@A2) ≥ Var (β2); La varianza del estimador es mayor la del estimador del modelo real o
correcto. Por tanto aumenta la varianza de los estimadores de los coeficientes de las variables
relevantes, lo que puede llevarnos a aceptar Ho, y a que los intervalos de confianza sean más
grandes, perdiéndose en precisión y en eficiencia.
Estos resultados parecen indicar que, en caso de duda, es mejor optar por el modelo de más
variables ya que resulta más grave omitir variables relevantes que incluir variables
irrelevantes.
Resumen:
Modelo correcto
Especificación Yt= β1+ β2X1+ut Yt= β1+ β2X1 + β3X2 +ut
CORRECTO OMISIÓN V.
- No procede la inferencia
Soluciones
-Si obedece a una forma funcional incorrecta, deberíamos especificar un nuevo modelo no
lineal (algunas o todas las variables del modelo deberían ser transformadas en logaritmos,
incrementos, etc.)
A través del test de variables omitidas podemos comprobar si hemos dejado fuera del modelo
una variable que es relevante y mejoraría el modelo.
Estadístico P-valor
Comprobamos si no deberíamos haber introducido la variable P2, por ser una variable
redundante. El contraste seria:
Estadístico P-valor
- Test Reset-Ramsey
Regresión auxiliar:
Estadístico RV= R2 * n
Estadístico P-valor
Regresión
auxiliar
El valor observado del estadístico es RV= 1.59 con una probabilidad asociada de 0.2, llevando a
cabo el contraste a un nivel de significación del 5%, aceptamos la hipótesis nula (p-valor <
0.05), no hay errores de especificación en el modelo.
Concepto: Presencia de relaciones lineales entre dos o más regresores (las Columnas de X).
Cuando la relación lineal se presenta entre dos variables hablamos de colinealidad.
Clases
1. Multicolinealidad perfecta, es la que se presenta cuando hay una o más relaciones lineales
exactas entre los regresores. Por ejemplo, cuando el coeficiente de correlación entre dos
regresores es igual a la unidad. Se viola la hipótesis de la regresión lineal. La consecuencia es
que no se pueden calcular los estimadores MCO porque (X’X) no se puede invertir.
b) Amplios intervalos de confianza: Al ser las varianzas elevadas, los intervalos de confianza
son más amplios, por lo que los estimadores son menos precisos. Además, hay una tendencia a
aceptar la hipótesis nula en el contraste de significación individual.
Ortogonalidad
-Dos regresores son ortogonales cuando su producto escalar es cero. En tal caso el coeficiente
de correlación es igual a cero. Esta situación es la opuesta al caso de colinealidad perfecta, en
que dicho coeficiente de correlación es igual a la unidad.
a) Las estimaciones de los coeficientes de regresión coinciden con las estimaciones de los
coeficientes de las regresiones “brutas” individuales.
Es decir, si los regresores son ortogonales no hay ninguna ambigüedad a la hora de estimar
qué parte de las variaciones de Y viene explicada por cada una de las variables X.
Detección multicolinealidad
1. Indicios:
Altas correlaciones entre parejas de regresores. Si las correlaciones a pares entre las exógenas
son elevadas sería un indicio de multicolinealidad. Cuando el modelo sólo tiene dos regresores,
una correlación superior a 0,8 indicaría un problema grave de multicolinealidad. En el caso de
tres o más regresores, las correlaciones entre parejas no serían un buen indicador, ya que
estas pueden ser bajas (inferiores a 0,8) y admitirse igualmente una combinación lineal
perfecta entre los mismos regresores.
Si algún valor (fuera de la diagonal principal) es cercano a 1, indicaría que hay posible
multicolinealidad.
4. Test de Klein
Para llevar a cabo el test de Klein debemos realizar la regresión de cada exógena respecto al
resto, si el R2 de alguna de las estimaciones es superior que el R2 del modelo principal estamos
ante un caso de multicolinealidad grave.
-Se hayan las regresiones de Y respecto a cada X, una a una. Se selecciona la regresión más
plausible atendiendo tanto a la teoría económica como a los resultados estadísticos obtenidos
(signos de los coeficientes, significación estadística, etc.).
-Se van añadiendo variables adicionales. Cada variable añadida se clasifica en una de las
siguientes categorías: útil, superflua o perjudicial.
a) Útil:
- Si R2 corregido aumenta
- Los signos de los coeficientes ni su significación varian.
- No mejora R2 corregido
- No cambia los coeficientes de las demás.
c) Perjudicial:
Soluciones:
5.4. HETEROCEDASTICIDAD
1. Concepto
1. El estimador por MCO es lineal, insesgado pero no óptimo (no tiene mímina varianza), es
decir, no se cumple el Teorema de Gauss- Markov.
3. La matriz de varianzas y covarianzas del estimador MCO está sesgada, es más, hay un doble
sesgo
3. Causas:
1. En los modelos en los que se quiere explicar el comportamiento del Consumo o el Ahorro en
función de los ingresos (renta), la heteroscedasticidad del término de perturbación obedece
básicamente a que a medida que aumenta los ingresos, los individuos tienen mayores
posibilidades de selección con respecto a la forma de disponer del ingreso.
4. Detección:
A) Métodos gráficos
B) Contrastes de Heteroscedasticidad:
- Contraste Breusch-Pagan-Godfrey
La amplitud de las variaciones de los residuos a lo largo del periodo parace mantenerse
constante, es posible que exista homocedasticidad de los residuos.
Es un test asintótico, se refiere a que el test es muy fuerte cuando la muestra es muy grande.
Para aplicar el Test se debe estimar el modelo por MCO y se obtiene los residuos mínimos
cuadráticos.
Se construye una regresión auxiliar en el que la variable dependiente son los residuos mínimos
cuadráticos elevado al cuadrado ei2; y como variables explicativas aparecerán las mismas
variables que el modelo original, los cuadrados de estas y sus correspondientes productos
cruzados:
Regresión auxiliar:
αi + α2 x2i+α
ei2 =α α4 x2i2+α
α3 x3i+α α5 x3i2+α
α6 x2i*x3i + Vi
H0: Homoscedasticidad
H1: Heteroscedasticidad
Estadístico P-valor
Regresión
auxiliar
Realizando el contraste a un nivel de significación del 5% nos lleva a aceptar la hipótesis nula
(p-valor > 0.05), los residuos se comportan correctamente, son homocedasticos.
Contraste:
Regresión auxiliar: Los retardos incluidos en la regresión auxiliar van a depender del numero
de potencias con las que queremos llevar a cabo el contraste.
Estadístico P-valor
Regresión
auxiliar
Realizando el contraste a un nivel de significación del 5% nos lleva a rechazar la hipótesis nula
(p-valor < 0.05), hay heteroscedasticidad condicional autorregresiva de orden 1.
Este contraste se utiliza para encontrar una estructura o esquema sobre la variación del
término de perturbación. Una limitación que presenta este contraste es que solo es útil
cuando la heteroscedasticidad está originada por una sola variable explicativa.
ei = δ0 + δ1 Zjh + Vi
Se realiza una verificación individual de δ1 en cada una de las regresiones auxiliares con el
estadístico t. De entre las regresiones auxiliares donde δ1 resulte significativo nos quedamos
con aquella que tenga mayor R2.
H0: δ0 = 0
H1: δ0 ≠ 0
Estadístico P-valor
Regresión
auxiliar
Realizando el contraste a un nivel de significación del 5% nos lleva a aceptar la hipótesis nula
(p-valor > 0.05), esta no sería la estructura de heteroscedasticidad, debemos seguir probando
hasta dar con la adecuada, una vez obtenida podremos resolver el problema de la
heteroscedasticidad con dicha formulación.
H0: Homoscedasticidad
H1: Heteroscedasticidad
Regresión
auxiliar
Realizando el contraste a un nivel de significación del 5% nos lleva a aceptar la hipótesis nula
(p-valor > 0.05), no hay problemas de heteroscedasticidad.
5. Soluciones
Una vez detectado que hay heteroscedasticidad en el modelo, las estimaciones por MCO no
serán eficientes y tampoco procederá la inferencia estadística. Se proponen varias soluciones:
2) Aplicar MCP (mínimos cuadrados ponderados) o MCG. Tiene el inconveniente de que hay
que buscar una ponderación adecuada.
1. Concepto
La autocorrelación implica que las covarianzas entre dos perturbaciones para diferentes
períodos no es nula, Si las covarianzas no son nulas, implica que las perturbaciones están
correlacionadas entre sí, y se manifestará por un comportamiento sistemático en los residuos
MCO. Es un problema que suele presentarse, con mayor frecuencia, en datos de series
temporales
Es muy característico observar en el gráfico de los residuos MCO una racha de residuos
positivos seguida por otra racha de residuos negativos, y luego positivos, y así sucesivamente.
1. Los estimadores MCO siguen siendo lineales e insesgados pero no son eficientes. Además,
se mantiene las propiedades asintóticas de consistencia, normalidad e insesgadez asintótica.
Sin embargo, no son eficientes asintóticamente.
4. Dicho sesgo se traslada igualmente a las varianzas de los estimadores MCO, y por tanto, a la
matriz de varianzas y covarianzas.
5. Por tanto, visto lo anterior, y continuando con las consecuencias, debido a que la varianza
de las perturbaciones y las varianzas de los estimadores MCO están por lo general, sesgadas,
no procede la inferencia estadística con los estadísticos habituales de la t y la F. Si hacemos uso
de los mismos podemos cometer errores graves de especificación, como eliminar variables
relevantes (cuando aceptamos una hipótesis nula que es falsa).
2. Mala especificación de la forma funcional. Por ejemplo, para explicar los costes marginales
se especifica una función lineal, cuando debería haberse especificado una función cuadrática.
3. Mala especificación por omisión de variable relevantes. Por ejemplo, se omiten retardos en
las variables explicativas.
5. En el análisis empírico, muchas veces se trabajan con series temporales mensuales que se
agregan trimestralmente. Cuando la agregación se hace por promedio (suma de los tres meses
dividido por 3) dicha agregación introduce cierto suavizado en la nueva serie al eliminar las
fluctuaciones de la serie mensual. Este suavizado, en sí mismo, induce un patrón sistemático
en las perturbaciones, provocando autocorrelación.
En los casos 2 y 3, los errores de especificación conllevan, además de la ineficiencia dada por la
autocorrelación, inconsistencia de los estimadores MCO (al omitir variables relevantes).
Afortunadamente, dicha ineficiencia e inconsistencia se resuelven especificando
correctamente el modelo.
4. Detección
A) Métodos gráficos.
B) Contrastes de Autocorrelación:
-Contraste de Durbin-Watson
-Contraste de Breush-Godfrey
Los residuos vienen representados en el gráfico por la línea azul, como se puede observar
existen rachas de residuos positivos y rachas de residuos negativos, indicios de que existe un
problema de autocorrelación que debemos confirmar realizando otros test.
El contraste de DW nos permite conocer si hay indicios de autocorrelación, nos indica si hay
posible autocorrelación de orden 1, AR(1). El contraste sería el siguiente:
Para realizar el contraste, se establecen las cotas inferior (dL) y superior (dU) para los valores
críticos del estadístico d en función de: tamaño de la muestra (T) y número de regresores (k´ =
k - 1). Conociendo T y K podemos buscar en la tabla correspondiente de DW y estableces las
cotas.
1. El contraste es válido sólo cuando la matriz de regresores (X) sea no estocástica, es decir, no
es válido para modelos que introducen retardos de la variable dependiente (modelos
dinámicos).
2. El modelo debe tener término independiente, ya que las tablas que recogen los valores
críticos del contraste están diseñadas con esta exigencia.
4. Sólo sirve para contrastar que no existe un esquema AR(1). En series temporales es
frecuente que la autocorrelación siga un esquema AR(4), en ese caso el estadístico DW
indicaría que no existe autocorrelación cuando sí la hay.
Se considera ruido blanco cuando los residuos cumplen las siguientes condiciones:
- E(u)=0
- No hay autocorrelación
- Homocedasticidad de los residuos
Contraste Ljung-Box
H1: Ho no cierta
Para la realización del contraste se usaran las dos últimas columnas de la salida del
correlograma. De tal forma que si la probabilidad recogida en la última columna, es mayor que
0.05 podemos afirmar que hasta ese orden de autocorrelación existe ruido blanco.
El contraste de B-G es más general que el test de Durbin Watson porque permite verificar
autocorrelaciones AR(P) o MA(q) y además se puede aplicar incluso en modelos que incorpore
regresores estocásticos, es decir, podemos utilizarlos en modelos dinámicos autoregresivos.
Regresión auxiliar:
Valor critico: Chi-cuadrado con p grados de libertad (siendo p el numero de potencias incluidas
o retardos de la regresión auxiliar)
Regresión
auxiliar
Realizando el contraste a un nivel de significación del 5%, podemos aceptar la hipótesis nula ya
que p-valor > 0.05, no existe autocorrelación en el modelo.
5. Soluciones
NORMALIDAD
1. Concepto
Por tanto, es imprescindible un análisis del cumplimiento de esta hipótesis al analizar los
resultados de la estimación.
El test es el siguiente:
H1: Ho no cierta
Bajo Ho cierta, el estadístico JB tiene una distribución chi-cuadrado con 2 grados de libertad:
( .NB))
JBo = M ( S2+
F
Siendo:
S: Coeficiente de asimetría
C: Coeficiente de Curtosis
Por tanto si JBo < Ji-dos2 ; se acepta la hipótesis de normalidad del término de perturbación. En
caso de rechazar Ho, no habrá consecuencias negativas sobre el proceso de estimación, pero sí
sobre el proceso de verificación de hipótesis.
Estadístico
P-valor
Si llevamos a cabo el contraste a un nivel de significación del 5%, el estadístico JB= 0.42 con
una probabilidad asociada de 0.8, al ser mayor que 0.05 nos permite aceptar la hipótesis nula
de normalidad de los residuos.
Así, podemos mencionar que situaciones en las que el modelo presenta deficiencias de
especificación, como la omisión de variables relevantes o falta de linealidad, pueden
detectarse por un mayor apuntamiento de la distribución de residuos que la normal o por
fuertes asimetrías.
En estos casos, la solución consistiría en resolver esas deficiencias en primer lugar, lo que
podría eliminar simultáneamente el incumplimiento de la normalidad.
En otras ocasiones, la obtención de distribuciones de los residuos con más de una moda puede
deberse a la utilización de datos procedentes de distintas poblaciones, es decir, la existencia
de heterogeneidad en la muestra entre distintos grupos de la misma. La solución pasaría por
introducir variables ficticias en el modelo (para recoger ese distinto comportamiento en la
muestra total).
La estimación recursiva permite detectar posibles cambios estructurales y sobre todo, en qué
momento se producen y a qué coeficientes puede afectar. Se trata, por tanto, de un contraste
muy general y práctico.
Las series de coeficientes se muestran junto con sus bandas de confianza (± dos veces su
desviación estándar) lo que permite intuir la presencia de inestabilidad en el modelo si los
coeficientes sufren cambios al ir variando la muestra, es decir, si no se mantienen
aproximadamente constantes.
La representación gráfica de la serie de residuos recursivos junto con sus bandas de confianza,
definidas como ±2 veces su desviación estándar, permite detectar inestabilidad en los
parámetros cuando uno o varios residuos sobrepasan sus bandas.
- Residuos recursivos
- Cusum
Si los valores se empiezan a alejar de cero e incluso se salen de las bandas, estarían indicando
un posible problema de cambio estructural. No es el caso siguiente, parece haber estabilidad
estructural.
El estadístico CUSUM cuadrado se utiliza para contrastar la estabilidad del modelo sumas
acumuladas de los cuadrados de los residuos recursivos, si los valores se empiezan a alejar de
su valor esperado e incluso se salen de las bandas, estarían indicando un posible problema de
cambio estructural.
Solución
Una idea intuitiva para situar dónde se concretan los cambios puede obtenerse con la
estimación recursiva, y básicamente con la representación gráfica de los coeficientes
recursivos.
Tendría que estudiarse qué coeficientes de regresión son los afectados. Posteriormente puede
incorporarse variables ficticias que toman el valor 1 y 0 para diferenciar el periodo muestral.
Introduciendo adecuadamente dichas variables ficticias y para cada uno de los regresores
podemos posteriormente detectar estadísticamente qué coeficientes son los afectados por un
cambio estructural mediante la realización de contrastes de significación.