Beruflich Dokumente
Kultur Dokumente
ECONOMETRIA I
2 3 4 2 2
n Yi Xi Xi Xi Xi Yi XiYi Xi Y
1 70 80 6400 512000 40960000 4900 5600 448000
2 65 100 10000 1000000 100000000 4225 6500 650000
3 90 120 14400 1728000 207360000 8100 10800 1296000
4 95 140 19600 2744000 384160000 9025 13300 1862000
5 110 160 25600 4096000 655360000 12100 17600 2816000
6 115 180 32400 5832000 1049760000 13225 20700 3726000
7 120 200 40000 8000000 1600000000 14400 24000 4800000
8 130 220 48400 10648000 2342560000 16900 28600 6292000
9 165 240 57600 13824000 3317760000 27225 39600 9504000
10 160 260 67600 17576000 4569760000 25600 41600 10816000
Total 1120 1700 322000 65960000 14267680000 135700 208300 42210000
Para estimar este modelo
utilizamos la siguiente formula:
n X X 2 ˆ1 Y
3 ˆ
X X 2
X 2 XY
X 2 X3 X 4 ˆ3 X 2Y
10 1700 322000 ˆ1 1120
1700 322000 65960000 ˆ 208300
2
322000 65960000 14267680000 ˆ3 42210000
Zona de comandos
-Archivos de trabajo
-Tablas
Zona de ventanas
-Gráficos
-programas
Línea de estado
ARCHIVOS DE TRABAJO (WORKFILES)
WORKFILE: Crea un nuevo archivo de trabajo con la estructura indicada. El archivo contendrá
automáticamente los objetos del sistema: C = vector de constantes y RESID = serie de residuos
INSTRUCCIÓN:
WORKFILE [Nombre] [Frecuencia] [Período inicial] [Período final]
INDICACIONES:
[Frecuencia]=[A | S | Q | M | W | D | 7 | U ]
Ejemplos:
WORKFILE Archivonuevo U 1 1000/ WORKFILE U 100
WORKFILE Otroarchivo Q 1990.1 1999.4
WORKFILE prueba1 m 90 2000.06
WORKFILE prueba2 d 1.2.1999 1.2.2000
Nota: File/New/Workfile
Ejemplo:
Se desea WORKFILE ejercicio a 1985 1996
estimar una
función de
producción:
obs K L P
1985 2923424 1493.8 3267636
1986 3138054 1549.1 3664620
1987 3364006 1637.6 4106758
1988 4672090 1727.6 4592483
1989 6413699 1848.6 5250695 Zona de objetos
1990 8526639 1963.5 6074133
1991 10744840 2036.2 6887865
1992 12597039 2070.8 7848365
1993 14444432 2065.4 8168404
1994 16260040 2055.9 8392581
1995 17962362 2093.78 8972103
1996 19226538 2107.615 9420052
Genr serieajustada=(PBI/Deflactor)+@trend
Genr Y=@log(X)=Log(x)
GENR tasak=(k/k(-1))-1
O alternativamente:
GENR tasak=@PCH(K)
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
NRND = Normal Random
Se desea disponer de una serie de datos que contenga número
reales extraídos al azar a partir de una distribución normal
estándar ().
INSTRUCCIÓN:
GENR RUIDO =NRND
Eviews esta recibiendo sobre la marcha una serie aleatoria normal estándar y
registrar posteriormente estos valores en la serie Ruido.
Tendencia = @trend
Genera una serie con valores enteros ascendentes 0,1,2…
INSTRUCCIÓN:
GENR DK1=k-k(-1)=D(k)
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
Diferencia de orden específico de una serie
K t (1 L) orden
K t (1 L) K t
n
INSTRUCCIÓN:
GENR DK1=k-k(-1)
GENR DK1=D(k)=D(k,1)
GENR DK2=D(k,2)
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
LOG(Núm). Logaritmo natural del argumento
EXP(Núm). Antilogaritmo natural del argumento
ABS(Núm). Valor absoluto del argumento
Serie de números seudoaleatorios con distribución normal
NRND estándar
Serie de números seudoaleatorios con distribución uniforme en el
RND intervalo [0,1]
D(serie) Primera diferencia de una serie de datos
D(serie, orden) Diferencia de orden especifico de una serie de datos
diferencia de orden n y diferencia estacional de orden s de la serie
D(serie,n,s) X.
@Trend Tendencia
Tendencia centrada. Ejemplo genr T=@trend(1990), genera una
@trend(obs) serie en el cual el cero corresponde a 1990.
@PCH(serie) Cambio porcentual de una periodo con respecto a otro periodo
Variable estacional auxiliar.Ejm. Genr Marzo=@seas(3) genera
@seas(periodo) una serie que contiene 1 en Marzo y 0 en el resto.
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
@min(serie) Devuelve el mínimo valor relativo de una serie de datos
@max(serie) Devuelve el máximo valor relativo de una serie de datos
@mean(serie) Media de una serie de datos
@Median(serie) Mediana de una serie de datos
@sum(serie) Suma de los valores de la serie
@sumsq(serie) Suma de cuadrados de los valores de una serie de datos
@stdev(serie) Desviación estandar muestral de una serie de datos
@var(serie) Varianza poblacional de una serie de datos
@obs(serie) Número de observaciones con información
Número de observaciones dentro del rango del archivo de
@Rows(serie) trabajo
@sin(Núm) Seno de un ángulo en radianes
@cos(Núm) Coseno de un ángulo en radianes
@tan(Núm) Tangente de un ángulo en radianes
Devuelve el residuo de la división entera N/M, con el mismo
@mod(N,M) signo que el numero N.
COMENZANDO A TRABAJAR
I. Estadísticas básicas
En todo análisis univariado se debe examinar la forma que adopta el
grafico lineal.
En caso de series de corte transversal se debe ordenar primero las
observaciones.
INSTRUCCIÓN: 2.0E+07
PLOT p l k
1.6E+07
Quick/graph/line graph
1.2E+07
8.0E+06
4.0E+06
0.0E+00
85 86 87 88 89 90 91 92 93 94 95 96
P L K
Histogramas
5
Series: K
Sample 1985 1996
Observations 12
Ho: La serie esta
4
Mean 10022764
3 Median
Maximum
9635740.
19226538 distribuido en forma
normal
Minimum 2923424.
2 Std. Dev. 6025567.
Skewness 0.192593
Kurtosis 1.567577
1
Jarque-Bera 1.100102
Probability 0.576920
Si el estadístico JB
0
5000000 10000000 15000000 20000000
6
se aproxima a
5
Series: L
Sample 1985 1996 cero entonces no
Observations 12
se rechaza la Ho
4 Mean 1887.491
Median 1999.850
3 Maximum 2107.615
Minimum 1493.800
Std. Dev. 227.9436
2 Skewness -0.639606
Kurtosis 1.811312
1
Jarque-Bera 1.524682
Probability 0.466573
0
1400 1600 1800 2000 2200
II. Análisis de regresión
SCAT: Muestra una nube de puntos que relaciona la primera variable (
eje de abscisas) con las siguientes ( en el eje de las ordenadas)
INSTRUCCIÓN:
SCAT Variable Variable X Variable Y1 Variable Y2…
Ejemplo: scat l k p
2.0E+07
1.6E+07
1.2E+07
K
P
En el grafico
8.0E+06
L positiva.
II. Análisis de regresión: estimación de la regresión
Ls(least squares): Estima los parámetros de una
ecuación mediante el método de MCO.
INSTRUCCIÓN:
LS P c L K
P 0 1 L 2 K ut
Realizamos el contraste para verificar la
igualdad entre las productividades
marginales
Ho : 1 2
TEST DE WALD.
La prob. Es menor al
nivel de significancia
elegido(0.05), se
rechaza Ho
Estimación en términos de logaritmos
1 2
P ALt K t e ut
Contraste parea verificar la existencia de
rendimientos constantes a escala
Ho : 1 2 1
2 (Y( XY X) / Y)
t
t
t 1
t 1
t 1
DATA Y1
Luego copiar del excel al e-views
EN EXCEL EN E VIEWS
CTRL + C CTRL + V
REGRESION:
LS LOG(Y1) C @TREND
2 2
RESID
0 0
-2 -2
-4 -4
1900 1920 1940 1960 1980 -4 -2 0 2 4
RESID RESID(-1)
b) Prueba de Rachas(Geary)
Anotar lo signos (+ o -) de las residuales de la regresión
MCO
Definir las rachas.
Derivar la prueba de aleatoriedad:
H0: Ausencia de autocorrelación, suponiendo n1>10 y n2>10
Donde: n= Número total de observaciones
N1= Número de simbolos +
N2= Número de simbolos –
K= Número de rachas
Hallar los estadisticos:
2n1n2 2n1n2 (2n1n2 n1 n2 )
E (k ) 1 y k
2
..................(4)
n1 n2 (n1 n2 ) (n1 n2 1)
2
Regla de decision:
Si k estimada se encuentra fuera del intervalo
E(k)-1.96kKE(k)+ 1.96k, se rechaza la H0 al 95% de
confianza.
c) Test de Durbin Watson
Supuestos:
El modelo de regresion incluye intercepto
Las variables explicativas X son fijas en muestreo repetido.
El test de DW verifica la existencia de autocorrelación de
primer orden:
et = et-1 + t ..................................(5)
La regresión no incluye valores rezagados de la variable
dependiente como una de las variables explicativas.
No hay observaciones faltantes en los datos.
tN
(e et 1 ) 2
Estadistico DW: .........................(6)
t
D t 2
tN
e
2
e t 2 e 2 t 1 2 e t e t 1
t
t 2
(e
t 2
t et 1 ) 2
5461920.67
DW tN
0.543929
10041598
et
2
t 2
Ejemplo:
Los limites inferior(dL) y superior(dU): para k´ = 2
y n = 100 tenemos que: dL=1.634 y dU = 1.715
Regla de decisión:
Autocorrelacion
indecisión
indecisión
Zona de
Zona de
No
+
Autocorrelación
DW
1.634 1.715 2 2.285 2.366 4
DW=0.543929
Conclusión:
e e t t 1
ˆ t 2
n
Coeficient e de autocorrel ación muestral ......................(10)
e
t 2
2
t 1
et = et-1 + t
Otra forma de obtener es a partir del estadistico DW :
DW . .....................(11)
ˆ 1
2
El valor Ht: al 95% de confianza el valor de Ht en una sola cola es:
Ht= 1.645
Regla de decisión: Si Ht >H, No se rechaza la H0
d) Contraste H de Durbin
Problema del contraste de H de Durbin:
Si var(2)>1/n, entones el término dentro del
radical sería negativo.
Para estos casos, Durbin demostró que cuando
la muestra tiende a infinito, un modo equivalente
de llevar a cabo esta prueba consiste en:
Estimar una regresión de los residuos MCO de la
regresión original sobre un rezago del mismo,
todos los rezagos de la variable endógena
incluidos en el modelo y las demás variables
explicativas. En este caso, la hipótesis nula se
rechaza si el coeficiente de et-1 resulta
significativamente distinto de cero.
e) Test de Ljung-Box y Box-Pierce
Estos tests se basan en los coeficiente de correlación
simple y pueden ser aplicados sólo cuando el conjunto
de variables explicativas son todas exógenas.
Formalmente, Box-Pierce define el estadístico Q de la
forma: i p
Q n ri 2 . .....................(12)
i 1
Mientras que Ljung-Box presenta un refinamiento del mismo
planteando: i p
ri 2
Q T (T 2) . .....................(13)
i 1 T i
Donde: ri es igual al coeficiente de autocorrelación simple de
i-ésimo orden definido como: t n
u u t t i
ri t 1 .
t n
.....................(14)
ut
2
t 1
e) Test de Ljung-Box y Box-Pierce
nota: Para estos casos, la dificultad estriba en la elección del orden p.
Planteamiento de hipótesis:
H0: Ausencia de autocorrelación
Regla de decisión:
Si Q < Valores tabulares de una distribución Chi-cuadrado
con p g.l.y un 95% de confianza, se acepta la H0.
En esencia lo que se analiza es si los coeficientes de
correlación entre los rezagos del error y el valor
contemporáneo del mismo son iguales a cero. Esto implica
que todos y cada uno son iguales a cero. Si alguno es
distinto de cero se no se podrá aceptar la hipótesis nula.
Usualmente los programas econométricos lo que
hacen es presentar estos estadísticos junto con el
correlograma del término de error. Como ejemplo de ello
podemos presentar una prueba típica:
e) Test de Ljung-Box y Box-Pierce
Autocorrelación parcial
Tenemos unos rectángulos que nos indican la
magnitud del coeficiente de autocorrelación
correspondiente al máximo rezago incluido en la
ecuación estimada para cada fila(quince filas)
del cuadro de la derecha.
El programa ha estimado las siguientes
regresiones:
et 1 et 1 t
et 1et 1 2 et 2 t
.................................
et 1et 1 2et 2 3et 3 ........... 15 et 15 t
Interpretación
Cuando los rectángulos caen dentro del
intervalo se puede esperar que los coeficientes
de correlación parcial sean estadísticamente
iguales a cero.
Valor 0 Bandas de Si los rectángulos salen fuera de la banda se
confianza para espera que sean diferentes de cero.
un intervalo En nuestro gráfico, sólo el primer rezago sale fuera de la banda de
centrado en
confianza, mientras que los demás no lo hacen. La interpretación es
cero
entonces que sólo podría haber autocorrelación de primer orden.
e) Test de Ljung-Box y Box-Pierce
Autocorrelación: función de AC
En la columna de autocorrelación se
registran los estadísticos tanto de
Ljung-Box como de Box-Pierce.
Usualmente se consigna el primero.
Prob.
Si vemos los valores de la
probabilidad para cada fila, veremos
que en cada una de ellas se rechaza
la hipótesis nula, entonces vemos
que no existe autocorrelación de
ningún orden.
Por lo tanto, vemos que los
estadísticos de Ljung-Box y Box-
Pierce sólo pueden detectar la
autocorrelación pero no indican el
orden de ésta.
Por tanto su interpretación debe ser comparada con los gráficos del
correlograma para detectar posibles patrones de autocorrelación. En todo caso
no son definitivos sino sólo referenciales.
f) Test de Breusch Godfrey(1978) o test de
Multiplicadores de Lagrange: LM
Es una de las pruebas mas potentes: Es indispensable su utilización.
Realiza contrastes donde la hipótesis alternativa incluya especificaciones
más generales que la del modelo autorregresivo de primer orden.
Tambien sirve cuando se incluye Yt-1.
Busca el orden p de un proceso auterregresivo y el orden q de un proceso
de medias moviles:
t 1 t 1 2 t 2 ..................... p t p t
t t 1 t 1 2 t 2 .......... q t q
Pasos:
Estimar el modelo por MCO y obtener la serie de los residuos.
Estimar una regresión auxiliar de los residuos sobre p retardos y
sobre las variables explicativas X del modelo, pudiendo incluir
retardos de la variable endógena sin que cambien las
propiedades del contraste.
et 1et 1 2et 2 ... p et p 1Yt 1 2Yt 2 ...
. .....................(15)
.... rYt r r 1 X 1t . r 2 X 2t ...... s X st
f) Test de Multiplicadores de Lagrange: LM
Obtener el coeficiente de determinación R2 de la
regresión auxiliar estimada en el punto interior,.
Prueba de hipótesis:
H0 : No existe autocorrelación
H1 : Existe autocorrelación de orden p.
Calcular el estadístico experimental: n* R2
Calcular el valor t tabla para una distribución chi-
cuadrado con p grados de libertad: X2
Regla de decisión:
Si n* R2 > X2 se rechaza la hipótesis nula de no
autocorrelación.
Si R20, entonces n* R2 0, por tanto se acepta la
H0 de ausencia de autocorrelación(Los residuos no
se podrían explicar a partir de sus rezagos)
Ejemplo:
El estadístico es:
n* R2 =55.23254
La probabilidad
asociada a al
estadístico(0.00) indica
el rechazo de la Ho.
Si queremos tener una idea
de cuál es el patrón
autorregresivo del error
debemos fijarnos en la
ecuación auxiliar que se
utiliza para construir la
En nuestro caso, observamos que sólo el parámetroprueba
asociado al primer rezago es
significativo. Esto sugiere la presencia de autocorrelación de primer orden. Una
estrategia válida es ir reduciendo el número de rezagos incluidos en la medida que
no sean significativos. Cuando lleguemos a un modelo auxiliar que presente todos
los parámetros asociados a los rezagos incluidos significativos, nos indicará con un
alto grado de certeza el patrón de autocorrelación. Un procedimiento que nos
permite mejorar lo anterior es incluir el menor número de rezagos de tal manera
que el error de la ecuación auxiliar sea ruido blanco.
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERIA ECONÓMICA
TEMA: CORRECCION DE AUTOCORRELACIÓN
La presencia de autocorrelación en los términos de error
origina la estimación de parámetros no eficientes. Para
corregir este problema utilizamos un procedimiento
alternativo a MCO que arroje estimadores con menor
varianza.
Los procedimientos que serán analizados de aquí
en adelante se enmarcan dentro de la estimación
por MCG, la cual se basa en realizar
transformaciones a las variables originales de modo
que se garantice la obtención de estimadores más
eficientes.
Prof. William Parillo Mamani
Métodos de corrección
i) Método de la primera diferencia.
ii) Prueba de Berenblut – Webb sobre la hipótesis:
=1.
iii) Estimación de basada en el estadístico de
Durbin-Watson.
iv) Procedimiento iterativo de Cochrane-Orcutt.
v) Procedimiento de búsqueda de Hildreth-Lu.
vi) Procedimiento de dos etapas e iterativo de Prais-
Winsten.
i) Método de la primera diferencia
Supuesto:
1 , existe una autocorrelación
positiva o negativa perfecta.
Caso 1: =1(existe autocorrelación positiva de primer orden)
La ecuación de cuasidiferencia se reduce a la primera
diferencia:
Yt Yt 1 2 ( X t X t 1 ) (ut ut 1 ) 2 ( X t X t 1 ) t
Yt 2 X t t . .....................(16)
Yt Yt 1 X t X t 1 t
1 2 ..............(19)
2 2 2
El procedimiento de corrección cuando = -1 consiste en
realizar una regresión de promedios móviles.
En los dos casos analizados previamente, se han realizado supuestos bastante simplificadores respecto
al tipo de proceso que caracteriza al error. Evidentemente, de no verificarse el supuesto sobre el que
descansa el procedimiento utilizado para corregir el problema de autocorrelación, las estimaciones
realizadas pueden incluso resultar peores en términos de eficiencia que las del modelo original. Por
esto, resulta útil realizar alguna prueba que permita verificar la validez de los supuestos utilizados.
ii) Prueba de Berenblut–Webb sobre
la hipótesis: =1.
H0: = 1: Los errores siguen un esquema
autorregresivo de primer orden y positivo.
Estos autores desarrollaron en siguiente estadístico:
n
e 2 t
........... ..............(20)
t 2
g n
u 2 t
t 1
Prueba de Berenblutt-Webb:
e 2 t
1116067
.
t 2
g n
0.092297
1209.211
u 2 t
t 1
Según la tabla de Durbin-Watson para n =100 y k|=2(V.
Explicativa), DL=1.634 y DU=1.715 (para un nivel de
significancia del 5%).
Debido a que el valor del estadístico g se encuentra por
debajo del límite inferior, se acepta la hipótesis nula de
que = 1, por lo que la transformación de primeras
diferencias sugerida para corregir la presencia de
autocorrelación resulta apropiada.
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
Para verificar que el problema de autocorrelación se
ha corregido, aplicamos nuevamente el test de
Breusch-Godfrey al modelo en primeras diferencias.
iii) Estimación de basada en el estadístico
de Durbin-Watson.
El estadístico de Durbin-Watson provee una
forma sencilla de estimar el coeficiente .
DW 2(1 ˆ ) ˆ 1
DW ........................(21)
2
• El método de 2 etapas de Durbin, también permite
obtener , cuando existe autocorrelación de primer
orden, el modelo transformado para poder realizar la
estimación por mínimos cuadrados generalizados
queda de la siguiente forma:
yt 1 (1 ) yt 1 2 xt 2 xt 1 t ..........(22)
Si estimamos esta ecuación por MCO obtenemos en el
parámetro del primer rezago de y.
iii) Estimación de basada en el estadístico de Durbin-Watson.
•Tomando este estimado procedemos a realizar
la transformación de las variables.
Ejemplo:Estimar el modelo anterior
D1t = 1 + 2Y1t + 3I1t +ut
DW 2(1 ˆ ) 0.143866
DW
ˆ 1 0.928067
2
Nótese que ̂ es bastante
similar al valor del coeficiente
del primer rezago en el test de
Breusch-Godfrey (0.927554),
por lo que 0.927554 se puede
utilizar como estimador de .
iii) Estimación de basada en el estadístico de Durbin-Watson.
Comandos Eviews: GENR DD1=D1-0.928067*D1(-1)
GENR DY1=Y1-0.928067*Y1(-1)
GENR DI1=I1-0.928067*I1(-1)
•Estimar por MCO: LS DD1 C DY1 DI1
El valor del
intercepto(0.352990)
es: *1 = 1(1-), por
lo que debemos
realizar las
transformaciones del
caso si se busca
evaluar los
coeficientes
originales.
ut = 0.31ut-1 + 0.59ut-2 + t
Donde: 1 = 0.31, 2 = 0.59
iv) Procedimiento iterativo de Cochrane-Orcutt.
Sin embargo, una estimación más precisa de los
coeficientes 1 y 2 la proporciona el método
iterativo de Cochrane-Orcutt.
Comandos EViews:
QUICK/ESTIMATE EQUATION/D1 C Y1 I1 AR(1) AR(2)
1=
iv) Procedimiento iterativo de Cochrane-Orcutt.
Los coeficientes asociados a los términos AR(1) y AR(2)
son precisamente los estimados de 1 y 2 obtenidos a
través del método de Cochrane-Orcutt.
•El modelo presentado anteriormente ya no presenta
autocorrelación, tal como lo demuestran los resultados del test de
Breusch-Godfrey:
iv) Procedimiento iterativo de Cochrane-Orcutt.
Debemos tener en cuenta que el método de Cochrane
Orcutt lo que hace es imponer una serie de
restricciones sobre el modelo que pueden ser
exageradas. Analicemos cómo puede ocurrir esto.
Si tomamos como supuesto que los resultados nos arrojan la
existencia de un modelo AR(1) el modelo que se estimaría sería el
siguiente:
y t y t 1 1 (1 ) 2 ( xt xt 1 ) t ..........(26)
Desarrollando esta expresión obtendríamos lo siguiente:
y t 1 (1 ) y t 1 2 xt xt 1 t ..(27)
En términos de un modelo estimable, esto es equivalente a:
y t 1 2 y t 1 3 xt 4 xt 1 t ..(28)
iv) Procedimiento iterativo de Cochrane-Orcutt.
El modelo (28) es estimable vía MCO. Sin embargo,
si queremos verificar si las restricciones impuestas
por el método de Cochrane-Orcutt son correctas,
podríamos probar si en (28) se cumple la siguiente
restricción:
2 3 4
Sólo si los parámetros estimados por el modelo sin restringir
cumplen con la anterior restricción podremos concluir que el
método de Cochrane-Orcutt es un método apropiado. De no
ser así, probablemente la estimación de la ecuación sin
restringir será lo mejor. Si nos detenemos a observar esta
ecuación veremos que responde a una especificación
dinámica. La autocorrelación, entonces habría surgido por no
haber incluido los rezagos correspondientes.
v) Procedimiento de búsqueda de Hildreth-Lu.
n
S (1 )e (et et 1 )
* 2 2
1
2
..(30)
t 2
e e t t 1
̂ pw t 2
n
..(31)
e
t 3
2
t 1
vi) Procedimiento de dos etapas e iterativo de Prais-Winsten
Las etapas del proceso son las siguientes:
1. Estimar el modelo original (sin ninguna corrección)
por mínimos cuadrados ordinarios. Tomar los errores
y calcular ̂ .
pw
Yt Wt X t
* * *
t ..(32)
Donde para t=1:
Yt* Yt 1 2 , Wt* 1 2 , X t* X t 1 2
y para t=2,........,n :
Yt* Yt Yt 1 , Wt* 1 , X t* X t X t 1
vi) Procedimiento de dos etapas e iterativo de Prais-Winsten
El proceso podría repetirse hasta alcanzar la
convergencia al estilo de Cochrane-Orcutt. En
dicho caso el recibe el nombre de proceso
iterativo de Prais-Winsten.
vii) Planteamiento para un estimador consistente de la matriz de covarianzas
con la presencia heterocedasticidad y autocorrelación (Newey-West)
1500
que
1000
aumenta el
500
PIB
0
0 2000000 4000000 6000000 8000000 10000000
PIB
METODOS GRAFICOS
5. Relación entre los residuos y la variable
explicatica.
QUICK/GRAPH/EMPLEO R/SCATTER DIAGRAM
QUICK/GRAPH/EMPLEO R2/SCATTER DIAGRAM
2.0E+12
2000000
1.5E+12
1000000
R2
0 1.0E+12
R
-1000000 5.0E+11
-2000000 0.0E+00
0 500 1000 1500 2000 2500 0 500 1000 1500 2000 2500
EMPLEO
EMPLEO
3
3
2
2
1
1
0
-1 0
-2 -1
2 4 6 8 10 12 14 16 18 2 4 6 8 10 12 14 16 18
R2 EMPLEO R2 EMPLEO2