Sie sind auf Seite 1von 107

ECONOMETRIA

ECONOMETRIA I

Prof.: Ing. William Gilmer Parillo Mamani


MODELO
LINEAL
GENERAL
MODELOS DE REGRESION
POLINOMIAL

Prof.: Ing. William Gilmer Parillo Mamani


Existen aplicaciones con funciones de costo y de
producción.

EJEMPLO: Estimar el siguiente modelo:


Yi  1  2 X i  3 X i  ui
2

2 3 4 2 2
n Yi Xi Xi Xi Xi Yi XiYi Xi Y
1 70 80 6400 512000 40960000 4900 5600 448000
2 65 100 10000 1000000 100000000 4225 6500 650000
3 90 120 14400 1728000 207360000 8100 10800 1296000
4 95 140 19600 2744000 384160000 9025 13300 1862000
5 110 160 25600 4096000 655360000 12100 17600 2816000
6 115 180 32400 5832000 1049760000 13225 20700 3726000
7 120 200 40000 8000000 1600000000 14400 24000 4800000
8 130 220 48400 10648000 2342560000 16900 28600 6292000
9 165 240 57600 13824000 3317760000 27225 39600 9504000
10 160 260 67600 17576000 4569760000 25600 41600 10816000
Total 1120 1700 322000 65960000 14267680000 135700 208300 42210000
Para estimar este modelo
utilizamos la siguiente formula:
 n X  X 2   ˆ1    Y 
 3  ˆ   
X X 2
 X    2     XY 
 X 2 X3  X 4   ˆ3   X 2Y 

 10 1700 322000   ˆ1   1120 
 1700 322000 65960000   ˆ    208300 
  2   
322000 65960000 14267680000  ˆ3  42210000

La determinante de la matriz (X´X) es:


Det. (X´X) = 118154937600000000 – 118127059200000000 = 27 878 400 000 000
La transpuesta de la matriz adjunta
es:

La matriz inversa de X´X es:


Por lo tanto reemplazamos en;
(X´X) B = (X´Y), tenemos:
Alternativamente en el E-views se puede obtener:
ECONOMETRIA
I
FORMAS FUNCIONALES DE LOS
MODELOS DE REGRESION
Y TEST DE WALD
Prof.: Ing. William Gilmer Parillo Mamani
FORMAS FUNCIONALES DE LOS MODELOS DE
REGRESION

Estudiamos modelos lineales en los


parámetros, las cuales pueden ser o
no lineales en las variables.
El modelo log-lineal.
Modelos semilogaritmicos.
Modelos recíprocos.
El modelo logarítmico reciproco.
I. MODELO LOG-LINEAL: COMO MEDIR LA
ELASTICIDAD.
Consider the following model, known as the
exponential regression model:
which may be expressed alternatively as:

Where ln =natural log (i.e., log to the base e ,and


where e =2 .718). =Ln β1, this model is linear in
the parameters  y β2, linear in the logarithms of
the variables Y and X ,and can be estimated by OLS
regression. Because of this linearity, such models
are called log-log, double-log,or log-linear
models.
MODELO LOG-LINEAL: COMO MEDIR LA ELASTICIDAD.
Si los supuestos del MCRL se cumplen, pueden ser
estimados por MCO considerando que:

Donde Y*i =ln Yi and X*i =ln Xi. Los estimadores


MCO, ˆ y ˆ , seran los mejores estimadores lineales
insesgados de α y β.
dLnY Mide la elasticidad de Y con respecto a X, es decir el
 2 cambio porcentual en Y ante un pequeño cambio
dLnX porcentual en X. (Elasticidad constante)
ENTORNO DE TRABAJO
Barra de títulos
Menú Principal

Zona de comandos

-Archivos de trabajo
-Tablas
Zona de ventanas
-Gráficos
-programas

Línea de estado
ARCHIVOS DE TRABAJO (WORKFILES)
WORKFILE: Crea un nuevo archivo de trabajo con la estructura indicada. El archivo contendrá
automáticamente los objetos del sistema: C = vector de constantes y RESID = serie de residuos

INSTRUCCIÓN:
WORKFILE [Nombre] [Frecuencia] [Período inicial] [Período final]

INDICACIONES:
[Frecuencia]=[A | S | Q | M | W | D | 7 | U ]
Ejemplos:
WORKFILE Archivonuevo U 1 1000/ WORKFILE U 100
WORKFILE Otroarchivo Q 1990.1 1999.4
WORKFILE prueba1 m 90 2000.06
WORKFILE prueba2 d 1.2.1999 1.2.2000
Nota: File/New/Workfile
Ejemplo:
Se desea WORKFILE ejercicio a 1985 1996
estimar una
función de
producción:
obs K L P
1985 2923424 1493.8 3267636
1986 3138054 1549.1 3664620
1987 3364006 1637.6 4106758
1988 4672090 1727.6 4592483
1989 6413699 1848.6 5250695 Zona de objetos
1990 8526639 1963.5 6074133
1991 10744840 2036.2 6887865
1992 12597039 2070.8 7848365
1993 14444432 2065.4 8168404
1994 16260040 2055.9 8392581
1995 17962362 2093.78 8972103
1996 19226538 2107.615 9420052

Rango (Range): incluye todas las observaciones del archivo


Muestra(sample):Incluye todas ellas o solo una parte (para cálculos) SMPL
CREACIÓN DE SERIES DE DATOS
INSTRUCCIÓN:
DATA [Nombre de serie1] [Nombre de serie2] [ ]…
obs K L P
1985 2923424 1493.8 3267636
1986 3138054 1549.1 3664620
1987 3364006 1637.6 4106758 Ejemplo:
1988 4672090 1727.6 4592483 DATA K L P
1989 6413699 1848.6 5250695
1990 8526639 1963.5 6074133
1991 10744840 2036.2 6887865
1992 12597039 2070.8 7848365
1993 14444432 2065.4 8168404
1994 16260040 2055.9 8392581
1995 17962362 2093.78 8972103
Nota: Quick/Empty Group
1996 19226538 2107.615 9420052
GENERACIÓN DE SERIES MEDIANTE EL USO
DE FORMULAS
INSTRUCCIÓN:
GENR [Nombre de serie]= […]

GENR: Crea o reemplaza el valor de una serie de datos


dentro de la muestra activa de acuerdo con la formula
indicada en el lado derecho de la ecuación.
Ejemplo:

Genr serieajustada=(PBI/Deflactor)+@trend
Genr Y=@log(X)=Log(x)

Nota: Procs/Generate series


Ejemplo:
genr lk=@log(K)
genr ll=@log(l)
GENERACIÓN DE SERIES MEDIANTE EL USO DE
FORMULAS: UTILIZANDO REZAGOS O ADELANTOS
Supongamos que se tiene la serie K y se desea calcular la tasa de crecimiento
discreta del K como una nueva serie de datos llamada Tasa_K.
Valor Actual K
Tasa  1  t 1
Valor Pr evio K
t 1
Kt-1= Primer rezago de la serie K u observación previa o valor
anterior de la serie K
INSTRUCCIÓN:
GENR K1=K(-1)

GENR tasak=(k/k(-1))-1

O alternativamente:

GENR tasak=@PCH(K)
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
NRND = Normal Random
Se desea disponer de una serie de datos que contenga número
reales extraídos al azar a partir de una distribución normal
estándar ().
INSTRUCCIÓN:
GENR RUIDO =NRND
Eviews esta recibiendo sobre la marcha una serie aleatoria normal estándar y
registrar posteriormente estos valores en la serie Ruido.

Tendencia = @trend
Genera una serie con valores enteros ascendentes 0,1,2…

Primera diferencia de series K t 1  LK t


K  K t  K t 1  (1  L) K t L= Operador de rezago

INSTRUCCIÓN:
GENR DK1=k-k(-1)=D(k)
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
Diferencia de orden específico de una serie
K t  (1  L) orden
K t  (1  L) K t
n

INSTRUCCIÓN:
GENR DK1=k-k(-1)

GENR DK1=D(k)=D(k,1)

GENR DK2=D(k,2)
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
LOG(Núm). Logaritmo natural del argumento
EXP(Núm). Antilogaritmo natural del argumento
ABS(Núm). Valor absoluto del argumento
Serie de números seudoaleatorios con distribución normal
NRND estándar
Serie de números seudoaleatorios con distribución uniforme en el
RND intervalo [0,1]
D(serie) Primera diferencia de una serie de datos
D(serie, orden) Diferencia de orden especifico de una serie de datos
diferencia de orden n y diferencia estacional de orden s de la serie
D(serie,n,s) X.
@Trend Tendencia
Tendencia centrada. Ejemplo genr T=@trend(1990), genera una
@trend(obs) serie en el cual el cero corresponde a 1990.
@PCH(serie) Cambio porcentual de una periodo con respecto a otro periodo
Variable estacional auxiliar.Ejm. Genr Marzo=@seas(3) genera
@seas(periodo) una serie que contiene 1 en Marzo y 0 en el resto.
GENERACIÓN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
@min(serie) Devuelve el mínimo valor relativo de una serie de datos
@max(serie) Devuelve el máximo valor relativo de una serie de datos
@mean(serie) Media de una serie de datos
@Median(serie) Mediana de una serie de datos
@sum(serie) Suma de los valores de la serie
@sumsq(serie) Suma de cuadrados de los valores de una serie de datos
@stdev(serie) Desviación estandar muestral de una serie de datos
@var(serie) Varianza poblacional de una serie de datos
@obs(serie) Número de observaciones con información
Número de observaciones dentro del rango del archivo de
@Rows(serie) trabajo
@sin(Núm) Seno de un ángulo en radianes
@cos(Núm) Coseno de un ángulo en radianes
@tan(Núm) Tangente de un ángulo en radianes
Devuelve el residuo de la división entera N/M, con el mismo
@mod(N,M) signo que el numero N.
COMENZANDO A TRABAJAR
I. Estadísticas básicas
En todo análisis univariado se debe examinar la forma que adopta el
grafico lineal.
En caso de series de corte transversal se debe ordenar primero las
observaciones.
INSTRUCCIÓN: 2.0E+07

PLOT p l k
1.6E+07
Quick/graph/line graph
1.2E+07

8.0E+06

4.0E+06

0.0E+00
85 86 87 88 89 90 91 92 93 94 95 96

P L K
Histogramas
5
Series: K
Sample 1985 1996
Observations 12
Ho: La serie esta
4

Mean 10022764
3 Median
Maximum
9635740.
19226538 distribuido en forma
normal
Minimum 2923424.
2 Std. Dev. 6025567.
Skewness 0.192593
Kurtosis 1.567577
1
Jarque-Bera 1.100102
Probability 0.576920

Si el estadístico JB
0
5000000 10000000 15000000 20000000

6
se aproxima a
5
Series: L
Sample 1985 1996 cero entonces no
Observations 12
se rechaza la Ho
4 Mean 1887.491
Median 1999.850
3 Maximum 2107.615
Minimum 1493.800
Std. Dev. 227.9436
2 Skewness -0.639606
Kurtosis 1.811312
1
Jarque-Bera 1.524682
Probability 0.466573
0
1400 1600 1800 2000 2200
II. Análisis de regresión
SCAT: Muestra una nube de puntos que relaciona la primera variable (
eje de abscisas) con las siguientes ( en el eje de las ordenadas)
INSTRUCCIÓN:
SCAT Variable Variable X Variable Y1 Variable Y2…

Ejemplo: scat l k p
2.0E+07

1.6E+07

1.2E+07
K
P
En el grafico
8.0E+06

4.0E+06 se puede ver


que existe
una relación
0.0E+00
1400 1600 1800 2000 2200

L positiva.
II. Análisis de regresión: estimación de la regresión
Ls(least squares): Estima los parámetros de una
ecuación mediante el método de MCO.

INSTRUCCIÓN:
LS P c L K

P   0  1 L   2 K  ut
Realizamos el contraste para verificar la
igualdad entre las productividades
marginales
Ho : 1   2

TEST DE WALD.

La prob. Es menor al
nivel de significancia
elegido(0.05), se
rechaza Ho
Estimación en términos de logaritmos
1 2
P  ALt K t e ut
Contraste parea verificar la existencia de
rendimientos constantes a escala
Ho : 1   2  1

La prob. Es mayor al nivel


de significancia
elegido(0.05), no se
rechaza Ho. Por tanto
existe rendimientos
constantes a escala
Programación en Eviews
Un programa es un conjunto de instrucciones
destinado a resolver una determinada tarea
INSTRUCCIÓN:
PROGRAM Nombre del programa
Continuara……..
II. MODELOS SEMILOGARITMICOS:
LOG-LIN Y LIN-LOG.

MODELO LOG-LIN: How to


Measure the Growth Rate:
Economists, business people, and
governments are often interested in
finding out the rate of growth of certain
economic variables, such as population,
GNP,money supply, employment,
productivity, and trade deficit.
MODELO LOG-LIN:
Suponga que deseamos encontrar la tas de crecimiento
del PIB real en este periodo. Sea Yt=PIB real en el
tiempo t y Y0 el valor inicial del PIB real.
Donde r es la tasa de crecimiento compuesta de Y.
En este modelo el coeficiente de la pendiente mide el
cambio proporcional constante o relativo en Y para un
cambio absoluto dado en el valor del regresor, es decir:

 2  (Y( XY X) / Y)
t
t
t 1
t 1
t 1

Si se multiplica el cambio relativo en Y por 100 nos dará


entonces el cambio porcentual o la tasa de crecimiento
en Y ocasionada por un cambio absoluto en X.

 2  0 tasa de crecimient o de la variable Y


 2  0 tasa de decrecimie nto de la variable Y
EJEMPLO
LOS
DATOS
ESTÁN
EN
EXCEL:
WORKFILE ejerciciocrec q 1993.01 1998.03

DATA Y1
Luego copiar del excel al e-views
EN EXCEL EN E VIEWS
CTRL + C CTRL + V
REGRESION:
LS LOG(Y1) C @TREND

Durante el periodo de 1 trimestre el gasto en


servicios se incremento a una tasa de
0.7426%, aproximadamente esto es igual a
una crecimiento anual de 2.97%.
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERIA ECONÓMICA
CURSO: ECONOMETRIA
TEMA: DETECCIÓN DE AUTOCORRELACIÓN

Prof. Ing. William Gilmer Parillo Mamani


a) Método gráfico
a.1) Graficar los residuos frente al tiempo.
a.2) Graficar el residuo en el tiempo frente a su valor en
el tiempo t-1.
a.3) Graficar los residuos estandarizados frente al
tiempo.
4 4

2 2

RESID
0 0

-2 -2

-4 -4
1900 1920 1940 1960 1980 -4 -2 0 2 4

RESID RESID(-1)
b) Prueba de Rachas(Geary)
 Anotar lo signos (+ o -) de las residuales de la regresión
MCO
 Definir las rachas.
 Derivar la prueba de aleatoriedad:
H0: Ausencia de autocorrelación, suponiendo n1>10 y n2>10
Donde: n= Número total de observaciones
N1= Número de simbolos +
N2= Número de simbolos –
K= Número de rachas
 Hallar los estadisticos:
2n1n2 2n1n2 (2n1n2  n1  n2 )
E (k )  1 y  k 
2
..................(4)
n1  n2 (n1  n2 ) (n1  n2  1)
2

 Regla de decision:
Si k estimada se encuentra fuera del intervalo
E(k)-1.96kKE(k)+ 1.96k, se rechaza la H0 al 95% de
confianza.
c) Test de Durbin Watson
Supuestos:
El modelo de regresion incluye intercepto
Las variables explicativas X son fijas en muestreo repetido.
El test de DW verifica la existencia de autocorrelación de
primer orden:
et =  et-1 + t ..................................(5)
La regresión no incluye valores rezagados de la variable
dependiente como una de las variables explicativas.
No hay observaciones faltantes en los datos.
tN

 (e  et 1 ) 2
Estadistico DW: .........................(6)
t
D t 2
tN

e
2

 e t 2   e 2 t 1  2 e t e t 1
t
t 2

Si replanteamos el estadístico de la forma: D   e 2t


Si el número de observaciones es suficientemente grande, et 2 y et 12
son aproximadamente iguales por lo que el estadístico DW es:
D  2(1   ).......................................(7)
c) Test de Durbin Watson
Donde:

   e t e t 1 Es el estimador del coeficiente de
correlación serial de los errores
 te 2
.........(8)
Dado que el parámetro  fluctúa entre 1 y -1, el DW registrará
valores entre 0 y 4.
Si DW  0, cuando exista autocorrelación serial positiva de
primer orden.
Si DW 4, cuando exista autocorrelación serial negativa de
primer orden.
Si DW2, No hay autocorrelación y el valor del coeficiente 
será cero.

H0: =0 No existe autocorrelación de primer orden


Ejemplo
El valor para el estadístico Durbin-Watson lo proporciona el
programa EViews al realizar cualquier regresión:
Intuitivamente
se puede
suponer la
existencia de
autocorrelación
serial positiva
dado lo
reducido del
DW

 El estadístico DW también se puede obtener de la forma:


tN

 (e
t 2
t  et 1 ) 2
5461920.67
DW  tN
  0.543929
10041598
 et
2

t 2
Ejemplo:
 Los limites inferior(dL) y superior(dU): para k´ = 2
y n = 100 tenemos que: dL=1.634 y dU = 1.715
 Regla de decisión:
Autocorrelacion

indecisión

indecisión
Zona de

Zona de
No
+

Autocorrelación

DW
1.634 1.715 2 2.285 2.366 4

DW=0.543929
 Conclusión:

Dado que el valor obtenido para el estadístico


DW=0.543929 resulta menor a la cota inferior, se
concluye que existe autocorrelación serial positiva
de primer orden.
d) Contraste H de Durbin(1970)
Cuando se incluyen dentro del modelo rezagos de
la variable endógena, no es aplicable el DW, sin
embargo Durbin sugirió un contraste asintótico y
Para modelos de la forma:
más general.
Yt  1   2Yt 1  ...   rYt r   r 1 X1t   r 2 X 2t  ...   s X st  et
Pasos:
 Formulacion de la hipotesis:(contraste de una sola cola)
H0: =0 No existe autocorrelación de primer orden
H1: 0<||<1 Existe autocorrelación de primer orden:AR(1)
 Calcular el estadístico H:
n ......................(9)
H  ˆ
1  nVar ( ˆ 2)
De no existir acutocorrelación, tiene una distribución que se aproxima
a N(0,1) cuando n
d) Contraste H de Durbin
Donde:
n

e e t t 1
ˆ  t 2
n
 Coeficient e de autocorrel ación muestral ......................(10)
e
t 2
2
t 1

También puede obtenerse estimando el modelo:

et =  et-1 + t
Otra forma de obtener es a partir del estadistico DW :
DW . .....................(11)
ˆ  1 
2
 El valor Ht: al 95% de confianza el valor de Ht en una sola cola es:
Ht= 1.645
 Regla de decisión: Si Ht >H, No se rechaza la H0
d) Contraste H de Durbin
Problema del contraste de H de Durbin:
Si var(2)>1/n, entones el término dentro del
radical sería negativo.
Para estos casos, Durbin demostró que cuando
la muestra tiende a infinito, un modo equivalente
de llevar a cabo esta prueba consiste en:
Estimar una regresión de los residuos MCO de la
regresión original sobre un rezago del mismo,
todos los rezagos de la variable endógena
incluidos en el modelo y las demás variables
explicativas. En este caso, la hipótesis nula se
rechaza si el coeficiente de et-1 resulta
significativamente distinto de cero.
e) Test de Ljung-Box y Box-Pierce
Estos tests se basan en los coeficiente de correlación
simple y pueden ser aplicados sólo cuando el conjunto
de variables explicativas son todas exógenas.
Formalmente, Box-Pierce define el estadístico Q de la
forma: i p
Q  n ri 2 . .....................(12)

i 1
Mientras que Ljung-Box presenta un refinamiento del mismo
planteando: i p
ri 2
Q  T (T  2) . .....................(13)
i 1 T  i
Donde: ri es igual al coeficiente de autocorrelación simple de
i-ésimo orden definido como: t n

u u t t i
ri  t 1 .
t n
.....................(14)

 ut
2

t 1
e) Test de Ljung-Box y Box-Pierce
nota: Para estos casos, la dificultad estriba en la elección del orden p.
Planteamiento de hipótesis:
H0: Ausencia de autocorrelación
Regla de decisión:
Si Q < Valores tabulares de una distribución Chi-cuadrado
con p g.l.y un 95% de confianza, se acepta la H0.
En esencia lo que se analiza es si los coeficientes de
correlación entre los rezagos del error y el valor
contemporáneo del mismo son iguales a cero. Esto implica
que todos y cada uno son iguales a cero. Si alguno es
distinto de cero se no se podrá aceptar la hipótesis nula.
Usualmente los programas econométricos lo que
hacen es presentar estos estadísticos junto con el
correlograma del término de error. Como ejemplo de ello
podemos presentar una prueba típica:
e) Test de Ljung-Box y Box-Pierce
Autocorrelación parcial
Tenemos unos rectángulos que nos indican la
magnitud del coeficiente de autocorrelación
correspondiente al máximo rezago incluido en la
ecuación estimada para cada fila(quince filas)
del cuadro de la derecha.
El programa ha estimado las siguientes
regresiones:

et  1 et 1   t
et  1et 1   2 et 2   t
.................................
et  1et 1   2et 2   3et 3  ...........  15 et 15   t
Interpretación
Cuando los rectángulos caen dentro del
intervalo se puede esperar que los coeficientes
de correlación parcial sean estadísticamente
iguales a cero.
Valor 0 Bandas de Si los rectángulos salen fuera de la banda se
confianza para espera que sean diferentes de cero.
un intervalo En nuestro gráfico, sólo el primer rezago sale fuera de la banda de
centrado en
confianza, mientras que los demás no lo hacen. La interpretación es
cero
entonces que sólo podría haber autocorrelación de primer orden.
e) Test de Ljung-Box y Box-Pierce
Autocorrelación: función de AC
En la columna de autocorrelación se
registran los estadísticos tanto de
Ljung-Box como de Box-Pierce.
Usualmente se consigna el primero.
Prob.
Si vemos los valores de la
probabilidad para cada fila, veremos
que en cada una de ellas se rechaza
la hipótesis nula, entonces vemos
que no existe autocorrelación de
ningún orden.
Por lo tanto, vemos que los
estadísticos de Ljung-Box y Box-
Pierce sólo pueden detectar la
autocorrelación pero no indican el
orden de ésta.
Por tanto su interpretación debe ser comparada con los gráficos del
correlograma para detectar posibles patrones de autocorrelación. En todo caso
no son definitivos sino sólo referenciales.
f) Test de Breusch Godfrey(1978) o test de
Multiplicadores de Lagrange: LM
Es una de las pruebas mas potentes: Es indispensable su utilización.
Realiza contrastes donde la hipótesis alternativa incluya especificaciones
más generales que la del modelo autorregresivo de primer orden.
Tambien sirve cuando se incluye Yt-1.
Busca el orden p de un proceso auterregresivo y el orden q de un proceso
de medias moviles:
 t   1  t 1   2  t  2  .....................   p  t  p   t
 t   t   1 t 1   2  t  2  ..........  q  t  q
Pasos:
 Estimar el modelo por MCO y obtener la serie de los residuos.
 Estimar una regresión auxiliar de los residuos sobre p retardos y
sobre las variables explicativas X del modelo, pudiendo incluir
retardos de la variable endógena sin que cambien las
propiedades del contraste.
et   1et 1   2et 2  ...   p et  p  1Yt 1   2Yt 2  ...
. .....................(15)
....   rYt r   r 1 X 1t .   r  2 X 2t  ......   s X st
f) Test de Multiplicadores de Lagrange: LM
 Obtener el coeficiente de determinación R2 de la
regresión auxiliar estimada en el punto interior,.
 Prueba de hipótesis:
H0 : No existe autocorrelación
H1 : Existe autocorrelación de orden p.
 Calcular el estadístico experimental: n* R2
 Calcular el valor t tabla para una distribución chi-
cuadrado con p grados de libertad: X2
 Regla de decisión:
Si n* R2 > X2 se rechaza la hipótesis nula de no
autocorrelación.
Si R20, entonces n* R2 0, por tanto se acepta la
H0 de ausencia de autocorrelación(Los residuos no
se podrían explicar a partir de sus rezagos)
Ejemplo:
El estadístico es:
n* R2 =55.23254
La probabilidad
asociada a al
estadístico(0.00) indica
el rechazo de la Ho.
Si queremos tener una idea
de cuál es el patrón
autorregresivo del error
debemos fijarnos en la
ecuación auxiliar que se
utiliza para construir la
En nuestro caso, observamos que sólo el parámetroprueba
asociado al primer rezago es
significativo. Esto sugiere la presencia de autocorrelación de primer orden. Una
estrategia válida es ir reduciendo el número de rezagos incluidos en la medida que
no sean significativos. Cuando lleguemos a un modelo auxiliar que presente todos
los parámetros asociados a los rezagos incluidos significativos, nos indicará con un
alto grado de certeza el patrón de autocorrelación. Un procedimiento que nos
permite mejorar lo anterior es incluir el menor número de rezagos de tal manera
que el error de la ecuación auxiliar sea ruido blanco.
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERIA ECONÓMICA
TEMA: CORRECCION DE AUTOCORRELACIÓN
La presencia de autocorrelación en los términos de error
origina la estimación de parámetros no eficientes. Para
corregir este problema utilizamos un procedimiento
alternativo a MCO que arroje estimadores con menor
varianza.
Los procedimientos que serán analizados de aquí
en adelante se enmarcan dentro de la estimación
por MCG, la cual se basa en realizar
transformaciones a las variables originales de modo
que se garantice la obtención de estimadores más
eficientes.
Prof. William Parillo Mamani
Métodos de corrección
i) Método de la primera diferencia.
ii) Prueba de Berenblut – Webb sobre la hipótesis:
=1.
iii) Estimación de  basada en el estadístico de
Durbin-Watson.
iv) Procedimiento iterativo de Cochrane-Orcutt.
v) Procedimiento de búsqueda de Hildreth-Lu.
vi) Procedimiento de dos etapas e iterativo de Prais-
Winsten.
i) Método de la primera diferencia
Supuesto:
  1 , existe una autocorrelación
positiva o negativa perfecta.
Caso 1: =1(existe autocorrelación positiva de primer orden)
La ecuación de cuasidiferencia se reduce a la primera
diferencia:
Yt  Yt 1   2 ( X t  X t 1 )  (ut  ut 1 )   2 ( X t  X t 1 )   t
Yt   2 X t   t . .....................(16)

 La estrategia de corrección consistiría, en tomar


las primeras diferencias a las variables originales, y
aplicar MCO.
Este modelo en primera diferencia no contiene un intercepto.
i) Método de la primera diferencia
Si incluimos el intercepto, empezamos de un modelo
original con tendencia de la forma:
Yt = 1 + 2Xt + 3t + ut . .....................(17)

Donde ut sigue un esquema autorregresivo de primer orden.


Rezagando un período, tenemos:
Yt-1 = 1 + 2Xt-1 + 3(t-1) + ut-1
Yt  Yt 1   2 ( X t  X t 1 )  3t  3 (t  1)  (ut  ut 1 )
Tomando la primera diferencia al modelo (17) tenemos:
Yt = 2Xt + 3 + t . .....................(18)

El término de intercepto en el modelo en diferencias


corresponde al coeficiente de la tendencia en el modelo
original.
i) Método de la primera diferencia
Caso 2:  = -1, el error sigue un esquema autorregresivo
de primer orden negativo.
El procedimiento de corrección se basa en el modelo
que adopta la siguiente forma:

Yt  Yt 1 X t  X t 1  t
 1   2  ..............(19)
2 2 2
 El procedimiento de corrección cuando  = -1 consiste en
realizar una regresión de promedios móviles.
En los dos casos analizados previamente, se han realizado supuestos bastante simplificadores respecto
al tipo de proceso que caracteriza al error. Evidentemente, de no verificarse el supuesto sobre el que
descansa el procedimiento utilizado para corregir el problema de autocorrelación, las estimaciones
realizadas pueden incluso resultar peores en términos de eficiencia que las del modelo original. Por
esto, resulta útil realizar alguna prueba que permita verificar la validez de los supuestos utilizados.
ii) Prueba de Berenblut–Webb sobre
la hipótesis: =1.
H0:  = 1: Los errores siguen un esquema
autorregresivo de primer orden y positivo.
Estos autores desarrollaron en siguiente estadístico:
n
 e 2 t
........... ..............(20)
t 2
g n
 u 2 t
t 1

Donde: u t = Son los residuos MCO del modelo original

= Son los residuos MCO del modelo en primeras


et diferencias
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
Si el modelo original contiene una constante es
factible realizar el contraste de este estadístico en las
tablas de Durbin Watson
Ejemplo:
Supongamos que se quiere estimar el modelo:
D1t = 1 + 2Y1t + 3I1t +ut
Donde: D1t = demanda de dinero en t
Y1t = ingreso en t
I1t = tasa de interés en t
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
Ahora, se puede verificar directamente si el error presenta algún
esquema autorregresivo con el test de Breusch Godfrey.
Comandos EViews: VIEW / RESIDUAL TESTS / SERIAL CORRELATION LM
TEST
Existe evidencia
suficiente para
suponer que el
error sigue un
esquema
autorregresivo
de primer orden
positivo (el
coeficiente
asociado al
primer rezago es
significativo y
cercano a uno).
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
Sin embargo, se puede verificar lo anterior con la
prueba de Berenblutt-Webb, para lo cual se debe
realizar la regresión del modelo en primeras
diferencias:
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
n

Prueba de Berenblutt-Webb:
 e 2 t
1116067
.
t 2
g n
  0.092297
1209.211
 u 2 t
t 1
Según la tabla de Durbin-Watson para n =100 y k|=2(V.
Explicativa), DL=1.634 y DU=1.715 (para un nivel de
significancia del 5%).
Debido a que el valor del estadístico g se encuentra por
debajo del límite inferior, se acepta la hipótesis nula de
que  = 1, por lo que la transformación de primeras
diferencias sugerida para corregir la presencia de
autocorrelación resulta apropiada.
ii) Prueba de Berenblut–Webb sobre la hipótesis: =1.
Para verificar que el problema de autocorrelación se
ha corregido, aplicamos nuevamente el test de
Breusch-Godfrey al modelo en primeras diferencias.
iii) Estimación de  basada en el estadístico
de Durbin-Watson.
El estadístico de Durbin-Watson provee una
forma sencilla de estimar el coeficiente .
DW  2(1  ˆ ) ˆ  1 
DW ........................(21)
2
• El método de 2 etapas de Durbin, también permite
obtener , cuando existe autocorrelación de primer
orden, el modelo transformado para poder realizar la
estimación por mínimos cuadrados generalizados
queda de la siguiente forma:
yt  1 (1   )  yt 1   2 xt   2 xt 1   t ..........(22)
Si estimamos esta ecuación por MCO obtenemos  en el
parámetro del primer rezago de y.
iii) Estimación de  basada en el estadístico de Durbin-Watson.
•Tomando este estimado procedemos a realizar
la transformación de las variables.
Ejemplo:Estimar el modelo anterior
D1t = 1 + 2Y1t + 3I1t +ut
DW  2(1  ˆ )  0.143866
DW
ˆ  1   0.928067
2
Nótese que ̂ es bastante
similar al valor del coeficiente
del primer rezago en el test de
Breusch-Godfrey (0.927554),
por lo que 0.927554 se puede
utilizar como estimador de .
iii) Estimación de  basada en el estadístico de Durbin-Watson.
Comandos Eviews: GENR DD1=D1-0.928067*D1(-1)
GENR DY1=Y1-0.928067*Y1(-1)
GENR DI1=I1-0.928067*I1(-1)
•Estimar por MCO: LS DD1 C DY1 DI1
El valor del
intercepto(0.352990)
es: *1 = 1(1-), por
lo que debemos
realizar las
transformaciones del
caso si se busca
evaluar los
coeficientes
originales.

Este modelo ya no presenta el problema de autocorrelación.


iv) Procedimiento iterativo de Cochrane-Orcutt.
Este procedimiento presenta una
alternativa más precisa para la estimación
de , a través de una serie de regresiones
iterativas. Este procedimiento es adecuado
cuando se pretende hacer la corrección por
mínimos cuadrados factibles siguiendo el
patrón que se presentó en el caso de un
proceso AR(1).
Supuesto:
El error sigue un esquema de autorregresivo de
la forma: u = u + 
t t-1 t
iv) Procedimiento iterativo de Cochrane-Orcutt.
Pasos:
1. Recoger los residuos MCO de la regresión
original, ignorando la presencia (conocida) de
autocorrelación ( u t ).
2. Estimar el coeficiente  a partir de la siguiente
relación:
uˆt  ˆuˆt 1  vt ........(23)
3. Utilizar el estimado de  para estimar el modelo
en cuasidiferencias (  * )
4. Debido a que no se sabe, a priori, si  es el mejor
estimador, utilizar ̂ * para generar una nueva
serie de residuos:
u **
t

 Yt   X t
*
....(24)
iv) Procedimiento iterativo de Cochrane-Orcutt.

5. Estimar nuevamente el coeficiente  :


u ** 
 u t 1  wt
  **
..........(25)
t

Este proceso iterativo debe continuar hasta que las


estimaciones consecutivas de  difieran en una
cantidad muy pequeña, que será el punto de
convergencia.
[Nota] Usualmente si la diferencia entre los
parámetros obtenidos en dos iteraciones consecutivas
es menor que 0.001 se puede decir que el proceso
puede detenerse.
iv) Procedimiento iterativo de Cochrane-Orcutt.
Este procedimiento de estimación puede
generalizarse al caso de más de una variable
explicativa y de autocorrelación de orden superior a
uno, tal como se verá en el ejemplo siguiente.
¿Los estimadores del modelo original reúnen o no
las propiedades óptimas usuales del modelo clásico?
Siempre que se utilice un estimador de  en lugar
de su valor original, los coeficientes estimados a
través de MCO tienen las propiedades óptimas
usuales sólo asintóticamente, es decir, para
muestras grandes.
En consecuencia, si se trabaja con muestras
pequeñas se debe tener cuidado al momento de
interpretar los resultados estimados. Un elemento a
destacar es que este método implica perder la
iv) Procedimiento iterativo de Cochrane-Orcutt.
Ejemplo: Estimar el modelo anterior
D1t = 1 + 2Y1t + 3I1t +ut
El test de Breusch-Godfrey permite identificar el tipo de proceso
que sigue el error:
A partir de esta
información, se puede
construir un esquema
autorregresivo de segundo
orden para el término de
error de la ecuación
original, de la forma:

ut = 0.31ut-1 + 0.59ut-2 + t
Donde: 1 = 0.31, 2 = 0.59
iv) Procedimiento iterativo de Cochrane-Orcutt.
Sin embargo, una estimación más precisa de los
coeficientes 1 y 2 la proporciona el método
iterativo de Cochrane-Orcutt.
Comandos EViews:
QUICK/ESTIMATE EQUATION/D1 C Y1 I1 AR(1) AR(2)

La inclusión de los dos últimos términos es la


forma en la cual se puede instruir al programa
estadístico que se esté utilizando para que
realice la rutina de estimación de Cochrane-
Orcutt.
iv) Procedimiento iterativo de Cochrane-Orcutt.

1=
iv) Procedimiento iterativo de Cochrane-Orcutt.
Los coeficientes asociados a los términos AR(1) y AR(2)
son precisamente los estimados de 1 y 2 obtenidos a
través del método de Cochrane-Orcutt.
•El modelo presentado anteriormente ya no presenta
autocorrelación, tal como lo demuestran los resultados del test de
Breusch-Godfrey:
iv) Procedimiento iterativo de Cochrane-Orcutt.
Debemos tener en cuenta que el método de Cochrane
Orcutt lo que hace es imponer una serie de
restricciones sobre el modelo que pueden ser
exageradas. Analicemos cómo puede ocurrir esto.
Si tomamos como supuesto que los resultados nos arrojan la
existencia de un modelo AR(1) el modelo que se estimaría sería el
siguiente:
y t  y t 1   1 (1   )   2 ( xt  xt 1 )   t ..........(26)
Desarrollando esta expresión obtendríamos lo siguiente:
y t   1 (1   )  y t 1   2 xt  xt 1   t ..(27)
En términos de un modelo estimable, esto es equivalente a:

y t   1   2 y t 1   3 xt   4 xt 1   t ..(28)
iv) Procedimiento iterativo de Cochrane-Orcutt.
El modelo (28) es estimable vía MCO. Sin embargo,
si queremos verificar si las restricciones impuestas
por el método de Cochrane-Orcutt son correctas,
podríamos probar si en (28) se cumple la siguiente
restricción:     
2 3 4
Sólo si los parámetros estimados por el modelo sin restringir
cumplen con la anterior restricción podremos concluir que el
método de Cochrane-Orcutt es un método apropiado. De no
ser así, probablemente la estimación de la ecuación sin
restringir será lo mejor. Si nos detenemos a observar esta
ecuación veremos que responde a una especificación
dinámica. La autocorrelación, entonces habría surgido por no
haber incluido los rezagos correspondientes.
v) Procedimiento de búsqueda de Hildreth-Lu.

Una estrategia alternativa a la planteada en


el caso de Cochrane-Orcutt es estimar  a
través de una red de búsqueda.
Este procedimiento implica aplicar de
manera repetida el estimador MCO a la
siguiente ecuación:
y  y   (1   )   ( x  x )  
t t 1 1 2 t t 1 t ..(29)

• Utilizando valores de  que se ubiquen en el


intervalo abierto +1, -1. Por ejemplo podría
utilizarse valores de  =-0.95, -0.90,....., 0.90, 0.95
para realizar todas las estimaciones. El valor a escoger
corresponderá al de la ecuación que arroje la menor suma de
residuos al cuadrado (SRC).
v) Procedimiento de búsqueda de Hildreth-Lu.
Se ha demostrado que este tipo de
estimación puede ser interpretada como
estimados condicionales de máxima
verosimilitud dado que la estimación a
través de la minimización de la suma de
residuos al cuadrado es la misma que la
maximización de la función de verosimilitud
si es que eliminamos la primera observación
(al igual que el método de Cochrane-
Orcutt).
Dada la eliminación de la primera
observación se dice que la maximización es
condicional en Y1, dado que se estaría
vi) Procedimiento de dos etapas e iterativo de Prais-Winsten
Una de las desventajas de los tres últimos
métodos descritos es que se pierde la primera
observación.
¿Eliminar una observación no tendría mucho
efecto sobre las estimaciones a realizar?
Eso es cierto si es Si los datos presentan una
que los datos no tendencia y eliminamos
presentan una una observación
tendencia. podríamos estar alterando
el valor de los parámetros
al no incluir dicha
observación.
vi) Procedimiento de dos etapas e iterativo de Prais-Winsten

Un procedimiento que intenta no eliminar


esta primera observación es el de Prais-
Winsten.
Estos autores plantean que una estrategia recomendable
para obtener  sería minimizar la siguiente expresión:

n
S  (1   )e   (et  et 1 )
* 2 2
1
2
..(30)
t 2

Si minimizamos esta expresión obtenemos el


estimador de Prais-Winsten :
n

e e t t 1
̂ pw  t 2
n
..(31)
e
t 3
2
t 1
vi) Procedimiento de dos etapas e iterativo de Prais-Winsten
Las etapas del proceso son las siguientes:
1. Estimar el modelo original (sin ninguna corrección)
por mínimos cuadrados ordinarios. Tomar los errores
y calcular ̂ .
pw

2. Una vez calculado ̂ pw , aplicar MCO al siguiente


modelo transformado: ̂ pw

Yt  Wt  X   t
* * *
t ..(32)
Donde para t=1:
Yt*  Yt 1   2 , Wt*  1   2 , X t*  X t 1   2
y para t=2,........,n :
Yt*  Yt  Yt 1 , Wt*  1   , X t*  X t  X t 1
vi) Procedimiento de dos etapas e iterativo de Prais-Winsten
El proceso podría repetirse hasta alcanzar la
convergencia al estilo de Cochrane-Orcutt. En
dicho caso el recibe el nombre de proceso
iterativo de Prais-Winsten.
vii) Planteamiento para un estimador consistente de la matriz de covarianzas
con la presencia heterocedasticidad y autocorrelación (Newey-West)

Específicamente, paquetes econométricos como el


Econometric Views estima q a partir de la siguiente
relación: 2
 T 9
q  4  ..(33)
 100 
la variable q es el número de rezagos que se supone
determina la estructura autorregresiva del error.
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERIA ECONOMICA
22
20
18
16
14
8
12
6
10
4
8
2
0
-2
-4
-6
2 4 6 8 10 12 14 16 18 20

Residual Actual Fitted

Prof.: WILLIAM PARILLO M.


PUNO-PERU
METODOS PARA VERIFICAR LA
HETEROCEDASTICIDAD
1. Métodos Graficos.
2. Contraste de Golfeld – Quandt.
3. Contraste de Breusch – Pagan.
4. Contraste de White.
5. Contraste de Glesjer.
METODOS GRAFICOS
Es un método informal de deteccion.
 Primero es necesario realizar una regresion por
MCO y retener la serie de los residuos, estos
pueden dar una idea a priori del problema a
tratar.
 Dos tipos de graficos:
a) Línea de regresión de los residuos al
cuadrado frente a los valores estimados de la
variable dependiente. Si exite un patron
sistematico, posiblemente hay
hetorocedasticidad.
b) Línea de regresión de los residuos al
cuadrado frente al regresor causante de la
hetorocedasticidad.
METODOS GRAFICOS PASOS Y RESULTADOS
1. Estimar el modelo por MCO y obtener una serie
de residuos mínimo cuadráticos.
Instrucciones:QUICK/ESTIMATE EQUATION/PIB C EMPLEO
METODOS GRAFICOS
2. NOMRAR LA ECUACION: NAME/EQ1/OK
3. GENERAR LA SERIE RESIDUOS:
GENR R=RESID
GENR R2=R^2 Nota alt+94=^
GENR ABSR=ABS(R) VALOR ABSOLUTO DE R
GENR EMPLEO2=EMPLEO^2
METODOS GRAFICOS
4. GRAFICAR PBI CON EMPLEO: QUICK/GRAPHPIB
EMPLEO/SCATTER DIAGRAM
2500 La
dispersión
2000
aumenta a
medida
EMPLEO

1500

que
1000
aumenta el
500
PIB

0
0 2000000 4000000 6000000 8000000 10000000

PIB
METODOS GRAFICOS
5. Relación entre los residuos y la variable
explicatica.
QUICK/GRAPH/EMPLEO R/SCATTER DIAGRAM
QUICK/GRAPH/EMPLEO R2/SCATTER DIAGRAM
2.0E+12
2000000

1.5E+12
1000000

R2
0 1.0E+12
R

-1000000 5.0E+11

-2000000 0.0E+00
0 500 1000 1500 2000 2500 0 500 1000 1500 2000 2500

EMPLEO
EMPLEO

A valores elevados del empleo los residuos son mayores


METODOS GRAFICOS
6. En una escala normalizada: residuos y el
regresor.
QUICK/GRAPH/EMPLEO R/show options/Normaliza data
QUICK/GRAPH/EMPLEO2 R2/ show options/Normaliza data
QUICK/GRAPH/ABSR EMPLEO/ show options/Normaliza data
4 4

3
3

2
2
1
1
0

-1 0

-2 -1
2 4 6 8 10 12 14 16 18 2 4 6 8 10 12 14 16 18

R2 EMPLEO R2 EMPLEO2

A valores elevados del empleo los residuos son mayores


Contraste de Golfeld – Quandt.
Ho : Homocedasticidad: la varianza es constante en toda la
muestra
H1 : Heterocedasticidad: La varianza no esconstante en toda la
muestra
SCR2
F exp  Þ F( n  c ) / 2  k
Pasos: SCR1
1.Ordenar las observaciones por valores crecientes de la
variable su´puesta causante de la hetorocedasticidad,
variable empleo.
GENR T= @TREND(1) genera una serie de tendencia
La nueva serie toma valores correlativos empezando por el
cero. Servira para reordenar todas las variables una vez
realizado el contraste.
Contraste de Golfeld – Quandt.
Se procede a la recolocacion de todas las variables según
el orden creceinte de la variable que se supone causa
heterocedasticidad: PROCS/SORT SERIES/EMPLEO

Se obtienen 2 sub muestras y se corre 2 regresiones:


a) (n-c)/2 = 6 primeras
b) (n-c)/2 = 6 últimas ; donde c=n/3
QUICK/ESTIMATE EQUIATION/PIB C EMPLEO/SMPL 1 6
QUICK/ESTIMATE EQUIATION/PIB C EMPLEO/SMPL 13
18
Contraste de Golfeld – Quandt.
Contraste de Golfeld – Quandt.
Dividir los valores de las sumas de cuadrados
de residuos de las regresiones anteriores:
Genr =2.92E+128.04E+10
Calculo de la probabilidad a la derecha de este
punto bajo la hipotesis nula:
Genr
=@FDIST(36.3184079602,4,4)=0.00211566325
42
Puesto que la probabilidad a la derecha es menor
que un nivel de sig. De 0.05, se rechaza la
hipotesis de varianza constante
Contraste de Breusch – Pagan.
Antes de continuar es necesario volver a conolcar las series en su
posicion original:
PROCS/SORT SERIES/T
Ho : Homocedasticidad: la varianza es constante en toda la
muestra
H1 : Heterocedasticidad: La varianza no esconstante en toda
la muestra SCE
2
X EXP  Þ X P 1
2
2
Donde SCE es la suma de cuadrados explicados de una regresion
auxiliar en la que la variable dependiente(G) es el cociente entre el
cuadrado de los residuos de la estimacion del modelo original(R2) y
la estimacion maximo verosimil de la varianza de las perturbaciones,
esto es: 2 2
ei ei
i  y ˆ MV
2

ˆ MV
2 n
Contraste de Breusch – Pagan.
Para calcular el estimador maximo verosimil
se efectua la siguiente operación en la linea
de comandos:
Genr Mver=4.53E+12/18=251666666667
Calcular la variable Gy luego estimar la
regresion:
Genr G=R2/251666666667
QUICK/ESTIMATE EQUIATION/G C EMPLEO
Contraste de Breusch – Pagan.
De esta regresión se necesita el valor de la
suma de cuadrados explicados.
Para obtenerla se utiliza la suma de
cuadrados residuales y el coefiente de
determinacion:
SCR
SCT 
1 R 2

SCE = SCT –SCR


SCT = (18-1)*......=75.161
SCE = 15.18957
Estadistico experimental:
SCE/2 = 7.59
Contraste de Breusch – Pagan.
La probabilidad a la derecha de este
punto bajo la hipotesis nula es:
Genr CH=@CHISQ(7.59478512075,1)=
0.00585373
A un nivel de confianza del 95% se
rechaza la hipotesis nula de vrainaza
constante para toda la muestra.
Prueba general de
heterocedasticidad de White
La ventaja es que la prueba White no se basa en el
supuesto de normalidad y es fácil de implementar.
Pasos:
1. Estimar el modelo original por MCO, ignorando la
posible herocedasticidad.
Pasos
2. Estimar una regresión del cuadrado de los
residuos mínimo - cuadrático anteriores, sobre
una constante, los regresores del modelo
original, sus productos cruzados de segundo
orden.

3. Obtener nR2, esto es, el tamaño de la muestra, n,


multiplicado por el R2, de igual forma obtener el
valor critico Ji cuadrado con sus grados de
libertad(en este caso es 5 g.l.)
Pasos
4. Realizar la prueba de hipótesis: se realiza de la
siguiente forma:
Hipótesis nula Ho: Ausencia de heterocedasticidad
o no existe hetorecedasticidad o
no hay heterocedasticidad o
homocedasticidad
Hipótesis alterna H1: No Ho: Existe heterocedasticidad
Pasos
La existencia de heterocedasticidad, se basan las siguientes
reglas de decisión:
- Si nR 2 < X 2 g. l., entonces, no existe heterocedasticidad o no
hay heterocedasticidad. Es decir no se rechaza Ho. O
aceptamos Ho: No rechazamos la hipótesis nula de ausencia
de heterocedasticidad en la regresión original, por lo tanto la
regresión no posee heterocedasticidad.
- - Si nR 2 > X 2 g. l., entonces, existe heterocedasticidad. Es
decir se rechaza Ho.o aceptamos H 1.
Donde: nR 2 = valor Ji cuadrado
X 2 g. l. = Valor ji cuadrado critico al nivel de
significancia seleccionado. Los grados de libertad es
P-1, es decir el número de regresores excluyendo la
constante.
INTERPRETACION
El estadístico Ji cuadrado se obtiene: nR2 =
81*0.112135 = 9.08293,
El valor ji cuadrado(X2g.l.) critico al 5% para 5 grados
de libertad es 11.1, el valor critico al 10% es 9.24, y el
valor critico al 25% es 6.63.
Dado que nR2 = 9.08293 es menor que el valor ji
cuadrado(X2g.l.) critico al 5%, (11.1), se acepta la
hipótesis nula de ausencia de heterocedasticidad,
por lo que se puede concluir que no existe
heterocedasticidad.

Das könnte Ihnen auch gefallen