Beruflich Dokumente
Kultur Dokumente
K. Frisch, 1969 Tinbergen, 1969 Samuelson, 1970 Kuznets, 1971 Hicks, 1972 Arrow, 1972
Edición 2010
The Bank of Sweden Prize in
Economic Sciences in Memory of Alfred Nobel
Leontief, 1973 Myrdal, 1974 Hayek, 1974 Koopmans, 1975
Kantorovich, 1975 Friedman, 1976 Ohlin, 1977 Meade, 1977 Simon, 1978 Lewis, 1979
MANUAL DE
ECONOMETRÍA
2°Parte
Schultz, 1979 Klein, 1980
Tobin, 1981 Stigler, 1982 Debreu, 1983 Stone, 1984 Modigliani, 1985 Buchanan Jr, 1986
Solow, 1987 Allais, 1988 Haavelmo, 1989 Sharpe, 1990 Miller, 1990 Markowitz, 1990
Selten, 1994 Lucas Jr., 1995 Mirrlees, 1996 Vickrey, 1996 Merton, 1997 Scholes, 1997
Sen, 1998 Mundell, 1999 Heckman, 2000 McFadden 2000 Akerlof 2001 Spence 2001
Stiglitz, 2001 Kahneman, 2002 Smith, 2002 Engle III, 2003 Granger, 2003 Kydland, 2004
Prescott, 2004 Aumann, 2005 Schelling, 2005 Phelps, 2006 Hurwicz, 2007 Maskin, 2007
?
Myerson, 2007 Krugman, 2008 Ostrom, 2009 Williamson, 2009 2010 MEDAL
12.1. Introducción
Para poder trabajar con este modelo hemos de suponer una forma
funcional para f , por ejemplo una relación lineal, y escribirlo como:
C α βR
Donde
P , es la producción, L es el factor trabajo y K el capital.
Si suponemos que la función de producción de la empresa es de la
forma COBB–DOUGLAS:
B G
P A L K
El primer paso para lograr los fines que nos planteamos al realizar un
trabajo econométrico, es formular un modelo que, aún siendo una
representación simplificada de la realidad, permita reproducir los
patrones de comportamiento entre las variables económicas.
Normalmente, la teoría económica no suele dar muchas indicaciones de
cuál es la forma funcional del modelo y se han de realizar supuestos al
respecto.
Predicción.
Períodos Y X2 X3 Xk
1 y1 x 21 x 31 x k1
2
t yt x 2t x 3t x kt
T yT x 2T x 3T x kT
Establezcamos también que existe una relación lineal entre la variable
que queremos explicar Yt con k 1 variables independientes
X j , j 2, , k
Yt β1 β2 X 2t βk X kt t ; t 1, 2, ..., T [1]
En este modelo
β β
1
β
2 k
β ´ , es el vector de coeficientes de regresión,
T es el tamaño muestral.
y 1 1 2 x 21 3 x 31 k x k 1 1
y x x x
2 1 2 22 3 32 k k2 2
y 3 1 2 x 23 3 x 33 k x k 3 3 [2]
y T 1 2 x 2T 3 x 3T k x kT T
513
Esta relación es lineal en los parámetros, pero no tiene por que ser lineal
en las variables. El modelo se puede escribir en notación matricial en
cuyo caso se representa de la siguiente forma:
y X β ε [3]
Tx1 Txk kx1 Tx1
y1 1 x 21 x 31 x k1 β1 1
y 2 1 x 22 x 32 x k2 β2 2
y X β ε
.
y 1 x 2T x 3T x kT β
T k T
4 1 2 1 ε1
1 ε
7
3 3
β1 2
ε ε 3
y 3 X 1 1 5 β β2
9 1 5 1 β3 ε 4
17 1 ε5
9 2
y β1 x β2 x βk ε
2 k
Esto es, y Xβ ε
E t 0, t 1, 2, , T [4]
1 E ( 1 ) 0
E( )
2 2 0
E ε E 3 E ( 3 ) 0 0
E ( ) 0
T T
E ε 2 σ 2 , t 1, 2, , T [5]
t
E ε t , ε s 0, t S [6]
ε
1
ε2
V(ε) E εε' E ε ε ε
3 1 2 3
ε ε
T
ε
T
ε2 ε ε ε ε
E ε2
ε ε 1
E ε1ε3 E ε1εT
Eε ε
1 2
1 1T
E ε ε E ε ε
1 2 1 3
ε ε ε ε E ε2 ε1 E ε
2 2
ε ε ε
21 2 2 3 2 T 2 2 3 2 T
E
ε ε
31 3 2
ε ε ε
3
2
ε ε
3 T
Eε ε E ε3ε2 E ε32 E ε3εT
3 1
2
εT ε1 εT ε2 εT ε3 εT E ε ε
T 1
E εT ε2 E εT ε3 2
E ε
T
516
V ε1
Cov ε ε
1 2
Cov ε ε
1 3
σ 2ε
Cov ε ε
1T
0 0 0
Cov ε ε Cov ε ε 0
2
Cov ε ε Vε σ 0 0
2 1 2 2 3 2 T ε
Cov ε3 ε1
Cov ε ε
3 2
Vε
3
Cov ε ε
3 T
0
0 σ
2
ε
0
[7]
Cov εT ε2 Cov εT ε3
2
Cov ε ε
Vε 0 0 0 σ
ε
T 1 T
ε ~ N 0, σ 2I [8]
εT
La parte sistemática: Xβ
La parte aleatoria: ε
Yt ,
X 2t , , X kt , t 1, 2, , T
12.3. Estimación
T T T
T β̂ β̂
1 2 X 2t β̂ k X kt Yt
t 1 t 1 t 1
T T T T
X 2t
2
β̂
β̂
1
β̂
2 X
2t k
X X
kt 2t Yt X 2t
t 1 t 1 t 1 t 1
[10]
.......... .......... .................... .......... .................... .......... ....
T T T T
2
β̂
1 X kt β̂2 X 2t X kt β̂ k X kt Yt X kt
t 1 t 1 t 1 t 1
…continuación
Tabla 12.2.
X2 X3 Y X 2Y X 3Y X2 X3 X2
2
X3
2
Ŷ eYYˆ
2 1 4 8 4 2 4 1 3,95 0,05
3 3 7 21 21 9 9 9 6,36 0,64
1 5 3 3 15 5 1 25 3,33 -0,33
5 1 9 45 9 5 25 1 9,40 -0,40
9 2 17 253 34 18 81 4 16,97 0,03
20 12 40 230 83 39 120 40 40 0
X X βˆ
'
MCO X'y 0
T
de cuadrados de los desvíos, esto es, Min et2 ; ó, lo que es
t 1
lo mismo, en términos matriciales: e' e (y y
ˆ )' (y y
ˆ ) Mín
ˆ
Min y Xβ ' y Xβˆ Min y' y y' Xβˆ (Xβˆ )' y (Xβˆ )' Xβˆ [11]
β β
ˆ (Xβ
De donde, y' y y' Xβ ˆ )' y (Xβ
ˆ )' Xβ
ˆ y' y 2β
ˆ ' X' y β
ˆ ' X' Xβ
ˆ
ˆ (Xβ
Debido a que y' Xβ ˆ )' y
Entonces
ˆ ' X' y β
Min( e' e ) Min y' y 2β ˆ ' X' Xβ
ˆ [12]
De esta forma,
e' e ˆ 0 , de donde
2X' y 2X' Xβ
ˆ
β
ˆ 0
X' y X`Xβ [13]
ˆ
β '
MCO X X 1
X'y [14]
520
2 e' e
2X`X 0 [15]
β ˆ2
c Xd [16]
Tx1 Tx1
T T T
x 2t x 3t x kt
T t 1 t 1
t 1
T T 2 T T ˆ 1
x 2t x 2t x 2t x 3t x 2t x kt ˆ
t 1 t 1 t 1 t 1 ˆ 2
ˆ1 ˆ 2 ˆ 3 ˆ k T x T x x
T 2
x 3t
T
x 3t x kt
3
( 1xk ) t 1 3t t 1 3t 2t
t 1 t 1
ˆ
T T T T 2 ( kxk1)
t x x x 2t x kt x 3t
1 kt t 1 kt t 1
x kt
t 1
( kxk )
se aplica la regla general que establece que “la derivada de una forma
cuadrática respecto a cada uno de los elementos del vector de dicha
forma, es igual a dos veces el producto de la matriz de la forma
cuadrática por el vector de la misma”, en nuestro caso:
521
T T T
ˆ 1 ˆ 1T ˆ 2 x 2t ˆ 3 x 3t ˆ k x kt
t 1 t 1 t 1
T T 2 T T
ˆ 2 ˆ 1 x 2t ˆ 2 x 2t ˆ 3 x 2t x 3t ˆ k x 2t x kt
t 1 t 1 t 1 t 1
T T T 2 T
ˆ 3 ˆ 1 x 3t ˆ 2 x 3t x 2t ˆ 3 x 3t ˆ k x 3t x kt
t 1 t 1 t 1 t 1
T T T T 2
ˆ k ˆ 1 x kt ˆ 2 x kt x 2t ˆ 3 x kt x 3t ˆ k x kt
t 1 t 1 t 1 t 1
Reagrupando términos
ˆ Tˆ 2 2 ˆ ˆ T x 2 ˆ ˆ T x 2 ˆ ˆ T x
ˆ ' X' X β
β 1 1 2 2t 1 3 3t 1 k kt
t 1 t 1 t 1
2T 2 T T
ˆ 2 x 2t 2 ˆ 2 ˆ 3 x 2t x 3t 2 ˆ 2 ˆ k x 2t x kt
t 1 t 1 t 1
2 T 2 T
ˆ 3 x 3t 2 ˆ 3 ˆ k x 3t x kt
t 1 t 1
2 T 2
ˆ k x kt
t 1
522
T T T T
x 2t x3t x kt
t 1 t 1 t 1 ˆ
T T 2 T T β1
x 2t x 2t βˆ
x 2t x3t x 2t x kt
t 1 t 1 t 1 t 1 ˆ2
2 T
x
T T 2 T
β3 [19]
x 2t x3t x3t x3t x kt
t 1 3t t 1 t 1 t 1
βˆ
T T T T 2 k
t x
1 3t
x x x x
t 1 2t 3t t 1 3t kt
x kt
t 1
12 39 40
0.01 ˆ 1
ˆ
β 1.82 ˆ 2
MCO
0.30 ˆ 3
T
1. et 0 [20]
t 1
E ( Y / X ) 1 2 X 2t
xt X
Figura 12.1. Líneas de regresión poblacional y muestral
T et
et 0e t 1
T
0
t 1
A su vez, los demás elementos establecen que la correlación muestral
entre los residuos y cada variable es cero.
Yˆ X βˆ
t t
β̂
1
β̂2
Esto es, Ŷt [ 1 X X X ] β̂
2t 3t kt 3
β̂k
βˆ (X' X) 1 X' y
Utilizando [3]
ˆ β (X' X) 1 X' ε
β
E (βˆ ) β [25]
ˆ E( β
β ˆ )β
ˆ β β (X' X) 1 X' ε β
ˆ ) E {[β
V(β ˆ β][β
ˆ β]' }
527
ˆ β (X' X) 1 X' ε
β
De modo que,
βˆ β (X' X) 1 X' ε
Entonces:
V (βˆ ) E (X' X) 1 X' ε (X' X) 1 X' ε
E (β*) β PXβ
Si PX 0
E (β*) β
El cálculo de la varianza de β * es
Donde
β * β β (X' X) 1 X' ε PX
β Pε β
0
Manteniendo la restricción PX 0
β * β (X' X) 1 X' ε Pε
Reordenando
β * β [(X' X) 1 X'P]ε
V(β*) E X´X X´ P εε´ X X´X P´
1 1
Introduciendo el operador esperanza
Por lo tanto,
ˆ)
V(β*) ε2 (X' X) 1 PP' V(β [28]
ν c' β
1x1 1xk kx1
1
Entonces, [ 0 1 0 0 ] 2
2
k
β.
Pero también, si c' 1 X 2,n 1 X 3,n 1 X k ,n 1
Entonces, E (Yn 1 )
E ( ) a' Xβ a' E ( )
a' Xβ
c' β a' X c'
Además,
V ( ) E {[ E ( )] 2 }
E {[ a' Xβ a' a' Xβ ] 2 }
E {( a' )( a' )' }
E { a' ' a } a' E ( ' )a
Por tanto,
V ( ) 2 a' a
2a 2Xλ 0 a Xλ 0
a
2(X' a c) 0 X' a c 0
λ
De donde,
531
a Xλ X' Xλ c λ (X' X) 1 c
a X(X' X) 1 c
a' y
c' (X' X) 1 X' y
c' βˆ
Cada ̂ i es ELIO de i
e' e
S2 [29]
T k
ˆ
Vβ 2 '
ε X X
1
[30]
V
ˆ
ˆ β S
2
X ' X 1 [31]
1
5 20 12 1.79 0.18 0.36
ˆ ) 0.34 20 120 39
ˆV(β 0.34 0.18 0.03 0.02
12 39 40 0.36 0.02 0.11
0.61 0.06 0.12 V̂ ( ˆ 1 ) Cov ( ˆ 2 ˆ 1 ) Cov ( ˆ 3 ˆ 1 )
0.06 0.01
0.01 Cov ( 2 1 ) V̂ ( ˆ 2 )
ˆ ˆ Cov ( ˆ 3 ˆ 2 )
0.12 0.01 0.04 Cov ( ˆ 3 ˆ 1 ) Cov ( ˆ 3 ˆ 2 ) V̂ ( ˆ 3 )
T
SCR et2 e' e [32]
t 1
e y X(X' X) 1 X' y
e My
e My M(Xβ ε) [33]
resolviendo
e MXβ Mε
e Mε [34]
E ( e' e ) E ( ε' Mε )
E( e' e ) E [ tr ( ε' Mε )]
E ( e' e ) E [ tr ( Mεε' )]
534
E ( e' e ) tr ( M ε2 IT )
De modo que
E ( e' e ) ε2 (T k ) [37]
e' e
De donde se observa inmediatamente que: S 2 , es un estimador
T k
insesgado de ε2 .
Ejemplo 12.7. Se define una variable aleatoria X como las unidades que constituyen
la demanda de los productos de la Empresa A durante el año próximo. Se suponen
posibles e igualmente probables cuatro niveles de venta: 10, 12, 15 ó 18 unidades.
Como las probabilidades de estos cuatro resultados posibles deben sumar 1, la
distribución de probabilidades de X está dada por:
P ( X 10) 1
4
P ( X 12) 1
f (x) 4 (1)
P ( X 15) 1
4
P ( X 18) 1
4
(1) indica que la probabilidad de que la demanda sea de 10, 12, 15 ó 18 unidades es
cada una igual a ¼.
P ( X 10) 1
4
P ( X 12) 1 2
F (x) (2)
P ( X 15) 3 4
P ( X 18) 1
(2) dice que hay una probabilidad de ¼ que la demanda sea igual o menor a 10
unidades, una probabilidad de ½ de que la demanda real sea menor o igual a 12
unidades, una probabilidad de ¾ de que la demanda sea menor o igual a 15 unidades
y una probabilidad cierta (igual a 1) de que la demanda sea menor o igual a 18
unidades.
3/4
1/2
1/4 1/4
0
5 10 15 20 X 5 10 15 20 X
537
donde,
x i representa cualquier valor posible de X, y
f ( x i ) es la probabilidad de que X x i .
Es decir, E ( X ) es un promedio ponderado de todos los valores posibles
de X, donde las ponderaciones son las respectivas probabilidades de
estos valores.
V ( X ) x i E ( X )2 f ( x i ) [39]
i
V( X )
x E( X )2 f ( x )dx [41]
0.50
-4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4
Pascal
k 1 r k r r rq
P ( X k ) p q ; k r , r 1,...
r 1 p p2
Hipergeomé-
r N r N n
trica np npq
k n k N 1
P ( X k ) ; k 0,1,2...
N
n
Multinomial npi npi q i
n! p 1n1 p nk
P ( X 1 n1 , X 2 n 2 ,... X k n k )
n1 ! n 2 ! n k i 1,2 k
b. Continuas
Normal 1 x
2
f( x)
1
e 2
; x
2
Exponencial
f ( x ) e x ; x 0 1 1
2
Gamma r r
f( x) ( x ) r 1 e x ; x 0
( r ) 2
E ( X 1 ) 1
E ( X )
μ E( x ) 2
2 [42]
E ( X n ) n
541
Si definimos el vector x
X1 μ1
X μ
2 2
X μ :
:
X T μn
( X 1 1 )
( X 2 2 )
E [( X 1 1 )( X 2 2 )( X n n )]
( X n n )
E ( X 1 μ1 ) 2 E ( X1 μ1 )( X 2 μ 2 ) E ( X 1 μ1 )( X n μn )
E ( X 2 μ 2 )( X1 μ1 ) E ( X 2 μ2 ) 2 E ( X 2 μ 2 )( X n μn )
= [43]
E ( X n μn )( X1 μ1 ) E ( X n μn )( X 2 μ 2 ) E ( X n μn ) 2
Vemos que los elementos de esta matriz son las varianzas y covarianzas
de las variables X i , teniendo en cuenta las definiciones dadas, la matriz
de varianzas y covarianzas que puede representarse como:
σ12 Cov X 1 X 2 Cov X 1 X T
Cov X 2 X1 σ 22 Cov X 2 X T
Cov XT X1 Cov X T X 2
2
σn
Proposición 12.5.1: Para que Σ sea definida positiva las X deben ser
linealmente independientes.
Demostración: Definamos una variable aleatoria escalar Y como una
combinación lineal de las X ,
Y (x μ )' c [45]
E ( Y 2 ) c' Σc [46]
1
La E(Cte)=Cte => E(Cte2)=Cte2 por lo tanto si Cte=0 => E(Cte=0)=0. De esta forma E(Y2)=0 => Y2=0 por lo
tanto, Y=0
2
Si para un conjunto de parámetros , no todos nulos, pertenecientes a un campo numérico F tenemos que si se
cumple la siguiente combinación lineal1 a1 + 2 a2 + ... + n an = 0 se dice que los vectores a1, a2,..., an son
LD dentro de F, salvo que la igualdad se cumpla solo y solo si todos los i (i=1, 2, ...,n) son iguales a cero.
543
p(x ) p( X 1 , X 2 , , X n )
1
1 [ (x μ)'Σ1(x μ)]
p( x ) 1/ 2
e 2 [47]
( 2 ) n / 2 Σ
donde:
1
2
n
x ~ N( μ; Σ )
Entonces se dice que los vectores son LI. Esta definición se aplica también cuando el número de vectores es uno,
de modo tal que un único vector a1 es independiente si a1 0 y dependiente si a1=0, es decir, es el vector nulo.
En el caso que nosotros analizamos se cumple esta última condición ya que cada variable desvío es nula y
544
Casos especiales
a) Cuando n=1,
Σ 1n 1 11 E [( X 1 1 )( X 1 1 )] E [( X 1 1 ) 2 ] 12 2 [48]
y [47] se transforma en
1 2]
[ (x μ)
1 2 2
p( X ) e [49]
( 2 )1 / 2
b) Cuando n=2,
p( x ) p( X 1 , X 2 ) [50]
Σ se convierte en
conforma un vector nulo: x (x μ)' 0 ; esto es,[x1, x2, ...,xn]=[(X1-µ1), (X2-µ2), ...(Xn-µn)]=[0, 0, ...,0]
donde xi es la variable desvío.
545
2 12
1 2
21 2
donde 12 21 covarianza
12
[51]
[ 11 22 ] 1 / 2
entonces
σ12 ρσ11σ 22
1
2
12 12 22 1 2
σ ρσ1σ 2
Σ 11 [52]
ρσ 1σ 2 σ 22
El determinante de la matriz Σ es
Σ σ11σ 22 (1 ρ 2 )
Donde
1
1 2 1 2 X 1 1
A X 1 1 X 2 2 1
2 2 1 22 X 2 2
546
1
Trabajemos con el exponente A ; veamos a qué es igual
1
1 12 1 2 1 1
Adj 2 2 Adj
2 1 22 1 2 2 12 22
reordenando
1 1 22 1 2
2 2
1 2 1 2 2 1 12
1
Reemplacemos Σ por su igual
1 1 22 1 2 X 1 1
A X 1 1 X 2 2
2
12 22 1 2 2 1
12 X 2 2
1
A
2 12 22 1 2
X 1 1 22 X 2 2 1 2 X 1 1 1 2 X 2 2 12
X 1 1
X 2 2
A
1
X 1 1 22 X 2 2 1 2 X 1 1
2 12 22 1 2
X 1 1 1 2 X 2 2 12 X 2 2
1 X 1 1 2 22 X 1 1 X 2 2 1 2
A 2 2
2 1 2 1 2
X 1 1 X 2 2 1 2 X 2 2 2 12
X
1
1 22 2 1 2 X 1 1 X 2 2 X 2 2 12
2 2
A
2 12 22 1 2
1
547
1
Introduciendo
12 22
1 X 1 1 2 22 2 1 2 X 1 1 X 2 2 X 2 2 2 12
A
2 1 2
12 22 12 22 12 22
1 X 1 1 2 2 X 1 1 X 2 2 X 2 2 2
A
2 1 2
12 1 2 22
1 X 2 X 1 X 2 2 X 2 2
2
A
1 1
2 1
2 1 2 1 1 2
2
Reemplacemos en
1 1
p(x ) p( X 1 , X 2 ) exp
2πσ1σ 2 1 ρ
2 2(1 ρ 2 )
[53]
X μ 2 X1 μ1 X 2 μ 2 X 2 μ 2
2
1 1 2 ρ
σ1 σ
1
σ
2
σ
2
Q (x μ)' Σ 1 (x μ) [54]
n n (X i i )( X j j )
Q [55]
j1i1 ij
11 0 0
0 0
Σ I
2 22
[56]
0 0 nn
donde:
n es el número de variables
11 22 nn 2
Σ
1/ 2
σ
2n 1/ 2
σ 2 n/2
1 1
Σ 2
I
σ
con lo que
[ 1 (xμ )'(xμ )]
e 2
1 2
p( x ) [57]
( 2 2 ) n / 2
n
1 1
p(x ) p( X 1 , X 2 , X n ) 2 1/ 2
exp 2 ( X i μi ) 2
i 1 ( 2πσ ) 2σ [58]
p( X 1 ) p( X 2 ) p( X n )
11 0 0
B 0 22 0
0 0 33
Donde:
3 es el número de variables
σ11 σ 22 σ 33 σ 2
ij 0, i j , lo cual indica que el coeficiente de correlación ij
es cero cuando i j .
El determinante es
B σ 2*n B σ11σ 22σ 33 σ 2σ 2σ 2 σ 2*3 σ 6
La inversa es
1
B 1 I
σ2
Continúa…
3
No se puede generalizar este resultado a cualquier tipo de distribución y deberá tenerse presente que las
correlaciones que deben ser cero son las poblacionales y no las muestrales
550
continuación
σ2 2
0 0
0
σ2
2
0 σ I
4
0
0
σ2
2
De modo que:
1 4 1
B 1 6
σ I 2I
σ σ
Quedan demostradas las particularidades que tiene la matriz
Σ 0
Σ 11 [59]
0 Σ 22
La forma de [59] significa que todas y cada una de las variables del
conjunto X 1 , X 2 , , X r están incorrelacionadas con todas y cada una de las
variables del conjunto X r 1 , X r 2 , , X n .
Σ Σ 11 Σ 22 [61]
4
Matriz simétrica A=A' (sólo se cumple para matrices cuadradas: m=n). Matriz no singular es aquella que admite
3
inversa y esta es única si la matriz es cuadrada. Matriz idempotente A=A2=A =...=An.
551
1 1
p( x ) 1 2
exp 2 (x 11 μ 11 )' Σ -1
11 (x11 μ 11 )
(2 ) 11
/
r /2
[62]
1 1
x 1/2
exp
2 22 (x μ 22 )' Σ -1
22 (x 22 μ )
22
(2 )
n r / 2
22
es decir,
p( x ) p( x 1 )p( x 2 ) [63]
11 12 13 1n
X
21 22 23 2 n 1
X
X 1 X2 X3 X n 31 32 33 3n 2
Xn
n1 n 2 n3 nn
X1
X
σ11 X1 σ 21 X 2 σ 31 X 3 ... σ n1 X n σ1n X 1 σ 2 n X 2 ... σ nn X n 2
Xn
x' Σx 11 X 12 2 12 X 1 X 2 2 13 X 1 X 3 2 1n X 1 X n
22 X 22 2 23 X 2 X 3 2 2n X 1 X n
[64]
33 X 32 2 3n X 3 X n
nn X n2
ij , para todo i=1, 2, ...n y para todo j=1, 2, ...n, son los elementos
de la matriz de la forma cuadrática, en nuestro caso
E [( X i i )( X j j )] ij
Propiedades:
a) Si x' Σx 0 x 0 , se dice que la forma cuadrática es definida
positiva y se dice que Σ es una matriz definida positiva. (ver proposición
12.5.1)
ii ij ik
ii ij
σ ii , , ji jj jk , , Σ
ji jj ki kj kk
11 12 13
11 12
Σ1 σ 11 , Σ 2
21 22 , Σ 3 21 22 23 , , Σ n Σ [65]
31 32 33
553
Entonces
Σ x r
x' Σx [x'r 0] r x'r Σr x r
0
x' Σx 0
se deduce que
x' r Σr x r 0
Así pues, dadas las condiciones anteriores, todas las raíces de Σr son
positivas, de forma que
Σr 0
Σ1 0, Σ 2 0, Σ 3 0, , Σ 0 [66]
5
Los valores característicos i de la matriz Σ , son las raíces del polinomio que se obtiene al resolver el sistema
(Σ λI)x 0 . Si la matriz Σ λI no es singular, la única solución es la trivial x 0 . Por lo tanto, para que
una solución no trivial exista, la matriz debe ser singular o, en otras palabras, el siguiente determinante: Σ - I
debe ser cero. Este determinante se conoce como la ecuación característica de la matriz Σ . Esto da un polinomio
en λ . Cada raíz o valor característico i se puede sustituir en (Σ λI)x 0 , con lo que se obtendrán los
correspondientes vectores característicos.
554
Σx i λ i x i
x' i Σx i λ i x' i x i λ i
x c1x 1 c 2 x 2 c n x n
Así pues,
x c1x 1 c 2 x 2 c n x n
c11x 1 c 2 2 x 2 c n n x n
puesto que
0 i j
x'i x j ij i , j 1, 2, , n
1 i j
Σ PP' [67]
6
Los vectores ortogonales cumplen con la condición que x' x I
555
11 12 13
Ejemplo 12.10 Supongamos Σ 21 22 23 y hagamos el
31 32 33
calculo del determinante de Σ λI
11 12 13 0 0
21 22 23 0 0
31 32 33 0 0
Donde
ij son constantes
son incógnitas, representan los valores característicos
11 22
11 22 2 33 12 23 31 21 32 13
13 22 13 31 12 21 33 12 21 32 23 11 32 23
Veamos que
21 12
31 13 Entonces σ12σ 23σ 31 σ 21σ 32σ13
32 23
σ
σ 22σ 33 σ11 λσ 33 σ 22 λσ 33 λ2σ 33 σ11σ 22 λ σ11 λ2 σ 22 λ2 λ3
11
Continúa…
556
continuación
Agrupando de acuerdo a la potencia de
2 2 2
3 11 22 33 2 13 12 23 11 33 22 33 11 22
11 22 33 2 21 32 13 13 22 12 33 32 11
2 2 2
Esta última expresión es el determinante de Σ λI
α σ11 σ 22 σ 33
Definamos β σ13 σ12 σ 23 σ11σ 33 σ 22σ 33 σ11σ 22
2 2 2
γ σ11σ 22σ 33 2σ 21σ 32σ13 σ13 σ 22 σ12 σ 33 σ 32 σ11
2 2 2
De modo que
Σ I 3 2
donde
λ1 0 0
0 λ2 0
D1/2 [71]
0 0 λn
Sustituyendo
Σ XDX XD1 2 D1 2 X XD1 2 XD1 2
Habíamos dicho que Σ PP entonces quiere decir que P XD1 2 siendo P
no singular
sustituyendo en [69] se obtiene:
se concluye que
P XD1/2 [72]
donde, x Py
x 0 sí y solo sí y 0
a) Supongamos que
x ~ N(0, I)
X 12 X 22 X n2
~ χ 2 (n)
2
2
2
1
es decir, x' x ~ χ 2 (n)
2
o lo que es lo mismo,
x ~ N(0, Σ)
y P 1x
De acuerdo a [76]
Q' AQ D [78]
1
1
r términos = rango(A)
1
0
n-r términos
0
Entonces:
E Y E Q X Q E X 0
V Y E Q X Q X E Q XX Q Q E XX Q Q IQ Q QI
Al ser Q ortogonal, es decir vectores LI,
Q Q 1 Q Q Q 1Q I
Por esto
V ( y) I [79]
donde
Qy x
QAQ D
De modo que
Por lo tanto,
x' Ax ~ χ 2 (r ) [80]
AB BA 0 [81]
Si existe correlación nula entre cada una de las variables del vector
Ax y las del vector Bx entonces se distribuirán independientemente
una de otra y, por lo tanto, cualquier función de un conjunto de
variables, tal como x' Ax se distribuirá independientemente de
cualquier función del otro conjunto, tal como x´Bx . Las covarianzas
entre las variables de Ax y de Bx vendrán dadas por
Estas covarianzas (y, por lo tanto, las correlaciones) serán todas cero
siempre y cuando AB 0 .
563
LA 0 [82]
ε ~ N( 0, ε2IT )
ε1
ε
1 1
f (ε) p 2 exp[ 2 ε' ε] [83]
(2π ) (σ ε )
T /2 2 T /2
2σ ε
εT
donde:
11 0 0
0 0
Σ I
2 22
0 0 TT
11 22 TT 2
Σ 2T ; Σ
1/ 2
2T
1/ 2
2
T/2
y Σ 1
1
I, con lo que se
2
obtiene la función mostrada.
565
En [83],
1
2
σε
ε' ε puede expresarse como ε' ε2IT
1
ε , el cual define una
12 22 T2
2 2 2
12 22 T2
~ T2
2
2
2
es decir, la forma cuadrática ε' ε2IT
1
ε ~ T2
e' e ε' Mε
ε' Mε ~ χT2 k
ε' Mε e' e
~ T2k [84]
ε2 ε2
1
f ( ε ) ( 2 ) T / 2 ( ε2 ) T / 2 exp[ ε' ε ]
2 ε2
T
1
2
L ( 2 ε2 ) T / 2 exp[ ( y t X 't β ) 2 ]
2 ε t 1
1
L ( 2 ε2 ) T / 2 exp[ (y Xβ )' (y Xβ )] [85]
2 ε2
y t X 't β ε t
Encontramos
567
t t
E( y ) E ( Xβ ε ) Xβ E ( ε ) Xβ
V( y ) E [( y Xβ )( y Xβ )' E ( εε' ) 2 I
t ( y t X 't β )
g( y ) f ( ) J( y ) f ( ) f ( y t X 't β )
y t y t
T T 1
ln L ln 2 ln ε2 (y Xβ )' (y Xβ )
2 2 2 ε2
ln L 1
X' (y Xβ ) 0
β 2 ε2
ln L T 1
( y Xβ )' (y Xβ ) 0
ε2 2 ε2 2 ε4
ˆ
β '
MV X X 1
ˆ
X'y β MCO
568
e' e
ˆ MV
2
S2
T
2 ln L X' X 2 ln L X' X
2 con - E
ββ' ε ββ' 2
ε
2 ln L X' ε 2
con -E
ln L
β ε2 ε4 β 2 0
ε
2
2 ln L T ε' ε ln L T ; 2
con E ya que E( ' ) T
ε2
2
2 ε4 ε6 2 2 2 ε4
ε
ε
2 ln L 2 ln L 1 X'
2 2 ( X' X ) 4
ββ' ε β ε ε ε
2
2 ln L ln L X'
2 T '
6
2 2 ε 4
2 ε ε
4
β ε ( ε )
2
1
( X' X ) 0
ε2
1 X' ε
( X' X ) 2
ε 2
ε4 ( X' X ) T ε' ε X' ε
0
X' ε T
ε' ε ε2 2 ε4 ε6 ε4
ε4 2 ε4 ε6
1
( X' X ) 0
β 2
I 2 ε
ε T
0
4
2 ε
Y su inversa
ε2 ( X' X ) 1 0
β
I 1 2
2 ε4
ε 0
T
Los términos que están fuera de la diagonal principal son iguales a cero e
indican que β y ε2 se distribuyen independientemente.
ˆ ,ˆ 2 ) T ln 2 T ln e' e T
ln L( β
2 2 T 2
T
T T
ˆ ,ˆ ) ( 2 )
2
e' e 2
L( β 2
e 2
T
T
T
ˆ ,ˆ 2 ) ( 2 e )
e' e 2
L( β 2
T
T
ˆ ,ˆ ) 2 e
T
e' e 2
2 2
L( β
T
T
ˆ ,ˆ 2 ) constante e' e
L( β
2
ε2 ( X' X ) 1 0
β
I 1 2
2 ε4
ε 0
T
Por otra parte, a pesar de tener una varianza estimada sesgada, ésta
k
solo difiere de S 2 por el factor , ya que el estimador de máxima
T
verosimilitud esta sesgado hacia cero, como vemos a continuación
(T k ) 2 k
E ( ˆ MV
2
) 1 2 2
T T
k
Pero el factor desaparece en muestras grandes.
T
T 1 / 2 ( ˆ MV
2 d
2 )
N 0 k , 2 4
Donde T 1 / 2 ( ˆ MV
2
2 ) es una variable que representa convenientemente
la diferencia de medias de los dos estimadores de la varianza y que,
tomando esperanza matemática y varianza sobre la misma, cuando
T , la media tiende a cero y la varianza a 2 4 . Tomando esperanza
matemática,
571
E [ T 1 / 2 ( ˆ MV
2
2 )] T 1 / 2 E ( ˆ MV
2
2 ) T 1 / 2 [ E ( ˆ MV
2
) E ( 2 )]
k 2 k 2 k 2
T 1/ 2
[( 1 ) ] T
2 1/ 2
[ ]
T T T
V [ T 1 / 2 ( ˆ MV
2
2 )] (T 1 / 2 ) 2 V ( ˆ MV
2
2 ) T [ V ( ˆ MV
2
) V ( 2 )]
4
T[2 ] 2 4
T
Entonces, cuando T ; T 1 / 2 ( ˆ MV
2
2 ) N 0 k , 2 4
Definiendo ahora,
k k
zT 1 T 1 / 2 ( ˆ MV
2
2 ) 1/ 2 2 ,
T T
k
4 k
1 N 0 k ,2 1 / 2
2
T T
k k
Pero, y 1/ 2 desaparecen a medida que T , por lo que la
T T
distribución límite de zT también es N 0 k , 2 4 .
Por otra parte, se puede demostrar que centrando convenientemente la
variable S 2 , obtenemos
zT T 1 / 2 ( S 2 2 ) ~ N( 0 k ,2 4 ) (demuéstrelo)
Predicción
el horizonte de predicción
U t e ( W t pt ) e
donde:
Wt
, es el salario real
pt
573
Yt ln U t
Wt
X t ln
pt
Quedando,
Yt X t
Número de
Muestra
muestras X Y sX sY r XY
1 600 5 12 2 3 0.6
2 400 7 10 3 4 0.7
Y X
en el que las se hallan distribuidas normal e independientemente con media cero y
varianza constante, ofrece los siguientes datos:
574
Y 21.9 (Y Ŷ ) 2
86.9 ( X X )(Y Y ) 106.4
X 186.2 (X X ) 2
215.4
a) Estimar y
b) Calcular sus errores estándar.
Año 35 36 37 38 39 40 41 42 43 44 45 46
X, muerte de niños
60 62 61 55 53 60 63 53 52 48 49 43
menores de 1 año (000)
Y, consumo de cerveza
23 23 25 25 26 26 29 30 30 32 33 31
(barriles)
más intuitivo que otras alternativas, pero también cuenta con el potencial de un
entorno programable para usuarios avanzados, como son S o R (versión
freeware de S).
Una alternativa freeware interesante es
“gretl”, un paquete econométrico con
interface usuario gráfica
(http://gretl.sourceforge.net/gretl_espano
l.html)
En el escritorio de la PC, seguramente se
encuentra un icono como el de la figura, y
tras abrirlo, una ventana con fondo
grisáceo sin más detalles. Se comenzará
Creación de un nuevo archivo
utilizando datos de la Tabla 12.1 del
Ejemplo 12.5.
Creando Workfile.
El archivo base con el cual trabaja este programa es el workfile (fichero de
trabajo) que se crea desde el menú File > New > workfile...
(archivo>nuevo>fichero de trabajo). En principio se abre la ventana Worfile
create donde debemos especificar la estructura del archivo.
Cargando datos
Para cargar los datos en el archivo creado existen dos
maneras diferentes: (1) importando desde una aplicación
externa como puede ser Microsoft® Excel, o (2) tipeando
directamente en Eviews.
El primero de los métodos consiste en utilizar una planilla
Tabla de Datos en Excel de cálculo para tipear los datos para luego guardarlos con
alguna de las siguientes extensiones: *.xls (Excel 97-2003), *.wks (Lotus), otros
archivos de texto ASCII como *.txt y *.cvs. Una vez confeccionada la Tabla 12.1
y guardada con el nombre tabla11_1.xls, hay que asegurase de cerrarla y de
que ningún programa la esté utilizando.
En Eviews desde el menú File > Import > Read Text-Lotus-Excel (Archivo >
Importar > Leer Texto-Lotus-Excel) se abre el cuadro de diálogo donde explorar
hasta encontrar el archivo de la tabla.
576
Cuadro de Dialogo Crear Series El segundo método para incluir datos consiste
en generar series mediante el menú Object > New
Object. Se debe especificar Type of Object: Series y un nombre. Una vez
generados los objetos se abren en grupo o individualmente y presionando Edit
+/-, es posible tipear los datos como si fuera un planilla de cálculo normal.
Graficando Series
preferido ver los datos en forma de barras y no como curvas por eso eligen
Specific: Bar, y para visualizar las tres series en un mismo gráfico eligen
Multiple Series: Single Graph.
Otra herramienta importante que debemos utilizar cuando comenzamos a
trabajar con los datos son las estadísticas descriptivas. Haciendo View >
Descriptive Stats > Common Sample (muestra común) el programa
genera una tabla con las estadísticas para cada variable: Media (mean),
mediana (median), máximo (máximum), mínimo (mínimum), desviación
estándar (std. Dev.), asimetría (skewness), el estadístico Kurtosis, Jarque
– Bera con su probabilidad, la suma y la suma de desvíos cuadráticos (sum
sq. Dev).
Análisis de Regresión
Para realizar una explicación del comportamiento de la variable dependiente
construimos el siguiente modelo
Vdepi 1Vind 1i 2Vind 2i i , i 1,2,,5
Actividades Propuestas
a) Realice todos los pasos comentados anteriormente para familiarizarse con
el manejo del software.
b) Compare la información de la salida de la estimación, con los resultados
obtenidos a lo largo del Capítulo 12 en relación al ejemplo 12.5.
c) Interprete con los conocimientos ya aprendidos y los que recuerda de
Inferencia Estadística el significado de la información contenida en la
salida.
d) Localice en la Salida el estadístico
T
SCR et2 e' e
t 1
e) Repitiendo los pasos explicados en este caso, seleccione un modelo
económico con el que haya trabajado teóricamente, especifique el modelo
econométrico, busque los datos y estime un modelo de regresión lineal.
BIBLIOGRAFIA
Ŷt Y 2
et
2
SCR
R2 t 1 t 1 [2]
Yt Y 2
Yt Y
2
SCT
t t
O lo que es lo mismo,
e' e SCR
R2 1 1 [3]
Y' Y TY 2
SCT
ˆ
e' e y Xβ ' y Xβˆ
Realizando los productos correspondientes
ˆ ' X' y y' Xβ
y' y β ˆ β
ˆ ' X' Xβ
ˆ
y' y βˆ ' X' (Xβˆ e) (Xβˆ e)' Xβˆ βˆ ' X' Xβˆ
Aplicando la propiedad de traspuesta y eliminando paréntesis
y' y βˆ ' X' Xβˆ βˆ ' X' e βˆ XXβˆ e' Xβˆ βˆ ' X' Xβˆ
Recordando que X' e 0 , por lo que e' X 0 , y simplificando la expresión
ˆ ' X' Xβ
e' e y' y β ˆ
Pero Xβˆ y
ˆ , por lo que
e' e y' y y
ˆ'y
ˆ [4]
Ŷ
Y
e
Ŷ
X
Restamos en ambos miembros TY 2 y reordenando términos, obtenemos
y' y TY 2 e' e yˆ ' yˆ TY 2
[5]
SCT SCR SCE
585
Por lo tanto,
SCE SCT SCR SCR e' e
R2 1 1 [6]
SCT SCT SCT y' y TY 2
Este coeficiente mide el porcentaje de la variación de la variable endógena,
Yt , que queda explicada en la regresión por la variación conjunta de las
variables exógenas, X .
SCE 122.5 1 .5
R2 0.988 1
SCT 124 124
Yt
2
Por el contrario, si Y et2 , el modelo de regresión no
t t
Como conclusión, podemos decir que el modelo se ajusta mejor a los datos
cuando más próximo está el coeficiente de determinación a la unidad.
et2 / T k
e' e / T k [7]
t
R2 1 1
Yt Y
2
/ T 1 y' y TY / T 1
2
t
586
Donde las sumas cuadráticas (residual y total) se corrigen por los grados de
libertad); éstos son los términos que penalizan la inclusión desmedida de
regresores en el modelo.
La incorporación de variables en el modelo aporta el beneficio de
incrementar el valor de R 2 pero tiene el costo de disminuir los grados de
libertad. Mientras el beneficio supere al costo, será conveniente incorporar
nuevas variables; si el costo, en términos de grados de libertad, supera el
beneficio de incorporar variables significa que ya no resulta conveniente la
inclusión.
De esta forma, conforme aumentamos el número de regresores, no está
claro cual va a ser la variación que experimente el coeficiente de
determinación corregido.
13.2. Inferencia
ˆ ~ N β, 2 X ' X
β k
1
[10]
Con lo que queda demostrada la primera parte. Pero sabemos también que
ˆ )β
E( β
ˆ ) 2 X' X
V( β 1
ˆ ~ N β, 2 X ' X
Por lo tanto, β
1
Tipificando, obtenemos
ˆ β
β
~ N 0, I [11]
X X
2
'
1 1 / 2
1 ˆ [12]
2 β β ' σ ε (X' X) β β
1 1 1 ˆ
exp 2
2π k /2 2
σ ε (X' X)
1 1/ 2
588
Si se tiene βˆ ~ N β, σ ε2 X ' X
1
y una matriz R qxk
donde rango (R ) q
el producto de
Rβˆ ~ N Rβ, σ ε2R X ' X R
1
de modo que
1
R βˆ β ~ Nq 0, σ ε2R X ' X R
ε' Mε
(a) ~ gl2 ( M )
2
solamente si R M 0
ˆ y e' e
β se distribuyen independientemente .
2
H o : Rβ r
[16]
H1 : Rβ r
Donde:
R es una matriz de orden qxk , sus filas representan la cantidad de
restricciones (q) y sus columnas la cantidad de parámetros (k) del modelo,
siendo sus elementos los coeficientes que acompañan a los parámetros a
contrastar.
( R ) q , viene dado por el número de restricciones sobre los parámetros
que estamos contrastando
r , vector de tamaño qx1 , con q 1 .
R es una matriz tal que
ˆ β) ~ N
R( β q
0, 2R X ' X 1
R'
con lo cual
Es decir, se distribuye como una chi cuadrado con grados de libertad igual
al número de restricciones (e igual al rango de la matriz R ).
591
1
ˆ r ' R X ' X R ' Rβ
Rβ
1
ˆ r / q
H0
F ~ F [18]
e' e / T k q, T k
β1
0 1 0 1,5
0 0 1 β2 0,1
β3
RXX R
1 1
1
Adj R XX R
1
R XX R
1
0,0302 0,02452
resolviendo, R XX R
1
0,00273
0,02452 0,10899
Adj R XX R
1
0,10899 0,02452
0,0302
0,02452
por lo que
RXX R
1 1
1 0,10899 0,02452 39,9231 8,981685
0,00273 0,02452
0,0302 8,981685 11,179487
Entonces
En síntesis:
ee 0,68
q=2
T k n k 53 2
1
' 1
Rβˆ r R X ' X R ' Rβˆ r / q
F
3,577532 2
5,261076
e' e / T k 0,68 2
El valor teórico de F 19 ,
2,2;0,95
por lo que F F
2,2;0,95
entonces se acepta la hipótesis nula: β2 1,5 y β3 0,1 .
594
0 1 0 0 0 0
0 0 1 0 0 0
R 0 0 0 1 0 r 0
. . . . . .
0 0 0 0 1 0
1
k-1 es el número de restricciones (q); estas restricciones representan a las variables explicativas del
modelo, dejando a un lado el término constante.
595
F
ˆ i i 0
2 H0
~ F1, T - k
ˆ 2 aii
ˆ i 0 H0
t i ~ t T-k
ˆ aii1 / 2
Donde
aii es el elemento i ésimo de la diagonal principal de la matriz
( X ' X )1 ,
βˆ i βi 0 H0
t ~ t T -k [22]
ee
1/ 2
a
T k ii
En el caso particular de que i 0 0 , se está contrastando la significación
individual de la variable explicativa X t .
H0 i 0
H1 i 0
ˆ i
t /2;T k
S ˆ
i
Para ilustrar aún más la relación entre las distribuciones, recordemos que
de acuerdo con la proposición 13.1. el estimador de cualquier parámetro de
la relación lineal sigue una distribución normal univariante, dada por
ˆ i ~ N( i , 2aii )
ˆ
i i ~ N( 0,1)
a
ii
(T k )S 2
~ T2 k
2
ˆ
t i i : S T k
a T k
ii
Nos queda
ˆ
t i i ~t
T k ; i 1, , k
S a
ii
90
Se conoce además que: Y ' Y Yt2 80
t 1
y que la estimación MCO del modelo de regresión lineal es
Ŷt 11
7
X 2t 12
X 3t 3 X 4t
( 1.6 ) ( 1.7 ) ( 1.4 ) ( 1.4 )
a) Calcular la SCR
R 0 2 1 0 r 3
1
β1X 1 1 β1
1
ˆ )β
Este estimador es insesgado solo si E ( β1 1
Donde
1
A I ii' ; siendo A una matriz de transformación, simétrica e
T
idempotente, e i un vector de T unos
Ay , es el vector endógeno representado en forma de desviaciones
AX , es la matriz de variables explicativas en forma de desviaciones
β 2 , es el vector de los coeficientes del modelo (sin ordenada al origen)
Aε ε
Ai 0 , en general premultiplicando por A cualquier vector cuyos
elementos sean idénticos, da como resulta el vector nulo
Por lo tanto,
1 0 0 1 1 1
0 1 0 1 1 1 1
1
A I ii'
T T
0 0 1 1 1 1
Las variables del modelo sufren una transformación, por ejemplo para el
caso de la variable endógena, tenemos
602
Y1
Y
1
y 2 i' y Y
T
YT
Y1 Y
Y Y
Entonces, Ay y iY
2
YT Y
Lo mismo se puede realizar con cada una de las variables exógenas del
modelo. Por lo que el modelo estimado se puede escribir como:
ˆ e
Ay AX 2β 2
Donde
x1 , es un vector columna de unos
X 2 , es la matriz Tx(k 1) de observaciones de las variables X 2 , X 3 , , X k
ˆ
ˆ 1
Con lo que, β
ˆ
2
603
Donde los subíndices nos indican que el modelo esta expresado en forma
de desviaciones con respecto a la media. Como X' e 0 , resulta que
X' d e 0 . Por lo que premultiplicando el modelo en forma de desviaciones
por X'd se obtiene
ˆ
X' d y d ( X' d X d )β [23]
2
Que son las conocidas ecuaciones normales, excepto que los datos están en
forma de desviaciones y que el vector de estimadores incluye solo los
coeficientes de la pendiente y excluye el término independiente. Para
obtener este último, luego del proceso de estimación, podríamos
ˆ e por 1
premultiplicar y Xβ i' , lo que da
T
1
Y 1 X2 X3
Xk 2
k
ˆ ' X' X β
y'd y d β ˆ
2 d d 2 e' e
SCT SCE SCR
Yt 1 X 1t 2 X 2t 3 X 3t t ; t 1, ,5
1 0 0
3 2 1
y d 4 ; Xd 2 1
1 1 1
1 1 1
y x3
donde ̂ ,
yx 3 x 2
3
se denomina coeficiente de regresión parcial, en este caso entre
Y y X3 .
X2 y X3 R2 y 2 X2 y X3 R2 y 2
(1 R 2 ) y 2 (1 R 2 ) y 2
Residuos Residuos
606
2
Kruskal, W. “Relative importante by Averagin over Orderings”. The American Statiscian, 1987.
3
Tinbergen, J. “Bussiness Cycles in the United Status of America, 1919 – 1932. League of Nations, 1939.
607
Una vez estimado el modelo con los datos de la muestra disponible, uno de
nuestros objetivos, es utilizarlo para hacer predicciones sobre los valores
futuros de la variable endógena Y .
Para que el modelo estimado sea adecuado para predecir valores futuros de
Y , hemos de suponer que la relación lineal entre Y y X se mantiene
también en el período de predicción.
Bajo este supuesto de estabilidad y dados unos valores conocidos de las
variables exógenas en el período de predicción, x P , la predicción por punto
de YP , será:
ˆ
Ŷp x p' β [26]
E e p E x p' β β
ˆ u 0
p [28]
En cuanto a su varianza:
e2 2 1 x p' X ' X 1
x p
[29]
Ê Yp x p' β
ˆ [31]
Vp E Yp Ê Y p x p' β x p' β p
ˆ x' β β
ˆ [32]
V2 ˆ 2 x p' X ' X x p
1
[33]
P x p' βˆ t /2 T k ˆ 2 x p' X ' X x p
1
1/2
1
[34]
Ejemplo 13.1.f Para los datos del Ejemplo 12.5, calcula el intervalo
de confianza
Tabla de datos
obs CAPITAL CASHFLOW INVER RENDOBLI RENTA UCP
1958 989.2 88.4 6.7583 964.6
1959 1032.9 82.8 87.3 6.9422 943.8 78
1960 1088.4 90.2 98.8 6.95 951.8 74.7
1961 1154.6 103.9 114.2 6.945 1059.3 80
1962 1240.4 115.3 136.6 5.9379 1161.9 83.2
1963 1345.3 115.7 159.3 6.1638 1272.1 85.21
1964 1461.3 126.6 176.2 5.9756 1355.3 84.9
1965 1611.7 138.6 220.2 5.9787 1457.9 84
1966 1778.9 155 250.3 6.2188 1569.1 83
1967 1943.6 150.9 261.2 6.3087 1639 80
1968 2111.3 178.9 271.8 6.4047 1733.2 80.5
1969 2297.4 192.6 303.6 7.1207 1849.6 83.75
1970 2484.7 210.9 317.3 7.558 1957.6 83.75
1971 2647.8 234.4 305 8.6722 2053.3 82.2
Observations 14 14 13 14 14 13
2800 240
2400
200
2000
160
1600
120
1200
800 80
1958 1960 1962 1964 1966 1968 1970 1958 1960 1962 1964 1966 1968 1970
CAPITAL CASHFLOW
320 9.0
280 8.5
8.0
240
7.5
200
7.0
160
6.5
120 6.0
80 5.5
1958 1960 1962 1964 1966 1968 1970 1958 1960 1962 1964 1966 1968 1970
INVER RENDOBLI
2200 86
2000 84
1800
82
1600
80
1400
78
1200
1000 76
800 74
1958 1960 1962 1964 1966 1968 1970 1958 1960 1962 1964 1966 1968 1970
RENTA UCP
BIBLIOGRAFIA
14.1 Introducción
1) Cambio estructural
2) Error de especificación
3) Multicolinealidad
las variables ficticias por la cual existe una combinación lineal entre la
suma de las variables ficticia (F) y la intersección.
1 cuando XCL 1
F1
0 cuando XCL 1
1 cuando XCL 2
F2
0 cuando XCL 2
1 cuando XCL m 1
F (m 1)
0 cuando XCL m 1
IDHR i
C i 1 R i NBI i i i REG1 i 1
IDHR(medio )
IDHR i
C i 2 R i NBI i i i REG2 i 1
IDHR( medio )
1 si la región i REG1
F
i
0 en otro caso
C i 1 Fi R NBI i i i 1, 2, , 26
i
Cˆ i αˆ 1 δˆ Fi βˆ R γˆ NBI i
i
620
Cuando Fi = 0:
Cˆ i αˆ 1 βˆ R γˆ NBI i
i
Cuando Fi = 1:
Cˆ i αˆ δˆ βˆ R γˆ NBI i
1 i
H0 : 0
HA : 0
1 si la región i REG1
F1i
0 en otro caso
621
1 si la región i REG2
F2i
0 en otro caso
H 0 : 1 2
H A : 1 2
C i 1 R i NBI i i i REG1
C i 2 R i NBI i i i REG2
C i 1 R i Fi R i 3 Fi NBI i NBI i i i 1, 2, , 26
Cuando Fi = 0:
C i 1 R i NBI i i i REG1
Cuando Fi = 1
C i 1 R i NBI i i i REG2
H0 : 0
HA : 0
623
C i 1 1 Fi 2 Fi R i 1 R i NBI i i i 1, , 26
H 0 : 1 0 y 2 0
H A : 1 0 y 2 0
F
e '
R
e R e 1' e 1 e '2 e 2 / k H 0
~ F k, T - 2k
e 1' e 1 e '2 e 2
T 2k
F
e' e
R R
e1' e1 / T2 H0
~ F T2 , T1 - k
e' e
1 1
T1 k
14.3. Multicolinealidad
H 0 : No Multicolinealidad
distintos valores de β .
2
V ˆ 2
X 2t X 2 2 1 r23
2
Cuanto mayor sea la correlación muestral entre los regresores, mayor
será la varianza de los estimadores y menor la precisión con la que se
estiman los coeficientes individualmente.
Detección de la Multicolinealidad
1
VIF 10 ,
(1 R j )
2
1/ 2
max
30 .
min
(2k 5) H0 2
G ln R XX T 1 ~ ; k ( k 1)
6 2
Consecuencias de la multicolinealidad
Yt 0 1 X 1t 2 X 2t k X kt t
sea
629
z11 z k1
Z
z1T z kT
1
R Z' Z
T 1
Rp k k p k ; k
Rp k k p k 0
p k (R k I k ) 0
R k I k 0 R k I k 0 k I k R
630
P p 1 p2 pk
En forma matricial
C 1 Zp 1
C1 ' C1 Z' Z
C 1 ' C 1 p 1 ' Z' Zp 1 (ó también p1 ' p1 )
T 1 T 1
p1 'p1 1
Z' Z
p1 ' p 1 1 (p 1 ' p 1 1)
T 1
T21 Z' Zp 1 21p 1
p1
1
( Z' Z )p 1 1p 1
T 1
1
Z 1 ' Z 1 1p 1 ' p 1 1 ¿Por qué?
T 1
1 2 k 0 .
Definamos C 2 Zp 2
Z' Z
Debemos elegir p 2 tal que maximice p 2 ' p 2 , sujeto a que
T 1
p 2 'p 2 1 y p1 'p 2 0 .
Definamos,
Z' Z
p2' p 2 2 (p 2 ' p 2 1) * (p1 ' p 2 )
T 1
2
Z' Zp 2 22 p 2 *p1 0
p 2 T 1
2
p1 ' Z' Zp 2 * 0
T 1
1
( Z' Z )p 1 1p 1
T 1
1
p 2 ' ( Z' Z )p 1 1p 2 ' p 1 0
T 1
Entonces, * 0
Y tenemos que,
1
Z' Zp 2 2p 2
T 1
Aquí se elige 2 tal que sea la segunda raíz característica más grande
de Z' Z .
Se puede proceder de esta forma para cada una del las k raíces de
Z' Z y con los vectores resultantes formar la matriz ortogonal
P p 1 p 2 p k .
633
C ZP
Que verifican
1 0 0
0 0
1 1
C´C P´Z´ZP 2
T 1 T 1
0 0 k
4 3.4915 2.5820
Z' Z 3.4915 4 3.3806
2.5820 3.3806 4
634
Dada la matriz Z
Observaciones Z1 Z2 Z3
1 -0.4869 0.2390 0.0000
2 0.7303 0.2390 0.0000
3 1.3389 1.4343 1.4142
4 -0.4869 -0.9562 -1.4142
5 -1.0954 -0.9562 0.0000
635
Observaciones C1 C2 C3
1 0.1290 -0.3217 0.4172
2 -0.5578 0.5060 -0.1527
3 -2.4172 -0.0688 -0.0462
4 1.6450 0.6669 0.0258
5 1.2011 -0.7824 -0.2442
C1 C 2 C 3 0
V (C1 ) 1;V (C 2 ) 2 ;V (C 3 ) 3
Cov (C1C 2 ) 0; Cov (C1C 3 ) 0; Cov (C 2C 3 ) 0
Y Zβ ε ZPP' β ε Cα ε
Yt 0 1C1t k C kt t ; t 1,, T
Yt 0* 1* C1t r* C rt t* ; t 1, ,T
*
α
Como, β Pα [P1 P2 ][ **
]
α
Donde,
α * ( 0* 1* r* )' .
Ejemplo 13.3. (continuación). Para ilustrar esta segunda parte del análisis de
las componentes principales con los datos del ejemplo se incluye una estimación
al final del capítulo.
z
t
2
1t z 22t z kt2 tr (Z' Z)
t t
Pero,
Z1 ' Z1 Z k ' Z k
De esta forma,
1 2
, ,, k
Representa la proporción en que cada componente principal
contribuye a la explicación de la varianza total de las Z , y puesto que
las componentes son ortogonales, estas proporciones suman la
unidad, (que el lector deberá comprobar).
H 0 : r 1 r 2 k
k H 0 2
k r
Yt 1 2 X 2t k X kt t
Yt 1 2 X 2t k X kt 2Yˆ 2 3Yˆ 3 t
H 0 : ε N(0, 2 I ); H 1 : ε N(ε, 2 I) ε 0
y X1 β1 X 2 β 2 ε
Donde
y X 1β 1 ε *
E ε * X 2β 2 y
E X '1ε * X '1X 2β 2
e *' e *
S
2
T k1
e *' e *
I) no se distribuye como una 2
2
II )
βˆ 1 ~ N β 1 X 1' X 1
1
X'1 X 2 β 2 , σ 2 X'1 X 1 1
y X 1β 1 ε
y X1 β1 X 2 β 2 ε
1 1
X '1 X 1 X '1 X 2 X '1 X 1 X '1 X 1 X '1 X 2 X '1
β 1 ε
' ' ' ' ' '
X 2 X 1 X 2 X 2 X 2 X1 X 2 X1 X 2 X 2 X 2
1
X 1' X 1 X1' X 2 X 1' X 1 I k 1
X ' X X ' X X ' X 0 k
2 1 2 2 2 1 2
642
1
βˆ 1 β 1 X 1' X 1 X1' X 2 X 1' β 1
E E (ε)
βˆ 0 k X ' X X ' X X ' 0 k
2 2 2 1 2 2 2 2
e' e
S2 es un estimador insesgado de 2 y se mantiene la validez
T k
de los contrastes habituales de restricciones lineales sobre el vector
de coeficientes β .
* (C / k )
Tabla 14.3
Observación X2 X3 X4
1 7 15 4
2 6 12 3
3 4 10 1
4 3 11 -1
5 6 14 0
6 4 10 5
260,000,000
240,000,000
220,000,000
200,000,000
40,000,000 180,000,000
20,000,000 160,000,000
140,000,000
0
-20,000,000
-40,000,000
-60,000,000
96 97 98 99 00 01 02 03 04 05 06 07 08
Tabla 14.5
Mes Ventas Gastos Insumo Personal
1 607 197 110 173
2 590 208 107 152
3 543 181 99 150
4 558 194 102 150
5 571 192 109 163
6 615 196 114 179
7 606 203 113 169
8 593 200 113 166
9 582 198 115 159
10 646 221 119 206
11 619 218 120 181
12 651 213 123 192
13 648 207 122 191
14 694 228 131 217
15 697 249 133 190
16 707 225 135 221
17 693 237 133 189
18 680 236 128 192
19 664 231 134 193
20 747 260 135 233
21 708 254 139 196
22 702 239 138 199
23 711 248 146 202
24 778 273 153 240
El modelo estimado es
Ventas 107.444 0.923Gastos 1.298Insumos 0.950 Personal
(18.058) (0.223) (0.431) (0.156)
R 0.98
2
F 323.64 DW 1.30
Estimación 13.2.1
Dependent Variable: VENTAS
Method: Least Squares
Date: 08/25/06 Time: 14:58
Sample: 1 24
Included observations: 24
ˆ 2 2 0.922567 0
t 4.14
s2 0.222733
El estadístico empírico cae en la zona de rechazo de la hipótesis nula,
(4.14>2.086) se concluye que la variable es significativa en el modelo.
Repitiendo el procedimiento para los demás coeficientes, se concluye que
todas las variables son significativas individualmente.
649
SCT
sY , de modo que SCT sY * ( n 1) 62.393 * 23 89535.84301
2 2
n 1
la SCR=1807.117, con lo cual
SCE=SCT-SCR=89535.84301-1807.117=87728.72601
Eigenvectors:
obs C1 C2 C3
1 1.506231 0.299516 -0.037624
2 1.853441 -0.576847 -0.366855
3 2.890413 0.090451 -0.086389
4 2.449552 -0.246221 -0.262575
5 1.900217 0.092529 0.097884
6 1.221876 0.442400 0.173072
7 1.326530 -0.020977 -0.006374
8 1.468150 -0.056916 0.090149
9 1.593096 -0.286881 0.294148
10 -0.216850 0.710388 -0.368121
11 0.390405 -0.078791 -0.086172
12 0.129487 0.335922 0.144863
13 0.339721 0.450410 0.253263
14 -1.149357 0.691960 0.043003
15 -1.117047 -0.696328 -0.238097
16 -1.339299 0.810884 0.318048
17 -0.804620 -0.473284 0.082786
18 -0.637431 -0.253687 -0.183776
19 -0.794810 -0.231346 0.271555
20 -2.460332 0.463226 -0.671708
21 -1.631015 -0.720918 -0.074868
22 -1.296164 -0.280755 0.246036
23 -1.922235 -0.530122 0.432073
24 -3.699960 0.065388 -0.064320
Ventas 1 2 C 1 3 C 2 4 C 3
El resultado de la estimación muestra que la primera componente que reunía
el 91.35% de la varianza de las variables exógenas es la que presenta un
buen ajuste.
Estimación 13.3.2
Dependent Variable: VENTAS
Method: Least Squares
Date: 08/25/06 Time: 14:56
Sample: 1 24
Included observations: 24
Estimación 13.3.3
Dependent Variable: VENTAS
Method: Least Squares
Date: 08/25/06 Time: 15:02
Sample: 1 24
Included observations: 24
Estimación 13.3.4
Dependent Variable: VENTAS
Method: Least Squares
Date: 08/25/06 Time: 15:03
Sample: 1 24
Included observations: 24
Ventas 1 2 C 1
y se realiza la estimación 14.3.4
Vi 650.4167
Operando matemáticamente
Vi 650.4167 36.51205 0.0236G i 5.2187 0.0225 Pi 4.2163 0.0417I i 5.1653
El modelo definitivo es:
Vi 117.3298 0.8617Gi 0.8215Pi 1.5225 I i
donde se ha eliminado la multicolinealidad
BIBLIOGRAFIA
V ( j / X ) 2 , j 1, ,T (Homocedasticidad)
E εε ' 2IT
Este supuesto “se puede relajar” para recoger situaciones más generales en
donde las varianzas de las perturbaciones son distintas y/o las covarianzas
no nulas. Si no imponemos ninguna restricción a priori, la forma general de
la matriz de varianzas y covarianzas de las perturbaciones, es:
12 12 1T
2 2T
2
21
E εε
'
Ω
T 1 T 2 T2
Esto es, vamos a trabajar dentro del marco más general del modelo de
regresión lineal con matrices de varianzas y covarianzas no escalares,
659
E εε' Ω
yXβ ε
Donde
E 0, E ' Ω y X , es una matriz no estocástica de rango k .
Bajo los supuestos del modelo, el estimador MCO de β, es lineal e insesgado con
matriz de varianzas y covarianzas dada por,
Vβ
1
ˆ X ' X X 'ΩX X ' X
1
Min Y ˆ
Xβ
'
ˆ
Ω 1 Y Xβ
β
Min Y ˆ
Xβ
'
ˆ
1 Y Xβ
X X βˆ
' 1
MCG X ' 1 Y
ˆ
β '
1
MCG X X X Y
1 ' 1
las hipótesis básicas, será ELIO. La función objetivo para el modelo es:
ˆ
Vβ MCG X
2 '
1
X 1
ˆ βˆ
V ˆ2
MCG MCG X
' 1
X 1
ˆ MCG
2
y Xβˆ y Xβˆ
MCG
' 1
MCG
T k
ˆ
β
MCG ~ N β, X
2 ' 1
X 1
R βˆ R βˆ
1
r R X ' 1 X R '
' 1
MCG MCG r / q
F ~ F q, T - k
ˆ MCG
2
15.4. Heterocedasticidad
12 0 0
0 2 0
2
E εε ' Ω
.......... ......
0 0 T2
H 0 : 12 22 T2
e '2 e 2 T1 k
GQ ~ F T1 k, T2 k
e 1' e 1 T2 k
Mientras que, bajo la hipótesis nula, las varianzas deben ser iguales, bajo la
hipótesis alternativa, crecerán de un grupo a otro. Cuanto más difieran
estas sumas de cuadrados, mayor será el valor del estadístico, y por lo
tanto, mayor evidencia habrá en contra de la hipótesis nula.
GQ F T1 k , T2 k
1. V̂ ˆ ˆ 2 X X ' 1
( ˆ ) X X X SX X X
' 1 ' ' 1
2. VWHITE
Donde, S es una matriz diagonal cuyos elementos, son los residuos mínimo-
cuadráticos ordinarios al cuadrado
S diag e12 , e22 , , eT2
El estimador VWHITE ( ˆ ) es consistente independientemente de cómo sea la
matriz , siempre que esta sea diagonal.
k k
ei2 0 js X ji X si i i 1, 2, , T
j 1 s j
666
e i2 0 11 X 12i 12 X 1i X 2i 13 X 1i X 3i 22 X 22i 23 X 2i X 3i
33 X 32i i i 1, 2, , T
H 0 : js 0 j , s
a
Se puede demostrar que bajo la hipótesis nula ~ 2 p , donde p es el
número de regresores en la regresión sin incluir el término constante.
Rechazaremos H 0 : js 0 si el valor muestral del estadístico excede el
valor crítico de las tablas 2 , elegido un nivel de significación.
Este contraste tiene la ventaja de ser muy flexible por no tener que
especificar la hipótesis alternativa; pero si se rechaza la hipótesis nula de
homocedasticidad no indica cual puede ser la dirección a seguir.
H A : i2 2 G 0 α ' Z i
Zi es un vector de variables exógenas que pueden ser las explicativas del
modelo y la función G( ) no se especifica.
H0 : α 0
ˆ
1. Utilizando los residuos e Y X β MCO se construye la siguiente serie
ei2
ri i 1, , T
e'e
ri 0 α ' Z i i i 1, , T
3. Se utiliza como estadístico del contraste SCE/2, que bajo hipótesis nula
se distribuye asintóticamente 2 ( S ) , donde S son los grados de libertad
igual al número de variables en Zi. Rechazaremos hipótesis nula a un nivel
de significación (), si el valor muestral del estadístico excede el cuantil
2 S .
Y Xβ Ω
' 1
Y Xβ
T Yi Xiβ
'
2
Min 2
i 1 i
Ω
1
diag 12 , 22 , , T2
entonces el estimador MCG se puede obtener también estimando por MCO
el modelo transformado
Yi 1 X 2i X ki u
2 k i i 1, 2, , T
i i i i i
Donde
0
E u i*
E u
E u * 2 i
2
i2
i 1, i
i
2
i2
E u u 0,
*
i
*
j i j
ˆ MCG X *' X * X
1 *'
Y * X ' 1 X 1
X ' 1Y X ' 1 X X
1 '
1 Y
669
i
2
G Z i , θ , i
ˆ Ω(θˆ ) y
Una vez obtenido un estimador θ̂ , se puede definir un estimador Ω
estimar el vector de coeficientes β por el método de mínimos cuadrados
generalizados factibles.
ˆ
ei Yi x i' β ' ' ˆ
MCO Yi x iβ X i MCO i error
Dado que
E i2 i2 G Z i , θ ,
Se tiene que,
ei2 G Z i , θ error
ei2 θ' Zi i i 1, , T
Estimador de White
Por otro lado, en los apartados anteriores hemos visto cómo, para aplicar
métodos de estimación más apropiados, es preciso conocer la matriz Ω , o
al menos, cuál es la estructura de la heteocedasticidad para poder
especificar Ω Ω(θ) .
p lim
X' S X
T
p lim
X' Ω X
T
donde S diag e12 , e22 , , eT2
Por lo tanto, se puede utilizar:
X
ˆ WHITE T X ' X
V
1 '
S X X'X
1
ˆ
T Rβ MCO r R
'
ˆ
V WHITE R
'
R βˆ
1
MCO d
r 2 q
15.7. Autocorrelación
E ( i j ) 0, i j
E ( εε' ) Ω
t 1 t 1 2 t 2 p t p t
t t 1 t
Donde la perturbación en un período t , depende de la perturbación en el período
anterior t 1 , y un término aleatorio o innovación t que suponemos que es ruido
t t 1 t 1 q t q
1 2 0 0
1 2 0
E uu ' 2
0
1 2 0
2
0
0 0 1 2
Por último, el modelo más general es el modelo autorregresivo de medias móviles,
ARMA (p, q), donde la perturbación t depende de sus valores pasados y de la
innovación t y su pasado:
t 1 t 1 2 t 1 t t 1 t 1 q t q
H0: = 0
674
T
et et 1 2
t 2
DW T
et2
t 1
DW 2 1 ̂
et et 1 t t 2, , T
1. ˆ 0 DW 2
2. 1 ˆ 0 DW ( 4,2 )
3. 0 ˆ 1 DW ( 2,0 )
0 dL du 2 4-du 4-dL 4
Yt 1 2 X 2t k X kt t t 1, , T
t t 1 t
t ~ NID 0, 2
Dado este modelo, vamos a explicar distintos métodos de estimación.
1 2 0 0 0
1 0 0
P 0 1 0 0
0 0 0 1
1 2 Y1 1 1 2 2 1 2 X 21 k 1 2 X k 1 1
Yt Yt 1 1 1 2 X 2t X 2t 1 k X kt X kt 1 t
t 2, ,T
Es interesante señalar que la primera observación sufre una transformación
diferente a todas las demás.
S 1 2 Y1 1 2 X 2t k X kt
2
2
X jt X jt 1
T k
Yt Yt 1 1 1 j
t 2 j 2
Yt Yt 1 1 1 2 X 2t X 2t 1 k X kt X kt 1 t
t 2, ,T
Método de Durbin
Yt Yt 1 1 2 X 2t 2 X 2,t 1 k X kt k X k ,t 1 t
Donde t 2, , T , 1 11 , i i , i 2, , k .
677
Yt ˆ Yt 1 1 1 ˆ 2 X 2t ˆ X 2t 1 k X kt ˆ X kt 1 Vt
S 2 Yt ˆ Yt 1 1 1 ˆ j X jt ˆ X jt 1
T
k
t 2 j 2
Método de Cochrane-Orcutt
Yt 1 2 X 2t k X kt ut t 1, , T
et et 1 t t 2, , T
Yt ˆ Yt 1 1 1 ˆ 2 X 2t ˆ X 2t 1 k X kt ˆ X kt 1 t
2
Yt ˆ Yt 1 1 1 ˆ j X jt ˆ X jt 1
T k
S
t 2 j 2
BIBLIOGRAFIA
16.1. Características
Las razones por las cuales se producen rezagos obedecen a causas sicológicas
(no se cambia de hábito de manera inmediata), tecnológicas (la incorporación
de la nueva tecnología disponible se realiza a lo largo del tiempo) o
institucionales (por ejemplo, una buena alternativa financiera puede
aprovecharse hasta que existan fondos disponibles).
Yt 0 X t 1 X t 1 2 X t 2 t (1)
Yt X t Yt 1 t (2)
Yt 0 X t 1 X t 1 2 X t 2 k X t k t (3)
16.2. Estimación
Yt 0 X t 1 X t 1 2 X t 2 t (4)
1. estimación ad hoc
Estimación ad hoc
Este enfoque lo adoptaron Alt (1942) y Tinbergen (1949). Ellos sugieren que la
estimación se realice secuencialmente, lo cual significa hacer:
Yt f ( X )
Yt f ( X , X t 1 )
Yt f ( X , X t 1, X t 2 )
sucesivamente
k 0 k siendo k 0, 1, 2 y 0 1 (5)
1- es la velocidad de ajuste
1
k 0
1
(6)
Yt 0 X t 0 X t 1 0 2 X t 2 t (7)
684
Yt 1 0 X t 1 0 X t 2 0 2 X t 3 t 1
multiplicando por
Yt 1 0 X t 1 0 2 X t 2 0 3 X t 3 t 1 (8)
Yt Yt 1 (1 ) 0 X t t t 1 (9)
Reordenando
Yt (1 ) 0 X t Yt 1 t (10)
Estadístico h de Durbin
n
h ˆ
1 n(var ˆ )
685
̂ estimación de
1
ˆ 1 d
2
Estructura de rezagos
log 2
Mediana de rezagos 0 1 (11)
log
Indica el tiempo que se necesita para alcanzar el 50% del cambio total en Y
Rezago medio (12)
1
Si 1/ 2 rezago promedio = 1
Yt 0 1 X t* t (13)
el término de error
X t* X t*1 X t X t*1 (14)
Esta hipótesis establece que las expectativas son corregidas cada periodo por
una fracción de la brecha entre el valor actual y el esperado de la variable.
X t* X t ( 1 ) X t*1 (15)
Yt 0 1 X t (1 ) X t*1 t
(16)
0 1 X t 1 (1 ) X t*1 t
Yt 1 0 1 X t*1 t 1 (17)
Se lo multiplica por ( 1 )
Yt 0 1 X t ( 1 ) Yt 1 t (19)
Donde t t ( 1 ) t 1
Esta es otra racionalización del modelo de Koyck dada por Marc Nerlove.
Partiendo del modelo de acelerador flexible de la teoría económica, se supone
que hay un nivel de existencias de capital de equilibrio -u óptimo deseado o de
largo plazo- requerido para generar una producción determinada bajo unas
condiciones dadas de tecnología y tasa de interés, entre otras.
Yt* 0 1 X t t (20)
Yt Yt 1 Yt* Yt 1 (21)
0 1 es el coeficiente de ajuste
Yt Yt 1 es el cambio observado
Pero,
Yt Yt 1 inversión (22)
I Yt* Yt 1
Yt Yt* Yt 1 Yt 1
689
Yt 0 1 X t t 1 Yt 1
Yt 0 1 X t t 1 Yt 1
Yt 0 1 X t 1 Yt 1 t (24)
Una vez que se estima (24) es posible estimar la existencia de capital de largo
plazo (ecuación 20) a partir del término : dividiendo los coeficientes 0 y
1 , y eliminando el término rezagado de Y , se obtiene la función de largo
plazo.
Expectativas adaptativas
Yt 0 1 X t (1 ) Yt 1 t (1 ) t 1 (26)
o Ordenada al origen
o Una variable X
i a0 a1i a2 i 2 a3 i 3 am i m (28)
1
Esto se basa en el Teorema de Weierstrass que dice que ´en un intervalo cerrado finito cualquier función
continua puede ser aproximada mediante un polinomio de grado apropiado´
691
Figura 1 Figura 2
Figura 3
Yt 0 X t 1 X t 1 2 X t 2 k X t k t (29)
k
Yt i X t i t (30)
i 0
i a0 a1i a2 i 2 (31)
k
Yt a0 a1i a2 i 2 X t i t
i 0
(32)
k k k
a0 X t i a1 i X t i a2 i X t i t 2
i 0 i 0 i 0
692
k
Z 0t X t X t 1 X t 2 X t k X t i
i 0
k
Z1t 1X t 1 2 X t 2 kX t k iX t i (33)
i 0
k
Z 2t 12 X t 1 2 2 X t 2 k 2 X t k i 2 X t i
i 0
y reemplazado en (32)
Yt a0 Z 0t a1Z1t a2 Z 2t t (34)
Ahora bien, se ha llegado al final del modelo pero se está a mitad camino de lo
que realmente se quiere conocer. El objetivo son los coeficientes de la
variables explicativa rezagada y, lo que se tiene, son los coeficientes de
variables que en su interior tienen una combinación de variables con rezagos.
Para calcular los coeficientes i , se debe hacer uso del supuesto inicial dado
en (31), donde:
i a0 a1i a2 i 2
Por lo que
Si i 0 , ˆ0 aˆ 0 aˆ1 0 aˆ 2 0 2
Si i 1, ˆ1 aˆ 0 aˆ11 aˆ 2 12
Si i 2 , ˆ 2 aˆ 0 aˆ1 2 aˆ 2 2 2 (35)
sucesivamente
693
Si i k , ˆ k aˆ 0 aˆ1k aˆ 2 k 2
m
Var ( ˆ i ) Var (aˆ 0 aˆ1i aˆ 2 i 2 ) i 2 j var(aˆ j ) 2 i j p cov(aˆ j aˆ p ) (36)
j 0 j p
Entonces:
i 0 Var ( ˆ 0 ) Var ( aˆ 0 aˆ 10 aˆ 2 0 2 )
i 1 Var ( ˆ 1 ) Var ( â0 â11 â2 12 ) 12* 0 var( â0 ) 12* 1 var( â1 ) 12* 2 var( â2 )
2 101 cov( â0 â1 ) 10 2 cov( â0 â2 ) 11 2 cov( â1â2 )
i 2 Var ( ˆ 2 ) Var ( â0 â1 2 â2 2 2 ) 2 2* 0 var( â0 ) 2 2*1 var( â1 ) 2 2* 2 var( â2 )
2 2 01 cov( â0 â1 ) 2 02 cov( â0 â2 ) 212 cov( â1â2 )
i 3 Var ( ˆ 3 ) Var ( â0 â1 3 â2 3 2 ) 3 2* 0 var( â0 ) 3 2*1 var( â1 ) 3 2* 2 var( â2 )
2 3 01 cov( â0 â1 ) 3 02 cov( â0 â2 ) 312 cov( â1â2 )
i k Var ( ˆ k ) Var ( â0 â1k â2 k 2 ) k 2* 0 var( â0 ) k 2*1 var( â1 ) k 2* 2 var( â2 )
2 k 01 cov( â0 â1 ) k 02 cov( â0 â2 ) k 12 cov( â1â2 )
Prueba de Granger
3. se construye el estadístico
F
SCR r SCR nr / m
SCR nr / n k
que se distribuye como una Fm,n k ; donde:
Para aplicar el test se debe, en Eviews, abrir un grupo para las variables PIB y
Consumo; luego en View-Granger Casuality se debe ingresar el número de
rezagos a considerar (Lags to include):
En la primera línea del test cuando dice “PBI does not Granger Cause
CONSUMO” quiere decir que el comportamiento del PBI no afecta las
variaciones de Consumo, por ende los coeficientes asociados a la variable
explicativa PBI se anulan. Esta es la hipótesis nula, la cual es rechazada.
i a0 a1i a2 i 2
698
Consumot a0 Z0 t a1Z1t a2 Z 2t t
4
Z1t iX t i X t 1 2 X t 2 3 X t 3 4 X t 4
i 0
4
Z 2t i 2 X t i X t 1 2 2 X t 2 3 2 X t 3 4 2 X t 4
i 0
consumo c Z0 Z1 Z2
i 2 2 a0 a12 a2 22 ˆ 2 aˆ 0 aˆ 12 aˆ 2 4
0.464424 - 0.347033 * 2 0.061411 * 4
0 ,016
i 3 3 a0 a13 a2 32 ˆ 3 aˆ 0 aˆ 13 aˆ 2 9
0.464424 - 0.347033 * 3 0.061411 * 9
0 ,02397
i 4 4 a0 a14 a2 42 ˆ 4 aˆ 0 aˆ 14 aˆ 216
0.464424 - 0.347033 * 4 0.061411 * 16
0 ,05887
m
Var ( ˆ i ) var( aˆ 0 aˆ 1i aˆ 2i 2 aˆ m i m ) i 2 j var( aˆ j ) 2 i j p cov( aˆ j aˆ p )
j 0 j p
i 2 Var ( ˆ 2 ) var( aˆ 0 aˆ 12 aˆ 2 22 )
22* 0 var( aˆ 0 ) 22*1 var( aˆ 1 ) 22* 2 var( aˆ 2 )
2 20 1 cov( aˆ 0aˆ 1 ) 20 2 cov( aˆ 0aˆ 2 ) 21 2 cov( aˆ 1aˆ 2 )
0 ,001188 4 * 0 ,002281 16 * 0 ,000132
22 * ( 0 ,001386 ) 4 * 0 ,000268 8 * 0 ,000529 ) 0 ,00056
sˆ 2 0 ,00056 0 ,02366
i 3 Var ( ˆ 3 ) var( aˆ 0 aˆ 13 aˆ 2 32 )
32* 0 var( aˆ 0 ) 32*1 var( aˆ 1 ) 32* 2 var( aˆ 2 )
2 30 1 cov( aˆ 0aˆ 1 ) 30 2 cov( aˆ 0aˆ 2 ) 31 2 cov( aˆ 1aˆ 2 )
0 ,001188 9 * 0 ,002281 81* 0 ,000132
23 * ( 0 ,001386 ) 9 * 0 ,000268 27 * 0 ,000529 ) 0 ,000351
sˆ 3 0 ,000351 0 ,01873
i 4 Var ( ˆ 4 ) var( aˆ 0 aˆ 14 aˆ 2 42 )
42* 0 var( aˆ 0 ) 42*1 var( aˆ 1 ) 42* 2 var( aˆ 2 )
2 40 1 cov( aˆ 0aˆ 1 ) 40 2 cov( aˆ 0aˆ 2 ) 41 2 cov( aˆ 1aˆ 2 )
0 ,001188 16 * 0 ,002281 256 * 0 ,000132
24 * ( 0 ,001386 ) 16 * 0 ,000268 64 * 0 ,000529 ) 0 ,001252
sˆ 3 0 ,001252 0 ,03538
Yt w t 0 X t 1 X t 1 k X t k t (1)
k / 2 si k es par
(3)
(k 1) / 2 si k es impar
Yt w t 1 2 (0 ) 3 (0 ) 2 p 1 (0 ) p X t
1
2 (1 ) 3 (1 ) 2 p 1 (1 ) p X t 1
1
2 (k ) 3 (k ) 2 p 1 (k ) p X t k t
Eliminando paréntesis
Yt w t 1 X t 2 (0 ) X t 3 (0 )2 X t p 1(0 ) p X t
1 X t 1 2 (1 ) X t 1 3 (1 )2 X t 1 p1(1 ) p X t 1
1 X t k 2 (k ) X t k 3 (k )2 X t k p1(k ) p X t k t
Agrupando términos
Yt w t 1 X t X t 1 X t k
2 (0 ) X t (1 ) X t 1 (k ) X t k
3 (0 )2 X t (1 )2 X t 1 (k )2 X t k
p 1 (0 ) p X t (1 ) p X t 1 (k ) p X t k t
703
donde
Z1t X t X t 1 X t k
Z2t ( 0 ) X t ( 1 ) X t 1 ( k ) X t k
Z3t ( 0 )2 X t ( 1 )2 X t 1 ( k )2 X t k
Z( p 1 )t ( 0 )p X t ( 1 )p X t 1 ( k )p X t k
1 0.016004
2 0.101388 K 4 2 (Por lo expresado en 3)
3 0.061411
Con esta información y dado que se ha definido un polinomio de segundo
grado para j ,
j 1 2 ( j ) 3 ( j )2
el cálculo se realiza de la siguiente manera:
705
j 0 ˆ 0 ˆ1 ˆ 2 ( 0 2 ) ˆ 3 ( 0 2 )2
0.016004 0.101388 * 2 0.061411* 4
0.464424
j 1 ˆ1 ˆ1 ˆ 2 ( 1 2 ) ˆ 3 ( 1 2 )2
0.016004 0.101388 * 1 0.061411* 1
0.178803
j 2 ˆ 2 ˆ1 ˆ 2 ( 2 2 ) ˆ 3 ( 2 2 )2
0.016004
j 3 ˆ 3 ˆ1 ˆ 2 ( 3 2 ) ˆ 3 ( 3 2 )2
0.016004 0.101388 * 1 0.061411* 1
0.023973
j 4 ˆ 4 ˆ1 ˆ 2 ( 4 2 ) ˆ 3 ( 4 2 )2
0.016004 0.101388 * 2 0.061411* 4
0.058872
El resultado coincide con los coeficientes que muestra Eviews bajo el título
“Lags Distribution of”
1 0.058942
k 1
2 0.120499 K 5 2 (por lo expresado en 3)
2
3 0.036707
j 0 ˆ 0 ˆ1 ˆ 2 ( 0 2 ) ˆ 3 ( 0 2 )2
0.058942 0.120499 * 2 0.036707 * 4
0.446768
j 1 ˆ1 ˆ1 ˆ 2 ( 1 2 ) ˆ 3 ( 1 2 )2
0.058942 0.120499 0.036707
0.216148
j 2 ˆ 2 ˆ1 ˆ 2 ( 2 2 ) ˆ 3 ( 2 2 )2
0.058942
j 3 ˆ 3 ˆ1 ˆ 2 ( 3 2 ) ˆ 3 ( 3 2 )2
0.058942 0.120499 0.036707
0.02485
j 4 ˆ 4 ˆ1 ˆ 2 ( 4 2 ) ˆ 3 ( 4 2 )2
0.058942 0.120499 * 2 0.036707 * 4
0.035228
j 5 ˆ 5 ˆ1 ˆ 2 ( 5 2 ) ˆ 3 ( 5 2 )2
0.058942 0.120499 * 3 0.036707 * 9
0.027808
BIBLIOGRAFIA
Caso 17.1: Vulnerabilidad social en los hogares de Río Cuarto ..... 725
17.1. Características
Modelo Logit
Modelo Probit
Modelo Tobit
El modelo se especifica
Yt 1 2 X 2t k X kt t
donde,
Modelos de este tipo, que expresan la variable binaria como una función
lineal de la o las variables independientes, se denominan MPL puesto que la
E Yi X i , puede ser interpretada como la probabilidad condicional de que el
evento suceda dado X i ; es decir, P Yi 1 X i
Ejemplo. En un estudio en los hogares, si Y mide la posesión de una
casa -Y=1 cuando la familia posee casa y Y=0 cuando no posee- y X
el nivel de ingresos. La E Yi X i da la probabilidad de que una familia
posea una casa dado que tiene un ingreso de cierta cantidad X i
Si E i 0
E Yi X i 1 2 X 2t k X kt
E Yi X i 1 2 X 2t k X kt Pi
0 E Yi X i 1
Heterocedasticidad de t
Y t 1 2 X t t
Y Pi E Y 1 X t
1 1 ez
1 e ( 1 2 X t ) 1 e z 1 e z
donde
X es el ingreso
ez
representa la probabilidad de que el evento se presente.
1 e z
1
Pi ; donde z i ˆ1 ˆ2 X i
1 e zi
z i , e zi 0
z i , e zi aumenta indefinidamente1.
Esto significaría que no se puede utilizar MCO para estimar los parámetros.
Pero, este problema es más aparente que real ya que el modelo es
intrínsecamente lineal, lo cual puede verse de la siguiente manera.
1
Si el evento se presenta Pi
1 e zi
1
Si el evento no se presenta la probabilidad es 1 Pi
1 e z
ez
1 e e z
Pi z
1 Pi 1
1 e z
P
Li ln i In e zi Z i 1 2 X t
1 Pi
P
Li ln i 1 2 X t t
1 Pi
1
Li ln si una familia posee una casa
0
0
Li ln si una familia no posee una casa.
1
Pˆ
Lˆi ln i ˆ1 ˆ 2 X t
1 Pˆi
P
Li ln i
1 Pi
Pi Pˆi
e z esto significa que e 1 2 X 2 t
ˆ ˆ
Pero
1 Pi 1 Piˆ
Pi ez
ez Pi e z 1 Pi Pi
1 Pi 1 e z
1
i N 0,
N i Pi 1 Pi
W i Li 1 W i i W i X i W i i
donde W i N i Pˆi 1 Pˆi es el coeficiente que pondera
719
X i es igual a X i ponderada
Esto es,
El intercepto estimado es i N i Pˆi 1 Pˆi
Como muestra esta regresión, el coeficiente de pendiente estimado sugiere
que para un incremento unitario ($1.000) en el ingreso ponderado, el
logaritmo ponderado de las probabilidades a favor de poseer una casa
aumenta en alrededor de 0.08.
720
w N i Pˆi 1 Pˆi 70 36 34
70 70
4,181592 (2)
x i* x i w
L*i
Pero L Li w , por lo que Li
*
i 0,019858 .
w
Pi
Ahora bien, Li ln
1 Pi
Tomando el antilogaritmo de Li
Pi
anti logLi e
ln
1Pi Pi
(4)
1 Pi
Dado el modelo
Li 1 2 X 2t k X kt t
Lˆi ˆ1 ˆ 2 X 2t ˆ k X kt
Pˆ
Li ln i
1 Pˆi
Pˆ
ln i
Pˆi
anti logLi e 1 Pˆi
e z e 1 2 X 2 t k X kt
1 Piˆ
Pi
e z Pi e z 1 Pi
1 Pi
ez
Pi
1 e z
ˆ i 1 Pˆ Pˆ
dP
dX i
722
De esta manera:
Ii 1 2 X i
Ahora bien, es razonable suponer que para cada familia hay un nivel crítico
o umbral del índice, que se puede denominar I i , tal que si
I i I i
Pi Pr Y 1 Pr I i I i F I i
1
Ii
e t
2
/2
dt
1
1 2 X i
e t
2
/2
dt
2
2
723
I i F 1 Pi 1 2 X i
I i F 1 Pˆi 1 2 X t t
Notas:
Yt 1 2 X 2t k X kt t
Î t ˆ 1 ˆ 2 X 2t ˆ t X kt
Pi P Y 1 X P I i* Î t P z i ˆ 1 ˆ 2 X 2t ˆ t X kt F ˆ 1 ˆ 2 X 2t ˆ t X kt
Yi 1 2 X 2i 2i ; si Y tiene datos
2
Pizarro, Roberto (2001). La vulnerabilidad social y sus desafíos. Una mirada desde América Latina.
Estudios Estadísticos y Prospectivos. Serie 6. CEPAL
726
Vulnerabilidad Social
Alta-Alta Baja-Baja
8,84% 14,35%
Alta-Media
Baja-Media
25,62%
18,98%
Alta-Baja Baja-Alta
5,58% 10,26%
Media-Alta Media-Baja
8,78% 3,14%
Media-Media
4,45%
Ahora bien, ¿qué nivel de impacto tienen estos factores en los niveles de
vulnerabilidad de los hogares?
Características observadas
Altavul: 1 pertenencia a grupo de alta vulnerabilidad
0 no pertenencia a grupo de alta vulnerabilidad
MAD: 1 madre adolescente
0 madre adulta
Edad: edad actual de la madre (variable continua)
NBI: 1 hogar con NBI
0 hogar sin NBI
AI: cantidad de personas que aportan ingresos en el hogar (variable
continua)
IM: ingreso mensual del hogar (variable continua)
IPC: ingreso per cápita diario (variable continua)
Se solicita
la estimación a través del Modelo Logit y el Modelo Probit
realizar comparaciones entre los resultados de ambos modelos
BIBLIOGRAFIA
18.1. Introducción
(1) Ct Yt
(2) Yt Ct I t
Donde,
C : Consumo;
Y : Renta;
I : Inversión
autónoma. Esto es, dada una inversión el modelo determina los valores de
equilibrio del consumo y de la renta. Se ve que tanto el consumo como la
renta dependen de la inversión. Eso es, si resolvemos el sistema, sin tener
en cuenta los subíndices:
(3) C I
1 1 ,
1
(4) Y I
1 1
(5) Ct Yt t
(6) Yt Ct I t
C e Y sobre I y
Tenemos ahora la dependencia explícita de , resolviendo el
sistema
1
(9) Ct It t
1 1 1
1 1
(10) Yt It t
1 1 1
1 1
(11) E (Yt t ) E ( t ) E ( I t t ) E ( t2 )
1 1 1
1
2 0, utilizando (7) y (8).
1
( 12 ) b
( C C )(Y Y ) ( Y Y )(Y Y )
(Y Y ) 2 (Y Y ) 2
[ (Y Y ) 2 (Y Y )
(Y Y )
(Y Y ) 2 (Y Y ) 2
(Y Y ) / T
(Y Y ) 2 / T
(13) P lim
(Y Y )
E ( tYt ) E ( tYt ) (1 ) 1 2
T
(Y Y )
2
Similarmente, / T es la varianza muestral, que bajo condiciones
generales
(14) P lim
(Y Y ) 2
E[Y E (Yt )]2 E[Y E (Yt )]2 yy
T
Entonces,
(1 ) 1 2
(15) P lim b
yy
1
Observación 1. Ver apuntes de Distribuciones asintóticas descriptos en Inferencia Estadística.
720
(16) Var (Y ) YY E [Y E (Yt )] 2 (1 ) 2 [E (I E (I )] E ( 2 )
(1 ) 2 ( ii 2 )
(1 ) 1 2 2
(17) P lim b (1 )
(1 ) 2 ( ii 2 ) ii 2
(18) E (Ct | Yt ) Yt E ( t | Yt )
Pero,
E ( t | Yt ) E ( t ) 0
Aunque, esta forma de mirar el resultado nos recuerda que los MCO
deberían ser apropiados para resolver las relaciones (9) y (10). Esto es (9)
cae bajo el modelo de regresión lineal estocástico independiente; obsérvese
1
(19) E (Ct | I t ) I t E t | I t
1 1 1
It
1 1
(20) Ct 0 1I t t
Donde,
1
(21) 0 , 1 , t t
1 1 1
(22) P lim p0 0 , P lim p1 1
1 1
721
, ) f (Y | X ; , ) f ( X , )
2 2
f (Y , X;
Si nuestro interés se centra en los parámetros de la distribución condicionada ,
2
Eσˆ | X σ
2 2
u u
Donde t, es una variable aleatoria que recoge el error de medida en t. En esta
situación X t es una variable aleatoria aunque consideramos X t como fija. Por lo
*
X t ut t 1, , T
ob 2
( 5) Yt
Donde ut t t , es el término de perturbación que recoge, además de t , el
error de medida t .
El modelo (5)ob2, es equivalente al (4)ob2, pero donde el regresor X t , t 1, , T es
una variable aleatoria. Tampoco podemos hacer, en este caso, un análisis
723
2) T (βˆ β)
d
N (O, σ
2 1
Q )
3) Bajo la hipótesis nula H0: R = r los estadísticos t y F usuales, se distribuyen
2
asintóticamente como N ( 0,1) y q , respectivamente, donde q, es el número de
restricciones. Por lo tanto, podemos utilizar estas distribuciones asintóticas para
aproximar la distribución exacta de los estadísticos de significatividad individual
y conjunta, si el tamaño de la muestra es grande.
El supuesto de independencia entre los regresores y el término de perturbación,
no se satisface en los ejemplos a), b) y c). Luego este supuesto sigue siendo
bastante restrictivo, en muchas ocasiones.
Incorrelación contemporánea
Si las variables aleatorias X it y t no son independientes, aunque estén
incorrelacionadas contemporáneamente, esto es, E ( X it ut ) 0, t , i , no podemos
derivar analíticamente propiedades para muestras finitas de los estimadores:
1
E(βˆ ) β E[( X´X) X´ u ]
1
En general, E[( X´X) X´ u ] puede ser distinto de cero, con lo cual β̂ puede ser
sesgado. Por otro lado, el cálculo analítico de la matriz de varianzas y covarianzas,
es difícil debido a la no linealidad del estimador en X y u. Finalmente, no
conocemos su distribución exacta. En particular, no siguen una distribución normal
aun suponiendo que X it se distribuye normal i, t. Como consecuencia, los
estadísticos, no tiene una distribución exacta conocida. Respecto a las propiedades
asintóticas de los estimadores MCO, bajo los supuestos habituales más el (7 ) y
ob 2
Correlación contemporánea
Supongamos que algunos de los regresores están correlacionados
contemporáneamente con el término de perturbación, es decir
E ( X it ut ) 0, t y para al menos algún i . En este caso, por las mismas razones que en el
anterior, no es posible derivar ninguna propiedad en muestras finitas de los
estimadores MCO. Además, perdemos las propiedades asintóticas deseables. No se
satisface una de las condiciones del teorema de Mann-Wald, por lo que, en general,
el estimador MCO no va a ser consistente, ni va a distribuirse asintóticamente como
una normal. Esto nos lleva a que, bajo la hipótesis nula H0: R = r, los estadísticos
t y F, no se distribuyen asintóticamente como una N ( 0,1) y q , respectivamente. Por
2
725
E ( X t ut ) E[( X t t )( t t )] V ( t ) 0
*
p1
(23) ˆ
1 p1
P lim p1 /(1 )
(24) P lim ˆ
P lim(1 p1 ) 1 /(1 )
(25) ˆ p0 (1 ˆ )
Realmente ̂ es consistente
(1 )
(26) P lim ˆ P lim p0 P lim(1 ˆ )
(1 )
Z´Z
(c ) p lim Q ZZ finita y definida positiva
T
Aplicando el teorema de Mann-Wald y el teorema de Cramer, se pueden demostrar
los siguientes resultados asintóticos:
1. β̂ VI es un estimador consistente de .
2. T βˆ VI β
d
N 0, σ
2 1
Q XZ Q ZZ Q ZX
1
Un estimador consistente de la matriz de varianzas y covarianzas asintóticas, es:
1 1
X´Z Z´Z Z´X
ˆVI
2
T T T
727
Donde:
( Y X βˆ VI )' ( Y X βˆ VI )
ˆVI
2
T
Para contrastar hipótesis del tipo H0: R = r, se utiliza el estadístico:
1 1 1
(R βˆ VI r)´ [R(X´Z) (Z´Z) R´] (R βˆ VI r )
F 2
σˆ VI
2
Este estadístico, se distribuye asintóticamente como una q , donde q, es el número
de restricciones.
1 1
(27) E (Yt | I t ) I t E t | I t
1 1 1
1
It
1 1
(28) Yt 0 1I t t
Donde
1 1
(29) 0 , 1 , t t
1 1 1
(30) P lim d 0 0 , P lim d1 1 .
1 1
~
Entonces podríamos haber considerado los estimadores , definidos por
~
~ ~
d1 1 (1 ) y d 0 ~ (1 ) esto es,
1 d
(31) ~ 1 , ~ 0
d1 d1
Sin embargo, no hay por qué hacer esto en el presente modelo; utilizando
~
(6) puede demostrarse que ˆ y que ~ ˆ .
728
C Y I
Y 64.993 17.408
I 5.710
La estimación mínimo cuadrática clásica inconsistente de en (5) es entonces
mcy 47.585
(33) ˆ 0,732
m yy 64.993
(39) Demanda qt pt t
qt pt
*
( 40) Oferta t
729
pt
Si en la ecuación de demanda un regresor fuera independiente de la
t
perturbación , entonces cuando la ecuación de demanda recibe una
qt
perturbación positiva, en (39) debería elevarse en la cantidad de la
qt pt
perturbación. Pero entonces eso haría en (40); cuya independencia de
*
y t implica que t t
. Aunque las perturbaciones de la demanda y de la
oferta pueden estar correlacionadas, sin embargo, es absurdo pensar que
p
sean idénticas. Concluimos que t y t no son independientes, el precio está
determinado conjuntamente por la cantidad y por los desplazamientos
aleatorios de la ecuación de demanda.
Como hemos visto en los apartados anteriores, este supuesto nos garantiza
que el estimador MCO de los coeficientes de regresión , es consistente.
Existen casos en los cuales esta hipótesis no se satisface, por ejemplo, si
algún regresor está medido con error, si omitimos variables relevantes, si
hay problema de simultaneidad, etc.. Hausman (1978), ha desarrollado un
procedimiento para contrastar el cumplimiento de esta hipótesis. Este
contraste se puede interpretar también, en términos generales, como un
contraste de mala especificación de la parte sistemática del modelo.
X ´u
H 0 : p lim 0
T
X ´u
H A : p lim 0
T
T ˆMCO
d
N 0, V1 T ˆVI
d
N 0, V2
1 , coeficiente de ajuste, 1 0
BIBLIOGRAFIA