Beruflich Dokumente
Kultur Dokumente
Aggrraarriiaass -- 22000011
M
MAAT
TEERRIIA
ALL PPRREEPPA
ARRA
ADDO
O PPO
ORR
1
INDICE
Operaciones básicas
Matrices
Matriz cuadrada
Producto de matrices
Matriz diagonal
Matriz identidad
Matriz transpuesta
Matriz inversa
Matrices y vectores
2
Autovalores y autovectores
Medidas de distancia
Distancia Euclidiana
Distancia de Mahalanobis
Valores predichos de y
Total
3
MATRICES, OPERACIONES BASICAS
Matriz
Ejemplos:
⎡1 3 1⎤
⎡2 3 7⎤
a) ⎢ ⎥ b) ⎢⎢2 1 4 ⎥⎥
⎣ 1 − 1 5⎦ ⎢⎣4 7 6 ⎥⎦
lineales:
⎧2 x + 3 y + 7 z = 0
⎨
⎩1x − 1 y + 5 z = 0
Dada la matriz:
4
En una matriz cuadrada los elementos a11 a22 … ann son elementos de la
diagonal.
TRAZA
traza de A.
n
T = ∑ aii
i =1
⎡2 5⎤ ⎡ 3 9⎤
A2 x 2 = ⎢ ⎥ ; B2x2 = ⎢ 4 8⎥ ;
⎣ 7 − 2 ⎦ ⎣ ⎦
⎡ 5 14⎤ ⎡ − 1 − 4⎤
A + B = C2 x 2 = ⎢ ⎥ ; A − B = C2 x 2 = ⎢ ⎥
⎣11 6 ⎦ ⎣ 3 − 10⎦
La suma de k matrices A es una nueva matriz del mismo orden de A. Cada
k es un escalar.
⎡2 − 3⎤ ⎡2 − 3⎤ ⎡2 − 3⎤ ⎡2 − 3⎤ ⎡6 − 9⎤
⎢1 2⎥ + ⎢ 1 2⎥ + ⎢ 1 2⎥ = 3 ⎢ 1 2⎥ = ⎢ 3 6⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣ 3 5⎥⎦ ⎢⎣ 3 5⎥⎦ ⎢⎣ 3 5⎥⎦ ⎢⎣ 3 5⎥⎦ ⎢⎣9 15⎥⎦
5
PRODUCTO
⎡ b11 ⎤
⎢b ⎥
⎢ 21 ⎥
A1 xm = [a11 a12 a13 … a1m ] y Bmx1 = ⎢ b31 ⎥
⎢ ⎥
⎢ ⎥
⎢⎣bm1 ⎥⎦
⎡ b11 ⎤
⎢b ⎥
⎢ 21 ⎥
[a … a1m ] ⎢ b31 ⎥ = [a11b11 + a12b21 + + a1m bm1 ] = ⎡ ∑ a1k bk1 ⎤
m
a12 a13
11
⎢ ⎥ ⎢⎣k =1 ⎥⎦
⎢ ⎥
⎢⎣bm1 ⎥⎦
La operación es fila por columna.
Ejemplo:
⎡ 2⎤
[4 5 6]⋅ ⎢⎢ 3⎥⎥ = [4(2) + 5(3) + 6(−1)] = [17]
⎢⎣− 1⎥⎦
El producto Bmx1 A1xm = Dmxm la operación es fila por columna
6
⎡ b11 ⎤ ⎡ b11a11 b11a12 b11a1m ⎤
⎢b ⎥ ⎢b a b21a12 b21a1m ⎥
⎢ 21 ⎥ ⎢ 21 11 ⎥
⎢ b31 ⎥ [a11 a12 a13 … a1m ] = ⎢ b31a11 b31a12 b31a1m ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣bm1 ⎥⎦ ⎢⎣bm1a11 bm1a12 bm1a1m ⎥⎦
Si A2 x 3 x B3 x 4 = C2 x 4
⎡ 1 0 −2 0 ⎤
⎢3 2 0 3⎥
⎢ ⎥
⎢⎣− 1 1 − 2 0 ⎥⎦
⎡1 2 3⎤ ⎡ 4 7 −8 6⎤
⎢0 − 5 − 1⎥ ⎢− 14 − 11 2 − 15⎥⎦
⎣ ⎦ ⎣
1) A + B = B + A ( ley conmutativa)
3) Existe una matriz cero : Omxn tal que para cada matriz A:
7
A +0 = 0 + A = A
4) Para cada matriz A existe una única matriz –A denominada negativa de
1) r(A + B )= rA + rB
2) (r+s) A = rA + sA
3) (r ⋅s) A = r (s⋅ A )
4) 1⋅ A = A
5) 0⋅ A = A⋅0 = 0
MATRIZ DIAGONAL
⎡a11 0 0 0⎤
⎢0 a22 0⎥
⎢ ⎥
La matriz D=⎢0 a33 0 ⎥ es una matriz diagonal.
⎢ ⎥
⎢ ⎥
⎢⎣ 0 0 0 ann ⎥⎦
D = diag (a11 a 22 a nn ) .
8
a11 = a22 = a33 = = ann = k
D es una matriz escalar.
MATRIZ IDENTIDAD
⎡1 0 0⎤
⎡1 0⎤
I2 = ⎢ ⎥ ; I 3 = ⎢0 1 0 ⎥
⎣0 1 ⎦ ⎢ ⎥
⎢⎣0 0 1⎥⎦
MATRIZ TRANSPUESTA
Ejemplo:
⎡ 2 8⎤
⎡ 2 4 6⎤
A2 x 3 =⎢ ⎥ ; A'3 x 2 = ⎢4 10⎥
⎣ 8 10 12 ⎦ ⎢ ⎥
⎢⎣6 12⎥⎦
Reglas
( A + B )' = A'+ B' ; ( AB )' = B' A' ; ( ABC )' = C ' B' A'
9
MATRIZ INVERSA
AA-1 = I
Si A y B son matrices cuadradas, tal que AB = BA = I, luego B es la inversa de
A.
A = B-1 (B=A-1) (AB)-1 = B-1A-1
Ejemplo: A.B = I
⎡1 2 3⎤ ⎡ 6 − 2 − 3⎤ ⎡1 0 0⎤
⎢1 3 3⎥ ⎢− 1 1 0 ⎥ = ⎢0 1 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢⎣1 2 4⎥⎦ ⎢⎣− 1 0 1⎥⎦ ⎢⎣0 0 1⎥⎦
Ejemplos de uso
- El determinante de A A ≠0
- La inversa de una matriz cuadrada no singular es única
• Si A es no-singular, luego
AB = AC ⇒ B = C
• La inversa de una traspuesta es la traspuesta de la inversa
(A’)-1 = (A-1)’
La inversa de una matriz A diagonal no-singular
10
⎡a11 0 0 0 ⎤
⎢0 a 22 0 0 ⎥⎥
A=⎢
⎢0 0 a33 0 ⎥
⎢ ⎥
⎣0 0 0 a44 ⎦
original
⎡ a1 0 0 0⎤
⎢0 0⎥
11
1
0
A =⎢
−1 ⎥
a22
⎢0 0 1
a33 0⎥
⎢ 1 ⎥
⎣0 0 0 a ⎦
44
⎧m + a = 14 ⎧m + a + 0d = 14
⎪ ⎪
⎨m + d = 12 ⎨m + 0a + d = 12
⎪m − a = 6 ⎪m − a + 0 d = 6
⎩ ⎩
qué valores toman m, a y d?
X 3 x 3 β 3 x1 = Y3 x1 (1)
⎡1 1 0 ⎤ ⎡m⎤ ⎡14 ⎤
⎢1 0 1⎥ ⎢ a ⎥ = ⎢12 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢⎣1 − 1 0 ⎥⎦ ⎢⎣ d ⎥⎦ ⎢⎣ 6 ⎥⎦
11
( X 3 x 3 ) −1 X 3 x 3 β 3 x1 = ( X 3 x 3 ) −1Y3 x1
I 3 x 3 β 3 x1 = ( X −1Y )3 x1
β 3 x1 = ( X −1Y )3 x1
⎡ 12 0 1
2 ⎤ ⎡1 1 0⎤ ⎡m⎤ ⎡ 12 0 1
2 ⎤ ⎡14⎤
⎢ 1 0 − 12 ⎥ ⋅ ⎢1 0 1⎥ ⋅ ⎢ a ⎥ = ⎢ 12 0 − 12 ⎥ ⋅ ⎢12⎥
⎢ 2 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣− 12 1 − 2 ⎥⎦ ⎢⎣1 − 1 0⎥⎦ ⎢⎣ d ⎥⎦ ⎢⎣− 12
1
1 − 2 ⎥⎦ ⎢⎣ 6⎥⎦
1
⎡1 0 0⎤ ⎡m⎤ ⎡10⎤
⎢0 1 0 ⎥ ⋅ ⎢ a ⎥ = ⎢ 4 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣0 0 1⎥⎦ ⎢⎣ d ⎥⎦ ⎢⎣ 2⎥⎦
⎡m⎤ ⎡10 ⎤
⎢ a ⎥ = ⎢ 4⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ d ⎥⎦ ⎢⎣ 2 ⎥⎦
12
a 11 x 1 + a 12 x 2 + .............. + a 1n x n = b1
a 21 x 1 + a 22 x 2 + .............. + a 2 n x n = b 2
........................................................
a m1 x 1 + a m 2 x 2 + .............. + a mn x n = b m
⎡ a 11 a 12 . a 1 n ⎤ ⎡ x 1 ⎤ ⎡ b1 ⎤
⎢a a 22 . a 2n ⎥ ⎢x 2 ⎥ ⎢ b2 ⎥
⎢ 21 ⎥⎢ ⎥ ⎢ ⎥
⎢ . . . . ⎥⎢ . ⎥ = ⎢ . ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ . . . . ⎥⎢ . ⎥ ⎢ . ⎥
⎢⎣ a m1 a m2 . a mn ⎥⎦ ⎢⎣ x n ⎥⎦ ⎢⎣b m ⎥⎦
Sea A una matriz cuadrada de orden nxn, se conoce como inversa de A a la matriz A-1 de
orden nxn que se cumple con lo siguiente:
A-1A=A A-1=Inxn
13
Donde I es la matriz identidad que se caracteriza por poseer unos en la diagonal principal y
ceros en el resto de la matriz.
Ax = b
debemos premultiplicar a ambos lados de la ecuación por a matriz A-1 de manera que
tenemos:
A-1Ax = A-1b
Ix = A-1b
Además Ix = x, entonces
x = A-1b
14
DEPENDENCIA E INDEPENDENCIA LINEAL
a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn
Ejemplo: Xa ; a´X
Xa = a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn,
donde x1 ,x2 x3 x4............... xn son las columnas de X
a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn = 0
donde ninguno de los xi, i = 1 a n, son nulos, luego esos vectores se dicen
LINEALMENTE DEPENDIENTES
15
⎡ 3 −6 ⎤
⎡a ⎤
1) X = ⎢⎢− 6 12 ⎥⎥ a = ⎢ 1⎥
⎢⎣ 9 − 18⎥⎦ ⎣a 2 ⎦
⎡3 0⎤
⎡u ⎤
2) X = ⎢− 6 5 ⎥⎥
⎢ u = ⎢ 1⎥
⎢⎣ 9 − 5⎥⎦ ⎣u 2 ⎦
tales vectores
en la matriz
16
Dado el sistema: A (rxs)x(sx1)= Y(rx1)
El sistema es consistente sí y solo sí
r(A) = r ([AY])
soluciones.
PROPIEDADES
2) r(Apxq) # n
singular.
diagonal.
TRANSFORMACIONES ORTOGONALES
17
y=Ax , donde A es la matriz de coeficientes que efectúa la
transformación.
x=A-1y
Si AA-1=I, se dice que la transformación y=Ax es una transformación
ortogonal.
PROYECCIONES
Ejemplo: ŷ = Py
A e=λe
Nota:
A e = λ e ⇒ A e - λ e = 0 ⇒ A e - λ Ie = 0 ⇒ (A - λ I )e = 0
18
det (A - λ I ) = 0
⏐A - λ I ⏐= 0
⎡ 1 1⎤
Ejemplo : sea A = ⎢ ⎥
⎣ − 2 4⎦
⎡ 1 1 ⎤ ⎡λ 0 ⎤ ⎡(1 − λ ) 1 ⎤
A − λI = ⎢ ⎥ − ⎢ ⎥ =⎢ ∴
⎣ − 2 4⎦ ⎣ 0 λ ⎦ ⎣ − 2 (4 − λ )⎥⎦
det (A - λ I ) = 0 =
(1 - λ) ⋅ (4 - λ ) – (-2) ⋅ 1 = 0
⇒ λ1 = 2; λ2 = 3
A x -= λ1 x
⎡ 1 1⎤ ⎡ x1 ⎤ ⎡ x1 ⎤
⎢ − 2 4⎥ ⎢ x ⎥ = 2 ⎢ x ⎥
⎣ ⎦ ⎣ 2⎦ ⎣ 2⎦
⎧ x1 + x 2 = 2 x1 ⎡1⎤
⎨ ⇒ x 2 = x1 ∴un vector podría ser x = ⎢ ⎥
⎩− 2 x1 + 4 x 2 = 2 x 2 ⎣1⎦
A x -= λ2 x
⎡ 1 1 ⎤ ⎡ x1 ⎤ ⎡ x1 ⎤
⎢− 2 4⎥ ⎢ x ⎥ = 3 ⎢ x ⎥
⎣ ⎦ ⎣ 2⎦ ⎣ 2⎦
⎧ x1 + x 2 = 3 x1 ⎡1 ⎤
⎨ ⇒ x 2 = 2 x1 ∴un vector podría ser x = ⎢ ⎥
⎩− 2 x1 + 4 x 2 = 3 x 2 ⎣ 2⎦
19
PROPIEDADES DE LOS AUTOVALORES
<u’, v > = a1 a2 + b1 b2
v = a 2 + b2 = v 'v
⎡λ 1 0 … 0 ⎤
⎢ ⎥
⎢ 0 λ 2 … 0⎥
Λ pxp= ⎢ ⎥ si λi > 0 decimos que A es definida positiva
⎢ ⎥
⎢ ⎥
⎣ 0 0 … λ p⎦ p x p
P = [ e 1 e 2 ... e p ]
20
Tipos de Formas Cuadráticas
1- Definidas Positivas: y’Ay es una forma cuadrática definida positiva si y’Ay > 0 para
todo y ≠ 0.
Si una forma cuadrática es definida positiva (o semidefinida positiva), se dice que su matriz
es definida positiva ( o semidefinida positiva).
Esperanza
21
Considere que la esperanza de yi es E[yi]=μi para i=1,2,...,k. Luego, la esperanza de y se
define de la siguiente manera:
⎡ E( y1 ) ⎤ ⎡ μ1 ⎤
⎢ E ( y ) ⎥ ⎢μ ⎥
⎢ 2 ⎥ ⎢ 2⎥
E(y) = μ = ⎢ . ⎥ = ⎢ . ⎥
⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥
⎢⎣E( y k )⎥⎦ ⎢⎣μ k ⎥⎦
Sean:
- a un vector de números reales (constantes).
- ykx1 un vector aleatorio con esperanza μ.
- A una matriz de orden nxk.
Entonces:
1) E(a)= a
2) E(a’y)= a’E(y)= a’μ
3) E(Ay)= AE(y)= Aμ
Varianza
Sea ha explicado que la esperanza de un vector y es otro vector (μ). La varianza de un
vector, en cambio, es una “matriz de varianzas y covarianzas”.
22
V(y)= Vkxk= E[(y-μ).(y-μ)’]
Entonces:
1) Var(a’y)= a’Var(y)a= a’Va
2) Var(Ay)= AVar(y)A’= AVA’
centralidad.
2) Si ynx1 ∼ N (μ , I) y Anxn es simétrica, entonces:
y’Ay ∼ χ 2k ,λ con λ=1/2 μ’A μ si y solo si A es idempotente de rango k
23
(1/σ2)y’Ay ∼ χ 2k ,λ con λ=1/2 σ2 si y solo si A es idempotente de rango k
3) Si ynx1 ∼ Nm (μ , ∑)
y’Ay ∼ χ 2k ,λ con λ=1/2 μ’ ∑-1 μ
Sean:
- ynx1 ∼ Nm (μ , ∑)
- Anxn simétrica de rango r1
- Bnxn simétrica de rango r2
24
Independencia entre una forma cuadrática y un vector
Sean
- ynx1 ∼ Nm (μ , ∑)
- Anxn simétrica
- Bnxn
yi = β 0 x0 + β 1x1 +ε i i =1 n (1)
aleatorio y lo indicamos εi .
El supuesto más común es que los errores son variables aleatorias
25
3) las unidades experimentales son todas independientes entre sí, lo que
i = 1… n observaciones.
y1 = β 0 x0 + β1 x1 + ε1
y2 = β 0 x0 + β1 x2 + ε 2
yn = β 0 x0 + β1 xn + ε n
Cualquier modelo lineal estándar con errores iid, puede ser escrito en
Y = Xβ + ε ; ε ≈ (0, σ 2 I )
En el caso de regresión lineal simple las matrices son:
⎡ y1 ⎤ ⎡1 x1 ⎤ ⎡ε1 ⎤
⎢y ⎥ ⎢1 x ⎥ β ⎢ε ⎥
⎡ ⎤
Y = ⎢ 2⎥ ; X =⎢ 2
⎥ ; β=
⎢
0
⎥ ; ε = ⎢ 2⎥
⎢ ⎥ ⎢ ⎥ ⎣ β1 ⎦ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ yn ⎦ ⎣1 xn ⎦ ⎣ε n ⎦
La matriz X es la matriz de diseño o del modelo. El vector β contiene todos los
parámetro en β.
un factor:
26
y11 = μ + τ 1 + ε11
y12 = μ + τ 1 + ε12
y21 = μ + τ 2 + ε 21
(2)
y22 = μ + τ 2 + ε 22
y31 = μ + τ 3 + ε 31
y32 = μ + τ 3 + ε 32
τi es el parámetro que representa el efecto de tratamiento, donde la
τ i = μi − μ
En notación matricial el sistema (2) es:
⎡ y11 ⎤ ⎡1 1 0 0⎤ ⎡ε11 ⎤
⎢ y ⎥ ⎢1 1 0 0⎥ ⎡ μ ⎤ ⎢ε12 ⎥
⎢ 12 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ y21 ⎥ ⎢1 0 1 0⎥ ⎢τ 1 ⎥ ⎢ε 21 ⎥
⎢ ⎥=⎢ ⎥⎢ ⎥+ ⎢ ⎥
⎢ y22 ⎥ ⎢1 0 1 0⎥ ⎢τ 2 ⎥ ⎢ε 22 ⎥
⎢ y31 ⎥ ⎢1 ⎢ ⎥
0 0 1⎥ ⎣τ 3 ⎦ ⎢ε 31 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ y32 ⎦ ⎣1 0 0 1⎦ ⎣ε 32 ⎦
Y = Xβ + ε
NORMALES
27
tienen la varianza más chica de todos los posibles estimadores lineales. El
i =1
En notación matricial:
cero.
SCE = ε' ε = (Y − Xβ )' (Y − Xβ )
= (Y ' − β ' X ' )(Y − Xβ )
= Y ' Y − Y ' Xβ − β ' X ' Y + β ' X ' Xβ
= Y ' Y − 2 β ' X ' Y + β ' X ' Xβ
δSCE
= 0 − 2 X ' Y + 2 X ' Xβ = 0
δβ
− X ' Y + ( X ' X )β = 0
( X ' X )β = X ' Y
Las ecuaciones resultantes son las ecuaciones normales.
28
El vector de parámetros estimado β̂
( X ' X )−1 ( X ' X )β = ( X ' X )−1 X ' Y
βˆ = ( X ' X )−1 X ' Y
Para el caso de 3 tratamientos y 2 observaciones por tratamiento el modelo es:
yij = μ + τ i + ε ij i = 1, 2, 3 ; j = 1, 2 ;
y11 = μ + τ 1 + ε11
y12 = μ + τ 1 + ε12
y21 = μ + τ 2 + ε 21
y22 = μ + τ 2 + ε 22
y31 = μ + τ 3 + ε 31
y32 = μ + τ 3 + ε 32
En notación matricial:
⎡ y11 ⎤ ⎡1 1 0 0⎤ ⎡ε11 ⎤
⎢ y ⎥ ⎢1 1 0 0⎥ ⎡ μ ⎤ ⎢ε12 ⎥
⎢ 12 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ y21 ⎥ ⎢1 ⎢ ⎥
0 1 0⎥ τ 1 ⎢ε 21 ⎥
⎢ ⎥=⎢ ⎥⎢ ⎥+ ⎢ ⎥
⎢ y22 ⎥ ⎢1 0 1 0⎥ ⎢τ 2 ⎥ ⎢ε 22 ⎥
⎢ y31 ⎥ ⎢1 ⎢ ⎥
0 0 1⎥ ⎣τ 3 ⎦ ⎢ε 31 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ y32 ⎦ ⎣1 0 0 1⎦ ⎣ε 32 ⎦
29
X ' X = 0 ⇒ ( X ' X ) ∃/
−1
Esta poderosa manera de cálculo es usada por paquetes estadísticos tales como
SAS.
Dado el modelo
Y = Xβ + ε ε ≈ iid (0, Iσ 2 )
β es estimado como
βˆ = GX ' Y
Ε(Y ) = Ε( Xβ + ε )
Ε(Y ) = Xβ + Ε(ε ) = Xβ
Y − Ε(Y ) = ε
La matriz de variancias y covariancias de los εi
V (ε ) = Ε[ε − Ε(ε )]' [ε − Ε(ε )] = Ε(ε ' ε ) = Iσ 2
El vector β̂ es insesgado en el modelo de regresión
30
[
Ε(βˆ ) = Ε ( X ' X ) X ' Y
−1
]
Ε(βˆ ) = ( X ' X ) X ' Ε(Y ) = ( X ' X ) X ' Xβ = β
−1 −1
= Gσ 2
Valores predichos de y
con respecto a sus valores predichos ŷi es la suma cuadrado error (SCE):
31
2
SCE = ∑ ( y i − yˆ i )
ni
un número
i =1
SCE = (Y − Yˆ ) ' (Y − Yˆ )
[
SCE = Y ' I − X ( X ' X ) X ' Y
−1
]
[
= ( β ' X '+ε ) I − X ( X ' X ) X ' ( Xβ + ε )
−1
]
Operando y aplicando esperanza
[ ] ;
SCE = ε ' I − X ( X ' X ) X ' ε
−1
Ε(ε ) = 0 ; Var (ε ) = Iσ 2
Ε(CME ) = Ε[ε ' [I − X ( X ' X ) X ]ε ]
−1
Ε(CME ) = (n − k )σ 2
CME
σˆ 2 =
n−k
σ̂ 2 estimador insesgado de σ2
PARTICIÓN DE LA SUMA DE CUADRADOS TOTAL
reducido.
La suma de cuadrados error es
32
La suma de cuadrados total corregida
SCTC = Y 'Y −
( ∑ yi )
2
; N = # total de observaciones
N
donde
(∑ yi )2 es el término de corrección
N
En un análisis de varianza lo primero que queremos probar es si hay algún
H 0 :τ1 = τ 2 = = τt
H a: ≠
Fuentes SC
Media R( μ ) (∑ yi )2
N
Tratamientos R (τ 1 τ 2 τt / μ)
βˆ ' X ' Y −
( ∑ y i )2
N
Error Y ' Y − βˆ ' X ' Y
33
Total
(Y 'Y ) − ( ∑ yi )
2
de densidad es:
1 2
1 - (x - μ )
f (x) = e 2
- ∞< x<∞
2 π σ2
en el caso multivariado:
1 1
( x - μ )′ ∑ ( x-μ )
- ∞ < xi < ∞
-1
-
f ( x )= e 2
(2 π ) p/2
|∑ | 1/ 2
• ( x - μ )′ ∑ −1 ( x - μ ) = c 2
Σ -1.
34
• Para una normal bivariada con σ11=σ22 y σ12>0
C √σ11 +σ12
X
μ2
C √σ11 - σ12
μ1 X
X
Contornos del 50% y del 90% (s11=s22 y s12>0)
μ2
μ1
X
35
DISTANCIA
2 2
x1 x 2
d (0, P )2 = +
s1 1 s 2 2
DISTANCIA DE MAHALANOBIS:
dˆ = (P - Q )′ S (P - Q )
2 -1
36