Sie sind auf Seite 1von 36

FFaaccuullttaadd ddee CCiieenncciiaass A

Aggrraarriiaass -- 22000011

M
MAAT
TEERRIIA
ALL PPRREEPPA
ARRA
ADDO
O PPO
ORR

LLiicc MMss S Scc A Abbbbiiaattttii N


Noorraa
IInngg A Aggrr.. MMss S Scc.. BBooccaa T Teerreessaa
IInngg Z Zoooott.. FFeerrnnáánnddeezz EEdduuaarrddoo
IInngg.. A Aggrr.. MMss S Scc.. PPeerreeyyrraa AAnnaa

1
INDICE

Operaciones básicas

Matrices

Matriz cuadrada

Traza de una matriz

Suma y resta de matrices

Producto de matrices

Matriz diagonal

Matriz identidad

Matriz transpuesta

Matriz inversa

Matrices y vectores

Producto escalar de vectores

Matrices, cuadrada, transpuesta...

2
Autovalores y autovectores

Distribucion Normal Multivariada

Medidas de distancia

Distancia Euclidiana

Distancia de Mahalanobis

Modelos estadisticos lineales

Estimacion minima cuadratica

ordinaria y ecuaciones normales

Propiedades del vector β

Valores predichos de y

Varianza del error

Partición de la Suma de Cuadrados

Total

3
MATRICES, OPERACIONES BASICAS

Matriz

Una Matriz es un arreglo rectangular de números encerrados por un par

de corchetes. Las operaciones con matrices tienen sus propias reglas.

Ejemplos:

⎡1 3 1⎤
⎡2 3 7⎤
a) ⎢ ⎥ b) ⎢⎢2 1 4 ⎥⎥
⎣ 1 − 1 5⎦ ⎢⎣4 7 6 ⎥⎦

en a) tenemos la matriz de coeficientes del siguiente sistema de ecuaciones

lineales:

⎧2 x + 3 y + 7 z = 0

⎩1x − 1 y + 5 z = 0

Dada la matriz:

⎡ a11 a12 a13 … a1n ⎤


⎢a a22 a23 … a2 n ⎥⎥
Amxn = ⎢ 21
⎢ aij ⎥
⎢ ⎥
⎣ am 1 am 2 am 3 … amn ⎦

los números o funciones aij se llaman elementos. El primer subíndice indica la

fila y el segundo subíndice la columna en que está ubicado el elemento.

a32 = elemento correspondiente a la tercera fila y a la segunda columna


Una matriz de m filas y n columnas se dice que es del orden “mxn”.

Cuando m = n, A es cuadrada y se denomina matriz cuadrada de orden n.

⎡ a11 a12 a1n ⎤


⎢a a22 a2 n ⎥
An = ⎢ 21 ⎥
⎢ ⎥
⎢ ⎥
⎣an1 an 2 ann ⎦

4
En una matriz cuadrada los elementos a11 a22 … ann son elementos de la

diagonal.

TRAZA

La suma de los elementos de la diagonal de una matriz cuadrada A es la

traza de A.
n
T = ∑ aii
i =1

SUMA Y RESTA DE MATRICES

Si A = [aij ] y B = [bij ] son dos matrices de orden mxn, la suma A+B

(A-B) es la matriz C = [cij ] de orden mxn, donde cada elemento de C es la


suma de los elementos correspondientes a A y B. Luego A + B = [aij + bij ].

⎡2 5⎤ ⎡ 3 9⎤
A2 x 2 = ⎢ ⎥ ; B2x2 = ⎢ 4 8⎥ ;
⎣ 7 − 2 ⎦ ⎣ ⎦

⎡ 5 14⎤ ⎡ − 1 − 4⎤
A + B = C2 x 2 = ⎢ ⎥ ; A − B = C2 x 2 = ⎢ ⎥
⎣11 6 ⎦ ⎣ 3 − 10⎦
La suma de k matrices A es una nueva matriz del mismo orden de A. Cada

uno de sus elementos es k veces el correspondiente elemento de A.

k es un escalar.

⎡2 − 3⎤ ⎡2 − 3⎤ ⎡2 − 3⎤ ⎡2 − 3⎤ ⎡6 − 9⎤
⎢1 2⎥ + ⎢ 1 2⎥ + ⎢ 1 2⎥ = 3 ⎢ 1 2⎥ = ⎢ 3 6⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣ 3 5⎥⎦ ⎢⎣ 3 5⎥⎦ ⎢⎣ 3 5⎥⎦ ⎢⎣ 3 5⎥⎦ ⎢⎣9 15⎥⎦

5
PRODUCTO

Dadas las matrices

⎡ b11 ⎤
⎢b ⎥
⎢ 21 ⎥
A1 xm = [a11 a12 a13 … a1m ] y Bmx1 = ⎢ b31 ⎥
⎢ ⎥
⎢ ⎥
⎢⎣bm1 ⎥⎦

el producto A1xm Bmx1 , en ese orden, es una matriz

C1x1 = [a11b11 + a12b21 + + a1mbm1 ]

⎡ b11 ⎤
⎢b ⎥
⎢ 21 ⎥
[a … a1m ] ⎢ b31 ⎥ = [a11b11 + a12b21 + + a1m bm1 ] = ⎡ ∑ a1k bk1 ⎤
m
a12 a13
11
⎢ ⎥ ⎢⎣k =1 ⎥⎦
⎢ ⎥
⎢⎣bm1 ⎥⎦
La operación es fila por columna.

Ejemplo:

⎡ 2⎤
[4 5 6]⋅ ⎢⎢ 3⎥⎥ = [4(2) + 5(3) + 6(−1)] = [17]
⎢⎣− 1⎥⎦
El producto Bmx1 A1xm = Dmxm la operación es fila por columna

6
⎡ b11 ⎤ ⎡ b11a11 b11a12 b11a1m ⎤
⎢b ⎥ ⎢b a b21a12 b21a1m ⎥
⎢ 21 ⎥ ⎢ 21 11 ⎥
⎢ b31 ⎥ [a11 a12 a13 … a1m ] = ⎢ b31a11 b31a12 b31a1m ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣bm1 ⎥⎦ ⎢⎣bm1a11 bm1a12 bm1a1m ⎥⎦

⎡ 2⎤ ⎡ 2(4) 2(5) 2(6)⎤ ⎡ 8 10 12⎤


B3 x1 ⋅ A1x 3 = ⎢ 3⎥ [4 5 6] = ⎢ 3(4) 3(5) 3(6)⎥ = ⎢ 12 15 18⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢− 1⎦⎥ ⎣⎢− 1(4) − 1(5) − 1(6)⎦⎥ ⎣⎢− 4 − 5 − 6⎦⎥

Si A2 x 3 x B3 x 4 = C2 x 4

⎡ 1 0 −2 0 ⎤
⎢3 2 0 3⎥
⎢ ⎥
⎢⎣− 1 1 − 2 0 ⎥⎦

⎡1 2 3⎤ ⎡ 4 7 −8 6⎤
⎢0 − 5 − 1⎥ ⎢− 14 − 11 2 − 15⎥⎦
⎣ ⎦ ⎣

PROPIEDADES DE LAS OPERACIONES CON MATRICES

a) Sean A, B, y C matrices n x m. Luego:

1) A + B = B + A ( ley conmutativa)

2) A + (B +C) = (A + B) + C (ley asociativa)

3) Existe una matriz cero : Omxn tal que para cada matriz A:

7
A +0 = 0 + A = A
4) Para cada matriz A existe una única matriz –A denominada negativa de

A, tal que:A –(-A) = 0

b) Sean A y B matrices n x m de números reales y r, s números reales, luego:

1) r(A + B )= rA + rB

2) (r+s) A = rA + sA

3) (r ⋅s) A = r (s⋅ A )

4) 1⋅ A = A

c) Sean A, B, y C matrices de orden apropiado, tal que las operaciones

indicadas puedan realizarse. Luego:

1) (A⋅B ) ⋅C = A ⋅ (B ⋅C ) (Ley asociativa).

2) A⋅ (B + C) = A⋅B + A⋅C (Ley distributiva a la izquierda)

3) (A + B ) ⋅ C) = A⋅C + B⋅C (Ley distributiva a la derecha)

4) r(A⋅B) = (r⋅A) ⋅B = A (r⋅B) para cualquier número real r

5) 0⋅ A = A⋅0 = 0

MATRIZ DIAGONAL

⎡a11 0 0 0⎤
⎢0 a22 0⎥
⎢ ⎥
La matriz D=⎢0 a33 0 ⎥ es una matriz diagonal.
⎢ ⎥
⎢ ⎥
⎢⎣ 0 0 0 ann ⎥⎦
D = diag (a11 a 22 a nn ) .

Cuando los elementos de la matriz diagonal son todos iguales:

8
a11 = a22 = a33 = = ann = k
D es una matriz escalar.

MATRIZ IDENTIDAD

Cuando k = 1 tenemos la matriz identidad In.

⎡1 0 0⎤
⎡1 0⎤
I2 = ⎢ ⎥ ; I 3 = ⎢0 1 0 ⎥
⎣0 1 ⎦ ⎢ ⎥
⎢⎣0 0 1⎥⎦
MATRIZ TRANSPUESTA

Se llama matriz transpuesta A’ a la matriz de orden nxm que se obtiene

por el intercambio de filas y columnas de una matriz A de orden mxn.

Ejemplo:

⎡ 2 8⎤
⎡ 2 4 6⎤
A2 x 3 =⎢ ⎥ ; A'3 x 2 = ⎢4 10⎥
⎣ 8 10 12 ⎦ ⎢ ⎥
⎢⎣6 12⎥⎦

el elemento (aij) en A es el elemento (aji) en A’.

Reglas

( A + B )' = A'+ B' ; ( AB )' = B' A' ; ( ABC )' = C ' B' A'

9
MATRIZ INVERSA

En álgebra de matrices la división no existe. El concepto de “dividir” por

una matriz A se reemplaza por el concepto de “multiplicar” por una matriz

llamada la inversa de A (A-1).

El producto de (A-1) por la matriz original A es la matriz identidad:

AA-1 = I
Si A y B son matrices cuadradas, tal que AB = BA = I, luego B es la inversa de

A.
A = B-1 (B=A-1) (AB)-1 = B-1A-1
Ejemplo: A.B = I

⎡1 2 3⎤ ⎡ 6 − 2 − 3⎤ ⎡1 0 0⎤
⎢1 3 3⎥ ⎢− 1 1 0 ⎥ = ⎢0 1 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢⎣1 2 4⎥⎦ ⎢⎣− 1 0 1⎥⎦ ⎢⎣0 0 1⎥⎦
Ejemplos de uso

Ejemplos de I2.A = A.I3 = I2.A.I3 = A (A2x3)


Î Condición de existencia de la Matriz Inversa
• Una matriz cuadrada An tiene inversa si y sólo si es no-singular

- El determinante de A A ≠0
- La inversa de una matriz cuadrada no singular es única

• Si A es no-singular, luego

AB = AC ⇒ B = C
• La inversa de una traspuesta es la traspuesta de la inversa

(A’)-1 = (A-1)’
La inversa de una matriz A diagonal no-singular

10
⎡a11 0 0 0 ⎤
⎢0 a 22 0 0 ⎥⎥
A=⎢
⎢0 0 a33 0 ⎥
⎢ ⎥
⎣0 0 0 a44 ⎦

es la matriz A-1 cuyos elementos son la inversa de los elementos de la matriz

original

⎡ a1 0 0 0⎤
⎢0 0⎥
11

1
0
A =⎢
−1 ⎥
a22

⎢0 0 1
a33 0⎥
⎢ 1 ⎥
⎣0 0 0 a ⎦
44

Dado el sistema de ecuaciones

⎧m + a = 14 ⎧m + a + 0d = 14
⎪ ⎪
⎨m + d = 12 ⎨m + 0a + d = 12
⎪m − a = 6 ⎪m − a + 0 d = 6
⎩ ⎩
qué valores toman m, a y d?

Escribimos las ecuaciones en notación matricial

X 3 x 3 β 3 x1 = Y3 x1 (1)

⎡1 1 0 ⎤ ⎡m⎤ ⎡14 ⎤
⎢1 0 1⎥ ⎢ a ⎥ = ⎢12 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢⎣1 − 1 0 ⎥⎦ ⎢⎣ d ⎥⎦ ⎢⎣ 6 ⎥⎦

X = matriz de incidencia (o diseño o modelo)


β = vector de parámetros a estimar
Y = vector de las observaciones
Para resolver el sistema pre multiplicamos ambos miembros de (1) por (X)-1

11
( X 3 x 3 ) −1 X 3 x 3 β 3 x1 = ( X 3 x 3 ) −1Y3 x1
I 3 x 3 β 3 x1 = ( X −1Y )3 x1
β 3 x1 = ( X −1Y )3 x1
⎡ 12 0 1
2 ⎤ ⎡1 1 0⎤ ⎡m⎤ ⎡ 12 0 1
2 ⎤ ⎡14⎤
⎢ 1 0 − 12 ⎥ ⋅ ⎢1 0 1⎥ ⋅ ⎢ a ⎥ = ⎢ 12 0 − 12 ⎥ ⋅ ⎢12⎥
⎢ 2 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣− 12 1 − 2 ⎥⎦ ⎢⎣1 − 1 0⎥⎦ ⎢⎣ d ⎥⎦ ⎢⎣− 12
1
1 − 2 ⎥⎦ ⎢⎣ 6⎥⎦
1

⎡1 0 0⎤ ⎡m⎤ ⎡10⎤
⎢0 1 0 ⎥ ⋅ ⎢ a ⎥ = ⎢ 4 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣0 0 1⎥⎦ ⎢⎣ d ⎥⎦ ⎢⎣ 2⎥⎦
⎡m⎤ ⎡10 ⎤
⎢ a ⎥ = ⎢ 4⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ d ⎥⎦ ⎢⎣ 2 ⎥⎦

Ecuación Lineal de n variables

Es aquella que tiene la siguiente forma:

a1x1 + a2x2 + a3x3 +..........+ anxn = b

donde los ai (i = de 1 a n) son constantes reales, las xi (i = de 1 a n) son variables y b es una


constante real.

Sistema de ecuaciones Lineales

Es un conjunto de ecuaciones lineales. Por ejemplo, un sistema de m ecuaciones y n


variables es:

12
a 11 x 1 + a 12 x 2 + .............. + a 1n x n = b1
a 21 x 1 + a 22 x 2 + .............. + a 2 n x n = b 2
........................................................
a m1 x 1 + a m 2 x 2 + .............. + a mn x n = b m

Clasificación de los sistemas de ecuaciones lineales sobre la base de


su resolución

Si el sistema no tiene solución, se lo denomina Inconsistente, si tiene solución única se


dice que es determinado y si tiene infinitas soluciones se lo llama indeterminado.

Sistema de ecuaciones lineales expresado en forma matricial

Al sistema anterior lo podemos escribir como:

Amxn xnx1 = bmx1, donde A es la matriz de coeficientes de orden m por n, x es el vector de


incógnitas de orden n por1 y b es el vector de términos independientes de orden m por1.
Expresado con todos sus elementos genéricos tenemos:

⎡ a 11 a 12 . a 1 n ⎤ ⎡ x 1 ⎤ ⎡ b1 ⎤
⎢a a 22 . a 2n ⎥ ⎢x 2 ⎥ ⎢ b2 ⎥
⎢ 21 ⎥⎢ ⎥ ⎢ ⎥
⎢ . . . . ⎥⎢ . ⎥ = ⎢ . ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ . . . . ⎥⎢ . ⎥ ⎢ . ⎥
⎢⎣ a m1 a m2 . a mn ⎥⎦ ⎢⎣ x n ⎥⎦ ⎢⎣b m ⎥⎦

Inversa de una matriz

Sea A una matriz cuadrada de orden nxn, se conoce como inversa de A a la matriz A-1 de
orden nxn que se cumple con lo siguiente:

A-1A=A A-1=Inxn

13
Donde I es la matriz identidad que se caracteriza por poseer unos en la diagonal principal y
ceros en el resto de la matriz.

Si A-1 existe, se dice que A es una matriz NO SINGULAR o INVERSIBLE, si A-1 no


existe, se dice que A es una matriz SINGULAR o NO INVERSIBLE.

Una importante aplicación de la inversa de una matriz, es en la resolución de sistemas de


ecuaciones lineales. Ejemplo: Si se desea despejar x del sistema lineal

Ax = b

debemos premultiplicar a ambos lados de la ecuación por a matriz A-1 de manera que
tenemos:

A-1Ax = A-1b

y como A-1A =I nos queda

Ix = A-1b

Además Ix = x, entonces

x = A-1b

Propiedades de las matrices Inversas


1) Si la inversa de una matriz existe, es única.
2) Si A y B son no singulares de orden nxn, entonces: (A.B)-1=B-1.A-1
3) Si A es no singular, luego A-1 es no singular: (A-1)-1 = A
4) Si A es no singular, entonces A´ es no singular: (A´)-1 = (A-1)´
5) Si A es no singular y r es un escalar distinto de cero, luego:
(r A)-1 = (1/r). A-1
6) Si A es no singular y k es un entero positivo, entonces Ak es no singular y:
(Ak)-1 = (A-1)k

Inversa y Determinante de una matriz


Si Anxn tiene una fila (o columna) una fila de ceros, entonces A es singular.
Si Anxn tiene dos filas (o columnas) idénticas, entonces A es singular.
Si Anxn tiene una fila (o columna) una fila de ceros, entonces el det(A) = 0.
Si Anxn tiene dos filas (o columnas) idénticas, entonces el det(A) = 0.
Si Anxn es no singular, luego el det(A) ≠ 0 y el det(A-1)= 1/(det(A))
Sea Anxn. Luego A-1 existe si y solo si el det(A) ≠ 0

14
DEPENDENCIA E INDEPENDENCIA LINEAL

COMBINACIÓN LINEAL DE VECTORES

Si tenemos un conjunto de vectores {x1 ,x2 x3 x4............... xn } y un conjunto

de escalares { a1, a2, a3, a4,..... an,}, luego :

a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn

es llamada combinación lineal (C.L.) del conjunto de n vectores. Una C. L. De

vectores es “ siempre” un vector.

Ejemplo: Xa ; a´X

VECTORES LINEALMENTE DEPENDIENTES:

El producto Xa es una C. L. De las columnas de X:

Xa = a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn,
donde x1 ,x2 x3 x4............... xn son las columnas de X

Si existe un vector a ≠0, tal que

a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn = 0

donde ninguno de los xi, i = 1 a n, son nulos, luego esos vectores se dicen

LINEALMENTE DEPENDIENTES

VECTORES LINEALMENTE INDEPENDIENTES:

Si un vector a =0 es el único vector para el cuál

a1 x1 + a2 x2 + a3 x3 + a4 x4 + .......... anxn = 0 y además ninguno de los xi es

nulo para i = 1 a n, entonces esos vectores son linealmente independientes.

Ejemplos: Determinar si los siguientes vectores so L.I. o L. D.

15
⎡ 3 −6 ⎤
⎡a ⎤
1) X = ⎢⎢− 6 12 ⎥⎥ a = ⎢ 1⎥
⎢⎣ 9 − 18⎥⎦ ⎣a 2 ⎦

⎡3 0⎤
⎡u ⎤
2) X = ⎢− 6 5 ⎥⎥
⎢ u = ⎢ 1⎥
⎢⎣ 9 − 5⎥⎦ ⎣u 2 ⎦

D Si X es cuadrada los siguientes puntos son equivalentes:

1) las columnas de X son L.D.

2) Xa = 0 se cumple para algún vector a ≠ 0

3) X es singular (X-1 no existe)

MÁXIMO NÚMERO DE VECTORES L.I.:

Un conjunto de vectores L.I. de orden n no puede contener más que n de

tales vectores

NÚMERO DE FILAS (COLUMNAS) L.I. EN UNA MATRIZ

El número de filas L. I. En una matriz es el mismo que de columnas L.I.

RANGO DE UNA MATRIZ

Definición: El rango de una matriz es el número de filas (columnas ) L.I.

en la matriz

Notación: rango de A = r(A)= rA

Cálculo del rango: El número de vectores fila distintos de cero en la

forma escalonada de una matriz es el rango de dicha matriz.

RANGO Y CONSISTENCIA DE ECUACIONES

16
Dado el sistema: A (rxs)x(sx1)= Y(rx1)
El sistema es consistente sí y solo sí

r(A) = r ([AY])

Si r(A) = Número de incógnitas, la solución es única. Si el sistema es

consistente y el r(A) < Número de incógnitas, existen infinitas

soluciones.

PROPIEDADES

1) r(Apxq) # p y # q . Es menor o igual al número más pequeño entre p y q

2) r(Apxq) # n

3) Cuando r(Apxq) = n , luego A es no singular.

4) r(Apxq) = p < q, se dice que A tiene rango completo fila

5) r(Apxq) = q < p, se dice que A tiene rango completo columna.

6) r(Apxq) = n , se dice que A tiene rango completo y además es no

singular.

7) r(A B) # al menor rango entre r(A ) y r(B)


’ ’
8) r(Apxq) = q < p, luego: r(A) = r(A’ ) = r(A’ A) = q

9) Si A es diagonal, entonces r(A ) = número de elementos ≠ 0 en la

diagonal.

10) Si A es multiplicado por una matriz B no singular r(A) = r(A’B)

TRANSFORMACIONES ORTOGONALES

Sea Y(nx1), X(nx1) y A(nxn)

Una transformación lineal de x a y se escribe:

17
y=Ax , donde A es la matriz de coeficientes que efectúa la
transformación.

La transformación lineal es uno a uno solo si A es no singular. Entonces

la transformación inversa de y a x es:

x=A-1y
Si AA-1=I, se dice que la transformación y=Ax es una transformación

ortogonal.

PROYECCIONES

Es un caso especial de una transformación. El objetivo sería transformar

a y, que está en un espacio de n dimensiones, en ŷ perteneciente a un

subespacio tal que ŷ esté lo más cerca posible de y

Ejemplo: ŷ = Py

Es una proyección si y solo si P es idempotente y simétrica

AUTOVALORES Y AUTOVECTORES DE UNA MATRIZ.

Dada A una matriz cuadrada y simétrica, puede interesar transformarla en una

matriz diagonal (con ceros fuera de la diagonal principal)

• λ es un autovalor de A (pxp) y e su correspondiente autovector normalizado

(longitud 1), si:

A e=λe

Nota:

A e = λ e ⇒ A e - λ e = 0 ⇒ A e - λ Ie = 0 ⇒ (A - λ I )e = 0

Este sistema tiene una solución distinta de cero sí y solo sí :

18
det (A - λ I ) = 0

Para encontrar los valores de λ debemos resolver la ecuación:

⏐A - λ I ⏐= 0

⎡ 1 1⎤
Ejemplo : sea A = ⎢ ⎥
⎣ − 2 4⎦

⎡ 1 1 ⎤ ⎡λ 0 ⎤ ⎡(1 − λ ) 1 ⎤
A − λI = ⎢ ⎥ − ⎢ ⎥ =⎢ ∴
⎣ − 2 4⎦ ⎣ 0 λ ⎦ ⎣ − 2 (4 − λ )⎥⎦

det (A - λ I ) = 0 =

(1 - λ) ⋅ (4 - λ ) – (-2) ⋅ 1 = 0

4 - λ -4λ + λ2 + 2 = -5λ +λ2 + 6 = 0

⇒ λ1 = 2; λ2 = 3

Ahora podemos calcular los autovectores asociados a los λ1 y λ2

A x -= λ1 x

⎡ 1 1⎤ ⎡ x1 ⎤ ⎡ x1 ⎤
⎢ − 2 4⎥ ⎢ x ⎥ = 2 ⎢ x ⎥
⎣ ⎦ ⎣ 2⎦ ⎣ 2⎦

⎧ x1 + x 2 = 2 x1 ⎡1⎤
⎨ ⇒ x 2 = x1 ∴un vector podría ser x = ⎢ ⎥
⎩− 2 x1 + 4 x 2 = 2 x 2 ⎣1⎦

A x -= λ2 x

⎡ 1 1 ⎤ ⎡ x1 ⎤ ⎡ x1 ⎤
⎢− 2 4⎥ ⎢ x ⎥ = 3 ⎢ x ⎥
⎣ ⎦ ⎣ 2⎦ ⎣ 2⎦

⎧ x1 + x 2 = 3 x1 ⎡1 ⎤
⎨ ⇒ x 2 = 2 x1 ∴un vector podría ser x = ⎢ ⎥
⎩− 2 x1 + 4 x 2 = 3 x 2 ⎣ 2⎦

19
PROPIEDADES DE LOS AUTOVALORES

1) Si A es una matriz kxk, los autovalores de A son todos reales

2) Si A es una matriz kxk y Ckxk es ortogonal, luego los autovalores de C’AC

son los mismos autovalores de A

3) Si A es una matriz kxk simétrica, los autovalores asociados con

autovalores distintos de A, son ortogonales.

4) Los autovalores de matrices idempotentes son cero o unos

PRODUCTO INTERNO (PRODUCTO ESCALAR)

Sean los vectores u’ = [ a1, b1 ] y v = [a2, b2 ],

el producto interno = <u’, v > = u.v es el escalar:

<u’, v > = a1 a2 + b1 b2

LONGITUD DE UN VECTOR (NORMA, MAGNITUD)

Sea v = (a, b), entonces su norma es:

v = a 2 + b2 = v 'v

⎡λ 1 0 … 0 ⎤
⎢ ⎥
⎢ 0 λ 2 … 0⎥
Λ pxp= ⎢ ⎥ si λi > 0 decimos que A es definida positiva
⎢ ⎥
⎢ ⎥
⎣ 0 0 … λ p⎦ p x p

P = [ e 1 e 2 ... e p ]

• Si Ap x p es definida positiva, su determinante es el producto de los

autovalores y tiene inversa:

A-1p x p = Pp x p Λ-1p x p P'p x p

20
Tipos de Formas Cuadráticas

1- Definidas Positivas: y’Ay es una forma cuadrática definida positiva si y’Ay > 0 para
todo y ≠ 0.

2- Semidefinidas Positivas: y’Ay es un forma cuadrática semidefinida positiva si y’Ay≥0


para todo y, siendo y’Ay = 0 para algún y ≠ 0.

Si una forma cuadrática es definida positiva (o semidefinida positiva), se dice que su matriz
es definida positiva ( o semidefinida positiva).

Tipos de Formas Cuadráticas y matrices simétricas


- Una matriz simétrica A es definida positiva si y solo si, todos sus autovalores son
positivos.
- Una matriz simétrica A es semidefinida positiva si y solo si, todos sus autovalores son no
negativos y al menos uno de ellos es cero.

Diferenciación de formas cuadráticas


1- Sea z = a’y, donde a es un vector de escalares. Entonces: ∂z / ∂y = a .
2- Sea z = y’y . Entonces: ∂z / ∂y = 2y .
3- Sea z = y’A y donde A es de orden k x k. Entonces: ∂z / ∂y = Ay + A' y

Esperanza y Varianza de vectores aleatorios

Esperanza

Sea y un vector de variables aleatorias:


⎡ y1 ⎤
⎢y ⎥
⎢ 2⎥
y = ⎢ . ⎥.
⎢ ⎥
⎢ . ⎥
⎢⎣ y k ⎥⎦

21
Considere que la esperanza de yi es E[yi]=μi para i=1,2,...,k. Luego, la esperanza de y se
define de la siguiente manera:
⎡ E( y1 ) ⎤ ⎡ μ1 ⎤
⎢ E ( y ) ⎥ ⎢μ ⎥
⎢ 2 ⎥ ⎢ 2⎥
E(y) = μ = ⎢ . ⎥ = ⎢ . ⎥
⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥
⎢⎣E( y k )⎥⎦ ⎢⎣μ k ⎥⎦

Reglas para el cálculo de la esperanza

Sean:
- a un vector de números reales (constantes).
- ykx1 un vector aleatorio con esperanza μ.
- A una matriz de orden nxk.
Entonces:
1) E(a)= a
2) E(a’y)= a’E(y)= a’μ
3) E(Ay)= AE(y)= Aμ

Varianza
Sea ha explicado que la esperanza de un vector y es otro vector (μ). La varianza de un
vector, en cambio, es una “matriz de varianzas y covarianzas”.

Sea y un vector de variables aleatorias:


⎡ y1 ⎤
⎢y ⎥
⎢ 2⎥
y = ⎢ . ⎥ con Var(yi)= σ ii = σ i2 (con i = 1,2...,k.), cov(yi,yj)= σ ij (con i≠j) y E[y]=μ
⎢ ⎥
⎢ . ⎥
⎢⎣ y k ⎥⎦

Luego se define a la varianza de y como:

22
V(y)= Vkxk= E[(y-μ).(y-μ)’]

Reglas para el cálculo de varianzas


Sean:
- a un vector de números reales (constantes).
- ykx1 un vector aleatorio.
- A una matriz de orden nxk.

Entonces:
1) Var(a’y)= a’Var(y)a= a’Va
2) Var(Ay)= AVar(y)A’= AVA’

Esperanza de un forma cuadrática

E(y’Ay)= tr(AV) + μ’A μ

Distribución de algunas formas cuadráticas particulares

1) Si ykx1 ∼ N (μ , I), entonces:


y’y ∼ χ 2k ,λ , donde k son los gradados de libertad y λ=1/2 μ’μ es el parámetro de no

centralidad.
2) Si ynx1 ∼ N (μ , I) y Anxn es simétrica, entonces:
y’Ay ∼ χ 2k ,λ con λ=1/2 μ’A μ si y solo si A es idempotente de rango k

3) Si ynx1 ∼ N (0, I) y Anxn es simétrica, entonces:


y’Ay ∼ χ 2k si y solo si A es idempotente de rango k

4) Si ynx1 ∼ N (μ ,σ2 I) con σ2>0 y Anxn es simétrica, entonces:

23
(1/σ2)y’Ay ∼ χ 2k ,λ con λ=1/2 σ2 si y solo si A es idempotente de rango k

Distribución Normal Multivariada


Definición:
Si ynx1 ∼ N (μ , I) y Cnxn es no singular, entonces:
z=C’y tiene una distribución Normal Multivariada (Nm)

Distribución Normal Multivariada y Formas cuadráticas

1) Si ynx1 ∼ Nm (μ , ∑) y Anxn es simétrica, entonces:


y’Ay ∼ χ 2k ,λ con λ=1/2 μ’A μ si y solo si A∑ es idempotente de rango k

2) Si ynx1 ∼ Nm (0 , ∑) y Anxn es simétrica, entonces:


y’Ay ∼ χ 2k si y solo si A∑ es idempotente de rango k

3) Si ynx1 ∼ Nm (μ , ∑)
y’Ay ∼ χ 2k ,λ con λ=1/2 μ’ ∑-1 μ

Independencia de formas cuadráticas

Sean:
- ynx1 ∼ Nm (μ , ∑)
- Anxn simétrica de rango r1
- Bnxn simétrica de rango r2

Si A∑B = 0 implica que y’Ay es independiente de y’By y además si y’Ay es independiente


de y’By, luego A∑B= 0.

24
Independencia entre una forma cuadrática y un vector
Sean
- ynx1 ∼ Nm (μ , ∑)
- Anxn simétrica
- Bnxn

Si B∑A = 0 implica que y’Ay es independiente de By. Además si y’Ay es independiente de


By implica que B∑A = 0

MODELOS ESTADISTICOS LINEALES

Los modelos de regresión y análisis de varianza son casos especiales de

modelos lineales. En un modelo lineal la respuesta es una combinación lineal de


parámetros desconocidos y un término aleatorio de error.

Un ejemplo es el modelo de regresión lineal simple (línea recta):

yi = β 0 x0 + β 1x1 +ε i i =1 n (1)

donde ε i ≈ iid (0, σ 2 )


La variación en la respuesta que no es explicada por el modelo se llama error

aleatorio y lo indicamos εi .
El supuesto más común es que los errores son variables aleatorias

independientes e idénticamente distribuidas. Esto significa que los errores de


todas las unidades experimentales son todos muestras de una misma

distribución de probabilidad. Este supuesto incluye lo siguiente:

1) los errores tienen media cero,

2) la varianza es la misma para todas las unidades experimentales,

25
3) las unidades experimentales son todas independientes entre sí, lo que

implica no estar correlacionadas

La ecuación (1) es la representación de n ecuaciones, una por cada una de las

i = 1… n observaciones.

y1 = β 0 x0 + β1 x1 + ε1
y2 = β 0 x0 + β1 x2 + ε 2

yn = β 0 x0 + β1 xn + ε n

Cualquier modelo lineal estándar con errores iid, puede ser escrito en

notación matricial como:

Y = Xβ + ε ; ε ≈ (0, σ 2 I )
En el caso de regresión lineal simple las matrices son:

⎡ y1 ⎤ ⎡1 x1 ⎤ ⎡ε1 ⎤
⎢y ⎥ ⎢1 x ⎥ β ⎢ε ⎥
⎡ ⎤
Y = ⎢ 2⎥ ; X =⎢ 2
⎥ ; β=

0
⎥ ; ε = ⎢ 2⎥
⎢ ⎥ ⎢ ⎥ ⎣ β1 ⎦ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ yn ⎦ ⎣1 xn ⎦ ⎣ε n ⎦
La matriz X es la matriz de diseño o del modelo. El vector β contiene todos los

parámetros en el modelo. La matriz de diseño tiene una columna por cada

parámetro en β.

Otro ejemplo de un modelo lineal es el modelo de análisis de varianza a

un factor:

yij = μ + τ i + ε ij donde ε ij ≈ iid (0, σ 2 )


i = 1…t tratamientos ; j = 1… n observaciones por tratamiento

Para el caso de i=3 y j=2

26
y11 = μ + τ 1 + ε11
y12 = μ + τ 1 + ε12
y21 = μ + τ 2 + ε 21
(2)
y22 = μ + τ 2 + ε 22
y31 = μ + τ 3 + ε 31
y32 = μ + τ 3 + ε 32
τi es el parámetro que representa el efecto de tratamiento, donde la

definición técnica de efecto es:

un efecto es una desviación desde un parámetro común μ.


n
μ i = 1n ∑ μ ij
j =1

τ i = μi − μ
En notación matricial el sistema (2) es:

⎡ y11 ⎤ ⎡1 1 0 0⎤ ⎡ε11 ⎤
⎢ y ⎥ ⎢1 1 0 0⎥ ⎡ μ ⎤ ⎢ε12 ⎥
⎢ 12 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ y21 ⎥ ⎢1 0 1 0⎥ ⎢τ 1 ⎥ ⎢ε 21 ⎥
⎢ ⎥=⎢ ⎥⎢ ⎥+ ⎢ ⎥
⎢ y22 ⎥ ⎢1 0 1 0⎥ ⎢τ 2 ⎥ ⎢ε 22 ⎥
⎢ y31 ⎥ ⎢1 ⎢ ⎥
0 0 1⎥ ⎣τ 3 ⎦ ⎢ε 31 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ y32 ⎦ ⎣1 0 0 1⎦ ⎣ε 32 ⎦
Y = Xβ + ε

ESTIMACIÓN MÍNIMA CUADRÁTICA ORDINARIA Y ECUACIONES

NORMALES

El método clásico de ajuste de modelos lineales a datos es el método de

mínimos cuadrados. Los parámetros estimados de esta forma son insesgados y

27
tienen la varianza más chica de todos los posibles estimadores lineales. El

estimador que posee estas dos propiedades es el mejor estimador lineal

insesgado (best linear unbiased estimator) BLUE.

El estimador mínimo cuadrado ordinario (OLS) es el vector β̂ , que


minimiza la suma cuadrado error o residual
2
SCE = ∑ ( yi − yˆ i )
ni

i =1

En notación matricial:

SCE = (Y − Xβˆ ) ' (Y − Xβˆ )


Y = Xβ + ε Ε(ε ) = 0 , Var (ε ) = Iσ 2
Ε ( Y ) = Ε ( Xβ + ε )
Ε ( Y ) = Xβ

La SCE es minimizada tomando las derivadas con respecto a β e igualando a

cero.
SCE = ε' ε = (Y − Xβ )' (Y − Xβ )
= (Y ' − β ' X ' )(Y − Xβ )
= Y ' Y − Y ' Xβ − β ' X ' Y + β ' X ' Xβ
= Y ' Y − 2 β ' X ' Y + β ' X ' Xβ

δSCE
= 0 − 2 X ' Y + 2 X ' Xβ = 0
δβ

− X ' Y + ( X ' X )β = 0
( X ' X )β = X ' Y
Las ecuaciones resultantes son las ecuaciones normales.

X ' Xβˆ = X ' Y

28
El vector de parámetros estimado β̂
( X ' X )−1 ( X ' X )β = ( X ' X )−1 X ' Y
βˆ = ( X ' X )−1 X ' Y
Para el caso de 3 tratamientos y 2 observaciones por tratamiento el modelo es:

yij = μ + τ i + ε ij i = 1, 2, 3 ; j = 1, 2 ;

y11 = μ + τ 1 + ε11
y12 = μ + τ 1 + ε12
y21 = μ + τ 2 + ε 21
y22 = μ + τ 2 + ε 22
y31 = μ + τ 3 + ε 31
y32 = μ + τ 3 + ε 32
En notación matricial:

⎡ y11 ⎤ ⎡1 1 0 0⎤ ⎡ε11 ⎤
⎢ y ⎥ ⎢1 1 0 0⎥ ⎡ μ ⎤ ⎢ε12 ⎥
⎢ 12 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ y21 ⎥ ⎢1 ⎢ ⎥
0 1 0⎥ τ 1 ⎢ε 21 ⎥
⎢ ⎥=⎢ ⎥⎢ ⎥+ ⎢ ⎥
⎢ y22 ⎥ ⎢1 0 1 0⎥ ⎢τ 2 ⎥ ⎢ε 22 ⎥
⎢ y31 ⎥ ⎢1 ⎢ ⎥
0 0 1⎥ ⎣τ 3 ⎦ ⎢ε 31 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ y32 ⎦ ⎣1 0 0 1⎦ ⎣ε 32 ⎦

y las ecuaciones normales X ' Xβˆ = X ' Y


⎡6 2 2 2⎤ ⎡ μˆ ⎤ ⎡ y11 + y12 + y 21 + y 22 + y31 + y32 ⎤
⎢ ⎥
⎢2
⎢ 2 0 0 ⎥⎥ ⎢⎢τˆ 1 ⎥⎥ ⎢ y11 + y12 ⎥
=
⎢2 0 2 0 ⎥ ⎢τˆ 2 ⎥ ⎢ y 21 + y 22 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣2 0 0 2⎦ ⎣τˆ 3 ⎦ ⎣ y31 + y32 ⎦

29
X ' X = 0 ⇒ ( X ' X ) ∃/
−1

Este sistema de ecuaciones tiene infinitas soluciones, ( X ' X ) no puede ser


invertida y no hay un único estimador para β . Una vía de solución es usar la

inversa generalizada. La inversa generalizada de ( X ' X ) no es única y se


indica ( X ' X )− . La suma cuadrado error y todas las sumas de cuadrados, en el
análisis de varianza, no son afectadas por la elección de la inversa generalizada.

Esta poderosa manera de cálculo es usada por paquetes estadísticos tales como

SAS.

Propiedades del vector β

Dado el modelo

Y = Xβ + ε ε ≈ iid (0, Iσ 2 )
β es estimado como

βˆ = ( X ' X )−1 X ' Y

βˆ = GX ' Y

Usando el operador Esperanza tenemos

Ε(Y ) = Ε( Xβ + ε )
Ε(Y ) = Xβ + Ε(ε ) = Xβ
Y − Ε(Y ) = ε
La matriz de variancias y covariancias de los εi
V (ε ) = Ε[ε − Ε(ε )]' [ε − Ε(ε )] = Ε(ε ' ε ) = Iσ 2
El vector β̂ es insesgado en el modelo de regresión

30
[
Ε(βˆ ) = Ε ( X ' X ) X ' Y
−1
]
Ε(βˆ ) = ( X ' X ) X ' Ε(Y ) = ( X ' X ) X ' Xβ = β
−1 −1

La matriz de variancias y covariancias de β̂ es:

Var ( βˆ ) = Ε[βˆ − Ε(βˆ )][βˆ '−Ε(βˆ ')]


= (X ' X ) σ 2
−1

= Gσ 2
Valores predichos de y

Para obtener los valores estimados (o predichos) ŷi se utilizan los β̂


estimados

yˆ i = bˆ1 xi1 + bˆ2 xi 2 + + bˆk xik


yˆ i = μ + τˆi
El vector de predichos Yˆ es

Yˆ = Xβˆ = X ( X ' X ) X ' Y


−1

Var (Yˆ ) = X var βˆX ' = X ( X ' X ) −1 X 'σ 2


Yˆ = Xβˆ = XGX ' Y
Var (Yˆ ) = X var βˆX ' = XGX 'σ 2
Varianza del Error

La suma de cuadrados de las desviaciones de los valores observados yi

con respecto a sus valores predichos ŷi es la suma cuadrado error (SCE):

31
2
SCE = ∑ ( y i − yˆ i )
ni
un número
i =1

SCE = (Y − Yˆ ) ' (Y − Yˆ )
[
SCE = Y ' I − X ( X ' X ) X ' Y
−1
]
[
= ( β ' X '+ε ) I − X ( X ' X ) X ' ( Xβ + ε )
−1
]
Operando y aplicando esperanza

[ ] ;
SCE = ε ' I − X ( X ' X ) X ' ε
−1
Ε(ε ) = 0 ; Var (ε ) = Iσ 2
Ε(CME ) = Ε[ε ' [I − X ( X ' X ) X ]ε ]
−1

Ε(CME ) = (n − k )σ 2
CME
σˆ 2 =
n−k

σ̂ 2 estimador insesgado de σ2
PARTICIÓN DE LA SUMA DE CUADRADOS TOTAL

Una forma de probar hipótesis sobre los parámetros es calculando el

ajuste del modelo completo y comparándolo con el ajuste de un modelo

reducido.
La suma de cuadrados error es

SCE = (Y − Xβˆ )' (Y − Xβ )


SCE = Y ' Y − βˆ ' X ' Y
donde

Y 'Y = Suma de cuadrados total sin corregir por la media

β̂ ' X ' Y = Suma de cuadrados del modelo completo

32
La suma de cuadrados total corregida

SCTC = Y 'Y −
( ∑ yi )
2

; N = # total de observaciones
N

donde
(∑ yi )2 es el término de corrección
N
En un análisis de varianza lo primero que queremos probar es si hay algún

efecto de tratamiento distinto de cero, H0 :τ i = 0 , i =1 t

La suma cuadrado tratamiento es


2
⎛⎜ ∑ y ⎞⎟
τ t / μ ) = βˆ ' XY − ⎝ i ⎠
i
SCTrat = R(τ 1 τ 2
N
Bajo el supuesto, luego para probar

H 0 :τ1 = τ 2 = = τt
H a: ≠

TABLA DE ANÁLISIS DE VARIANCIA

Fuentes SC

Media R( μ ) (∑ yi )2
N
Tratamientos R (τ 1 τ 2 τt / μ)
βˆ ' X ' Y −
( ∑ y i )2

N
Error Y ' Y − βˆ ' X ' Y

33
Total
(Y 'Y ) − ( ∑ yi )
2

DISTRIBUCIÓN NORMAL MULTIVARIADA

Es una generalización de la distribución normal univariada, cuya función

de densidad es:
1 2
1 - (x - μ )
f (x) = e 2
- ∞< x<∞
2 π σ2

en el caso multivariado:
1 1
( x - μ )′ ∑ ( x-μ )
- ∞ < xi < ∞
-1
-
f ( x )= e 2
(2 π ) p/2
|∑ | 1/ 2

• Los contornos de densidad constante para una distribución normal p-variada

son elipsoides definidos por x de tal modo que:

• ( x - μ )′ ∑ −1 ( x - μ ) = c 2

• estos elipsoides están centrados en μ y tienen ejes ± c √ λi e i , con (λi, e i )

autovalores y autovectores de Σ (o (1/λi, e i ) autovalores y autovectores de

Σ -1.

34
• Para una normal bivariada con σ11=σ22 y σ12>0

C √σ11 +σ12
X

μ2
C √σ11 - σ12

μ1 X

• Si c2 = χ2 (α) el percentil superior 100a de una distribución Chi Cuadrado

con p g.l. tenemos contornos que contienen el 100(1-a)% de probabilidad

X
Contornos del 50% y del 90% (s11=s22 y s12>0)

μ2

μ1
X

35
DISTANCIA

Muchas técnicas multivariadas se basan en el concepto de distancia

• Distancia euclídea: d (0, P ) = + x12 + x22

• en p dimensiones: d 2 (0, P ) = x12 + x 22 + ...+ x2p

• si P/(x 1, ..., x p) y Q/(y 1, ..., y p): d 2 (P, Q ) = ( x1 - y1 )2 + ( x2 - y 2 )2 + ... + ( x p - y p )2

• la distancia euclídea no es satisfactoria para la mayoría de los propósitos

estadísticos pues cada coordenada contribuye = al cálculo de la distancia.

Cuando las coordenadas representan mediciones que están sujetas a

fluctuaciones aleatorias de ≠ magnitud, es deseable dar menor peso a las

coordenadas sujetas a mayor variabilidad.


d (0, P ) = d (0, Q ) = c

2 2
x1 x 2
d (0, P )2 = +
s1 1 s 2 2

DISTANCIA DE MAHALANOBIS:

Tiene en cuenta las diferencias en variabilidad y la presencia de

asociación lineal (matriz Σ o S )

dˆ = (P - Q )′ S (P - Q )
2 -1

d e (P, Q ) > d e (Q, 0 )

d M (P, Q ) < d M (Q, 0 )

36

Das könnte Ihnen auch gefallen