Sie sind auf Seite 1von 70

Algebra Matricial

2
A continuacin veamos un ejemplo de lo que ocupaba a Cayley. Tres sistemas
coordenados (x , y), (x , y) y (x , y) estn conectados mediante las siguientes
transformaciones:
La relacin entre (x , y) y (x , y) se describe con la sustitucin:
Esta transformacin tambin puede escribirse como sigue: si abreviamos los tres
cambios de coordenadas mediante las matrices de los coeficientes, tenemos:
Ahora es posible calcular C directamente de A y B, mediante la multiplicacin
matricial: C = A B.
3
Sistema de m ecuaciones lineales con n incgnitas:
incgnitas:
coeficientes:
trminos independientes:
4
La teora de matrices ofrece la posibilidad de trabajar
cmodamente con modelos de gran dimensin, tanto en
nmero de variables, como de ecuaciones o datos, ya que
brinda una notacin simple y compacta para designar amplios
conjuntos de informacin. Esto redunda a su vez en una mayor
facilidad a la hora de trabajar con estos conjuntos de datos
desde un punto de vista computacional.
La teora de matrices no slo debe su importancia a la bondad
de sus cualidades operativas, sino que adems tiene gran
relevancia terica, ya que una matriz es la representacin de
determinadas transformaciones vectoriales (aplicaciones
lineales)
MATRI CES
5
MATRIZ DE ORDEN .-
Toda distribucin de elementos dispuestos en m filas
y n columnas
Habitualmente se denotan las matrices con letras maysculas ( A, B, C,... ) y con
minsculas los elementos que las constituyen. Dado que los elementos estn
ordenados en filas y columnas, al elemento que en una matriz ocupa el lugar de la fila
i-sima y la columna j-sima se le denotar por a
ij
. Es decir, con el primer subndice i
se indica la fila en la que est el elemento y con el segundo subndice j , la columna.
6
Matriz fila:
Matriz columna:
Matriz nula:
Matriz opuesta de
Dos matrices del mismo orden y
se dicen iguales, y se escribe si:
todos sus elementos son 0.
7
Matriz cuadrada de orden n:
forman la diagonal principal
Mismo nmero de filas
que de columnas
8
Matriz triangular superior
Los siguientes conceptos se refieren exclusivamente a matrices cuadradas:
Matriz triangular inferior
Ceros debajo de la diagonal principal Ceros encima de la diagonal principal
9
Matriz diagonal
Matriz unidad (Identidad)
Ceros fuera de la diagonal principal
Ceros fuera de la diagonal principal,
unos en la diagonal principal
Matriz escalar
Delta de Kronecker
10
SUMA DE MATRICES.- (Operacin interna en )
Sean ,

A y B tienen que tener el mismo orden

11
PRODUCTO DE UN ESCALAR POR UNA MATRIZ.-
(Operacin externa en con dominio de operadores )
Sean ,


PRODUCTO DE MATRI CES
12
Si es una matriz y es una matriz , se
define la matriz producto , en este orden, como la
matriz tal que:
fila i de A
columna j de B
13
-Ejemplo.-
-ATENCIN.- Dos matrices se pueden multiplicar slo si el
nmero de columnas de la primera matriz es igual al nmero
de filas de la segunda matriz.
Propiedades del producto de matrices.-
1.-
2.-
3.-
4.-
El producto de matrices no es necesariamente conmutativo
14

se puede hacer este producto, pero
no se puede hacer

es una matriz
es una matriz

15
-OBSERVACIONES.-
1.- El producto de matrices no es necesariamente conmutativo.
2.- Puede ser con y .
3.-
4.- no implica necesariamente .
POTENCI AS NATURALES DE
MATRI CES CUADRADAS
16
Una de las herramientas principales en el estudio de las ecuaciones diferenciales
lineales es el lgebra matricial. En concreto, el clculo de potencias naturales de
matrices cuadradas resulta de gran inters en el estudio de las ecuaciones
diferenciales.
Adems, las potencias de matrices desempean un papel importante en diversas
aplicaciones, como por ejemplo en el modelo de Leontief de entrada-salida.
Si y :
-PROPIEDADES.-
1.-
2.-
TRASPUESTA DE UNA MATRI Z
17
Cambiar filas por columnas
-PROPIEDADES.-
1.-
2.-
3.-
4.-
5.-
Atencin
18


Slo para matrices cuadradas
A simtrica si y slo si , es decir:
A antisimtrica si y slo si , es decir:
Las matrices (cuadradas) simtricas y antisimtricas se pueden caracterizar
utilizando la relacin que tienen con sus traspuestas.
19


Slo para matrices cuadradas
A peridica si . Si p es el menor
nmero natural que satisface , entonces
decimos que A es una matriz peridica de perodo p.
A idempotente si .

A nilpotente si . Si p es el
menor nmero natural que satisface ,
decimos que A es una matriz nilpotente de ndice p.

A involutiva si .
A continuacin estudiamos ciertas matrices que deben su peculiaridad al
comportamiento que presentan sus potencias. Las matrices idempotentes, por ejemplo,
desempean un papel importante en algunas reas de la Estadstica y la Econometra.
20
Vamos a dar una definicin recursiva de un determinante. Para ello es
conveniente definir previamente los conceptos de menor complementario
y adjunto (i , j). De este modo, un determinante se define con
determinantes de submatrices .
Aunque podemos definir el determinante de una matriz cuadrada de orden
3 en funcin de determinantes de matrices cuadradas de orden 2,
conviene conocer la denominada regla de Sarrus.
Ser tambin necesario recordar que el determinante de una matriz
cuadrada de orden 2, A = (a
ij
), es el nmero
DETERMINANTES
DETERMI NANTES
21
Sea A una matriz cuadrada de orden n:
Menor complementario de ( ) es el determinante
de la submatriz cuadrada de A que resulta de suprimir la
fila i y la columna j de A.
Los signos ms o menos del adjunto de a
ij
dependen de la posicin de a
ij
en la
matriz sin importar el signo de a
ij
. El factor (1)
i+j
est determinando por la
denominada

regla de los signos.



Adjunto de ( ) :


Si A es una matriz cuadrada
de orden n, entonces M
ij
es
el determinante de una matriz
cuadrada de orden n-1.
(cofactor)
22


Regla de Sarrus:

El desarrollo de un determinante de orden 3 se puede
recordar usando el siguiente truco. Escribimos una
segunda copia de las primeras dos columnas a la
derecha de la matriz y calculamos el determinante
multiplicando las entradas de seis diagonales:


COMBINACIONES LINEALES
23
Sea V un espacio vectorial real:
COMBINACIN LINEAL.-
es combinacin lineal de
cuando tales que:
24
COMENTARIOS.-
Dados los vectores y los escalares o
1
, o
2
,..., o
n
(nmeros

reales), el vector definido por:
se llama combinacin lineal de los vectores :
Algunas combinaciones lineales de los vectores son, por ejemplo:
El vector (2,1,1) de no es combinacin lineal de los vectores (1,0,0) y
(1,1,0) de .
DEPENDENCIA E INDEPENDENCIA LINEAL
25
En el estudio del lgebra Lineal, una de las ideas centrales es la de
dependencia o independencia lineal entre vectores.
Podemos plantearnos la siguiente pregunta. Existe una relacin
especial entre los vectores y ?
Es decir, el vector nulo se puede escribir como una combinacin
no trivial de y . En este caso se dice que los vectores son
linealmente dependientes. En general, se tienen las siguientes
definiciones:
, o escrito de otro modo:
26
es un sistema libre (o son vectores
linealmente independientes) si:
SISTEMA LIBRE. SISTEMA LIGADO.-
es un sistema ligado (o son vectores
linealmente dependientes) si:
27
Dependencia Lineal
Un conjunto de vectores es linealmente dependiente L.D si
existen escalares no todos nulos, tales que:
Si los vectores son linealmente dependientes podemos expresar alguno de
ellos como combinacin lineal del resto.
Si un conjunto de vectores no es linealmente dependiente diremos que son
linealmente independientes L.I.
Dado un conjunto de p vectores L.I , en llamaremos
ESPACIO GENERADO por esta familia de vectores al conjunto que contiene
todos los vectores que pueden expresarse como combinacin lineal de
estos. El conjunto se llama BASE del espacio. Si pertenece a
este espacio tal que
28
Dependencia Lineal
La dimensin de un espacio se define como el
numero de vectores L.I que lo generan.
Diremos que un vector X es ortogonal a un espacio
si X es ortogonal a todo vector de , es decir, si Y
pertenece al subespacio , entonces
29
-EJEMPLO DE BASE.-
-EJEMPLO.-
base cannica
RANGO DE UNA MATRI Z
30
En este apartado definimos el concepto de rango de una
matriz y con la ayuda de los conceptos de espacios
vectoriales, examinaremos el interior de una matriz para
descubrir muchas relaciones tiles e interesantes ocultas
entre sus filas y columnas.
Por ejemplo, imaginemos que se colocan 2000 nmeros
aleatorios en una matriz A 40 x 50 y despus se determina
tanto el nmero mximo de filas linealmente independientes
en A como el nmero mximo de filas linealmente
independientes en A
T
(columnas de A). Resulta notable que
ambos nmeros coinciden. Como pronto veremos, este valor
comn es el rango de la matriz.
31
Rango de una matriz A.-
nmero mximo de filas linealmente independientes de la
matriz A.
nmero mximo de columnas linealmente independientes de la
matriz A.
el mayor de los rdenes de los menores no nulos de la matriz A.
r(A)
Analizar el rango es la clave para reducir el numero de
variables sin prdida de informacin
32
-EJERCICIO.- Calcular el rango de la matriz A:
Matriz escalonada
Como B es una matriz escalonada equivalente a A,
tenemos que las dos matrices tienen el mismo rango, el
rango de B es el nmero de sus entradas principales.
Esta informacin ser til en el tema de espacios
vectoriales.
33
-EJERCICIO.- Calcular el rango de la matriz A.
Matriz escalonada
Aunque las tres primeras filas de B son linealmente
independientes, es errneo concluir que las tres
primeras filas de A son linealmente independientes.
(De hecho la tercera fila de A es dos veces la primera
fila ms siete veces la segunda fila).
Matrices ortogonales
Supongamos que dado un vector x le aplicamos una matriz NO
singular C y obtenemos un nuevo vector y = Cx. Si esta
operacin es un giro, la norma de y debe ser idntica a la norma de
x lo que implica la condicin


Deber verificarse que:

=
De la definicin de y = Cx y de

= concluimos que:


VALORES Y VECTORES PROPI OS
Un escalar se llama valor propio de si existe una
solucin no trivial de ; una de esas
soluciones no triviales se denomina vector propio de
asociado al valor propio .
El conjunto de todos los valores propios de una matriz
cuadrada se denomina espectro de y se denota o (A).
Valores propios. Son las medidas bsicas del
tamao de una matriz.
Vectores propios. Representan las direcciones
caractersticas de la matriz.

=




Observacin:
Si v es un vector propio de A y multiplicamos
por cualquier escalar a0
resulta que av ser tambin un vector propio de A
Para evitar esta indeterminacin, suponemos
que los vectores estn normalizados de
manera que v= 1
Sin embargo, el signo queda indeterminado: si
v es un vector propio tambien lo es -v
Cierta informacin til de los valores propios de una matriz
cuadrada A se encuentra codificada en una ecuacin escalar
llamada ecuacin caracterstica de A. Este hecho nos va a
permitir enunciar un resultado de gran importancia prctica para
el clculo de los valores propios de una matriz cuadrada.
Para que sea valor propio de la matriz cuadrada A, el sistema
homogneo (-) ha de tener soluciones no triviales, luego el
determinante de la matriz cuadrada A I ha de ser cero.
Polinomio caracterstico de A
Ecuacin caracterstica de A
Los valores propios de una
matriz cuadrada son las
races de su polinomio
caracterstico
El orden del valor propio es la multiplicidad k de
como raz del polinomio caracterstico.
Si k = 1, es un valor propio simple.
-EJEMPLO.- Calcular los valores propios de A
Propiedades:
1. Si es un valor propio de => es un a
valor propio de
2. Los valores propios de y de son los
mismos
3. Si es no singular, las matrices y
tienen los mismos valores propios.
4. Si es no singular cuyo valor propio es
=> es un valor propio de
5. Las matrices cuadradas ABC, BCA y CAB, donde
las matrices A, B y C son generales con la condicin
de que los productos existan, tienen los mismos
valores propios
Valores y vectores propios en matrices simtricas
Los valores propios son siempre reales.
Los vectores propios son ORTOGONALES
NORMALIZADOS (ORTONORMALES) V=1
Los valores propios de una matriz simtrica representan las
magnitudes de los ejes del elipsoide con centro el origen. Los vectores
propios indican las direcciones de estos ejes principales.
Linealmente
independientes
DI AGONALI ZACI N DE MATRI CES
SI MTRI CAS
Una propiedad muy importante de las matrices simtricas
es que pueden convertirse en diagonales mediante una
transformacin ORTOGONAL.
Cuando se diagonaliza una matriz, lo que realmente se hace
es distribuir toda la informacin de la matriz hacia la
diagonal.
Sea A una matriz cuadrada y simtrica de orden n,
cuyos vectores propios son: .Podemos
escribir

1
,
2
, ,



1
,
2
, ,

=
1

1
,
2

2
, ,

(*)
Donde son los valores propios.
1
,
2
, ,


Si definimos la matriz diagonal D con trminos
entonces (*) puede escribirse como


=
Donde la matriz U es ortogonal. De esto se deduce
que
=
De esta propiedad se deduce que
=
= (

) =

= = =

= (

) =

() = ()
Por lo tanto,
Si => A es definida positiva
Si algn => A es semidefinida positiva
El nmero de no nulos representa el RANGO de A

>0

=0


Descomposicin espectral

=
Consiste en descomponer una matriz simtrica en sus
fuentes de variacin intrnsecas (en funcin de los valores
y vectores propios)
=
1
, ,

1
. .
. .
. .
2

=1

1
=

=1

Raiz cuadrada de una matriz
semidefinida positiva
Una matriz simtrica y semidefinida positiva puede siempre
descomponerse como producto de una matriz por su
transpuesta
=
Por la descomposicin espectral
=

= (

)(

)
=


Raiz cuadrada de una matriz
semidefinida positiva
La raz cuadrada NO es nica
Para que sea nica H debe ser simtrica
=

/
=


Potencia de una matriz
=
Si multiplicamos por la matriz A
=


Haciendo esto varias veces, llegamos a


ALGEBRA LINEAL
Formas cuadrticas

A
nxn
simtrica;
( )

= + = = = =

+ = =
= + + + + + + + =
=
|
|
|
|
|
.
|

\
|
|
|
|
|
|
.
|

\
|
=
n
i
n
i j
j i ij
n
i
n
j
n
i
i ii j i ij
n n n n j i ij n nn
n nn n
n
n
n
x x a x a x x a
x x a x x a x x a x a x a
x
x
x
a a
a a a
a a a
x x x x f
1 1 1 1 1
2
1 1 2 1 12
2 2
1 11
2
1
1
2 22 21
1 12 11
2 1
2
) (

n
x 9 e
,
|
|
|
.
|

\
|
=
n
x
x
x
1
f(x)=x A x es una forma cuadrtica
49
49
ALGEBRA LINEAL
Formas cuadrticas
Ejemplo
Expresar matricialmente la forma cuadrtica



Escribir en forma cuadrtica
50
3 2 3 1 2 1
2
3
2
2
2
1 3 2 1
5 4 6 3 2 5 ) , , ( x x x x x x x x x x x x f + + =
( )
|
|
.
|

\
|
|
|
.
|

\
|

=
2
1
2 1 2 1
2 2
2 1
) , (
x
x
x x x x f
50
ALGEBRA LINEAL
Formas cuadrticas
Como A
nxn
es simtrica, es diagonalizable,
se puede escribir A = PDP y, por tanto,
queda: f(x) = xPDPx.
Haciendo y = Px:
( ) ,
0
0
' ) (
1
2
1 1
1
=
=
|
|
|
.
|

\
|
|
|
|
.
|

\
|
= =
n
i
i i
n n
n
y
y
y
y y Dy y y f


se tiene
. ) (
2
1
2
1 1
2
n n
n
i
i i
y y y y f

=
+ + = =
51
51
Formas cuadrticas
x
2

x
1

y
2
y
1

e
2

e
1

2

c
1

c
ALGEBRA LINEAL
52
y los autovectores
xAx = c
2
representa geomtricamente una elipse
en
2 2
2 2
2
1 1
2
2
' '
'
c y y c x PDP x
c Ax x
= + =
=

; los autovalores son
2 1

normalizados son e
1
y e
2.

2
9 y
52
Formas cuadrticas
ALGEBRA LINEAL
53
Ejemplo
Representar, hallar los ejes y obtener la expresin
reducida de
( ) 72
13 5
5 13
2
1
2 1
=
|
|
.
|

\
|
|
|
.
|

\
|


x
x
x x
53
Formas cuadrticas
Clasificacin de formas cuadrticas
ALGEBRA LINEAL
54
Sea f(x) = x A x
A es definida positiva si
A es semidefinida positiva si
A es semidefinida negativa si
A es definida negativa si
A es indefinida si
0 ) ( , 0 > = x f x
0 ) ( , > e x f x
n
0 ) ( , 0 < = x f x
0 ) ( 0 ) (
2 1 2 1
< > e - e - x f y x f que tal x y x
n n
0 ) ( , s e x f x
n
54
Formas cuadrticas
Sean los autovalores de A
A es definida positiva
A es semidefinida positiva
A es semidefinida negativa
A es definida negativa
A es indefinida
ALGEBRA LINEAL
0 , , 0
1
< <
n

0 , , 0
1
s s
n

0 , , 0
1
> >
n

0 , , 0
1
> >
n

0 , 0 < - > -
j i

55
n
, ,
1

55
Ejemplo.
56
Proyeccin ortogonal. Matrices simtricas idempotentes
En un modelo lineal la estimacin por mnimos cuadrados
equivale a la proyeccin ortogonal del vector de datos
sobre el espacio generado por las variables explicativas.
La proyeccin ortogonal tiene importancia capital en los
mtodos de estimacin lineal y se realiza multiplicando el
vector que se desea proyectar por una matriz simtrica
idempotente
A A A AA ' = =
57
Proyeccin ortogonal. Matrices simtricas idempotentes
Si A es simtrica
e idempotente
Si A es singular => al menos un
n i
i
..., , 2 , 1 , 0 = =
Si A es NO singular =>
n i
i
..., , 2 , 1 , 1 = =
58
Proyeccin ortogonal
p
E
y
v
w
Teorema. Sea y una matriz cuyas
columnas son base de un cierto subespacio .
Entonces, la proyeccin del vector sobre el espacio
es , donde la matriz es simtrica, idempotente,
de rango , y tal que
n
R y e
X
) ( p n
p
E
y
p
E
Ay A
p
' ) ' (
1
X X X X A

=
59
Calcule la proyeccin ortogonal del vector (1,1,3)
sobre el espacio generado por los dos vectores (1,1,1)
y (0,1,2)
Ejemplo.
60
Derivadas matriciales
Si tendremos que:

Si donde es una matriz,

Si , donde es simtrica

Si , donde ,

Si , entonces


x ' a = f
a
x
x) ' a (
x
=
c
c
=
c
cf
Ax x' = f
A
Ax 2
x
Ax) x' (
x
=
c
c
=
c
cf
Xb a' = f
(nxp)
X
ba'
X
Xb) a' (
X
=
c
c
=
c
cf
Xb X' a' = f
)X' ba' ' ab (
X
Xb) X' a' (
X
+ =
c
c
=
c
cf
Ax = f
A A'
x
Ax) (
x
=
c
c
=
c
cf
61
Derivadas matriciales. Otras propiedades
C' B'
X
) BXC (
)
) X' ( X
X
X
)
) X' (
X
X ln
)
1
1
=
c
c
=
c
c
=
c
c

tr
c
b
a
Si los elementos de la matriz cuadrada y no singular son
distintos:








Adems, si es simtrica:
X
) X B' X (
X
) BX (
)
A' X' B' A BX'
X
) AXB X' (
)
B'
X
) XB (
)
1 - 1 -
1 -
=
c
c
+ =
c
c
=
c
c
tr
c
tr
b
tr
d
X
)) X ( (2X X
X
X
)
(B) B' B
X
) XB (
)
1 - 1 -
diag b
diag
tr
d
=
c
c
+ =
c
c
62
63
Introduccin al anlisis de regresin lineal
El anlisis de regresin es una tcnica estadstica
para investigar y modelar la relacin entre variables.
Bsicamente consiste en encontrar una ecuacin que
sirva para pronosticar una variable en funcin de
otra u otras.
Para estimar la ecuacin del modelo se debe tener
una muestra.
pronstico ) x ,..., x , x ( y

k 2 1
=> = f
ntes independie x ,..., x , x
e dependient y
k 2 1
=>
=>
64
Introduccin al anlisis de regresin lineal
Ejemplo. La tasa de mortalidad infantil (muertes de nios de 5
aos o menos por cada 1,000 nacidos vivos) como variable
dependiente y el porcentaje de vacunacin en un pas como
variable independiente.
Observaciones NACION %INMUNIZACION TMI
1 Bolivia 77 118
2 Brazil 69 65
3 Cambodia 32 184
4 Canada 85 8
5 China 94 43
6 Czech_Republic 99 12
7 Egypt 89 55
8 Ethiopia 13 208
9 Finland 95 7
10 France 95 9
11 Italy 95 10
12 Japan 87 6
13 Mexico 91 33
14 Poland 98 16
15 Russian_Federation 73 32
16 Senegal 47 145
17 Turkey 76 87
18 United_Kingdom 90 9
65
Introduccin al anlisis de regresin lineal
Herramientas para evaluar la relacin entre dos variables
El diagrama de dispersin
El coeficiente de correlacin de Pearson
0
50
100
150
200
250
0 20 40 60 80 100 120
T
M
I

%INMUNIZACION
R = 0.93
Introduccin al anlisis de regresin lineal
n i x x x y
i ik k i i i
..., , 2 , 1 ...
2 2 1 1 0
= c + | + + | + | + | =
Modelo de regresin lineal mltiple
En notacin matricial el modelo puede ser expresado:
c + | = X y
(
(
(
(

=
n
y
y
y

2
1
y
(
(
(
(

=
nk n n
k
k
x x x
x x x
x x x

2 1
2 22 21
1 12 11
1
1
1
X
(
(
(
(

|
|
|
= |
k

2
1
(
(
(
(

c
c
c
=
n

2
1
y
66
67
Introduccin al anlisis de regresin lineal
Supuestos bsicos del modelo:
a) Las variables son no aleatorias.
b) Los errores son variables aleatorias con media 0 y
varianza constante.
c) Los errores y (ij=1 ,n) son independientes
entre si. Es decir, Cov( , ) = 0
d) La covarianza entre y es cero.
e) El nmero de observaciones debe ser mayor que el
nmero de parmetros a estimar.
f) No hay relacin perfecta entre las variables
i
x
i
c
2
o
i
c
j
c
i
c
j
c
i
c
i
x
i
x
Introduccin al anlisis de regresin lineal
Estimacin del vector de parmetros (MCO)
Se desea estimar el vector de parmetros con la condicin de
minimizar la suma de cuadrados de los errores, es decir
| | + | = |
| | = c c = c = |

=
X X' ' y X' ' 2 y y' ) S(
) X y ( )' X y ( ' ) S(
1
2
n
i
i
Derivando e igualando a cero
y X' X) X' (

y X'

X X'
0

X X' 2 y X' 2
) S(
1 -

= |
= |
= | + =
| c
| c
|
y X' X) X' ( X y

X y

1 -
=
| =
68
Ver diapositiva 10
69
Introduccin al anlisis de regresin lineal
Resultados de importancia
H)y - (I Hy - y y

- y e
Hy y X' X) X' ( X y

-1
= = =
= =
Propiedades de los estimadores mnimos cuadrados
1 2
) X ' X ( )

(
)

o = |
| = |
Cov
E
70
Introduccin al anlisis de regresin lineal
Estimacin de
2
o
c = c c =
c | c + | = c | c + | =
c | c + | = c + | = =
H) I ( H e
H X X H X X' X) X(X' X e
H HX X ) H)(X - (I H)y - (I e
1 -
c c =
c c =
=
H) - (I '
H) - (I H)' - (I '
e e'
Re
Re
Re
s
s
s
SC
SC
SC
1 H) - r(I
) tr(I - ) X) X(X' tr(X' - H) - r(I
) X' X) tr(X(X' - ) tr(I H) - tr(I H) - r(I
) 1 ( ) 1 (
1 -
-1
=
= =
= =
+ +

k n
n n
k k
n n
1

Re
2

= o
k n
SS
s