Beruflich Dokumente
Kultur Dokumente
alisis Matricial.
Jorge Antezana y Demetrio Stojanoff
Indice General
1 Preliminares.
1.1 Generalidades . . . .
1.2 Matrices Unitarias .
1.3 Matrices normales . .
1.4 Matrices Hermitianas
1.5 Principio minimax. .
1.6 Descomposicion polar
1.7 Normas en Mn (). .
.
.
.
.
.
.
.
1
1
4
6
7
9
11
13
.
.
.
.
.
16
16
22
24
27
27
3 Desigualdades de matrices.
3.1 Producto de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Partes reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
31
32
34
4 Teora de Perr
on-Frobenius.
4.1 Matrices de entradas positivas. . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Matrices de entradas no negativas. . . . . . . . . . . . . . . . . . . . . . . .
Analisis Matricial.
36
36
40
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
y valores singulares
. . . . . . . . . . . .
2 Mayorizaci
on y matrices Hermitianas
2.1 Definiciones y propiedades basicas . . . .
2.2 Aplicaciones a matrices Hermitianas. . .
2.3 Normas unitariamente invariantes. . . . .
2.4 Mayorizacion de matrices Hermitianas .
2.5 Teoremas de Lindskii y sus aplicaciones.
1
1.1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Preliminares.
Generalidades
Los vectores de n seran pensados como vectores columna, es decir que identificamos
con n1. Sin embargo, a lo largo del texto los describiremos como una fila (estilo
x = (x1 , . . . , xn ) n ), para ahorrar espacio.
Si A Mn (), lo pensaremos tambien como un operador (o transformacion lineal) sobre
n por multiplicacion: si x n, entonces A(x) = Ax (el producto standard de matrices).
Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales mas
generales. Por ejemplo, si S n es un subespacio y A Mn () verifica que A(S) S,
entonces se puede pensar a A (o su restriccion a S) como un operador en S. En tal caso
diremnos que pensamos a A|S L(S), donde L(S) denotara al conjunto de operadores
lineales en S.
En n consideraremos el producto interno (o escalar) com
un, dado por
n
xk y k ,
x, y =
x, y n .
k=1
Es claro que , : n n
v, v, w n y , entonces
1. v, v 0 y v, v = 0 si y solo si v = 0.
2. u, v = v, u .
3. v, (u + w) = v, u + v + w .
4. u, v = u, v .
Dado x n , definiremos su norma Eucldea, a la usual:
n
x = x
= x, x
1/2
|xk |2 )1/2 .
=(
k=1
Muchas veces consideraremos otras normas de vectores y matrices. Por ello damos una
definicion general:
Definici
on 1.1.1. Sea K = o y un K-espacio vectorial. Una norma en es una
funcion N : que verifica las siguientes condiciones: Dados v, v y K,
1. N (v) 0 y N (v) = 0 si y solo si v = 0.
2. N (u + v) N (u) + N (v).
3. N (v) = || N (v).
Cuando una tal norma proviene de un producto interno, diremos que el par (, N ), o bien
(, , ) es un espacio de Hilbert (ojo, aca se asume que dim < ). Usualmente usaremos
letras H o K para tales espacios y notaremos por L(H, K) al espacio de operadores lineales
de H en K. Si H = K, escribimos L(H) en lugar de L(H, H). Si A L(H, K) notaremos
por N u(A) a su n
ucleo y R(A) a su imagen. Ademas notaremos r(A) = dim R(A) al rango
(columna) de A.
2
Definici
on 1.1.2. Sea H un espacio de Hilbert. Los vectores x1 , ..., xk H forman un
conjunto ortogonal cuando xi , xj = 0, si i = j. Si ademas los vectores estan normalizados,
es decir x 2 = xi , xi = 1, i k, entonces el conjunto se dice ortonormal. Usaremos
las siglas bon para denotar a un base ortonormal de H.
Definici
on 1.1.3. Sean H y K espacios de Hilbert y sea A L(H, K). Se llama adjunto
de A al u
nico operador A L(K, H) que satisface
Ax, z
= x, A z
x H, z K.
Observaci
on 1.1.4. Si, en particular, A L(H), entonces A tambien esta en L(H). Para
una bon fija B = {e1 , . . . , en } de H, se identifica a los operadores de L(H) con matrices en
Mn () va
Aij = Aej , ei , 1 i, j n.
Con esta identificacion, la matriz de A es la traspuesta conjugada de la matriz de A. Es
decir que Aij = Aji , 1 i, j n.
Definici
on 1.1.5. Dado A L(H) un operador en un espacio de Hilbert, decimeos que A
es:
1. Hermitiano si A = A .
2. anti-Hermitiano si A = A .
3. unitario si AA = A A = I.
4. normal si AA = A A.
5. definido positivo si Ax, x > 0 para todo x H. En tal caso de escribe A > 0.
6. semidefinido positivo si Ax, x 0 para todo x H. En tal caso de escribe A 0.
Los mismos nombres tendran las matrices de Mn (), al ser pensadas cono operadores en H =
n con el producto escalar y la norma usuales. Ademas usaremos las siguientes notaciones:
1. H(n) = {A Mn () : A = A }.
2. U(n) = {U Mn () : U es unitaria }.
3. Mn ()+ = {A Mn () : A 0} H(n).
4. Gl (n) = {A Mn () : A es invertible }.
Definici
on 1.1.6. Se llama espectro de una matriz A Mn () al conjunto de todos los
autovalores de A:
(A) = { : es autovalor de A} = { : N u(A I) = {0} }.
Notar que A Gl (n) si y solo si 0
/ (A).
3
Observaci
on 1.1.7. Se sabe que los autovalores de A Mn () son las races del polinomio
caracterstico de A. Este polinomio tiene grado n, pero puede tener races m
ultiples, por lo
que (A) puede tener menos de n elementos (en tanto conjunto, sus elementos solo pueden
contarse de a uno). Muchas veces es necesario usar a cada (A) tantas veces como
multiplicidad tiene como raz del caracterstico. Para hacer eso, diremos que
los autovalores de A son 1 , . . . , n ,
donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene en el
polinomio caracterstico. Por eso quedan n.
Definici
on 1.1.8. El radio espectral de una matriz A Mn () se define como
(A) = max{|| : (A)}.
1.2
Matrices Unitarias
Las matrices unitarias son de gran importancia ya que, en muchos casos, son la herramienta
principal para obtener distintos resultados en el analisis matricial. En esta seccion veremos
distintas formas de caracterizarlas y veremos tambien como intervienen en una descomposicion muy especial para matrices cuadradas dada por el teorema de Schur.
Definici
on 1.2.1. Se dice que A es unitariamente equivalente a B y se nota A
U U(n) tal que A = U BU.
B si existe
n
2
|aij |2 .
|bij | =
i,j=1
n
i,j=1
i,j=1
c) U U = I.
d) U es unitaria.
e) Las columnas de U forman una bon.
f ) Las filas de U forman una bon.
g) Para todo x n , U x
= x
U1 AU1 =
donde A2 Mn1 (), con autovalores 2 , . . . , n . Por HI se triangula a A2 con una matriz
unitaria V Mn1 (), que se extiende a otra unitaria U2 Mn () poniendo un 1 en el
lugar 1, 1 y ceros en los costados. Es facil verificar que U = U1 U2 triangula a A de la forma
requerida.
El caso real sale igual. Notar que el x1 n existe si 1 . El caso de dos matrices
que conmutan se deduce de que N u(A 1 I) es invariante para B, por lo que el vector x1
se puede elegir como un autovector de B (aunque no se sabe cuales de los autovalores de B
pueden elegirse). El resto de la prueba sigue igual.
5
Entonces tr A =
i y det A =
i=1
i .
i=1
1.3
Matrices normales
a1 0 0
an
Teorema 1.3.2. Si A = [aij ] Mn () tiene autovalores 1 , ..., n , las siguientes condiciones son equivalentes:
a) A es normal.
b) A es unitariamente diagonalizable.
n
c)
i,j=1
|aij |2 =
|i |2
i=1
d) Para todo x n , Ax = A x .
Demostracion. La equivalencia entre a) y d) la obtenemos del siguiente hecho: para cada
x n ,
Ax 2 = A Ax, x
y
A x 2 = AA x, x .
Recordar que si B Mn () cumple que Bx, x = 0 para todo x n , entonces B = 0.
Por el Teorema de Schur existe una matriz unitaria U y una matriz triangular superior
T tal que T = U AU . Ademas como A es normal, T es normal, es decir T T = T T y
6
esto mas el hecho de que T es triangular superior implican que T es una matriz diagonal
(Ejercicio: verificarlo). Entonces A es unitariamente diagonalizable. Por lo tanto a) implica
b). Recprocamente si A es unitariamente diagonalizable, A = U T U con U unitaria y T
diagonal, por lo tanto T es normal. Entonces A es normal. Luego queda demostrado que a)
y b) son equivalentes.
Si A es unitariamente diagonalizable, A = U DU con U unitaria y D diagonal y por el
n
|aij |2 =
i,j=1
|i |2 .
i=1
Asumamos la condicion c). El teorema de Schur nos dice que A es unitariamente equivalente
a una matriz T triangular superior, entonces
n
n
2
|i | =
i=1
n
2
|i |2 +
|aij | =
i,j=1
i=1
|tij |2 .
i<j
sp
1.4
Matrices Hermitianas
2. (A) = (1 (A), . . . , n (A)) es el vector de autovalores de A ordenados en forma decreciente, es decir k (A) k+1 (A), 1 k n 1. Tambien k (A) = nk+1 (A).
3. Se llamaran
min (A) = 1 (A) = n (A) = min (A)
y, analogamente,
max (A) = n (A) = 1 (A) = max (A) .
As, cuando escribamos i (A) o, directamente i (si el contexto es claro) estaremos asumiendo
que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma
decreciente si escibimos i (A) o i .
Para matrices generales la u
nica caracterizacion conocida de sus autovalores es que son las
races del polinomio caracterstico de la matriz. Pero cuando las matrices son Hermitianas,
el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones mas
interesantes. El proximo teorema describe el maximo y el mnimo de los autovalores de la
Ax, x
(0 = x n ), conocidas como cocientes de
matriz en funcion de las expresiones
x, x
Rayleig-Ritz.
Teorema 1.4.3 (Rayleigh-Ritz). Sea A H(n). Entonces
1. Para todo x n , min (A) x
2. max (A) = n (A) = max
x=0
Ax, x
= max Ax, x .
x =1
x, x
Ax, x
= min Ax, x .
x =1
x, x
i (A)|xi |2 ,
Dx, x =
i=1
1.5
Principio minimax.
Recordemos que, dada A H(n), denotamos a los autovalores de A (contados con multiplicidad) como 1 (A) 2 (A) ... n (A).
Teorema 1.5.1 (Courant-Fisher). Sea A H(n) y sea k un entero, 1 k n. Las
letras M y S las usaremos para denotar subespacios de n , y M1 denotar
a a los elementos
de M de norma uno. Entonces,
k (A) =
min
max Ax, x =
max
min Ax, x .
j (A)|xj |2 .
Ax, x =
(1)
j=1
max
min Ax, x .
w1 ,w2 ,...,wnk n
max
x=0,xn
x Ax
= k (A)
x x
(2)
x Ax
= k (A)
x x
(3)
max
w1 ,w2 ,...,wk1 n
min
x=0,xn
xw1 ,w2 ,...,wk1
min
max An x, x
min
max
min An x, x
max
Observaci
on 1.5.6. En forma analoga se puede probar versiones mas generales del Teorema
anterior:
1. Sea A H(n), r un entero tal que 1 r n y Ar H(r) cualquier submatriz
principal de A obtenida al borrar n r filas y las correspondientes columnas de A.
Entonces para cada entero k tal que 1 k r, se tiene
k (A) k (Ar ) k+nr (A).
2. Mas en general a
un, si P Mn ()+ es un proyector autoadjunto (o sea ortogonal)
sobre un subespacio S de dim S = r, entonces al producto P AP se lo puede pensar
como un operador en el espacio de Hilbert S (para que su vector de autovalores tenga solo r cordenadas, sacando los n r ceros que sobran). Entonces se obtienen
desigualdades analogas: para cada entero k tal que 1 k r, se tiene
k (A) k (P AP ) k+nr (A).
10
Ejercicio 1.5.7. Escribir explcitamente como quedan los resultados de esta seccion (minimax, teorema de Weyl y los tres entrelaces) en funcion de los vectores (A) ordenados
decrecientemente.
Ahora, como corolario del Teorema de entrelace, veremos una caracterizacion de positividad
de matrices en terminos de submatrices principales. Para ello necesitaremos del siguiente
resultado previo.
Lema 1.5.8. Toda submatriz principal de una matriz definida positiva, es definida positiva.
Demostracion. Ejercicio.
Teorema 1.5.9. Si A H(n), entonces A es definida positiva (i.e. A > 0) si y s
olo si
det Ai > 0
para todo 1 i n,
1.6
Descomposici
on polar y valores singulares
Antes de definir los conceptos que dan ttulo a esta seccion, necesitamos hacer las siguientes
observaciones:
1. Dada A Mn (), es facil ver que A A 0. En efecto, si x n , entonces A Ax, x =
Ax 2 0.
2. Ademas, dada una matriz B Mn ()+ , existe una u
nica matriz C Mn ()+
tal que C 2 = B. En efecto, Se debe escribir B = U DU , con U U(n) y D =
diag (1 (B), . . . , n (B)) Mn ()+ . Se toma
D = diag 1 (B)1/2 , . . . , n (B)1/2
11
Esto es posible por la frase final del Teorema 1.4.3. Finalmente se define C = U D U .
Es claro que C Mn ()+ y que C 2 = B. La unicidad es algo mas complicada y se
deja como ejercicio.
3. Dada B Mn ()+ llamaremos B 1/2 a su raiz cuadrada positiva en el sentido del
tem anterior.
Definici
on 1.6.1. Sea A Mn (),
1. Llamaremos modulo de A a la matriz
|A| = (A A)1/2 Mn ()+ .
2. Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma
decreciente, notandolos s1 (A) sn (A) 0.
3. Llamaremos s(A) = (s1 (A), . . . , sn (A)) = (|A|) y (A) a la matriz diagonal
s1 (A) 0
0
.. .
...
(A) = diag (s(A)) = ...
.
0
0 sn (A)
Ejemplos 1.6.2. Sea A Mn ().
1. Si A 0, entonces A = |A| y s(A) = (A).
2. Si A H(n), entonces s(A) = |(A)|, salvo el orden. En efecto, A A = A2 , luego los
autovalores de |A| son los modulos de los de A (si a , (a2 )1/2 = |a|).
3. En general, los autovalores y los valores singulares de una misma matriz pueden ser
bien distintos. Por ejemplo, si A es un bloque nilpotente de Jordan en Mn () (i.e.
Aek = ek+1 , 1 k n 1 y Aen = 0), entoces (A) = {0} porque An = 0, pero
s(A) = (1, . . . , 1, 0), porque A A es un proyector de rango n 1.
Teorema 1.6.3 (Descomposicio
n polar y en valores singulares). Sea A Mn ().
Entonces
1. Para todo x n , se verifica que Ax = |A|x .
2. Existe una matriz unitaria U Mn () tal que A = U |A|.
3. Existen dos matrices unitarias V, W Mn () tales que
A = W (A)V.
Demostracion. Ejercicio.
12
1.7
Normas en Mn ().
sp
= max Ax = s1 (A),
x =1
donde la u
ltima igualdad surge de que A
sp
|A|
sp
= (|A|).
si (A)
n=1
La
2
2
|aij |2
= tr A A =
i,j=1
(k)
si (A) .
i=1
Notar que A
(1)
= A
4. Toda norma N en
sp
y A
(n)
= A
(c) | AB |
| A|
| B|
N (x)=1
=1
(b) (A) | A |
(de Schatten).
en Mn () del siguiente modo:
= max N (Ax).
N.
13
5. | |
n.
en
= max Ci (A)
i
= max Fi (A)
i
en
n.
Puede demostrarse
en Mn () se llama:
y consideremos la matriz
A=
1 1
.
1 1
n=0 (I
A)n
, entonces, A Gl (n).
A B < 1.
Por lo tanto B 1 A es inversible y A = B(B 1 A) tambien lo es. Para demostrar (1), llamemos
C = I A. Entonces, C < 1 y C m C m , en consecuencia
C
k=0
C
k=0
14
1
1 C
Luego,
k=1
N
k
(I A)k = 1 C N +1 1
C =A
k=0
k=0
Ck
y analogamente
A = 1.
k=0
X ,
de donde se deduce que || A . Como el autovalor era cualquiera, es tiene que (A)
A . Ademas, por el Lema 1.7.5, se tiene que (Am ) = (A)m . Por lo tanto, usando la parte
ya probada, obtenemos que (A) Am 1/m .
Observaci
on 1.7.7. Dada una norma matricial
A S := SAS 1 es tambien matricial.
Proposici
on 1.7.8. Sea A Mn () y > 0. Entonces, existe una norma matricial N en
Mn () tal que N (A) (A) + .
Demostracion. Sea A = U T U con T una matriz triangular superior y U U(n). Luego,
T = U AU . Sea Ds = diag (s, s2 , . . . , sn ). Entonces, Ds T Ds1 = (tij sij ) y si s
En cualquier norma
Ds T Ds1 sp
sp
sp
(A). Luego,
s
N (B) = Ds U BU Ds1
sp
B Mn ().
Demostracion. Es claro que (A) < 1 si y solo si (Am ) = (A)m 0. Como (Am )
m
Am sp , una implicacion es clara. Para probar la otra, supongamos que (A) < 1 y elijamos
una norma matricial N tal que (A) N (A) < 1. Tal norma existe por la Proposicion 1.7.8.
Como N es matricial, deducimos que N (Am ) N (A)m 0.
m
Am
1/m
en Mn (),
2
2.1
Mayorizaci
on y matrices Hermitianas
Definiciones y propiedades b
asicas
i=j
tr x =
xi .
i=1
n .
Definici
on 2.1.1. Sean x, y
si se verifica que tr x = tr y y
xj
yj ,
j=1
1 k < n,
(4)
j=1
Observaci
on 2.1.2. Dado que
xj =
j=1
nk
xj
j=1
j=1
xj
yj ,
j=1
1 k < n,
(5)
j=1
xi = 1, entonces
i=1
1
1 1
( , , ..., ) (x1 , x2 , ..., xn ) (1, 0, ..., 0).
n n
n
k
xk
(6)
i=1
xi
i=k+1
hecho de que
n
j=1
1
=1=
n
xi .
i=1
tr Ci (A) = 1.
Ae = e
A e = e,
donde e = (1, 1, . . . , 1) n .
Teorema 2.1.7. A DS (n) si y solo si Ax x para todo x n .
Demostracion. Supongamos primero que Ax x para todo x. Sea E = {e1 , . . . , en } la base
canonica de n . Entonces, como Aei ei , 1 i n, podemos deducir que A 0 y, para
1 i n,
1 = tr ei = tr Aei = tr Ci (A).
Por otra parte, tomemos e = (1, 1, . . . , 1). Usando el Ejemplo 2.1.3, como Ae e y todas
las cordenadas de e son iguales, deducimos que
e = Ae = (tr F1 (A), . . . , tr Fn (A)).
Recprocamente, supongamos que A DS (n) y llamemos y = Ax. Queremos probar
que y x. Se puede suponer que las cordenadas de x y de y estan ordenadas en forma
decreciente, porque si P, Q U(n) son matrices de permutacion, entonces QAP DS (n)
(esto se formaliza facil con el Ejercicio anterior). Ademas, como y = Ax, para 1 k n,
tenemos
k
yj =
j=1
aij xi .
j=1 i=1
aij , entonces 0 ti 1 y
Si llamamos ti =
j=1
ti = k. Luego,
i=1
18
yj
j=1
aij xi
xj =
j=1
j=1 i=1
n
i=1
t i xi
=
i=1
k
xi + (k
ti )xk
xi + kxk
i=1
i=k+1
xk
i=1
i=1
(ti 1)xi +
i=1
ti xk
t i xk
i=k+1
ti (xi xk )
ti xk +
i=1
i=k+1
n
(1 ti )xk +
i=1
ti (xi xk )
i=k+1
(ti 1)(xi xk ) +
i=1
(ti 1)xi +
i=1
i=1
ti xi
t i xi +
i=1
xi
i=1
n
t i xi
xi =
i=1
i=1
ti (xi xk ) 0,
i=k+1
yj
j=1
j=1
y1 + y2 = x1 + x2 .
xi (m 1)xk1 (m 1)y1
zi =
i=2
i=2
yi .
i=2
k1
xi + (1 )x1 + xk +
zi =
i=2
i=2
m
xi
i=k+1
xi + x1 (1 )xk
=
i=1
m
xi y 1
=
i=1
yi y1 =
i=1
yi .
i=2
permutaciones i Sn1 (pensadas como biyecciones del conjunto {2, 3, . . . , n}). Llamemos
tambien i Sn la extension de la permutacion i a n poniendo i (1) = 1. Luego y =
s
y=
i Pi (z ) =
i=1
(1 )i Pi P0 (x),
i Pi (x) +
i=1
i=1
yi ,
yi
i=1
i=1
20
i=1
Se usa la notaci
on f (x)
|yi t|
3.
i=1
n
+
(yi t)
3.
i=1
i=1
Demostracion. Solo probaremos la primer parte, puesto que los argumentos para probar la
segunda son similares. Supongamos que y x. Entonces, existe una matriz doble estocastica
A = (aij ) tal que y = Ax. Luego, dada una funcion convexa f , se tiene que
n
tr(f (y)) =
f (yi ) =
i=1
aij xj
i=1
j=1
aij f (xj ) =
i=1 j=1
f (xj )
i=j
Es claro que 2 3, as que probemos que 3 1. Supongamos que los vectores x e y estan
ordenados de forma decreciente (ni 3 ni 1 depende del orden de las cordenadas). Tomando
t < xn , se verifica que tr(y) tr(x), y tomando t > x1 , que tr(y) tr(x). Por otro lado,
dado x , se tiene que x+ = (x + |x|)/2. Luego
n
(yi t)+ =
n
i=1 (yi
t) +
2
n
i=1
|yi t|
n
i=1 (xi
t) +
2
n
i=1
|xi t|
i=1
(xi t)+ .
=
i=1
n
k
+
(xi t) =
Tomando t = xk , resulta
i=1
k
+
(xi t) =
i=1
i=1
yi kt =
i=1
i=1
k
i=1
k
i=1
xi .
i=1
21
i=1
xi kt,
i=1
yi
(yi t)+
(yi t)
(xi t)+ =
n
+
(yi t)
i=1
n
Demostracion. Ejercicio.
Teorema 2.1.13 (Birkhoff ). El conjunto de matrices doble estoc
asticas DS (n) es convexo
y sus puntos extremales son las matrices de permutaci
on. Es decir que toda A DS (n) es
combinaci
on convexa de matrices de permutaci
on.
Demostracion. Hay dos demostraciones usuales, ambas complicadas, divertidas y polemicas.
Lamentablemente, no hay espacio en este curso para incluirlas. Pero se puede contar una de
ellas: el primer paso es probar que si A DS (n), entonces existe Sn tal que ai(i) > 0,
para todo 1 i n. Esto suele llamarse que A tiene una diagonal no nula. Suena
razonable, si filas y columnas deben sumar 1, pero la prueba no es facil, y es conocida como
Teorema de los casamientos de Hall.
El siguiente paso es hacer induccion en el n
umero de entradas no nulas de A (desde
2
n hasta n ; porque vale P(n)?). El paso inductivo se hace restandole a A la matriz de
permutacion de , multiplicada por a = min ai(i) . Esto queda con entradas positivas (una
menos) y dobleestocatizable (todo suma justo 1 a).
2.2
aij =
uki k ukj ,
en particular,
k |uki |2 .
aii =
k=1
k=1
Consideremos ahora la matriz B = (|uji |2 )ij que, por ser U unitaria, cumple B DS (n).
Ademas
n
2
|u
|
k=1 k1 k
|u11 |2 |un1 |2
1
.. .. =
..
...
= d (A) .
B(A) = ...
.
. .
n
n
|u1n |2 |unn |2
|u |2
kn
k=1
j (A) = max
j=1
Axj , xj ,
j=1
donde el maximo se toma sobre todas las k-uplas ortonormales {x1 , ..., xk } en
n.
Axj , xj =
j=1
bjj . Por el
j=1
bjj
Axj , xj =
j=1
j=1
j (A).
j=1
Si consideramos en particular una k-upla ortonormal {x1 , ..., xk } compuesta por autovectores
de A correspondientes a los autovalores 1 (A), . . . , k (A), obtenemos
k
Axj , xj =
j=1
xj , j (A)xj =
j=1
j (A).
j=1
De esta manera vemos que se alcanza la igualdad cuando se toma el maximo sobre todas las
k-uplas de vectores ortonormales.
Como una consecuencia del principio maximo de Ky-Fan, obtenemos una interesante relacion
de mayorizacion entre los autovalores de las matrices Hermitianas A , B y A + B.
Teorema 2.2.3. Sean A y B H(n). Sean (A), (B) y (A+B) los vectores que contienen
los autovalores de A, B y A+B respectivamente, ordenados de manera decreciente. Entonces
(A + B) (A) + (B)
Demostracion. Por el principio del maximo de Ky-Fan, para k : 1, ..., n, podemos escribir
k
j (A + B) = max
j=1
xj , (A + B)xj
j=1
k
= max{
xj , Bxj }
xj , Axj +
j=1
j=1
max
xj , Axj + max
j=1
xj , Bxj
j=1
j (A) +
j=1
j (B).
j=1
0 C
C 0
M2n ().
(7)
resultantes de la relacion (A
+ B) (A) + (B) para 1 k n, se obtiene que s(A +
B) w s(A) + s(B).
Observaci
on 2.2.6. Notar que el resultado anterior es necesario para verificar que las
normas (k) de Ky Fan, definidas en el Ejemplo 1.7.1, cumplen la desigualdad triangular.
2.3
Definici
on 2.3.1. Una norma | | en Mn () se dice que es una norma unitariamente
invariante (NUI) , si cumple que
| U AV | = | A |
para toda A Mn () y U, V U(n). Notar que, en tal caso, por el Teorema 1.6.3 se tiene
que | A | = | (A) | .
Definici
on 2.3.2. Dada una norma N () unitariamente invariante, se define la funcion
gN : n como
gN (x1 , . . . , xn ) = N (diag (x1 , . . . , xn ))
Proposici
on 2.3.3. Sea N una NUI. Entonces, para todo x n ,
1. gN es una norma en
n .
Demostracion.
1. Ejercicio para el lector.
2. Sea xj = j |xj | donde wj = eij . Luego, como diag (1 , . . . , n ) U(n),
gN (|x1 |, . . . , |xn |) = N (diag (|x1 |, . . . , |xn |))
= N (diag (1 , . . . , n ) diag (|x1 |, . . . , |xn |))
= N (diag (x1 , . . . , xn ))
= gN (diag (x1 , . . . , xn )).
3. Sea P la matriz unitaria tal que
P diag (x1 , . . . , xn ) P1 = diag x(1) , . . . , x(n) .
Entonces,
gN (x(1) , . . . , x(n) ) = N (diag x(1) , . . . , x(n) )
= N (P diag (x1 , . . . , xn ) P1 )
= N (diag (x1 , . . . , xn ))
= gN (diag (x1 , . . . , xn )).
2
2
1t
1+t
=
g(y) +
g(y) = g(y).
2
2
g(y1 , . . . , tyk , . . . , yn ) = g
25
n+
y
A
g(y ) =
A
g(y) = g(y).
A
Teorema 2.3.7.
1. Si N es una NUI, entonces, gN es una funci
on gauge simetrica.
2. Si g es una funcion gauge simetrica, entonces,
A
A Mn ()
Teorema 2.3.8. Sean A, B Mn (). Entonces, N (A) N (B) para toda NUI N , si y
s
olo si A (k) B (k) para k = 1, . . . , n.
Demostracion. Es consecuencia del Teorema 2.3.6 para funciones gauge simetricas, y del
Teorema 2.3.7. En efecto, si A (k) B (k) para k = 1, . . . , n, entonces s(A) w s(B). Por
lo tanto g(s(A)) g(s(B)) para toda funcion gauge simetrica. La recproca es evidente.
Corolario 2.3.9. Sean A, B Mn ()+ tales que A B. Entonces, N (A) N (B) para
toda norma unitariamente invariante N .
Demostracion. Es consecuencia del Corolario 1.5.4, porque
sk (A) = k (A) k (B) = sk (B) ,
26
1 k n.
2.4
Mayorizaci
on de matrices Hermitianas
Hasta el momento solo hemos visto resultados relacionados con la mayorizacion de vectores.
Pero a cada matriz A H(n) se le puede asociar el vector (A) n formado por todos los
autovalores de A. Esto permite la siguiente definicion,
Definici
on 2.4.1. Si A, B H(n), se dice que A esta mayorizada por B y se escribe A B
si se verifica que (A) (B). Es decir, A B si tr A = tr B y
k
j (A)
j=1
j (B),
1 k n, .
(8)
j=1
Definici
on 2.4.2. Sea P H(n) un proyector (o sea P = P 2 = P ) y A Mn (). Se
define el pinching de A como la matriz
CP (A) := P AP + (I P )A(I P ).
Por ejemplo, si P proyecta sobre las primeras k cordenadas en
A=
B C
D E
CP (A) =
n, si
B 0
0 E
2.5
j (A) j (B)
j=1
j (A B).
j=1
ij (A + B)
j=1
ij (A) +
j=1
j (B) .
j=1
28
Caso 1: (ik < n) Sea S el subespacio generador por los vectores w1 , . . . , wn1 . Por el item
2 del lema, para k = 1, . . . , n 1 se tiene que k (A + B) = k ((A + B)S ). Luego
k
ij (A + B) =
ij ((A + B)S )
j=1
j=1
k
ij (AS ) +
j (BS )
j=1
j=1
ij (A) +
j=1
j (B) ,
j=1
ij (A + B)
j=1
ij 1 (AS + BS )
j=1
k
ij 1 (AS ) +
j=1
j (B)
j=1
ij (A) +
j=1
j (B) .
j=1
Caso 3: (i1 = 1, ik = n) Sean 1 < l1 < . . . < lnk < n tales que {n l1 + 1, . . . , n lnk +
1} = {i1 , . . . , ik }c . Aplicamos el caso 1 o 2 para l1 , . . . , lnk , A, B y A B.
(Notar que j (C) = j (C) = nj+1 (C)). Se tiene que
nk
nk
lj (A B)
nk
lj (A) +
j=1
j=1
j (B) .
j=1
Luego
nk
nk
nlj +1 (A + B)
j=1
nk
nlj +1 (A)
j=1
nj+1 (B) ,
j=1
y por lo tanto
nk
nk
nlj +1 (A + B)
j=1
nk
muavin lj + 1A +
j=1
nj+1 (B) .
j=1
ij (A + B)
j=1
ij (A) +
j=1
29
j (B) .
j=1
ij (A) ij (B)
max
1i1 <...<ik n
j (A B) .
j=1
(9)
j=1
ij A ij B
max
|s(A) s(B)|j ,
j=1
j=1
ij A ij B
max
1i1 <...<ik 2n
j=1
j A
B =
j=1
k
sj (A B) ,
j=1
|s(A)
s(B)|j
j=1
sj (A B) .
j=1
(k)
AB
(k)
| |
30
Desigualdades de matrices.
3.1
Producto de Hadamard
Definici
on 3.1.1. Dadas A, B Mmn () se define el producto de Hadamard A B como
la matriz
A B = [aij bij ]ij .
Notar que este producto tiene sentido tanto para matrices como para vectores.
vi vi
A=
wi wi .
B=
i=1
i=1
1/2
AB =
i,j=1
porque
vi
wj
vi vi
wj wj
(vi wj )(vi wj ) 0,
=
i,j=1
= (vi wj ) .
31
3.2
Determinantes
det A
aii .
i=1
a1
ii .
Por lo tanto, sera suficiente mostrar que det B 1. Aplicando la desigualdad aritmeticogeometrica 1 obtenemos,
n
1
det(B) =
i (B)
n
i=1
i (B)
= (tr
i=1
B n
) = 1.
n
| det A|
Ci (A) 2 .
i=1
Si a1 , . . . , an > 0, entonces (
i=1
ai )1/n 1/n
(10)
ai . Se demuestra r
apidamente usando que el log es una
i=1
funci
on c
oncava.
32
Luego, det(A tE11 ) 0 si y solo si t (A). Por otro lado, todas las demas submatrices
principales de A tE11 obtenidas con las u
ltimas i filas y columnas, son las mismas que las
respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por
el Teorema 1.5.9 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El
caso general sale tomando lmite.
Teorema 3.2.4 (Desigualdad de Oppenheim). Si A, B Mn ()+ , entonces
n
bii det A B
det A
i=1
Demostracion. Si det A = 0, el resultado se deduce del Teorema de Schur 3.1.2, que asegura
que A B 0. Supongamos, entonces, que A > 0. La demostracion la realizaremos por
induccion sobre n. Si n = 1, el resultado es inmediato. Sea n 2 y supongamos el resultado
valido para todas las matrices de dimension n 1. Entonces, con las notaciones del Lema
3.2.3, sabemos que
n
det A11
i=2
Por el Lema 3.2.3, si = (det A11 )1 det A, entonces A E11 0. El Teorema de Schur
3.1.2 dice que (A E11 ) B 0. Aplicando la formula (10), como E11 B = b11 E11 y
(A B)11 = A11 B11 , resulta que
0 det(A B E11 B) = det A B b11 det(A11 B11 ).
Aplicando la hipotesis inductiva, obtenemos
n
bii = det A
i=2
bii
i=1
Ek
0
0 Enk
33
Mn ()+ ,
det A = det A
i=1
De los resultados anteriores obtenemos la siguiente relacion para el determinante del producto
convencional de matrices y el producto de Hadamard.
Teorema 3.2.6. Si A, B Mn ()+ , entonces
det A det B det A B.
Demostracion. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim.
En efecto,
n
bii det A B.
i=1
3.3
Partes reales
Re j (A) =
j=1
Re Axj , xj = tr P Re AP
j=1
k
j (P Re(A)P )
=
j=1
34
j (Re A) .
j=1
En las u
ltimas desigualdades se uso que j (P Re(A)P ) (CP (Re A)), para 1 j k y,
ademas, la Proposicion 2.4.3. La igualdad para k = n se debe a que
Re tr(A) =
tr(A) + tr(A)
= tr
2
A + A
2
= tr(Re A).
Proposici
on 3.3.2 (Kittaneh 95). Sean A, B Mn () tales que AB H(n). Entonces,
AB Re(BA)
Demostracion. Comencemos notando que los autovalores de BA son los mismos que los de
AB (Ejercicio: verificarlo) y por ende son todos reales. Luego, usando la Proposicion 3.3.1,
obtenemos que
(BA) = Re((BA)) (Re(BA)).
Es facil ver que esto implica que
(AB) = (BA) = max |k (BA)| max |k (Re BA)| = (Re(BA)),
1kn
1kn
(11)
Proposici
on 3.3.3 (Corach-Porta-Recht, 93). Sean T, S H(n) y supongamos que S
es inversible. Entonces,
ST S 1 + S 1 T S 2 T
Demostracion. Aplicar la desigualdad de Kittaneh a A = T S 1 y B = S.
Observaci
on 3.3.4. En realidad, la desigualdad de Kittaneh, y por ende tambien la CPR,
son ciertas para toda NUI. Esto se hace generalizando la ecuacion (11) a una mayorizacion
debil
s(AB) = |(AB)| = |(BA)| w |(Re BA)| = s(Re BA),
lo que saldra usando Ky Fan 3.3.1 y que f (x) = |x| es una funcion convexa. Se propone la
verificacion como ejercicio, dado que el Corolario 2.1.12 tambien lo es.
Notar que se esta usando que (AB) = (BA), es decir, no solo tienen los mismos
autovalores, sino las mismas multiplicidades. Esto es cierto, y es otro ejercicio para el lector.
35
Teora de Perr
on-Frobenius.
4.1
x, y = 1, Ax = x, y At y = y.
Antes de demostrar el Teorema dee Perron, presentaremos varios resultados generales para
matrices A 0, su radio espectral y los autovectores correspondientes.
Proposici
on 4.1.2. Si 0 A B, entonces, (A) (B).
Demostracion. Como 0 A B, entonces, para todo n 1 se tiene que 0 An B n . Por
lo tanto An 1/n
B n 1/n
y, tomando lmite, se obtiene la desigualdad buscada .
2
2
Corolario 4.1.3. Si 0 < A, entonces (A) > 0.
Demostracion. Si 0 < A, existe > 0 tal que I A. As (A) (I) = > 0.
Corolario 4.1.4. Sean A 0, J {1, . . . , n} y AJ = (aij )i,jJ . Entonces (AJ ) (A).
Demostracion. Basta extender AJ a Mn () poniendo ceros en las entradas que le faltan, y
aplicar la Proposicion 4.1.2.
36
Observaci
on 4.1.5. Recordemos que, dada A Mn (),
| A|
| A|
Si A 0, entonces Fi (A)
= max
x
Ax
= max Ax
x
=1
1 =1
= max Fi (A)
1in
= max Ci (A)
1in
= | At |
= tr(Ci (A)).
A continuacion vienen tres Lemas que sirven para ubicar el radio espectral de una matriz
A 0 usando la Observacion anterior:
Lema 4.1.6. Sea A 0. Si tr(Fi (A)) es constante, entonces, (A) = | A |
Demostracion. La desigualdad (A) | A |
| A | e, se tiene que | A | (A).
Entonces (A) .
Demostracion. La desigualdad (A) es conocida, por lo tanto solo verificaremos que
(A). Podemos suponer que > 0. Definamos entonces la matriz B Mn () cuyas
filas son:
Fi (B) =
Fi (A).
tr(Fi (A))
De este modo, tr(Fi (B)) = para todo i 1. En consecuencia, usando el Lema 4.1.6 y la
Proposicion 4.1.2, = (B) (A), ya que, por su construccion, 0 B A.
1in
yi
xi
= max
1in
yi
.
xi
Entonces (A) .
Demostracion. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que D1 AD =
(x1
as D1 AD 0 y (D1 AD) = (A). Por otro lado se tiene que
i xj aij )ij . Adem
n
aij xj =
j=1
yi
(Ax)i
=
.
xi
xi
J1 0 0
1
0 1
.. .. . . .. ..
m
SLS 1 ,
J1 = . .
. . . m
0 0 1
0 0 0 1
pero SLS 1 tiene rango 1. En consecuencia, J1 = 1.
39
4.2
0 1
1 0
entonces Am = A o I, seg
un m sea impar o par. Ademas, (A) = {1, 1}. En este
caso el autovector asociado al 1 es positivo estricto (es e). Pero eso no pasa para la matriz
1 0
A=
. Es mas, todas las partes del Teorema pueden hacerse fallar tomando matrices
0 0
diagonales de bloques adecuadas (Ejercicio). Sin embargo, hay una extensa clase de matrices
no negativas en las que el Teorema sigue valiendo:
Definici
on 4.2.1. Sea A Mn () tal que A 0. Diremos que A es una matriz irreducible
si existe un m 1 tal que Am > 0.
Teorema 4.2.2. Sea A 0 una matriz irreducible. Entonces valen:
1. (A) > 0 y (A) (A).
2. Existe x n tal que x > 0 y Ax = (A)x.
(12)
(13)
De (13) se deduce que (A L) < 1, por lo tanto (A L)m 0, mientras que usando
m
Referencias
[1] R. Bhatia; Matrix Analysis, Springer, Estados Unidos, 1997.
[2] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Tecnico
interno No.86, INMABB, Baha Blanca, 2003.
[3] M. C. Gonzalez; Relaciones de Mayorizaci
on para el Producto de Hadamard,
Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuquen, 2003.
[4] R. Horn- C. Johnson; Matrix Analysis, Cambridge University Press, Estados
Unidos, 1985.
[5] R. Horn- C. Johnson; Topics in Matrix Analysis, Cambridge University Press,
Estados Unidos, 1991.
41