Sie sind auf Seite 1von 13

A forma canônica de Jordan

1 Matrizes e espaços vetoriais

Definição: Sejam A e B matrizes quadradas de orden n sobre um corpo arbitrário X. Dizemos que
A é semelhante a B em X (A ∼ B) se existe uma matriz invertı́vel P , em X, tal que A = P BP −1 .

Proposição 1: ∼ é uma relação de equivalência.

Demonstração:

Sejam A, B e C matrizes quadradas de ordem n.

(i) A ∼ A. Pois A = IAI , onde I é a matriz identidade de ordem n.

(ii) A ∼ B ⇒ B ∼ A. De fato, A ∼ B ⇒ A = P BP −1 , para alguma matriz invertı́vel


P ⇒ B = P −1 AP = (P −1 )A(P −1 )−1 ⇒ B ∼ A.

(iii) A ∼ B e A ∼ C, então A ∼ C. Por hipótese, existem matrizes invertı́veis P e Q tais que


A = P BP −1 , B = QCQ−1 ⇒ A = P (QCQ−1 )P −1 = (P Q)C(P Q)−1 .
cqd.

Definição: Uma matriz quadrada A é diagonalizável se A é semelhante a uma matriz diagonal.

Proposição 2: Seja k um corpo e seja A ∈ Mn (k). Então, A é diagonalizável se e somente se


k n possui uma base formada por auto-vetores de A.

Demonstração:

Suponha que B = {v1 , v2 , ..., vn } é uma base de k n formada por auto-vetores de A, isto é:
Avi = λi vi , i = 1, 2, ..., n, para certos escalares λi em k.
Seja P , a matriz cuja i-ésima coluna é o vetor coluna vi , i = 1, 2, ..., n. Como {v1 , v2 , ..., vn } é l.i. ,
temos que det(P ) 6= 0 ⇒ P é invertı́vel. Então:

P −1 AP = P −1 [Av1 Av2 ... Avn ] = P −1 [λ1 v1 λ2 v2 ... λn vn ] = P −1 [v1 v2 ... vn ] Λ , onde


| {z }
  P
λ1 0 . . . 0
 0 λ2 . . . 0 
−1
Λ =  .. .. . Logo, P AP = Λ ⇒ A é diagonalizável.
 
.. . .
 . . . . 
0 0 . . . λn

Por outro lado, se A é diagonalizável e λ1 , λ2 , ..., λn são os auto-valores de A, então P −1 AP = Λ,


para alguma matriz invertı́vel P , onde Λ é a matriz descrita acima. Portanto, AP = P Λ.
Suponha que P = [v1 v2 ... vn ] , onde vi é a i-ésima coluna de P (i = 1, 2, ..., n).
Temos que vi é um vetor coluna de k n ∀ i ∈ {1, 2, ..., n} e, como P é invertı́vel, segue que
B = {v1 , v2 , ..., vn } é l.i. ⇒ B é uma base de k n .
Então,
AP = A[v1 v2 ... vn ] = [v1 v2 ... vn ] Λ = [λ1 v1 λ2 v2 ... λn vn ] ⇒ Avi = λi vi ∀ i ∈ {1, 2, ..., n} ⇒ B é
formada por auto-vetores de A.
cqd.
Proposição 3: Seja A ∈ Mn (k). Se A possui n auto-valores, todos distintos, então A é diago-
nalizável.

Demonstração:

Suponha que λ1 , λ2 , ... λn são os auto-valores de A, com λi 6= λj , para i 6= j. Para cada


i ∈ {1, 2, ..., n}, seja vi um auto-vetor associado ao auto-valor λi , isto é: Avi = λi vi , i = 1, 2, ..., n.
Pela Proposição 2, basta mostrar que B = {v1 , v2 , ..., vn } é uma base de k n , ou seja, que B é
um conjunto l.i.
Suponha, por absurdo, que B é l.d.
Então, existem escalares α1 , α2 , ...αn , em k, não todos nulos, tais que α1 v1 + α2 v2 + ... + αn vn = 0.
Ps
Reindexando os vetores vi , podemos supor que αi vi = 0, onde 1 ≤ s ≤ n e αi 6= 0 ∀ i ∈
i=1
w
P
{1, 2, ..., s}. Seja w o menor inteiro com essa propriedade, ou seja, αi vi = 0, com αi 6= 0 e, se
i=1
j
P
j < w, então αi vi 6= 0.
i=1
Pw w
P w
P w
P
Temos que A αi vi = A(αi vi ) = αi (Avi ) = αi λi vi = 0.
i=1 i=1 i=1 i=1
w
P w
P w
P
Além disso, αi vi = 0 ⇒ λw ( αi vi ) = 0 ⇒ λw αi vi = 0.
i=1 i=1 i=1
w
P w
P w−1
P
Portanto, αi λi vi − λw αi vi = 0 =⇒ αi (λi − λw )vi = 0, o que contradiz a
i=1 i=1 i=1
minimalidade de w, pois αi (λi − λw ) 6= 0 ∀ i = 1, 2, ..., n. Logo, B é l.i. ⇒ A é diagonalizável.

cqd.

Exercı́cio: Mostre que: se A ∈ Mn (k) é diagonalizável e PA (x) = det(xI − A) então PA (A) = 0.


Resolução:
 
λ1 0 ... 0
 0 λ2 ... 0 
A é diagonalizável ⇒ existe uma matriz Λ =  ..  tal que A ∼ Λ, ou seja:
 
.. ... ..
 . . . 
0 0 ... λn
existe P ∈ Mn (k), uma matriz invertı́vel, tal que A = P ΛP −1 .

Afirmação 1: PA (A) = 0 ⇔ PA (Λ) = 0.

Prova: Suponha que P (x) = a0 + a1 x + ... + an xn . temos que:


PA (A) = 0 ⇔ a0 I + a1 A + ... + an An = 0.
Por indução, temos que Ai = P Λi P −1 ∀ i = 1, 2, ..., n. Portanto,
a0 + a1 P ΛP −1 + ... + an P Λn P −1 = 0 ⇔ P (a0 + a1 Λ + ... + an Λn )P −1 = 0 ⇔
P (PA (Λ))P −1 = 0 ⇔ PA (Λ) = 0.

Afirmação 2: Sejam A ∈ Mn (k), uma matriz diagonal , f (x) ∈ k[x] e C = f (A). Então, o
elemento cij , da posição ij da matriz C, é dado por:
(
f (aij ), se i = j.
cij =
0, se i 6= j.

Prova: Suponha que A = (aij ), com aij = o para i 6= j.


- Temos que (αA)ij = αaij ∀ i, j ∈ {1, 2, ..., n}, α ∈ k.
- Por indução, temos que (Aq )ij = (aij )q ∀ q ∈ N.

Portanto, se f (x) = β0 + β1 x + ... + βs xs , com βi ∈ k, i = 1, 2, ..., s, então cij = (f (A))ij =


(
β0 + β1 aij + ... + βs asij = f (aij ), se i = j.
(β0 I + β1 A + ... + βs As )ij =
0, 6 j.
se i =

Voltando...
Temos que Λ = (λij ) é diagonal. Então, se C = PA (Λ), segue, da Afirmação 2, que
(
PA (λij ), se i = j.
cij = , para Λ = (λij ).
0, se i 6= j.
Como λii é auto-valor de A ∀ i ∈ {1, 2, ..., n}, segue que PA (λii ) = 0 ∀ i ∈ {1, 2, ..., n}.
Portanto, cij = 0 ∀ i, j ∈ {1, 2, ..., n} ⇒ C = PA (Λ) = 0 ⇒ PA (A) = 0.

Sejam k, um corpo algebricamente fechado, e V , um espaço vetorial de dimensão n sobre k.

Teorema 1: Seja ϕ : V → V , um operador linear. Então, existe P (x) ∈ k[x], um polinômio não
nulo, tal que P (ϕ) = 0.

Demonstração:

Seja B, uma base de V , e seja ψ : `(V ) ⇒ Mn (k) tal que ψ(ϕ) = [ϕ]B ∀ ϕ ∈ `(v), onde `(V ) =
Espaço vetorial dos operadores lineares em V e [ϕ]B = matriz de ϕ com relação à base B.

Temos que ψ é um isomorfismo de espaços vetoriais e, portanto, dimk `(v) = dimk Mn (k) = n2 .
2
Logo, o conjunto {I, ϕ, ϕ2 , ..., ϕn } é l.d. e, portanto, existem escalares a0 , a1 , ..., an2 , não todos
2
nulos, tais que a0 I, a1 ϕ, ..., an2 ϕn = 0.
2
Seja P (x) = a0 + a1 x + ... + an2 xn ∈ k[x]. Logo, P (ϕ) = 0.

cqd.

Teorema 2: Sejam ϕ : V → V , um operador linear, P (x) ∈ k[x], um polinômio mônico, tal que
P (ϕ) = 0. Como k é algebricamente fechado, temos que P (x) = (x − λ1 )n1 (x − λ2 )n2 ...(x − λs )ns ,
com λi ∈ k ∀ i ∈ {1, 2, ...s} e λi 6= λj , para i 6= j. Então:
a) V = ker(ϕ − λ1 I)n1 ⊕ ker(ϕ − λ2 I)n2 ⊕ · · · ⊕ ker(ϕ − λs I)ns .
b) Vi = ker(ϕ − λi I)ni é invariante sobre ϕ, ou seja: ϕ(Vi ) ⊆ Vi ∀ i = 1, 2, ..., s.

Demonstração:

Afirmação: ∃ i ∈ {1, 2, ..., s} tal que ker(ϕ − λi I)ni 6= {0}.

Prova: Suponha, por absurdo, que ker(ϕ − λj I)nj = {0} ∀ j ∈ {1, 2, ..., s}.
Então, (ϕ − λj I)nj : V → V é invertı́vel ∀ j ∈ {1, 2, ..., s}. Portanto,
P (ϕ) = (ϕ − λ1 I)n1 ◦ (ϕ − λ2 I)n2 ◦ ... ◦ (ϕ − λs I)ns é uma composição de operadores invertı́veis
⇒ P (ϕ) é invertı́vel (o que é um absurdo, pois P (ϕ) = 0).
Portanto, ∃ i ∈ {1, 2, ..., s} tal que ker(ϕ − λi I)ni 6= {0}.

Suponha, sem perda de generalidade, que ker(ϕ − λ1 I)n1 6= {0}.


Sejam f (x) = (x − λ1 )n1 , g(x) = (x − λ2 )n2 ...(x − λs )ns ∈ k[x].
Temos que mdc(f (x), g(x)) = 1. Logo, pelo teorema de Bézout, Existem A(x) , B(x) ∈ k[x]
tais que A(x)f (x) + b(x)g(x) = 1 ⇒ A(ϕ)f (ϕ) + B(ϕ)g(ϕ) = I. Portanto, v = I(v) =
A(ϕ)(f (ϕ)(v)) + b(ϕ)(g(ϕ)(v)) ∀ v ∈ V .

Se v ∈ ker f (ϕ) ⇒ A(ϕ)(f (ϕ)(v)) = A(ϕ)(0) = 0 ⇒ v = b(ϕ)(g(ϕ)(v)) = g(ϕ)(b(ϕ)(v)) ⇒


v ∈ Im g(ϕ). Por outro lado, se v ∈ Im g(ϕ) ⇒ ∃ w ∈ V tal que v = g(ϕ)(w) ⇒ f (ϕ)(v) =
f (ϕ)(g(ϕ)(w)) = P (ϕ)(w) = 0 ⇒ v ∈ ker P (ϕ).
Logo, Im g(ϕ) = ker f (ϕ) e, analogamente, Im f (ϕ) = ker g(ϕ).

Se dim V = 1, temos que ker (ϕ − λ1 I)n1 6= {0} ⇒ ∃ v ∈ V, v 6= 0, tal que (ϕ − λi I)ni (v) = 0.
Mas {v} é uma base de V (pois dim V = 1) ⇒ (ϕ − λ1 I)n1 ≡ 0 ⇒ V = ker(ϕ − λ1 I)n1 =
ker f (ϕ) = Im g(ϕ).
⇒ g(ϕ) = (ϕ − λ2 )n2 ◦ (ϕ − λ3 )n3 ◦ ... ◦ (ϕ − λs )ns é invertı́vel ⇒ (ϕ − λi )ni é invertı́vel
∀ i ∈ {2, 3, ..., s}. Logo, ker(ϕ − λi I)ni = {0} ∀ i ∈ {2, 3, ..., s} e, portanto, temos que V =
ker(ϕ − λ1 I)n1 ⊕ ker(ϕ − λ2 I)n2 ⊕ ... ⊕ ker(ϕ − λs I)ns . Além disso,
ϕ(V1 ) = ϕ(ker(ϕ − λ1 I)n1 ) = ϕ(V ) ⊆ V = V1 e, portanto, o teorema está provado.

Suponha, agora, que dim V = n > 1 e que o teorema é válido para espaços de dimensão menor
do que n.
Vimos que A(ϕ)f (ϕ) + b(ϕ)g(ϕ) = I ⇒ V = I(V ) = f (ϕ)(A(ϕ)(V )) + g(ϕ)(B(ϕ)(V )) ⇒ V =
Im f (ϕ) + Im g(ϕ).

Como Im f (ϕ) = ker g(ϕ), segue que V = ker g(ϕ)) + Im g(ϕ) e, como dim V = dim ker g(ϕ) +
dim Im g(ϕ), segue que V = ker g(ϕ) ⊕ Im g(ϕ) ⇒ V = ker f (ϕ) ⊕ ker g(ϕ).

Temos que ϕ(V ) ⊆ V ⇒ f (ϕ)(ϕ(V )) ⊆ f (ϕ)(V ) ⇒ ϕ(f (ϕ)(V )) ⊆ f (ϕ)(V ) ⇒


ϕ(Im f (ϕ)) ⊆ Im f (ϕ) ⇒ ϕ(ker(g(ϕ))) ⊆ ker(g(ϕ)). Analogamente, conclui-se que ϕ(ker f (ϕ)) ⊆
ker f (ϕ).

Temos, ainda, que dim ker g(ϕ) < n, pois dim ker f (ϕ) 6= 0. Logo, se considerarmos a restrição
ϕ = ϕ| : ker g(ϕ) → ker g(ϕ), temos que g(ϕ0 ) = 0. Portanto, pela hipótese de indução, segue que
0

ker g(ϕ) = ker(ϕ − λ2 I)n2 ⊕ ... ⊕ ker(ϕ − λs I)ns e ϕ(ker(ϕ − λi )ni ) ⊆ ker(ϕ − λi )ni ∀ i ∈ {2, ..., s}.
Logo, V = V1 ⊕ V2 ⊕ ... ⊕ Vs e ϕ(Vi ) ⊆ Vi ∀ i = 1, 2, ..., s, onde Vi = ker(ϕ − λi I)ni (o que conclui a
demonstração do teorema). cqd.
Observação: Se ker (ϕ − λi I)ni 6= {0}, então existe v ∈ V tal que (ϕ − λi I)ni (v) = 0. Podemos
tomar p, o expoente mı́nimo para o qual (ϕ − λi I)p (v) = 0.
É claro que p ≥ 1. Portanto, podemos considerar v 0 = (ϕ − λi I)p−1 (v) 6= 0.
Note que (ϕ − λi I)(v 0 ) = ϕ(v 0 ) − λi v 0 = 0 ⇒ ϕ(v 0 ) = λi v 0 ⇒ λi é auto-valor de ϕ.
Portanto, os possı́veis polinômios P (x) tais que P (ϕ) = 0 são da forma
P (x) = (x−λ1 )n1 (x−λ2 )n2 ...(x−λt )nt g(x), onde g(x) ∈ k[x] e λ1 , λ2 , . . . , λt são os auto-valores de ϕ.

2 Formas de Jordan

Sejam k, um corpo algebricamente fechado, e V , um espaço vetorial de dimensão n sobre k.

Definição: Um bloco de Jordan Js (λ) é uma matriz em Ms (k) dada por:


 
λ 1 0 ... 0 
 0 λ 1 ... 0 
   λ, se i = j.

Js (λ) =  ... ... . . . . .. , ou seja: (Js (λ))ij = 1, se j = i + 1.
 
. ..
  
 0 0 0 ... 1  
0, caso contrário.
0 0 0 ... λ

Definição: Uma matriz J ∈ Mn (k) é uma matriz de Jordan se J é formada por blocos de Jordan
Jn1 (λ1 ), Jn2 (λ2 ), ..., Jns (λs ), colocados sob forma diagonal da seguinte forma:
 
Jn1 (λ1 ) 0 ... 0
 0 Jn2 (λ2 ) . . . 0 
J =
 
.. .. . . .. 
 . . . . 
0 0 . . . Jns (λs )
Ls
J também é denotada por Jn1 (λ1 ) ⊕ Jn2 (λ2 ) ⊕ ... ⊕ Jns (λs ) = Jni .
i=1

Teorema 3: Seja ϕ : V → V , um operador linear nilpotente ( isto é: existe p ∈ N tal que
ϕp ≡ 0). Então, existe uma base B, de V , tal que a matriz de ϕ, com relação à base B, é dada por:
[ϕ]B = Jn1 (0) ⊕ Jn2 (0) ⊕ ... ⊕ Jns (0), para certos naturais ni .

Demonstração:

Suponha que o ı́ndice de nilpotência de ϕ seja s + 1, ou seja: ϕs+1 = 0 e ϕs 6= 0. Temos que


ϕ(V ) ⊇ ϕ2 (V ) ⊇ ... ⊇ ϕs (V ).

Seja V0 = ker ϕ e, para 1 ≤ i ≤ s, seja Vi = ker ϕ ∩ ϕi (V ). Observe que Vi é subespaço de


V ∀ i ∈ {0, 1, ..., s} e Vo ⊇ V1 ⊇ ... ⊇ Vs .

Seja Bs = {es,1 , es,2 , ..., es,ns } uma base de Vs e, para 0 < q ≤ s, seja
Bq−1 = Bq ∪ {eq−1,1 , eq−1,2 , ..., eq−1,nq−1 } uma base de Vq−1 .
Então, B0 = {ei,m : 0 ≤ i ≤ s, 1 ≤ m ≤ ni } é base de V0 .
Para cada par (i, m), temos que ei,m ∈ Vi ⇒ ei,m ∈ ϕi (V ) ⇒ ∃ fi,m ∈ V tal que ϕi (fi,m ) = ei,m .

Lema: Para cada i = 1, 2, ..., s , o conjunto Bi+1 , dado por:

Bi+1 = {ϕ (fj,m ) : 0 ≤ j ≤ s , 1 ≤ m ≤ nj e máx{0, j − i} ≤ t ≤ j } é uma base de ker ϕi+1 .
t

Prova por indução em i:

Para i = 0, temos que máx {0, j − 0} = j. Logo,



B0+1 = B1∗ = {ϕt (fj,m ) : 0 ≤ j ≤ s , 1 ≤ m ≤ nj e j ≤ t ≤ j } =
{ϕj (fj,m ) : 0 ≤ j ≤ s , 1 ≤ m ≤ nj } = {ej,m : 0 ≤ j ≤ s , 1 ≤ m ≤ nj }.
=⇒ B1∗ = B0 = base de V0 = ker ϕ = ker ϕ0+1 .
Portanto, a afirmação vale para i = 0.

Seja i > 0 e suponha que a afirmação vale para i − 1.

∗ ∗
Em primeiro lugar, vamos mostrar que Bi+1 é um subconjunto de ker ϕi+1 , ou seja: Bi+1 ⊆
i+1
ker ϕ .


Seja X ∈ Bi+1 ⇒ X = ϕt (fj,m ), com : 0 ≤ j ≤ s , 1 ≤ m ≤ nj e máx{0, j − i} ≤ t ≤ j.
=⇒ ϕ (X) = ϕi+1 (ϕt (fj,m )) = ϕi+t+1 (fj,m ).
i+1

Temos que j − i ≤ t ⇒ t + i + 1 ≥ j + 1 ⇒ ϕi+t+1 (fj,m ) = 0 ⇒ ϕi+1 (X) = 0. Logo,



Bi+1 é um subconjunto de ker ϕi+1 .


Vamos mostrar agora que Bi+1 gera ker ϕi+1 .

Seja X ∈ ker ϕi+1 ⇒ ϕi+1 (X) = ϕ(ϕi (X)) = 0 ⇒ ϕi (X) ∈ ker ϕ ∩ ϕi (V ) = Vi .


Por construção, temos que {ej,m : i ≤ j ≤ s , 1 ≤ m ≤ nj } é uma base de Vi .
s nj
Portanto, ϕi (X) se escreve de forma única como ϕi (X) =
P P
µjm ej,m ⇒
j=i m=1
nj nj
s X
s X
i j i
µjm ϕj−i (fj,m )) (observe que j ≥ i).
P P
ϕ (X) = µjm ϕ (fj,m ) = ϕ (
j=i m=1 j=i m=1
| {z }
W

Então, ϕi (X) = ϕi (W ) ⇒ ϕi (X − W ) = 0 ⇒ X − W ∈ ker ϕi = ker ϕ(i−1) + 1


s nj P
j
γj,m,t ϕt (fj,m ),
P P
Portanto, pela hipótese de inducão, temos que X − W =
j=0 m=1 t=u
onde u = máx{0, j − (i − 1)} = máx{0, j − i + 1)}.

Note que, para cada parcela dessa soma, ϕt (fj,m ) é tal que u ≤ t ≤ j. Logo, t satisfaz
máx {0, j − i} ≤ t ≤ j.

∗ ∗
Portanto, Z = X − W ∈ hBi+1 i = subespaço gerado por Bi+1 .


s nj z }| {
ϕ − i (f
j
P P z }| {
Temos que W = µjm j,m ). É claro que máx {0, j − i} ≤ j − i ≤ j e, portanto,
j=i m=1

W ∈ hBi+1 i.
∗ ∗
Então, X = Z + W ∈ hBi+1 i ⇒ ker ϕi+1 é gerado por Bi+1 .


Para concluirmos a demonstração do Lema, resta mostrar que Bi+1 é l.i.
s nj P
j
µj,m,t ϕt (fj,m ) = 0, onde u = máx{0, j − i + 1}.
P P
Suponha que
j=0 m=1 t=u

Considere a seguinte identificação: Para cada j, m, t ,

ϕt (fj,m ) ≡ vj,m,q onde q = j − t =⇒ 0 ≤ q ≤ s


,
µj,m,t ≡ αj,m,q

s P
P s nj
P
Então, pela identificação acima, podemos escrever: αj,m,t vj,m,q = 0.
q=0 j=0 m=1

w P
s nj w P
s nj
αj,m,q vj,m,q = 0 ⇒ ϕw (
P P P P
Para cada w = 1, 2, ..., s, temos: αj,m,t vj,m,q ) = 0.
q=0 j=0 m=1 q=0 j=0 m=1
w s nj
αj,m,q ϕw (vj,m,q ) = 0. Porém, ϕw (vj,m,q ) 6= 0 ϕw (ϕj−q (fj,m )) 6= 0
P P P
⇒ ⇒
q=0 j=0 m=1
s nj
αj,m,w ϕw (vj,m,w ) = 0
P P
⇒ j ≥ j − q + w ⇒ q ≥ w ⇒ q = w. Logo,
j=0 m=1 | {z }
ej,m
⇒ αj,m,w = 0 ∀ j, m, pois {ej,m : 0 ≤ j ≤ s , 1 ≤ m ≤ nj } é l.i.
w−1
P s
P nj
P
Então, temos que αj,m,q vj,m,q = 0. Aplicando esse procedimento para
q=0 j=0 m=1
w = s , s − 1 , ..., 1 , 0, nessa ordem, obtemos αj,m,q = 0 ∀ j, m, q ⇒ µj,m,t = 0 ∀ j, m, t

⇒ Bi+1 é l.i. , o que conclui o Lema.


Em particular, para i = s, temos que ker ϕi+1 = V =⇒ Bs+1 é base de V . Temos que


Bs+1 = {ϕt (fj,m ) : 0 ≤ j ≤ s , 1 ≤ m ≤ nj e máx{0, j − s} ≤ t ≤ j }, ou seja:

Bs+1 = {ϕt (fj,m ) : 0 ≤ j ≤ s , 1 ≤ m ≤ nj e 0 ≤ t ≤ j }.


Considere B, o conjunto Bi+1 , ordenado da seguinte forma:
t1 t2 ∗
Sejam ϕ (fj1 ,m1 ), ϕ (fj2 ,m2 ) ∈ Bi+1 e sejam P (j1 , m1 , t1 ) , P (j2 , m2 , t2 ) as posições ocupadas por
t1 t2
ϕ (fj1 ,m1 ), ϕ (fj2 ,m2 ) em B respectivamente.

- Se j1 > j2 , então P (j1 , m1 , t1 ) > P (j2 , m2 , t2 )


- Se j1 = j2 e m1 > m2 , então P (j1 , m1 , t1 ) > P (j2 , m2 , t2 )
- Se j1 = j2 e m1 = m2 e t1 > t2 , então P (j1 , m1 , t1 ) < P (j2 , m2 , t2 )

Dessa forma, obtemos a seguinte seqüência de vetores:

f0,1 , f0,2 , . . . , f0,n0 , ϕ(f1,1 ) , f1,1 , ϕ(f1,2 ) , f1,2 , . . . , ϕ(f1,n1 ) , f1,n1 , ϕ2 (f2,1 ) , ϕ(f2,1 ) , f2,1 ,
ϕ2 (f2,2 ) , ϕ(f2,2 ) , f2,2 , . . . , ϕ2 (f2,n2 ) , ϕ(f2,n2 ) , f2,n2 , . . .

, ϕs (fs,1 ) , ϕs−1 (fs,1 ) , . . . , ϕ(fs,1 ) , fs,1 , ϕs (fs,2 ) , ϕs−1 (fs,2 ) , . . . , ϕ(fs,2 ) , fs,2 . . .

, ϕs (fs,ns ) , ϕs−1 (fs,ns ) , . . . , ϕ(fs,ns ) , fs,ns

s
L ni
L
Afirmação: [ϕ]B = ( Ji (0)). Basta notar que, para cada par j, m a seqüência
i=1 m=1
ϕj (fj,m ) , ϕj−1 (fj,m ) , . . . , , ϕ(fj,m ) , fj,m determina um bloco de Jordan Jj (0) na matriz [ϕ]B .

Um outro fato que podemos concluir é que o número de blocos de Jordan da matriz [ϕ]B é dado
por n0 + n1 + · · · + ns = dim ker ϕ.

Com isso, concluı́mos a demonstração do teorema.


cqd.

Teorema 4(Forma de Jordan): Seja V um espaço vetorial de dimensão finita n e seja ϕ : V → V ,


um operador linear. Então existe uma base B de V tal que [ϕ]B é uma matriz de Jordan.

Demonstração:

Pela observação do Teorema 2 , existe um polinômio P (x) = (x − λ1 )n1 (x − λ2 )n2 ...(x − λs )ns
tal que P (ϕ) = 0, onde λ1 , λ2 , . . . , λs são os auto-valores de ϕ.

Pelo Teorema 2, temos que V = V1 ⊕ V2 ⊕ · · · ⊕ Vs , onde Vi = ker(ϕ − λi I)ni e


s
S
ϕ(Vi ) ⊆ Vi ∀ i = 1, 2, ..., s. Portanto, se Bi é base de Vi , temos que B = Bi é base de V .
i=1

Como ϕ(Vi ) ⊆ Vi ∀ i = 1, 2, ..., s, a matriz de [ϕ]B é da forma A1 ⊕ A2 ⊕ · · · ⊕ As, onde


Ai = [ϕi ]Bi é a matriz de ϕi = ϕ|Vi : Vi → Vi , na base Bi . Além disso, para cada i = 1, 2, ..., s,
o operador ϕ − λi I é nilpotente (Pois (ϕ − λ1 I)n1 = 0). Portanto, pelo teorema 3, podemos escolher,
para cada i, uma base Bi0 , de Vi , tal que [ϕi − λi I]Bi0 = Ji,1 (0) ⊕ Ji,2 (0) ⊕ ... ⊕ Ji,ni (0) =⇒
[ϕi ]Bi0 = Ji,1 (λi ) ⊕ Ji,2 (λi ) ⊕ ... ⊕ Ji,ni (λi ).
s s ni
Portanto, tomando B 0 = Bi0 , teremos
S L L
[ϕ]B 0 = ( Ji,m (λi )).
i=1 i=1 m=1

cqd.

Exercı́cio: Encontre uma matriz de Jordan para a matriz complexa

 
2 0 0 0 0 0

 1 2 0 0 0 0 

 −1 0 2 0 0 0  Por ”uma matriz de Jordan para a matriz A”entenda-se:
A= 

 0 1 0 2 0 0 
 uma matriz de Jordan semelhante à A.
 1 1 1 1 2 0 
0 0 0 0 1 −1
Resolução:

Seja ϕ : C6 → C6 tal que [ϕ]can = A.


Temos que PA (x) = (x − 2)5 (x + 1). Temos, ainda, que ma (x) = (x − 2)4 (x + 1) satisfaz ma (ϕ) = 0.

Portanto, pelo Teorema 2, temo que C6 = V1 ⊕ V2 , onde V1 = ker(ϕ − 2I)4 , V2 = ker(ϕ + I)


e V1 e V2 são invariantes sobre ϕ.

Vamos encontrar bases para V1 e V2 . Efetuando os cálculos, obtemos:

 
0 0 0 0 0 0

 0 0 0 0 0 0 

 0 0 0 0 0 0 
[ϕ − 2I]4can = 

 0 0 0 0 0 0 

 0 0 0 0 0 0 
10 6 9 9 −27 81

Sejam:
w1 = (−6/10, 1, 0, 0, 0, 0)
w2 = (−9/10, 0, 1, 0, 0, 0)
w3 = (−9/10, 0, 0, 1, 0, 0) ⇒ B1 = {w1 , w2 , w3 , w4 , w5 } é base de V1 .
w4 = (27/10, 0, 0, 0, 1, 0)
w5 = (−81/10, 0, 0, 0, 0, 1)

Observando A, vemos que e1 = {0, 0, 0, 0, 0, 1} é tal que B2 = {e1 } é base de V2 .

Vamos, agora, analizar os operadores g = (ϕ − 2I)|V1 , h = (ϕ + I)|V2 .

Temos que g 4 = 0 e g 3 6= 0.
De acordo com o Teorema 3, sejam D0 = ker g e Di = ker g ∩ g i (V1 ) i ∈ {1, 2, 3}.

Vamos encontrar bases para os espaços Di 0 s. Temos que:

 
0 0 0 0 0 0

 1 0 0 0 0 0 

 −1 0 0 0 0 0  B0 = {(0, 0, 1, −1, 0, 0), (0, 0, 0, 0, 3, 1)}
[ϕ − 2I]can =  ⇒

 0 1 0 0 0 0 
 é base deD0 = ker g
 1 1 1 1 0 0 
0 0 0 0 1 −3
 
0 0 0 0 0 0
 0 0 0 0 0 0 
  (ϕ − 2I)3 (V1 ) possui uma base
 0 0 0 0 0 0 
[(ϕ − 2I)3 ]can =  ⇒ cujo único elemento é:
 0 0 0 0 0 0 
  g 3 (w3 ) = (0, 0, 0, 0, −9/10, −3/10)
 1 0 0 0 0 0 
−3 −2 −3 −3 9 −27

Portanto, uma base para D3 é B30 = {(0, 0, 0, 0, −9/10, −3/10)} = {g 3 (w3 )}.
 
0 0 0 0 0 0

 0 0 0 0 0 0 
 (ϕ − 2I)2 (V1 ) possui uma
 0 0 0 0 0 0  base cujos elementos s~ ao:
[(ϕ − 2I)2 ]can =  ⇒ 2

 1 0 0 0 0 0 
 g (w1 ) = (0, 0, 0, −6/10, 1, 4/10)
 0 1 0 0 0 0  g 2 (w2 ) = (0, 0, 0, −9/10, 0, 1/10)
1 1 1 1 −3 9

Portanto, uma base para D2 é B20 = {(0, 0, 0, 0, −9/10, −3/10)} =⇒ D2 = D3 .


 
0 0 0 0 0 0
(ϕ − 2I)(V1 ) possui uma base cujos
 1 0 0 0 0 0 
  elementos s~ ao:
 −1 0 0 0 0 0 
[ϕ − 2I]can =  ⇒ g(w1 ) = (0, −6/10, 6/10, 1, 4/10, 0)
 0 1 0 0 0 0 
  g(w3 ) = (0, −9/10, 9/10, 0, 1/10, 0)
 1 1 1 1 0 0 
g(w4 ) = (0, 27/10, −27/10, 0, 27/10, 1)
0 0 0 0 1 −3

Logo, uma base para D1 é B10 = {(0, 0, 0, 0, −9/10, −3/10)} = {g 3 (w3 )}.
Portanto, {(0, 0, 1, −1, 0, 0) , g 3 (w3 )} é base de D0 .

Pelo Teorema 3, temos que B = {(0, 0, 1, −1, 0, 0), g 3 (w3 ), g 2 (w3 ), g(w3 ), w3 )} é base de V1 e
[ϕ − 2I]B é uma matriz de Jordan.
 
2 1 0 0 0
 0 2 1 0 0 
 
Segue que [ϕ|V1 ]B = 
 0 0 2 1 0 

 0 0 0 2 1 
0 0 0 0 2

Para o espaço V2 , temos que [ϕ|V2 ]B2 = [−1]

 . 
2 1 0 0 0 .. 0
 . 

 0 2 1 0 0 .. 0 

.
0 0 2 1 0 ..
 
 0 
.
 
Portanto, tomando B ∗ = B ∪ B2 , obtemos [ϕ]B ∗ = 
 0 0 0 2 1 .. 0 

 . 

 0 0 0 0 2 .. 0  

 ... ... ... ... ... . ... 

.
0 0 0 0 0 .. −1
Definição: Seja A ∈ Mn (k). O espectro de A é o conjunto cujos elementos são os auto-valores de
A e é denotado por Spec A.

Teorema 5: Seja A ∈ Mn (k) e seja J uma matriz de Jordan de A. Então J é única, a menos de
permutações de seus blocos.

Demonstração:

Seja v(λ, s) o número de blocos Js (λ) que aparecem em J e, para cada t ∈ N , seja r(λ, t) o
posto da matriz (A − λI)t , com λ ∈ Spec A.
L L
Temos que J = ( v(λ, s)Js (λ)) , para determinados valores de s.
λ ∈ Spec A s

Vamos calcular r(λ, t) , t ∈ N.

Seja pt (M ), o posto da matriz M ∈ Mn (k). Como o posto de matrizes semelhantes é o mesmo,


para calcular r(λ, t), basta calcular pt ((J − λI)t ).

Temos que pt ((J − λI)t ) = v(µ, s) pt (Js (µ − λ)t ).


P P
µ ∈ Spec A s

Para cada s, temos que:


- Se µ 6= λ, como Js (µ − λ) é uma matriz triangular, então det Js (µ − λ) = (µ − λ)s 6= 0.

Como det B1 ∗ B2 = det B1 ∗ det B2 ∀ B1 , B2 ∈ Mn (k), segue que det Js (µ − λ)t 6= 0 ⇒


Js (µ − λ)t é invertı́vel ⇒ pt (Js (µ − λ)t ) = s.

- Se µ = λ e t < s ⇒ pt (Js (µ − λ)t ) = s − t.


- Se µ = λ e t ≥ s ⇒ pt (Js (µ − λ)t ) = 0.
Resumindo: 

 s, se µ 6= λ.
t
pt (Js (µ − λ) ) = s − t, se µ = λ e s > t.

0, se µ = λ e s ≤ t.

Obs: A proposição acima também é válida para t = 0.

Para t ≥ 1, temos, portanto, que:


 0, se µ 6= λ.

pt (Js (µ − λ)t−1 ) − pt (Js (µ − λ)t ) = 1, se µ = λ e s ≥ t

0, se µ = λ e s < t

v(µ, s) [pt (Js (µ − λ))t−1 − pt (Js (µ − λ))t ] =


P P
Portanto, r(λ, t − 1) − r(λ, t) =
µ∈ Spec A s
P
v(λ, s). Aplicando para t + 1 obtemos:
s≥t
P
v(λ, s) = r(λ, t) − r(λ, t + 1) e, subtraindo da equação acima, chegamos a
s≥t+1

v(λ, t) = r(λ, t − 1) − 2r(λ, t) + r(λ, t + 1) ∀ t ≥ 1.

Portanto, o número de blocos de Jordan de J, de cada tipo, depende unica e exclusivamente


dos números r(λ, t) que, dada A, são fixos.

Logo, a matriz de Jordan de A é única, a menos de permutações de seus blocos. Por esta razão,
se J é uma matriz de Jordan de A, chamamos de a forma de Jordan de A, qualquer matriz obtida
a partir de J, por permutações de seus blocos, considerando toda essa classe de matrizes como um
mesmo objeto.

cqd.

Observação: Note que, o teorema acima, além demonstrar a ”unicidade”da matriz de Jordan de
A, nos fornece um método rápido e eficaz de determiná-la. (Basta saber o número de blocos de
cada tipo para construı́-la )

Exemplo: Calcular a Forma de Jordan da matriz complexa


 
2 −1 0 0
 1 0 0 0 
A= 
 0 0 2 −1 
0 0 1 4

PA (x) = (x − 1)2 (x − 3)2

v(1, 1) = r(1, 2) − 2r(1, 1) + r(1, 0)

r(1, 1) = Posto de A − I = 2.
r(1, 2) = Posto de (A − I)2
 
0 0 0 0
 0 0 0 0 
(A − I)2 = 
 0 0 0 −4 
 ⇒ r(1, 2) = 2
1 1 4 8

Temos que r(1, 0) = 4.

Portanto, v(1, 1) = 2 − 2 ∗ 2 + 4 = 2

v(3, 1) = r(3, 2) − 2r(3, 1) + r(3, 0)

r(3, 1) = Posto de A − 3I = 2.
r(3, 2) = Posto de (A − 3I)2
 
0 −2 0 0
 2 8 0 0 
(A − 3I)2 = 
 0 0 0 0 
 ⇒ r(3, 2) = 2
0 0 0 0

Temos que r(3, 0) = 4.

Portanto, v(3, 1) = 2 − 2 ∗ 2 + 4 = 2
 
1 0 0 0
 0 1 0 0 
Logo, a forma de Jordan de A é J = 
 0

0 3 0 
0 0 0 3

Teorema 6(Cayley-Hamilton): Seja A ∈ Mn (k) e seja PA (x), o seu polinômio caracterı́stico.


Então, PA (A) = 0.

Demonstração:

Seja J a Forma de Jordan de A e seja T tal que T AT −1 = J.

Temos que PA (A) = PA (T JT −1 ) = T (PA (J))T −1 .


Logo, PA (A) = 0 ⇔ PA (J) = 0. Como PA (x) = PJ (x), basta mostrar que PJ (J) = 0.

Suponha que Jn (λ) é um dos blocos de J. Devido às considerações feitas na demonstração do
Teorema 5, podemos supor que J = Jn (λ) ⊕ M , onde M também é uma matriz de jordan.

Note que PJ (J) = PJ (Jn (λ)) ⊕ PJ (M ) e que PJ (x) = PJn (λ) (x)×PM (x).

Logo, PJ (Jn (λ)) = PJn (λ) (Jn (λ))×PM (Jn (λ)). Porém,
PJn (λ) (x) = (x − λ)n ⇒ PJn (λ) (Jn (λ)) = (Jn (λ) − λI)n = 0 =⇒ PJ (Jn (λ)) = 0.

Portanto, PJ (Jn (λ)) = 0, para todo bloco Jn (λ), de J =⇒ PJ (J) = 0, o que conclui o teorema.

cqd.

Bibliografia:
PEÑA, José Antonio de. Álgebra lineal avanzada. México, DF : Universidad Nacional Autónoma
de México : Fondo de Cultura Económica, 1996.

Das könnte Ihnen auch gefallen