Beruflich Dokumente
Kultur Dokumente
iii
CAPı́TULO 1
Com essa notação podemos definir um homorfismo de aneis comutativos φT : K[t] → K[T ],
dado por
φT (p(t)) = p(T ) ∈ End(V ),
onde K[T ] designa a K-subálgebra do anel End(V ) gerada por T ∈ End(V ). Neste mesmo
espı́rito, definimos uma operação • T : K[t] × V → V de K[t] em V , dada por
p(t) • T v = p(T )(v) ∈ V.
A operação • T induz uma estrutura de K[t]-modulo finitamente gerado no K-espaço vetorial
V.
Analogamente, se A ∈ Mn×n (K), definimos
p(A) = a0 I + a1 A + . . . + ar Ar ∈ Mn×n (K)
e a operação
•A : K[t] × K ⊕n → K ⊕n
como
p(t) •A v = p(A)(v) ∈ K ⊕n ,
onde p(A)(v) designa o produto da matriz p(A) pelo vetor coluna v.
Dada A(t) = (ai,j (t)) ∈ Mn×n (K[t]) e dados v1 , . . . , vn ∈ V , definimos
Pn
v1 v1 j=1 a1,j (T )(vj )
A(t) •T ... = A(T ) ... = ..
.
Pn .
vn vn j=1 an,j (T )(vj )
1
2 1. POLINÔMIO MINIMO E CARATERISTICO
O polinômio minimo de T , indicado com mT (t) é o gerador monico do ideal ker (φT ) ⊆ K[t],
i. e. é o polinômio monico de menor grau p(t) ∈ K[t] com a propriedade que p(T ) = 0End(V ) .
Se A ∈ Mn×n (K), definimos o polinômio carateristico de A como
cA (t) = det(tI − A) ∈ K[t]
e o polinômio minimo de A, mA (t), como o gerador mônico de ker (φA ).
Por definição de matriz associada a uma aplicação linear com respeito a uma base B, temos
que, se [T ]B
B = A = [ai,j ],
n
X
T (vj ) = ai,j vi .
i=1
Se B ∈ Mn×n (K) é uma matriz inversı́vel, então
Demonstração. Seja {v1 , . . . , vri } uma base de Vλi que completamos a uma base B =
{v1 , . . . , vn } de V . Temos
λi · Iri ×ri A1
[T ]B B = ,
0(n−ri )×ri A2
com A1 ∈ Mri ×(n−ri ) (K) e A2 ∈ M(n−ri )×(n−ri ) (K).
Calculando o polinômio carateristico de T , temos
cT (t) = det(tI − [T ]B ri
B ) = (t − λi ) det(tI(n−ri )×(n−ri ) − A2 ),
que implica µi ≥ ri .
1.3.6. Teorema. Seja T ∈ End(V ) e seja n = dim(V ). As seguintes condições são equiva-
lentes:
(1) T diagonalizavel;
(2) (a) cT (t) = m µj com µ + . . . + µ = n = dim(V ), onde os elementos λ
Q
j=1 (t − λj ) 1 m j
são distintos;
(b) dim(Vλj ) = µj para cada j = 1, . . . , m;
(3) V = Vλ1 ⊕ . . . ⊕ Vλm .
Portanto se T ∈ End(V ) é diagonalizavel, mT (t) = m
Q
j=1 (t − λj )
m
X
n = dim(V ) = dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤ µi = n.
i=1
Observemos que a fatoração de mT (t) acima é caso particular de uma fatoração mais geral
(Proposição 1.4.3). Além disso, a recı́proca da última afirmação do teorema acima é válida
(Teorema 1.5.1).
1.4. DEFINIÇÕES 7
1.4.2. Exemplo. Seja T ∈ End(V ), seja q(t) ∈ K[t] e seja q(T ) : V → V a aplicação linear
associada. Se U := ker (q(T )), então U e’ subespaço T -invariante.
Temos T ◦ q(T ) = q(T ) ◦ T e portanto, se u ∈ U ,
0V = T (0V ) = T (q(T )(u)) = q(T )(T (u)),
i. e. T (u) ∈ U .
Em particular se λ ∈ K, temos que a noção de autoespaço é obtida considerando os po-
linômios qλ (t) = t − λ.
para cada i, i. e. mTi (t) divide mT (t) e portanto m. c. m.{mT1 (t), . . . , mTr (t)} divide mT (t).
8 1. POLINÔMIO MINIMO E CARATERISTICO
Reciprocamente, seja p(t) ∈ K[t] divisı́vel por cada um dos polinômios mT1 (t), . . . , mTr (t). Afir-
mamos que p(T ) = 0End(V ) , do que segue, em particular, que m. c. m.{mT1 (t), . . . , mTr (t)}(T ) =
0End(V ) e, portanto, que mT (t) divide m. c. m.{mT1 (t), . . . , mTr (t)}. Ora, seja v ∈ V , com
v = u1 + · · · + ur , ui ∈ Ui ; escrevendo p(t) = qi (t)mTi (t), i = 1, . . . , r, tem-se:
p(T )(v) = p(T )(u1 + · · · + ur ) = p(T )(u1 ) + · · · + p(T )(ur )
= (q1 mT1 )(T )(u1 ) + · · · + (qr mTr )(T )(ur )
= (q1 mT1 (T ))(u1 ) + · · · + (qr mTr (T ))(ur )
= q1 (mT1 (T (u1 )) + · · · + qr (mTr (T (ur ))
= q1 (mT1 (T1 ))(u1 ) + · · · + qr (mTr (Tr ))(ur )
= q1 (0End(U1 ) )(u1 ) + · · · + qr (0End(Ur ) )(ur )
logo p(T ) = 0End(V ) , como querı́amos.
relativamente primos, logo existem ai (t), bi (t) ∈ K[t] tais que ai (t)qi (t)ei + bi (t)hi (t) = 1. Como
antes, obtemos
v = IV (v) = a(T )(qi (T )ei (v)) + b(T )(hi (T )(v)) = 0V + 0V = 0V .
(2) Aplicando o mesmo argumentos da parte (1) aos fatores de cT (t) (em vez de mT (t)),
obtém-se analogamente V = ker (q1 (T )l1 ) ⊕ · · · ⊕ ker (qk (T )lk ). Como as inclusões ker (qi (T )ei ) ⊆
ker (qi (T )li ) são imediatas, uma vez que ei ≤ li , comparando as dimensões obtemos ker (qi (T )ei ) =
ker (qi (T )li ) para todo i = 1, . . . , r.
(3) e (4) Seja agora Ti a restrição de T a Ui = ker (qi (T )ei ). Como a restrição comuta com
somas e produtos, tem-se qi (Ti )ei = 0End(Ui ) e, portanto, qi (t) é o único fator irredutivel de
mTi (t), i.e. mTi (t) = qi (t)αi com 1 ≤ αi ; isso implica em cTi (X) = qi (X)βi , βi ≥ αi ≥ 1. A
dimensão de ker (qi (T )ei ) é portanto βi · grau(qi (t). Vamos mostrar que βi = li e que αi = ei .
Isso segue das relações
Y r r
Y r
Y
qi (t)li = cT (t) = cTi (t) = qi (t)βi ,
i=1 i=1 i=1
r
Y Yr Yr
qi (t)ei = mT (t) = mTi (t) = qi (t)αi ,
i=1 i=1 i=1
onde as igualdades do meio foram provadas na Proposição 1.4.3.
Am
i.e. Ai ∈ K n , i = 1, . . . , m são os vetores linha da matriz A. Mostrar que
a · A tem como i-esima linha A + aA e as outras linha iguais;
(a) Ei,j i j
(b) Eei,j · A tem como i-esima linha Aj , como j-esima linha Ai e as outras linhas iguais
as linhas de A;
(c) Eic · A tem na i-esima linha cAi e as outras linhas iguais as linhas de A.
Duas matrizes A, B ∈ Mm×n (K) se dizem linha equivalentes se existem um numero
finito de matrizes elementares E1 , . . . , Er ∈ Mm×m (K) tais que E1 · E2 · . . . · Er · A = B.
Moltiplicar uma matriz A ∈ Mm×n (K) a direita por matrizes elmentares em
Mn×n (K) e descrever o resultado sobre as colunas de A. Definir a noção de matri-
zes coluna equivalentes.
x1 b1
(3) Dadas A ∈ Mm×n (K), X = ... ∈ Mn×1 (K), B = ... ∈ Mm×1 (K), consi-
xn bm
deramos o sistema de equações lineares com coeficientes em K nas incognitas x1 , . . . , xn
dado por
A · X = B.
Seja
A
e= A | B ∈ Mm×(n+1) (K)
a matriz associada ao sistema.
Mostrar que qualquer sistema obtido moltiplicando por matrizes elementares a es-
querda a matriz do sistema, i.e. operando sobre as linhas do sistema com as operações
descritas anteriormente, tem as mesmas soluções do sistema original (usar o fato que
as matrizes elementares são inversiveis).
(4) Seja A ∈ Mm×n (K). Dizemos que A é linha reduzida a forma escada se:
(a) o primeiro elemento não nulo de cada linha é igual a 1;
(b) o primeiro elemento não nulo da (i+1)-esima linha se encontra a direita do primeiro
elemento não nulo da i-esima linha;
(c) os elementos de uma coluna que contem o primeiro elemento não nulo de uma
linha, diferente desse elemento, são nulos.
Mostrar que dada A ∈ Mm×n (K), existem um numero finito de matrizes elemen-
tares E1 , . . . , Er tais que E1 · E2 · . . . · Er · A seja linha reduzida a forma escada.
EXERCICIOS 11
(h) Utilizando as propriedades acima deduzir que se E é uma matriz elementar dos
3 tipos acima e se A ∈ Mn×n (K) é arbitraria, então temos det(E · A) = det(E) ·
det(A). Por indução mostrar que o mesmo resultado vale se E for produto de
matrizes elementares.
(i) provar que A ∈ Mn×n (K) é invertivel se e somente se det(A) 6= 0.
(j) (Definição axiomatica do determinante) Seja
d : Mn×n (K) → K
12 1. POLINÔMIO MINIMO E CARATERISTICO
uma função que satisfaz as propriedades a), b) e c) acima. Provar que d(A) =
det(A) para cada A ∈ Mn×n (K).
(k) Concluir que podemos calcular o determinante desenvolvendo segundo qualquer
linha (ou coluna) porque a função assim definida satisfaz as propriedades a), b) e
c) acima.
(l) Sejam A, B ∈ Mn×n (K). Provar que det(A · B) = det(A) · det(B). Deduzir que se
A é invertivel, então det(A−1 ) = det(A)−1 .
(m) Provar que det(A) = det(At ), onde At é a matriz trasposta de A.
(n) Seja A ∈ Mn×n (K), seja αi,j = (−1)i+j det(Ai,j ) e seja
ad(A) = [αi,j ]t ∈ Mn×n (K)
a matriz adjunta de A. Provar que
A · ad(A) = ad(A) · A = det(A)I
ad(A) .
e deduzir que se det(A) 6= 0, então A−1 = det(A)
(7) Seja A ∈ Mm×n (K). Definimos o posto linha de A, indicado com rank (A), como a
dimensão do subespaço de Kn gerado pelas linhas de A. Definimos o posto coluna de
] (A), como a dimensão do subespaço de Km gerado pelas colunas
A, indicado com rank
de A. Mostre que
(a) para qualquer A ∈ Mm×n (K) temos rank (A) = rank ] (A). Portanto chamaremos
esse numero simplesmente de posto de A e o indicaremos com rank (A). Concluir
que rank (A) ≤ min{m, n}.
(b) rank (A) é igual ao numero de linhas não nulas na forma linha reduzida de A,
] (A) é igual ao numeros de colunas não nulas na forma coluna
respectivamente rank
reduzida de A.
(c) rank (A) é o maximo tamanho de uma submatriz quadrada de A com determinante
não nulo.
(d) A ∈ Mn×n (K) é invertivel se e somente se rank (A) = n se e somente se det(A) 6= 0
se e somente se as colunas (e as linhas) de A formam una base de Kn .
(8) Sejam A, B, P, Q ∈ Mn×n (K). Mostrar que se B é invertivel e se B = P · A · Q, então
P, A e Q são inversiveis.
(9) A ∈ Mn×n (K) se diz nilpotente se existir r > 0 tal que Ar = 0. Mostrar que se
A ∈ Mn×n (K) é nilpotente, então I + A é invertivel.
1 0 1 0 1 0
(10) Sejam A = 0 −1 −1 e B = 0 0 0 .
1 1 0 1 0 0
(a) Encontre A−1 .
(b) Encontre X tal que AX = B.
(11) Seja A ∈ Mn×n (K). Definimos tr(A) = ni=1 ai,i ∈ K o traço de A. Mostrar que:
P
(a) tr(A + B) = tr(A) + tr(B) e tr(A · B) = tr(B · A) para cada A, B ∈ Mn×n (K).
(b) Se B é invertivel, então tr(B −1 · A · B) = tr(A).
(12) Sejam Ui , . . . Ur subespaços vetorias do espaco vetorial V sobre K. A soma dos epaços
Ui , indicada com U1 + . . . + Ur é o subespaço de V formado pelos vetores da forma
v = u1 + . . . + ur , ui ∈ Ui . Mostar que
EXERCICIOS 13
(a) a soma dos Ui é direta se e somente se cada vetor de U1 . . . + Ur admite uma unica
escritura como a anterior.
(b) dim(U1 +. . .+Ur ) ≤ ri=1 dim(Ui ) e que vale igual se e somente se a soma é direta.
P
(c) Se Bi ’ e base de Ui , mostrar que ∪ri=1 Bi é um sistema de geradores de U1 +. . .+Ur ,
que é uma base se e somente se a soma é direta. Concluir que dado um subesaço
U de V existe W ⊆ V subespaço tal que V = U ⊕ W (subespaço complementar de
U ).
(d) Mostrar que Mn×n (K) é soma direta dos subespaços das matrizes simetricas (A =
At ) e das matrizes antisimetricas (A = −At ). Mostre que as matrizes de traço nulos
formam um subespaço de Mn×n (K). Encontrar um subespaço complementar em
Mn×n (K).
(13) Seja A ∈ Mn×n (K) e seja mA (t) = tr + ar−1 tr−1 + . . . + a0 o polinômio minimo de A.
Mostrar que A é invertivel se e somente se a0 6= 0.
(14) Seja T ∈ End(V ). Mostrar que T é triangularizavel superiormente se e somente se é
triangularizavel inferiormente.
(15) Considere o espaço vetorial V = M2×2 (K), a matriz
1 2
A=
−1 3
xn
Ae = A | B ∈ Mm×n+1 (K)
a matriz associada ao sistema. Provar que:
(a) rank (A) ≤ rank (A)
e ≤ rank (A) + 1;
b1
(b) o sistema admite uma solução se e somente se B = ... ∈ Im(TA ) se e somente
bm
se rank (A) = rank (A);
e
(c) se existe uma solução, então as soluções do sistema podem ser parametrizadas por
um subespaço linear de Kn de dimensão n − rank (A) ≥ 0.
(25) Seja A ∈ Mn×n (K). Se p(x) = a0 + a1 x + . . . + ar xr ∈ K[x], definimos
p(A) = a0 I + a1 A + . . . + ar Ar ∈ Mn×n (K).
Mostrar que existe um polinômio p(x) ∈ K[x] de grau menor ou igual a n2 tal que
p(A) = 0Mn×n (K) .
CAPı́TULO 2
17
18 2. Mn×n (k[X]) E FATORES INVARIANTES
Com esta notação , fica fácil verificar que µ é um homomorfismo, isto é, preserva soma e
produto de matrizes. Com efeito, dadas
! !
X (l) X (l)
l l
A(X) = αij X , B(X) = βij X ,
l i,j l i,j
com, respectivamente,
X (l)
µ(A(X)) = PA (X) = αij Xl
i,j
l
e
X (l)
µ(B(X)) = PB (X) = βij X l,
i,j
l
temos
!
X (l) (l)
X (l) (l)
µ (A(X) + B(X)) = µ (αij + βij )X l = αij + βij Xl
i,j
l i,j l
X (l)
X (l)
= αij Xl + βij Xl
i,j i,j
l l
= µ(A(X)) + µ(B(X)).
2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 19
Para o produto, as fórmulas ficam mais complicadas, mas a verificação segue o mesmo
principio. Observemos que
! !
X (l) X (l)
l l
A(X) · B(X) = αij X · βij X
l i,j l i,j
!
X (l) X (l) X (l) X (l)
= ( αi1 X l )( β1j X l ) + · · · + ( αin X l )( βnj X l )
l l l l i,j
n
!!
(l)
X X X (l)
= ( αit X l )( βtj X l )
t=1 l l i,j
Xn X X (k) (l−k)
= ( αit βtj )X (l)
t=1 l 0≤k≤l
i,j
n
(k) (l−k)
X X X
= ( αit βtj )X (l)
l 0≤k≤l t=1
i,j
Segue que
n
(k) (l−k)
X X X
µ (A(X) · B(X)) = µ ( αit βtj )X (l)
l 0≤k≤l t=1
i,j
n
(k) (l−k)
X X X
= ( αit βtj ) X (l)
l 0≤k≤l t=1
X (l)
X (l)
= ( αij X l )( βij X l)
i,j i,j
l l
= µ (A(X)) µ (B(X)) .
própria. Seu coeficiente dominante é uma matriz invertivel, portanto não anula qualquer matriz
não nula. Se Q(X) − Q0 (X) 6= 0, segue do Lema 2.1.5 (ii) que o grau do membro esquerdo é
no minimo s; absurdo. Logo, necessariamente, Q(X) = Q0 (X). Consequentemente, também
R0 (X) = R(X).
2.1.7. Observação. A rigor, o que acabamos de demonstrar foi divisão euclidiana á direita
(isto é, aquela em que o quociente é multiplicador à esquerda). Deixamos como exercicio de
rotina verificar a existência e unicidade de uma divisão á esquerda. Em geral, o quociente(resp.
o resto) á direita é distinto do quociente(resp. o resto) á esquerda. No que segue, fixaremos a
divisão sistematicamente á direita.
2.1.2. Polinômios matriciais e resto da divisão. Analogamente aos homomorfismos
de substituição (ou de avaliação ) já conhecidos (por exemplo, k[X] → k, f (X) 7→ f (α) ou
k[X] → Mn×n (k), f (X) 7→ f (A)), podemos definir o valor de um polinômio matricial P (X) ∈
Mn×n (k[X]) numa matriz A ∈ Mn×n (k), através da aplicação
P (X) = Pr X r + Pr−1 X r−1 + · · · + P0 7→ PD (A) = Pr Ar + Pr−1 Ar−1 + · · · + P0 .
Como no processo de divisão euclidiana, chamamos aqui também a atenção ao fato de que esta
aplicação de substituição admite uma versão à esquerda
P (X) = Pr X r + Pr−1 X r−1 + · · · + P0 7→ PE (A) = Ar Pr + Ar−1 Pr−1 + · · · + P0
e que, em geral os resultados das substituições dão matrizes distintas.
Mais grave é o fato de que, ao contrário dos processos de substituição anteriores, o presente
não é um homomorfismo de anéis. É fácil ver que preserva a soma de matrizes e o produto por
um polinômio, mas não o produto de matrizes em geral.
2.1.8. Exercicio. Dar exemplo de substituições cujos valores á direita e á esquerda são
distintos. Dar igualmente exemplo de que a substituição nào preserva o produto de matrizes.
(Sugestão: probabilisticamente, qualquer exemplo deve funcionar!)
Apesar da falência da substituição em preservar o produto de matrizes, o seguinte resultado
básico é válido e, conforme veremos em seguida, extremamente útil. É uma generalização natural
do fato que se f (X) ∈ k[X] e se f (X) = g(X) · (X − α) + r, então r = f (α).
2.1.9. Proposição. (Teorema do Resto) Dada A ∈ Mn×n (k), o resto da divisão à direita
(resp. à esquerda) de um polinômio matricial P (X) ∈ Mn×n (k[X]) pela matriz caracterı́stica
XI − A é o valor PD (A) (resp. PE (A)).
Demonstração. Seja P (X) = Pr X r + Pr−1 X r−1 + · · · + P0 . Então é fácil verificar que
para cada k = 0, 1, . . . , r,
X j I − Aj = (X j−1 I + X j−2 A + · · · + XAj−2 + Aj−1 ) · (XI − A)
= Qj (X) · (XI − A).
Moltiplicando ambos os membros da equação anterior a esquerda por Pj e somando de 0 até r
temos
Xr X r
j j
P (X) − PD (A) = Pk · (X I − A ) = ( Pj · Qj (X)) · (XI − A)
j=0 j=0
= Q(X) · (XI − A),
de onde segue a proposição pela unicidade do quociente e do resto da divisão a direita (resp.
a esquerda). Da mesma forma se prova a parte relativa a divisão a esquerda por XI − A.
2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 23
2.1.10. Proposição. Seja A ∈ Mn×n (k) e sejam mA (X) e cA (X) os polinômios minimo e
carateristico de A. Então cA (X) divide mA (X)n . Em particular mA (X) e cA (X) têm os mesmos
fatores irredutiveis mônicos.
1
..
.
1
0 ··· 1
1
Mi,j
= ..
.
1
1 ··· 0
1
..
.
1
onde (Mi,j )kk = (Mi,j )ij = (Mi,j )ji = 1, se k 6= i, j; (Mi,j )kl = 0, em caso contrário
(Mantemos a convenção de que os espaços vazios são ocupados por zeros). Mais
geralmente, o resultado de efetuar uma permutação das linhas (colunas) de uma matriz
corresponde a uma matriz com 0 e 1, sendo que cada 0 figura em exatamente uma linha
e uma coluna (estas matrizes são chamadas de matrizes de permutação ).
24 2. Mn×n (k[X]) E FATORES INVARIANTES
Demonstração. Pela conhecida relação , temos A ad(A) = (det A)I, onde ad(A) é a matriz
dos cofatores de A. Em particular, pela definição mesma dos cofatores, ad(A) é matriz sobre
k[X]. Trabalhando sobre k(X), a inversa é dada por A−1 = (det A)−1 ad(A). Se det A ∈ k,
segue que os elementos de A−1 são polinômios. Inversamente, se A admite inversa A−1 sobre
k[X], então det A det(A−1 ) = 1 é o produto de dois polinômios que dá como resultado 1. Logo,
det A admite inverso multiplicativo em k[X] e, portanto, tem de pertencer a k \ {0}.
Como no caso de escalonamento sobre um corpo K, diremos que uma matriz B ∈ Mm×n (k[X])
é elementarmente equivalente a uma matriz A ∈ Mm×n (k[X]) se B = AE ou B = F A, onde
E e F são matrizes elementares (isto é, correspondem a operações elementares por linha
ou coluna, sobre k[X]). Dizemos que B é equivalente a A se existirem matrizes elementa-
res E1 , . . . , Er , F1 , . . . , Fs tais que B = E1 · · · Er AF1 · · · Fs . Usaremos, neste caso, a notação
B ∼ A.
Como antes, trata-se de uma relação de equivalência no conjunto Mm×n (k[X]). Ainda como
antes, nossa tarefa será exibir uma forma canônica para cada classe de equivalência.
Para familiarizar-nos com o teorema de escalonamento em Mm×n (k[X]), convem tratar pri-
meiro alguns exemplos simples, onde possamos reconhecer o padrão geral.
Fácil demais? Porque os polinômios são todos de grau 1? Porque a matriz é quadrada? Nos
dois próximos exemplos, transgredimos estas condições .
X2 X + 1 X2
X +1 X +1 −X
∼ ∼
X −1 X2 X2 X −1 X2 −X 3 + X − 1
X +1 1
∼
X2 −X 3 + X 2 + X − 1
1 X +1
∼
−X 3 + X 2 + X − 1 X2
1 0
∼
−X 3 + X 2 + X − 1 X 4 − (X + 1)(X − 1)
1 0
∼
0 X 4 − (X + 1)(X − 1)
26 2. Mn×n (k[X]) E FATORES INVARIANTES
Demonstração. Podemos supor que A não é a matriz nula. Procedemos por indução
sobre m. No conjunto de todas as matrizes equivalentes a A escolhamos uma que admite como
elemento na posição (1, 1) um polinômio mônico de menor grau possivel; denotemos um tal
polinômio por g(X). Dividindo todo elemento da primeira linha de A por g(X), obtemos uma
matriz m × n da forma !
g(X) r12 (X) . . . r1n (X)
.. .. .. ,
. . .
onde r1j (X) são os respectivos restos das divisões. Em particular, gr(r1j (X)) < gr(g(X)), para
todo j. Esta matriz foi obtida de A por (m − 1) transformações elementares, logo é equivalente
a A. Por hipótese, segue necessariamente que r1j (X) = 0 para todo j. Procedendo similarmente
com a primeira coluna desta matriz, obtemos
g(X) 0 . . . 0
0
A ∼ .. ,
. A 1
0
onde A1 é matriz m − 1 × n − 1 polinomial. Pela hipótese indutiva, esta matriz é equivalente a
uma matriz
f2 (X) 0 ··· 0
f3 (X) 0 ··· 0
.. .. ..
. . .
fr (X) 0 ··· 0
(2.3.2) S A1 = ,
0 0 ··· 0 0 ··· 0
.
.. .
.. .. .. ..
. . .
0 0 ··· 0 0 ··· 0
onde r − 1 é o posto de A1 e os polinômios se comportam conforme o enunciado do teorema.
Consequentemente, aplicando à matriz dada A operações elementares da forma
1 0 ... 0
0
,
..
. P 1
0
onde P1 é matriz m − 1 × n − 1 elementar usada para passar de A1 a SA1 , chegamos a que A é
equivalente a
f1 (X) 0 0 0 0 0 0 0
0 f2 (X) 0 ··· 0
0 f3 (X) 0 ··· 0
.. .. .. ..
. . . .
SA = 0 fr (X) 0 ··· 0 .
0 0 0 ··· 0 0 ··· 0
.
.. .
.. .. .. .. ..
. . . .
0 0 0 ··· 0 0 ··· 0
28 2. Mn×n (k[X]) E FATORES INVARIANTES
Ponhamos f1 (X) := g(X). Resta mostrar que g(X)|f2 (X). Ora, a matriz acima é ainda
equivalente à matriz que se obtem ao somar a primeira linha multiplicada por g(X) á segunda
linha. Tornando a dividir f2 (X) por g(X), como no inicio, obtemos uma matriz equivalente
com um elemento (o resto desta divisão) com grau menor do que o de g(X). Novamente, somos
obrigados a concluir que g(X) divide f2 (X), como queriamos demosntrar.
com P (X) ∈ Mn×n (k[X]) matriz com elementos polinômios relativamente primos entre si. De
ad(XI − A) · (XI − A) = det(XI − A) · I obtemos
dn−1 (X) · P (X) · (XI − A) = dn−1 (X) · fn (X) · I
e portanto
P (X) · (XI − A) = fn (X) · I.
Pelo teorema do resto podemos interpretar a relação anterior como que o resto da divisão a
direita de fn (X) · I por XI − A é nulo, i.e. fn (A) = 0. Isso implica que mA (X) divide fn (X),
i.e.
fn (X) = h(X) · mA (X).
Para concluir é suficiente mostrar que h(X) tem grau zero porque os dois polinômios fn (X) e
mA (X) são mônicos. Dividindo mA (X)·I a direita por XI −A e sendo mA (A) = 0 por definição,
o teorema da divisão garante a existencia de R(X) ∈ Mn×n (k[X]) tal que
mA (X) · I = R(X) · (XI − A).
Combinando as relações anteriores obtemos
P (X) · (XI − A) = h(X) · mA (X) · I = h(X) · R(X) · (XI − A),
que, sendo XI − A de posto n, implica
P (X) = h(X) · R(X).
Então h(X) ∈ k porque, por construção, os elementos de P (X) eram relativamente primos entre
si.
2.3.7. Observação. Sejam k e k 0 dois corpos com k ⊆ k 0 (e.g. R ⊆ C) e seja A ∈ Mn×n (k).
A priori pensando A como elemento de Mn×n (k 0 ) teremos a noção de polinômio minimo de A
com coeficientes em k 0 , i.e. o polinômio mônico de menor grau de k 0 [X] que se anula sobre
A e não é claro que esse polinômio coincida com o polinômio minimo de A em k[X]. Quanto
acabamos de mostrar revela que o polinômio minimo de A não depende do corpo. Isso porque se
A ∈ Mn×n (k) ⊂ Mn×n (k 0 ), então o n-esimo fator invariante de XI − A pertence sempre a k[X].
Que depende do corpo é a fatorização do polinômio minimo e portanto a ”forma canônica”. Por
exemplo considerando
0 −1
A=
1 0
como matriz com coeficentes reais, temos que mA (X) = X 2 + 1 e que A é in forma canonica
racional como matriz real. Em M2×2 (C), o polinômio minimo de A se fatora em mA (X) =
(X − i)(X + i) e a forma canônica racional como matriz complexa de A é
i 0
.
0 −i
30 2. Mn×n (k[X]) E FATORES INVARIANTES
2.5.2. Proposição. Seja f (X) ∈ k[X] um polinômio mônico de grau n ≥ 1e seja C(f (X)) ∈
Mn×n (K) a matriz companheira de f (X). Então XI − C(f (X)) é equivalente a
1 0 0 0 0 0
0 1 0 0 ··· 0
0 1 0 ··· 0
. .. . ..
. . .. ∈ Mn×n (k[X]).
. .
. .. ..
.. . .
0 f (X)
32 2. Mn×n (k[X]) E FATORES INVARIANTES
Demonstração. É facil verificar (verifique!) que para uma matriz da forma C(f (X))
temos mC(f (X)) (X) = cC(f (X)) (X) = f (X), cfr. Lema 2.8.2. Portanto os fatores invariantes de
XI − C(f (X)) são tais que
f1 (X) · · · fn (X) = cC(f (X)) (X) = f (X) = mC(f (X)) (X) = fn (X).
Segue que f1 (X) = · · · = fn−1 (X) = 1 e fn (X) = f (X). A forma canônica de Smith de
XI − C(f (X)) é esatamente como acima.
2.5.3. Teorema. (Forma canônica racional-primeira versão ) Cada matriz A ∈ Mn×n (k)
é semelhante a uma unica matriz da forma
C(fl (X)) 0 0 0 0
0 C(fl+1 (X)) ··· 0
,
.. .. .
..
. .
0 C(fn (X))
onde os fj (X), j = l, . . . , n, 1 ≤ l ≤ n, são polinômios mônicos não costantes com a
propriedade que fi (X) divide fi+1 (X) para cada i = l, . . . , n − 1. Os polinômios fj (X) são os
fatores invariantes não constantes de XI − A.
Demonstração. Seja
1 0 0 0 0 0
0 1 0 0 ··· 0
0 fl (X) 0 · · · 0
.. .. .. ..
. . . .
0 fn (X)
a forma canônica de Smith de XI − A, i.e. os fj (X) são os fatores invariantes não constantes
de XI − A. Seja
C(fl (X)) 0 0 0 0
0 C(fl+1 (X)) ··· 0
C= .
.. . . .
.
. . .
0 C(fn (X))
Observamos que C ∈ Mn×n (k).
Então
XI − C(fl (X)) 0 0 0 0
0 XI − C(fl+1 (X)) · ·· 0
XI − C =
.. . .. ..
. .
0 XI − C(fn (X))
e pela proposição 2.5.2 cada bloco XI − C(fj (X)) e’ equivalente a
1 0 0 0 0 0
0 1 0 0 ··· 0
0 1 0 ··· 0
. .. . .. .
. . ..
. .
. . .
.. .. ..
0 fj (X)
2.6. FATORES INVARIANTES E DIVISORES ELEMENTARES 33
Portanto XI − C é equivalente a
1 0 0 0 0 0
0 1 0 0 ··· 0
0 fl (X) 0 · · · 0
. .. . ..
. . ..
. .
. .. ..
.. . .
0 fn (X)
e de consequencia a XI − A. Disso deduzimos que A é semelhante a C pelo Teorema 2.4.2. A
unicidade é clara porque se A fosse semelhante a uma matriz da forma
C(fl00 (X))
0 0 0 0
0 C(f 0 (X)) · · · 0
l0 +1
C0 = ,
.. .. ..
. . .
0 C(fn0 (X))
com fi0 (X) mônico e irredutivel e tal que fi0 (X) divide fi+1
0 (X), os fatores invariantes de XI − C 0
0 0
seriam fl0 (X), . . . , fn (X)(argumentaremos como acima) e seriam também os fatores invariantes
de XI − A. Portanto teremos l = l0 e fj0 (X) = fj (X) e a unicidade resulta provada.
Sendo que os polinômios qj (X) são irredutiveis e relativamente primos, o m.c.d. mônico dos
menores de ordem n − 1 de XI − C é igual a 1 (por que?). Portanto XI − C é equivalente a
1 0 0 0 0 0
0 1 0 0 ··· 0
0
1 0 ··· 0
.. .. .. ..
. . . .
0 f (X)
que é a forma canônica de Smith de XI − C(f (X)). Portanto C(f (X)) é semelhante a C.
A1
A2
[T ]B
B = ,
..
.
Ar
onde cada Ai tem a forma
C(qi (X)ei )
C(qi (X)ei,2 )
Ai = .
..
.
C(qi (X)ei,pi )
v) A forma da matriz no ponto iv) se diz forma canônica racional de T e e’ unica modulo
uma permutação dos blocos.
0
Demonstração. Seja B 0 uma base de V e seja A = [T ]B
B0 . O resultado segue aplicando a
segunda versão da forma canônica racional a matriz A.
2.8. DECOMPOSIÇÃO T -CICLICA 37
ii) (unicidade) Se V = U10 ⊕ U20 . . . ⊕ Up0 0 , onde cada Uj0 e’ um subespaço T -ciclico tal que
0
o polinômio minimo de T|Uj0 seja da forma q(X)ej com e = e01 ≥ e02 ≥ . . . ≥ e0p0 , então
p = p0 e ei = e0i para cada i = 1, . . . , p.
Demonstração. Para indução sobre n = dim(V ) ≥ 1. Para n = 1, necessariamente
mT (X) = X − α e o teorema e’ verdadeiro.
Seja d = grau(q(X)) ≥ 1. Temos q(T )e−1 6= 0End(V ) por definição de polinômio minimo.
Então existe u ∈ V tal que q(T )e−1 (u) 6= 0V . Seja U1 =< u, T (u), . . . >, i.e. o subespaco
ciclico T -invariante gerado por u e seja T1 a restrição de T a U1 . Sendo que q(T1 )e = 0End(U1 )
o polinômio minimo de T1 e’ da forma q(X)e1 com e1 ≤ e. De q(T1 )e−1 (u) 6= 0 deduzimos
e1 = e. Então U1 =< u, T (u), . . . , T de−1 (u) > porque sendo q(X)e o polinômio minimo de T|U1 ,
T de (u) ∈< u, T (u), . . . , T de−1 (u) > e portanto T r (u) ∈< u, T (u), . . . , T de−1 (u) > para cada
r ≥ d · e. Por outro lado temos que se u, T (u), . . . , T de−1 (u) fossem linearmente dependentes,
então o polinômio minimo de T|U1 seria de grau menor a d · e (lembramos que f (T|U1 ) = 0 se e
só se f (T )(u) = 0). Concluimos que dim(U1 ) = de. Se d · e = n, o teorema esta demostrado.
Suponhamos d · e < n.
Sendo U1 um subespaço T -invariante, T induz uma transformação linear T : V /U1 → V /U1
definida como
T ([v]) = [T (v)].
(Mostrar que e’ bem definida!). Se f (X) ∈ k[X], então se verifica logo que
f (T )([v]) = [f (T )(v)].
Dessa ultima relação deduzimos que mT (X) divide mT (X), i.e. mT (X) = q(X)e2 , e2 ≤ e1 = e.
Se W é um subespaço T -ciclico de V gerado por w tal que q(X)e seja o polinômio minimo de
T|W , então q(X)e é um multiplo do polinômio minimo da restrição de T ao subesaço T -ciclico
gerado por [w].
Aplicando a ipotese de indução a V /U1 , de dimensão n − dim(U1 ) < n, obtemos
V /U1 = U 2 ⊕ U 3 . . . ⊕ U p ,
onde cada U j e’ T -ciclico e a restrição de T a cada U j tem polinômio minimo da forma q(X)ej
com e2 ≥ e3 ≥ . . . ≥ ep . Para completar a demostração vamos construir a partir de U j ,
j = 2, . . . , p subespaços Uj de V tais que:
a) cada Uj seja isomorfo a U j e então T -ciclico;
b) o polinômio minimo da restrição de T a Uj seja exatamente q(X)ej ;
c) V = U1 ⊕ U2 . . . ⊕ Up .
Cada subespaço U j e’ gerado por um vetor [uj ] e temos
lj d−1
U j =< [uj ], . . . , T ([uj ]) > .
De q(T )lj ([uj ]) = 0V /U1 deduzimos q(T )ej (uj ) ∈ U1 ; sendo U1 gerado por u1 obtemos q(T )ej (uj ) =
f (T )(u1 ) por algum f (X) ∈ k[X]. Afirmamos que podemos deduzir a existencia de um vetor
u0j ∈ U1 tal que q(T )ej (T )(uj + u0j ) = 0V . Demonstrado isso pegaremos
Uj =< uj + u0j , . . . , T ej d−1 (uj + u0j ) >
e verificaremos as propriedades a), b) e c).
A afirmação segue dos seguintes fatos. Temos
0V = q(T )e (uj ) = q(T )e−ej q(T )ej (uj )q(T )e−ej f (T )(u1 ).
2.8. DECOMPOSIÇÃO T -CICLICA 39
Sendo que a restrição de T a U1 tem polinômio minimo q(X)e , temos que q(X)e divide q(X)e−ej f (X).
Isso implica f (X) = h(X)q(X)ej (por que?). Tomando u0j = −h(T )(u1 ) ∈ U1 , temos
q(T )ej (uj + u0j ) = f (T )(u1 ) + q(T )ej (−h(T )(u1 )) = 0V .
Sendo que u0j ∈ U1 , claramente [uj ] = [uj + u0j ] e então esse vetor é um gerador de U j ,
j = 2, . . . , p. Observamos antes que o polinômio minimo da restrição de T a Uj é um multiplo
de q(X)ej , mas q(T )ej (uj + u0j ) = 0V implica que o polinômio minimo da restrição de T a Uj
seja esatamente q(X)ej , assim que b) esta demonstrado. Mostramos a). Argumentando como
no caso de U1 no inicio da demonstração, temos que os espaços vetorias Uj e U j têm dimensão
d · lj . O mapa natural πj : Uj → U j definido como πj (uj + u0j ) = [uj + u0j ] = [uj ] é uma aplicação
linear sobrejetora que, pelo teorema do nucleo e da imagem, induz um isomorfismo entre Uj e
U j para cada j = 2, . . . p, completando a demonstração do ponto a).
Indicamos con π : V → V /U1 o mapa projeção definido como π(v) = [v]. Entao a restrição
de π a cada Uj é o πj definido anteriormente. Sendo que πj é um isomorfismo, temos Uj ∩U1 = 0V
para cada j = 2, . . . , p. Se w1 + w2 + . . . + wp = 0V , com wi ∈ Ui , i = 1, . . . , p, aplicando
π, teremos π(w2 ) + . . . + π(wp ) = 0V , π(wj ) ∈ U j para cada j = 2, . . . , p. Isso implica
π(wj ) = 0V /U1 (por que?) e portanto wj = 0V para cada j = 2, . . . , p pela injetividade de
πj . Portanto a soma U1 + . . . + Up é direta e coincide com V sendo um subespaço de dimensão
n = dim(V ).
Passamos a mostrar a unicidade da decomposição na forma especificada em ii). Seja m ≥ 1
o menor inteiro tal que em 6= e0m . Sendo e1 = e = e01 , temos 2 ≤ m ≤ min{p, p0 }. Podemos supor
sem perda de generalidade que em > e0m . Por outro lado sabemos que e0m ≥ e0j para cada j ≥ m
0
e portanto que q(T )em (Uj0 ) = 0V para cada j ≥ m. Então
0 0 0 0
q(T )em (V ) = q(T )em (U10 ) ⊕ q(T )em (U20 ) ⊕ . . . ⊕ q(T )em (Um−1
0
),
onde a soma continua direta porque os Uj0 são T -invariantes. Cada Uk0 e’ T -ciclico de dimensão
0
d · e0k . Se verifica facilmente que dim(q(T )em (Uk0 )) = d · (e0k − e0m ) para cada k = 1, . . . , m − 1.
Calculando com a outra decomposição obtemos
0 0 0 0 0
q(T )em (V ) ⊇ q(T )em (U1 ) ⊕ q(T )em (U2 ) ⊕ . . . ⊕ q(T )em (Um−1 ) ⊕ q(T )em (Um )
e0m 0 cada t = 1, . . . , m. Disso deduzimos m−1 0 0
P
Pm dim(q(T ) 0 (Ut )) = d(et −em ) para
com
0
k=1 d·(ek −em ) ≥
k=1 d(ek − em ) e portanto em ≤ em contra a hipotese.
Exercicios do capı́tulo
(1) Mostrar que em geral para A(X), B(X) ∈ Mn×n (k[X]),
grau(A(X) · B(X)) 6= grau(A(X)) + grau(B(X)).
(2) Efetuar a divisão euclidiana à direita de A(X) por B(X) nos seguintes casos, escrevendo
primeiramente as duas matrizes como polinômios matriciais.
(a)
X 3 + 5X + 1 3X 3 + X − 1
A(X) = ,
2X 3 + X 2 + 2 4X 3 + 2X + 2
2X 2 − 1 X 2
B(X) =
3X 2 2X 2
(b)
2X 2 + 2 X 2 + 2
X 2
A(X) = , B(X) =
−3X −X −2 X
(3) No Exercı́cio anterior, item (b), verifique que a divisão é exata (isto é, tem resto nulo)
em um lado, mas não no outro.
EXERCICIOS DO CAPÍTULO 41
2X 4 − X 2 + 2 −X 3 + X − 1 1 − X2
P (X) = X 3 − X + 1 −X 4 + X 2 − 2 1 + X2 ,
2
X −1 4 2
−X − 1X + X − 1
0 1 0
A = 0 0 1 ,
2 0 0
(6) Seja A ∈ Mm×n (Z). Mostrar que existem P ∈ Mm×m (Z) e Q ∈ Mn×n (Z) inversiveis
tais que
d1 0 ··· 0
d2 0 ··· 0
.. .. ..
. . .
dr 0 ··· 0
P ·A·Q= ,
0 0 ··· 0 0 ··· 0
. .. .. .. ..
.. . . . .
0 0 ··· 0 0 ··· 0
x2
x−1
A= .
x+1 x2
(9) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre Q[X],
pelo método das operações elementares:
(a)
X −1 0 −1
3 X −2 0
0 4 X +7
(b)
X X2 − 1 X3
X2 X − 1 X2 + X − 1
(c)
X 0 0
0 X −1 0
0 0 X −2
(d)
X 0 0
0 X 0
0 0 X −2
(10) Verificar, justificando devidamente, quais das matrizes seguintes sobre C[X] estão na
forma normal de Smith.
(a) Uma matriz A ∈ Mm×n (C) na forma reduzida linha/coluna
(b) Uma matriz diagonal A(X) ∈ Mn×n (C[X]) cuja diagonal principal é composta de
polinômios mônicos em ordem estritamente crescente de graus.
EXERCICIOS DO CAPÍTULO 43
(14) Seja
2 −1 1 −1
1 0 1 −1
A= 0 0 1 0 ∈ M4×4 (C).
0 0 0 1
Encontrar a forma canônica racional de A.
(15) Mostrar que se por A ∈ Mn×n (k), temos mA (X) = cA (X), então A é semelhante a
C(det(XI − A)) = C(cA (X)).
CAPı́TULO 3
Enunciamos algumas propriedades dos operadores nilpotentes que são consequencias diretas
da definição.
(i) Se r é o ı́ndice de nilpotência de T , então mT (X) = X r e o polinômio minimo de
um operador nilpotênte é portanto completamente redutivel em k[X]. Claramente se
n = dim(V ), cT (X) = X n .
(ii) λ = 0 é o único auto-valor de uma aplicação linear nilpotente T .
(iii) Se T : V → V é nilpotente, os auto-vetores de T são exatamente os elementos do núcleo
ker (T ) (todos associados ao auto-valor único 0)
Vamos considerar agora casos particulares dos resultados demonstrados anteriormente.
Estamos agora na posição para mostrar o Teorema da forma canônica de Jordan para ope-
radores nilpotentes. Precisamos só de uma definição. .
3.1.3. Definição. (Bloco elementar de Jordan de tamanho n). Definimos como bloco
elementar de Jordan de tamanho n a matriz Jn ∈ Mn×n (k) da forma
0 0 0 ... 0
1 0 0 ... 0
Jn = 0 1 0 . . . 0 .
.. .. .. . . ..
. . . . .
0 0 0 1 0
ii) Duas matrizes nilpotentes A, B ∈ Mn×n (k) são semelhantes se e só se têm a mesma
forma canônica de Jordan se e só se têm os mesmos ı́ndices de nilpotência successivos.
iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unica modulo
uma permutação dos blocos Ai .
(cujas linhas têm comprimento diferentes, em geral). Estes inteiros são chamados ca-
racterı́sticas de Segre. Por hipótese, eles determinam completamente a forma canônica
de Jordan, logo são invariantes da classe de semelhança das matrizes representativas de
T . Se T for nilpotênte as caracterı́sticas de Segre são a dimensão do espaço e os ı́ndices
de nilpotência sucessivos. Pr Ppj
(2) Observemos as relações óbvias j=1 sj = n e l=1 ej,l = sj (1 ≤ j ≤ r). A se-
gunda relação mostra que, esencialmente, as caracterı́sticas de Segre dependem só do
polinômio minimo de T e das ı́ndices de nilpotência sucessivos de Si e não do polinômio
caracterı́stico.
(3) Para cada j = 1, . . . , r, a multiplicidade de λj como raı́z do polinômio mı́nimo mT (X)
é a caracterı́stica de Segre ej,1 (o primeiro, maior por hipótese).
(4) A dimensão do auto-espaço Vλj = ker (T − λj I) associado ao auto-valor λj é ainda dado
Ppj
por dim(ker (Tj − λj I)) = sj − rank (Tj − λj I) = sj − ( l=1 (ej,l − 1)) = −(−pj ) = pj .
Assim, há um total de pj auto-vetores linearmente independentes associados a λj ,
portanto um para cada sub-bloco elementar de Jordan daquele auto-valor.
Embora a segunda observação mostre que não todas as caracterı́sticas de Segre sejam neces-
sarias para determinar a classe de semelhanca de uma matriz (podemos por exemplo eliminar
a segunda coluna de inteiros na matriz que define as caracterı́sticas de Segre), enunciamos o
seguinte corolario nessa forma.
3.2.3. Corolário. (Forma canônica de Jordan de matrizes) Seja A ∈ Mn×n (k) uma
matriz com polinômio minimo completamente redutivel em k[X]. Então
EXERCISIOS DO CAPÍTULO 49
Exercisios do capı́tulo