Beruflich Dokumente
Kultur Dokumente
6 de abril de 2009
Sumário
1 Equações lineares 1
1.1 Equação algébrica linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Sistemas de equações algébricas lineares . . . . . . . . . . . . . . . . . . . 4
1.4 Sistema escalonado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Sistema inferiormente escalonado . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 O método da eliminação de Gauss . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Matrizes inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.10 Cálculo da inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.11 Fatoração LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.12 Decomposição PLU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.13 Decomposição de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Espaço vetorial 33
2.1 Conceito de espaço vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Dependência linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4 Matriz de mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5 Subespaço vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6 Subespaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Transformação linear 49
3.1 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3 Transformações lineares em Cm×1 . . . . . . . . . . . . . . . . . . . . . . . 60
i
ii Notas de aula do Prof. Antonio Cândido Faleiros
5 Soma de subespaços 77
5.1 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6 Transformação adjunta 81
6.1 Posto de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Existência de solução dos sistemas lineares . . . . . . . . . . . . . . . . . . 87
7 Projetores 89
7.1 Projetores ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Projetores ortogonais em Cm×1 . . . . . . . . . . . . . . . . . . . . . . . . 92
7.3 Ortogonalização de Gram-Schmidt em Cm×1 . . . . . . . . . . . . . . . . . 94
7.4 Ortogonalização modificada de Gram-Schmidt . . . . . . . . . . . . . . . . 95
7.5 Contagem das operações . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8 Refletor de Householder 99
8.1 Decomposição QR usando o refletor de Householder . . . . . . . . . . . . . 101
8.2 O algoritmo para calcular R . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.3 Contagem das operações . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.4 O algoritmo para calcular Q∗ . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.5 O algoritmo para calcular Q . . . . . . . . . . . . . . . . . . . . . . . . . . 105
13 Aplicações 159
A Matrizes 161
A.1 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
A.2 Multiplicação de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
A.3 Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
A.4 Operações elementares e matrizes elementares . . . . . . . . . . . . . . . . 166
B Determinante 169
B.1 Permutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
B.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
B.3 Cofator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
B.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
B.5 Determinante de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . 178
B.6 Determinante, uma definição alternativa . . . . . . . . . . . . . . . . . . . 179
iv Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 1
Equações lineares
1
2 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 1.1 Para todo s real, a matriz coluna [7 + 3s, 2s]T é solução de 2x1 − 3x2 = 8
que, portanto, possui infinitas soluções. A variável s que aparece neste exemplo é chamado
de parâmetro.
O conjunto de todas as soluções de uma equação é chamado conjunto solução ou
solução geral. Cada elemento deste conjunto é, evidentemente, uma solução e, quando
for conveniente, será chamado de solução particular.
Para determinar a solução geral de uma equação não degenerada a1 x1 + · · · + an xn =
b basta explicitar a incógnita principal em função das variáveis livres.
Exemplo 1.2 Para obter a solução geral de x1 − 7x2 + x3 = 1, basta explicitar x1 para
obter x1 = 1+ 7x2 − x3 . A solução geral é o conjunto de matrizes coluna
x1 1 + 7x2 − x3 1 7 −1
x2 = x2 = 0 + x2 1 + x3 0 .
x3 x3 0 0 1
A equação
a1 x1 + · · · + an xn = 0
é denominada de equação homogênea. Ela está associada à equação não homogênea
(1.1) e, por esse motivo, é chamada de equação homogênea associada à equação não
homogênea
a1 x1 + · · · + an xn = b.
O uso de matrizes pode simplificar a notação. Sendo a = [a1 , . . . , an ]T a matriz dos
coeficientes e x = [x1 , . . . , xn ]T a matriz das variáveis, a equação acima pode ser
colocada na forma
aT x = b.
Exemplo 1.3 Consideremos novamente a equação do exemplo anterior x1 − 7x2 + x3 =
1, cuja solução geral é
x1 1 + 7x2 − x3 1 7 −1
x2 = x2 = 0 + x2 1 + x3 0 .
x3 x3 0 0 1
É interessante observar que [1, 0, 0]T é solução da equação e que tanto [7, 1, 0]T quanto
[−1, 0, 1]T são soluções da equação homogênea associada.
Este exemplo apresenta um fato geral.
Se v1 , . . . , vp forem soluções da equação homogênea aT x = 0, então
c1 v1 + · · · + cp vp
continua sendo solução, para qualquer escolha dos números reais c1 , . . . , cn . Esta soma é
chamada de combinação linear das matrizes v1 , . . . , vp .
Se um conjunto {v1 , . . . , vp } de soluções da equação homogênea for tal que toda
solução da equação homogênea é uma combinação linear dos seus elementos, diremos que
ele é um conjunto gerador das soluções da equação homogênea.
Notas de aula do Prof. Antonio Cândido Faleiros 3
Portanto, [3, 1, 0]T e [−1, 0, 1]T formam um conjunto gerador de soluções para a equação
dada.
ha, xi = aT x.
1. hx, xi ≥ 0 e hx, xi = 0 se e só se x = 0.
2. hx, yi = hy, xi
ha, xi = b.
4 Notas de aula do Prof. Antonio Cândido Faleiros
3x1 − 2x2 = 6
x1 + x2 = 7
é um sistema de equações algébricas lineares. Nos problemas onde estes sistemas ocorrem,
o interesse se volta para a determinação dos valores de x1 e x2 que tornam verdadeiras
as duas igualdades. Neste exemplo, para determiná-los, pode-se, por exemplo explicitar
x1 na segunda equação x1 = 7− x2 , substituir esta expressão no lugar de x1 na primeira
equação 3(7 − x2 )− 2x2 = 6 e expliciar x2 obtendo x2 = 3. Substituindo este valor na
expressão de x1 em função de x2 obtemos x1 = 7− x2 = 7− 3 = 4. Portanto os valores
de x1 e x2 que tornam verdadeiras as duas igualdades do sistema são x1 = 4 e x2 = 3.
Dados os números reais aij e bi , com i = 1, . . . , m e j = 1, . . . , n, o sistema de equações
a11 x1 + · · · + a1n xn = b1
··· = ···
am1 x1 + · · · + amn xn = bm
Ax = b.
não possui solução pois não existem x1 e x2 que tornam verdadeira a segunda equação. A
segunda equação do sistema é degenerada e seu segundo membro é diferente de zero.
O sistema · ¸· ¸ · ¸
1 2 x1 4
=
0 1 x2 1
possui uma única solução x1 = 2 e x2 = 1. Para obtê-la, basta observar que, da segunda
equação x2 = 1 e, da primeira, x1 + 2x2 = 4. Como x2 = 1, devemos ter x1 = 2.
O sistema · ¸· ¸ · ¸
1 2 x1 3
=
2 4 x2 6
possui infinitas soluções. De fato, explicitano x1 na primira equação segue x1 = 3− 2x2 .
Substituindo esta expressão na segunda vem 2(3− 2x2 ) + 4x2 = 6 que se simplifica em 6 =
6, ou seja, é sempre satisfeita. Logo, qualquer matrix coluna [x1 , x2 ]T = [3− 2x2 , x2 ]T é
uma solução do sistema. A variável x2 pode variar livremente nos reais.
O sistema não homogêneo Ax = b pode ter uma solução ou não. Se a única solução
do sistema homogêneo Ax = 0 for a trivial e Ax = b tiver uma solução, ela será única.
Quando Ax = 0 possuir solução não trivial e Ax = b possuir uma solução, então possuirá
infinitas outras.
Observe que [13, 3, 0]T é uma solução particular do sistema e [7, 6, 1]T é solução
do sistema homogêneo associado. O valor de x3 poder variar livremente no conjunto dos
números reais.
2. Numa linha não nula, o primeiro elemento não nulo é igual a 1. Este elemento é
chamado de pivô ou líder da linha.
onde a variável livre x3 pode assumir qualquer valor real. É interessante observar que
[−2, −3, 1, 0]T é solução do sistema homogêneo associado Ax = 0.
Uma matriz A de tamanho m×n é escalonada reduzida se for escalonada e cada pivô
é o único elemento não nulo em sua coluna. Neste caso, o sistema Ax = b é denominado
de sistema escalonado reduzido.
8 Notas de aula do Prof. Antonio Cândido Faleiros
==================================
Entrada: Matriz R de tamanho m × m e matriz b de tamanho m × 1.
Saída: Matriz x de tamanho m × 1.
==================================
x = b ;
x(m) = b(m) / R(m,m);
for j = m-1:-1:1
x(j) = ( b(j) - R(j, j+1:m) * x(j+1:m) ) / R(j,j);
end
==================================
Notas de aula do Prof. Antonio Cândido Faleiros 9
x1 = b1 /r11
x2 = (b2 − r21 x1 ) /r22
x3 = (b3 − r31 x1 − r32 x2 ) /r3,3
10 Notas de aula do Prof. Antonio Cândido Faleiros
==================================
Entrada: Matrizes R e b.
Saída: Matriz x, solução dos sistema Rx = b.
==================================
x = b ;
x(1) = b(1) / R(1,1);
for j = 2:m
x(j) = ( b(j) - R(j, 1:j-1) * x(1:j-1) ) / R(j,j);
end
==================================
(a11 + ra21 )x1 + (a12 + ra22 )x2 + (a13 + ra23 )x1 = b1 + rb2
a21 x1 + a22 x2 + a23 x3 = b2 (1.3)
a31 x1 + a32 x2 + a33 x3 = b3
Isto significa que as soluções do sistema (1.2) são soluções do sistema (1.3) que foi obtido
do original a partir da transformação elementar O(l1 + rl2 ). Logo, as soluções de (1.3) são
soluções de (1.2) pois esta pode ser obtida daquela pela operação O(l1 − rl2 ). Concluímos
que os sistemas original e o transformado são equivalentes.
De modo semelhante se pode provar que as outras operações elementares transformam
um sistema em outro equivalente.
sistema, obtida ao acrescentar a coluna b à direita de A. Esta matriz será denotada por
[A b]. A realização de operações elementares sobre as equações é equivalente à realização
de operações elementares sobre as linhas da matriz completa.
Vamos escreve A → R quando for possível levar A em R efetuando operações ele-
mentares sobre as linhas de A. Se R for escalonada, diremos que ela é a forma escalonada
de A. Se R for escalonada reduzida, diremos que ela é a forma escalonada reduzida
de A. Pode-se provar que a forma escalonada reduzida de uma matriz é única.
O processo de Gauss para resolver um sistema Ax = b é descrito pelo algoritmo abaixo,
realizado sobre a matriz completa [A b].
Passo 1. Se A = 0, encerre o algoritmo. O sistema já é escalonado.
Passo 2. Percorra as colunas da matriz completa [A b] da esquerda para a direita,
localizando a primeira não nula.
Passo 3. Percorra esta coluna de cima para baixo, localizando seu primeiro elemento
não nulo. Seja p o valor deste elemento.
Passo 4. Permute esta linha com a primeira.
Passo 5. Multiplique a atual primeira linha por p−1 , fazendo com que o primeiro
elemento não nulo da primeira linha fique igual a 1. Este será o pivô da primeira linha.
A partir deste ponto, a primeira linha não sofrerá outras modificações.
Passo 6. Passe à segunda linha, tranformando-a na primeira da próxima etapa.
Passo 7. Repita os passos de 1 a 6 com todas as linhas restantes.
Com este algoritmo, partimos da matriz [A b] e chegamos à matriz [R c], onde R é a
forma escalonada de A. O sistema Rx = c é equivalente ao original.
Se existirem equações degeneradas incompatíveis no sistema Rx = c, então o sistema
Ax = b não tem solução.
Se todas as equações degeneradas de Rx = c forem compatíveis, o sistema Ax = b
tem solução. Exclua as equações degeneradas e use a substituição reversa para obter as
soluções do sistema euqivalente Rx = c. Estas soluções possuirão a forma
x = w0 + c1 v1 + · · · + cr vr
x + y − 2z = 0
2x + 2y − 3z = 2
3x − y + 2z = 12
Notas de aula do Prof. Antonio Cândido Faleiros 13
1. A é inversível.
Este corolário garante que AB = I é o bastante para garantir que A e B são inversíveis,
sendo uma a inversa da outra.
Os produtos
E(li ←→ lj )A , E(rli )A , E(li + rlj )A
realizam sobre A as operações elementares O(li ←→ lj ), O(rli ), e O(li + rlj ), respectiva-
mente.
O produto
0 0 1 a1 a2 a3 c1 c2 c3
E(l1 ↔ l3 )A = 0 1 0 b1 b2 b3 = b1 b2 b3
1 0 0 c1 c2 c3 a1 a2 a3
As matrizes elementares são inversíveis. A inversa de E(li + rlj ) é E(li − rlj ), a inversa
de E(li ↔ lj ) é ela mesma e, para r 6= 0, a inversa de E(rli ) é E((1/r)li ).
Há um teorema muito interessante relacionando matrizes inversíveis com matrizes
elementares.
Teorema 1.17 Uma matriz quadrada é inversível se e só se for igual a um produto de
matrizes elementares.
Prova. Se uma matriz quadrada for o produto de matrizes elementares, ela é inversível
pois cada matriz elementar é inversível.
Se A for inversível, então o teorema 1.12 garante que a forma escalonada reduzida de
A é a matriz identidade. Em consequência„ existem matrizes elementares E1 , E2 , . . . ,
Ek tais que Ek · · · E2 E1 A = I. Neste caso, A = E1−1 E2−1 · · · Ek−1 . Como as inversas de
matrizes elementares são elementares, segue que A é o produto de matrizes elementares.
¤
obtemos uma matriz onde os elementos da primeira linha abaixo da diagonal principal são
nulos. A matriz E1 não é elementar mas é o produto de duas matrizes elementares
1 0 0 1 0 0
E1 = −2 1 0 0 1 0 .
0 0 1 −3 0 1
Um fato notável desta inversa reside no fato de ser exatamente igual ao produto E2 E1 ,
onde os elementos abaixo da diagonal principal aparecem com os sinais trocados. Assim,
5 1 3
E2 E1 A = U = 0 3 2 .
0 0 5
para obter
5 1 3
U = E2 E1 A = 0 3 2 .
0 0 5
18 Notas de aula do Prof. Antonio Cândido Faleiros
obtemos
E5 E4 E3 U = E5 E4 E3 E2 E1 A = I
onde I é a matriz identidade. O produto E5 E4 E3 E2 E1 é a inversa procurada
32 2 7
75 75
− 75
A−1 = − 158 7
15
− 152
.
1 1 1
−5 −5 5
e realizamos operações elementares sobre linha até chegar a (I | A−1 ). Em lugar de aplicar
uma transformação elementar por vez, vamos aplicar um produto de transformações lin-
eares que agirão sobre toda uma coluna.
1 0 0 1 2 1 1 0 0 1 2 1 1 0 0
−1 1 0 1 3 4 0 1 0 = 0 1 3 −1 1 0
−2 0 1 2 7 12 0 0 1 0 3 10 −2 0 1
1 0 0 1 2 1 1 0 0 1 2 1 1 0 0
0 1 0 0 1 3 −1 1 0 = 0 1 3 −1 1 0
0 −3 1 0 3 10 −2 0 1 0 0 1 1 −3 1
1 0 −1 1 2 1 1 0 0 1 2 0 0 3 −1
0 1 −3 0 1 3 −1 1 0 = 0 1 0 −4 10 −3
0 0 1 0 0 1 1 −3 1 0 0 1 1 −3 1
1 −2 0 1 2 0 0 3 −1 1 0 0 8 −17 5
0 1 0 0 1 0 −4 10 −3 = 0 1 0 −4 10 −3
0 0 1 0 0 1 1 −3 1 0 0 1 1 −3 1
Logo, a inversa de A é
8 −17 5
−4 10 −3 .
1 −3 1
1.11 Fatoração LU
Multiplicando uma matriz A por matrizes elementares, podemos chegar a uma matriz U
triangular superior.
Para descrever o processo, vamos ampliar um pouco nosso conceito de matriz elemen-
tar e também denominar de elementar aquelas matrizes obtidas a partir da identidade
permitindo que os elementos de uma única coluna abaixo da diagonal principal sejam
diferentes de zero.
20 Notas de aula do Prof. Antonio Cândido Faleiros
Podemos usar essas matrizes elementares para zerar todos os elementos abaixo da
diagonal principal de uma coluna de uma matriz A.
Seja A uma matriz m×m. Sejam E1 , . . . , Em−1 matrizes elementares que, multiplicadas
à esquerda de A a levam numa matriz triangular superior U. Os elementos abaixo da
diagonal principal da primeira coluna de E1 A são nulos. Os elementos abaixo da diagonal
principal da primeira e segunda colunas de E2 E1 A são nulos e assim por diante. Este
procedimento resulta em
Ek · · · E1 A = U
onde U é triangular superior. A matriz
E = Ek · · · E1
é triangular inferior e os elementos da diagonal principal são todos iguais a 1. Sua inversa
L também é triangular inferior e os elementos da diagonal principal são todos iguais a 1.
Com isto, obtemos a fatoração
A = LU
onde U é uma matriz triangular superior e L é uma matriz triangular inferior inversível,
cujos elementos da diagonal principal são iguais a 1.
Efetuando o produto
1 0 0 1 2 0 1 2 0
E1 A = −2 1 0 2 1 5 = 0 −3 5
−4 0 1 4 −1 13 0 −9 13
obtemos uma matriz cujos elementos abaixo da diagonal principal da primeira coluna são
iguais a zero. Agora, efetuando o produto
1 0 0 1 2 0 1 2 0
E2 E1 A = 0 1 0 0 −3 5 = 0 −3 5
0 −3 1 0 −9 13 0 0 −2
obtemos a forma escalonada de A. Para chegar à decomposição LU, basta calcular a in-
versa L = E1−1 E2−2 . As matrizes E1 e E2 nas multiplicações acima são elementares
1 0 0 1 0 0
E1 = −2 1 0 e E2 = 0 1 0
−4 0 1 0 −3 1
Oberve um fato interessante: para obter as inversas de E1 e E2 , basta trocar os sinais dos
elementos não nulos abaixo da diagonal principal. Em seguida, efetuando o produto
1 0 0 1 0 0 1 0 0
L = E1−1 E2−1 = 2 1 0 0 1 0 = 2 1 0
4 0 1 0 3 1 4 3 1
percebemos outro fato fantástico: para obter o produto L, basta colocar na matriz iden-
tidade os elementos não nulos de E1−1 e E2−1 nos seus devidos lugares. Agora tem-se a
decomposição LU de A
1 0 0 1 2 0
A = 2 1 0 0 −3 5 .
4 3 1 0 0 −2
x x x x
0 0 x x
zerando os elementos abaixo da diagonal principal da segunda coluna. Finalmente, com
a terceira transformação,
x x x x
0 x x x
L3 L2 L1 A =
0 0 x
=U
x
0 0 0 x
é
1 0 0 0 1 3 2 0
2 1 0
0 0 1 1 1
A=
1
.
2 1 0 0 0 1 2
0 3 1 1 0 0 0 1
Notas de aula do Prof. Antonio Cândido Faleiros 23
As inversas de L1 , L2 e L3 são
1 0 0 0 1 0 0 0 1 0 0 0
2 1 0
0 0 1 0
0 0 1 0 0
, , ,
1 0 1 0 0 2 1 0 0 0 1 0
0 0 0 1 0 3 0 1 0 0 1 1
e podem ser obtidas de L1 , L2 e L3 trocando o sinal dos elementos não nulos abaixo da
diagonal principal. Ainda
1 0 0 0
2 1 0 0
L = L−1 −1 −1
1 L2 L3 =
1
2 1 0
0 3 1 1
xjk
λjk =
xkk
24 Notas de aula do Prof. Antonio Cândido Faleiros
Para o segundo golpe de sorte, argumentamos como segue. Considere, por exemplo, o
produto L−1 −1 ∗
k Lk+1 . Como ek λk+1 = 0, segue
L−1 −1 ∗ ∗ ∗ ∗
k Lk+1 = (I + λk ek )(I + λk+1 ek+1 ) = I + λk ek + λk+1 ek+1
Esta matriz é triangular inferior sendo obtida a partir da matriz identidade substituindo
os elementos abaixo da diagonal principal das coluna k e k + 1 pelos elementos de L−1 k e
L−1
k+1 inseridas em seus lugares usuais abaixo da diagonal. Quando tomamos o produto
de todas estas matrizes para formar L, obtemos
1
λ21 1
λ λ 1
L = L−1
1 L −1
2 · · · L−1
m−1 = 31 32
.. .. . . . .
. . . .
λm1 λm2 · · · λm,m−1 1
onde
xjk
λjk =
xkk
são os multiplicadores necessários para anular os elementos abaixo da diagonal da matriz
X = Ek−1 · · · E1 A.
Tais fatos geram o seguinte algoritmo
=====================================
Algoritmo da eliminação gaussiana sem pivotamento
=====================================
Entrada: A
Saída: U e L.
=====================================
U = A e L = I.
for k = 1:m-1
for j = k+1:m
L(j,k) = U(j,k)/U(k,k);
U(j,k:m) = U(j,k:m) - L(j,k) * U(k,k:m);
end
end
=====================================
Neste algoritmo podemos usar uma única matriz para armazenar L e U se abrirmos
mão de gravar a diagonal de L cujos elementos são unitário. Se a matriz A não for mais
necessária, podemos usá-la para gravar L e U.
Esta matriz pode ser obtida de A permutando os elementos das linhas 2 e 4 da coluna 1.
Fato interessantíssimo.
Este algoritmo pode ser expresso como um produto de matrizes. No pivotamento parcial,
em cada etapa, realiza-se uma permutação para posicionar o pivô da coluna no local
correto para, em seguida, aplicar uma matriz elementar para zerar os elementos abaixo
28 Notas de aula do Prof. Antonio Cândido Faleiros
da diagonal principal da coluna k. Este processo pode ser repetido coluna a coluna, até
transformar A numa matriz U triangular superior
Lm−1 Pm−1 · · · L2 P2 L1 P1 A = U.
Exemplo 1.27 Considere a matriz (exemplo copiado)
2 1 1 0
4 3 3 1
A= 8 7
.
9 5
6 7 9 8
Para o pivotamento parcial, permutamos a primeira com a terceira coluna calculando
P1 A =
0 0 1 0 2 1 1 0 8 7 9 5
0 1 0 0 4 3 3 1 4 3 3 1
.
1 0 0 0 8 7 9 5 = 2 1 1 0
0 0 0 1 6 7 9 8 6 7 9 8
Agora efetuamos o primeiro passo de eliminação: L1 P1 A =
1 0 0 0 8 7 9 5 8 7 9 5
−1 1 0 0 4 3 3 1 0 −1 − 32 − 32
21 2 .
− 0 1 0 2 1 1 0 = 0 −3 − 54 − 54
4 4
− 34 0 0 1 6 7 9 8 0 74 9
4
17
4
Em seguida, trocamos a segunda com a quarta linha: P2 L1 P1 A =
1 0 0 0 8 7 9 5 8 7 9 5
0 0 0 1 3 3
1 0 −2 −2 −2 0 4 7 9 17
= 4 4 .
0 0 1 0 0 − 34 − 54 − 54 0 − 34 − 54 − 54
0 1 0 0 0 74 9
4
17
4
0 − 12 − 32 − 32
Efetuamos a segunda eliminação: L2 P2 L1 P1 A =
1 0 0 0 8 7 9 5 8 7 9 5
0 1 0 0 0 7 9 17 0 7 9 17
4 4 4 = 4 4 4
0 3 1 0 0 − 34 − 54 − 54 0 0 −2 4 .
7 7 7
0 27 0 1 0 − 12 − 32 − 32 0 0 − 67 − 27
Agora permutamos a terceira linha com a quarta: P3 L2 P2 L1 P1 A =
1 0 0 0 8 7 9 5 8 7 9 5
0 1 0 0 0 7 9 17 0 7 9 17
4 4 4 = 4 4 4 .
0 0 0 1 0 0 − 27 74 0 0 − 67 − 27
0 0 1 0 0 0 − 67 − 27 0 0 − 27 74
Finalmente, efetuamos a última eliminação: L3 P3 L2 P2 L1 P1 A =
1 0 0 0 8 7 9 5 8 7 9 5
0 1 0 0 0 7 9 17 0 7 9 17
4 4 4 4 4 4 .
0 0 1 0 0 0 −6 −2 = 0 0 −6 −2
7 7 7 7
0 0 − 13 1 0 0 − 27 74 0 0 0 2
3
Notas de aula do Prof. Antonio Cândido Faleiros 29
L3 P3 L2 P2 L1 P1 A = U
onde acrescentamos algumas matrizes ao produto e foram colocadas entre parêntesis. Note
que elas são iguais à matriz identidade. Podemos associar este produto
onde
L̃3 = L3 , L̃ = P3 L2 P3 , L̃ = P3 P2 L1 P2 P3
são matrizes elementares obtidas de L3 , L2 , L1 permutando elementos abaixo da diagonal
principal.
Em geral, para uma matriz m × m, a fatoração fornecida pela eliminação Gaussiana
com pivotamento parcial pode ser escrita na forma
onde
−1 −1
L̃k = Pm−1 · · · Pk+1 Lk Pk+1 · · · Pm−1 .
O produto das matrizes L̃k é triangular inferior com elementos unitários na diagonal
principal e facilmente invertível. Basta trocar o sinal das entradas abaixo da diagonal,
como na eliminação Gaussiana sem pivotamento. Escrevendo
temos
P A = LU.
Qualquer matriz quadrada A, singular ou não, possui uma fatoração deste tipo, onde P
é uma matriz de permutação, L é uma matriz triangular inferior com elementos unitários
na diagonal principal e U é triangular superior. Esta fatoração é conhecida por fatoração
P LU de A.
Para obter a fatoração P LU de A, multiplique a matriz A por uma matriz de permu-
tação P e calcule a decomposição LU de A. Na prática, não é assim que se procede pois
não se conhece P a priori.
Vamos descrever um procedimento que justifica o algoritmo que vamos descrever
abaixo. Seja A uma matriz m × m e X = Ek Pk · · · E1 P1 A = Ẽk · · · Ẽ1 Pk · · · P1 A,
30 Notas de aula do Prof. Antonio Cândido Faleiros
onde Pi são matrizes de permutação que posicionam o pivô no lugar correto e Ẽi são
matrizes elementares que zeram as entradas abaixo da diagonal da coluna i de Pk · · · P1
A. Vamos escrever X = Ẽ à onde Ẽ = Ẽk · · · Ẽ1 e à = Pk · · · P1 A. Se k < m − 1, o
processo não terminou e X, em geral, não é triangular superior. A próxima etapa consiste
em aplicar uma permutação P que trocará uma linha i de X com sua linha k + 1 para
posicionar o pivô da coluna no local correto. Neste caso, i > k + 1. A inversa de P é P e
assim P P = I. Podemos usar este fato para escrever
=============================
U = A, L = I, P = I
for k = 1:m-1
Selecione na coluna k a linha i na qual |u(i,k)| eh maximo
Permute as linhas U(k,k:m) e U(i,k:m)
Permute as linhas L(k,1:k-1) e L(i,1:k-1)
Permute as linhas P(k,:) e P(i,:)
for j = k+1:m
L(j,k) = U(j,k) / U(k,k)
U(j,k:m) = U(j,k:m) - L(j,k)*U(k,k:m)
end
end
=============================
LU = A = AT = U T LT .
2 −1 0 1 0 0 2 −1 0
−1 2 −1 = −1/2 1 0 0 3/2 −1
0 −1 2 0 −2/3 1 0 0 4/3
2 0 0
Sendo D = L U = 0 3/2 0 obtemos a decomposição LDLT
−1 T
0 0 4/3
2 −1 0 1 0 0 2 0 0 1 −1/2 0
−1 2 −1 = −1/2 1 0 0 3/2 0 0 1 −2/3 .
0 −1 2 0 −2/3 1 0 0 4/3 0 0 1
No exemplo acima,
√ √
1 0 0 2 p0 0 p 2 p 0 0
M = −1/2 1 0 0 3/2 p0 = − 1/2 p3/2 p0
.
0 −2/3 1 0 0 4/3 0 − 2/3 4/3
A decomposição de Cholesky de A é
√ √ √
2 −1 0 2
√ √0 0 2 − 12√ 2 0√
−1 2 −1 = − 1 2 1 6 0 0 1
6 − 13√ 6 .
2 2 √ √ 2
0 −1 2 0 − 13 6 2
3
3 0 0 2
3
3
32 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 2
Espaço vetorial
1. Comutativa: v + w = w + v.
2. Associativa: (u + v) + w = u + (v + w).
33
34 Notas de aula do Prof. Antonio Cândido Faleiros
Em nosso curso, o corpo K será o corpo R dos números reais ou o corpo C dos números
complexos. Quando V for um espaço vetorial sobre o corpo dos números reais, diremos
que V é um espaço vetorial real. Quando V for um espaço vetorial sobre o corpo dos
números complexos, diremos que V é um espaço vetorial complexo.
Quando se diz que V é um espaço vetorial sobre o corpo K entenda-se que está
implícito a existência das operações de adição de vetores e multiplicação de um escalar
por um vetor. Quando o contexto permitir, omite-se a referência ao corpo K e se diz
apenas que V é um espaço vetorial. O espaço vetorial {0} que contém apenas o vetor
nulo é denominado de espaço vetorial trivial.
Exemplo 2.1 Seja Rn o conjunto de todas as ênuplas ordenadas (x1 , x2 , . . . , xn ) de
números reais. Duas ênuplas ordenadas (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) são iguais se
x1 = y1 , x2 = y2 , . . . , xn = yn . Define-se a operação de adição em Rn por
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
e a multiplicação de um número real por uma ênupla ordenada é definida por
α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ).
O Rn com as operações de adição de duas ênuplas ordenadas e multiplicação de um escalar
por uma ênupla é um espaço vetorial sobre os reais.
Exemplo 2.2 O conjunto Rm×n das matrizes m × n com elementos reais munido com as
operações de adição de matrizes e multiplicação de um número complexo por uma matriz
é um espaço vetorial sobre o corpo dos números reais. O zero deste espaço vetorial é a
matriz nula e o elemento oposto (inverso aditivo) de A = [aij ] é −A = [−aij ].
Exemplo 2.3 O conjunto das matrizes m por n com elementos complexos, que denotare-
mos por Cm×n , munido com as operações de adição de matrizes e multiplicação de um
número complexo por uma matriz é um espaço vetorial sobre o corpo dos números com-
plexos. O zero deste espaço vetorial é a matriz nula e o elemento oposto (inverso aditivo)
de A = [aij ] é −A = [−aij ].
Exemplo 2.4 O conjunto de todos os polinômios de grau menor ou igual a n, com coe-
ficientes reais, munido com as operações de adição de polinômios e multiplicação de um
número real por um polinômio, é um espaço vetorial sobre o corpo dos reais. O conjunto
dos polinômios de grau menor ou igual a n com coeficientes complexos com as operações
acima é um espaço vetorial sobre o corpo dos números complexos.
Exemplo 2.5 O conjunto de todos os polinômios com coeficientes reais, munido com as
operações de adição de polinômios e multiplicação de um número real por um polinômio,
é um espaço vetorial sobre o corpo dos reais. O conjunto de todos os polinômios com
coeficientes complexos com as operações acima é um espaço vetorial sobre o corpo dos
números complexos.
Exemplo 2.6 O conjunto C[a, b] = {f : [a, b] → R : f é contínua} com as operações de
adição de funções e multiplicação de um número real por uma função é um espaço vetorial
sobre R.
Notas de aula do Prof. Antonio Cândido Faleiros 35
Exemplo 2.7 O vetor (2, 3) do R2 é uma combinação linear dos vetores (1, 0) e (0, 1)
pois (2, 3) = 2(1, 0)+ 3(0, 1).
α1 v1 + · · · + αn vn = 0.
Exemplo 2.8 O conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores do R2 é linearmente
dependente pois
1(5, 7) − 5(1, 0) − 7(0, 1) = (0, 0).
O conjunto { (1, 2, 3), (0, 1, 1), (0, 0, 2) } de vetores do R3 é linearmente independente.
De fato, se α1 , α2 e α3 forem escalares tais que
então
α1 + 0α2 + 0α3 = 0
2α1 + α2 + 0α3 = 0
3α1 + α2 + 2α3 = 0
Todo conjunto {0, v1 , . . . vp } que contém o vetor nulo é linearmente dependente pois
1 · 0 + 0v1 + · · · + 0vp = 0.
36 Notas de aula do Prof. Antonio Cândido Faleiros
Observe que, a dependência linear do conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores
do R2 que se expressa por
implica na possibilidade de escrever (5, 7) como uma combinação linear dos vetores (1, 0)
e (0, 1)
(5, 7) = 5(1, 0) + 7(0, 1).
Esta igualdade também implica na dependência linear de S = { (5, 7), (1, 0), (0, 1) }. Tal
fato é enunciado de modo geral no próximo teorema.
α1 v1 + · · · + αn vn + 0w1 + · · · + 0wm = 0
Exemplo 2.11 O conjunto B = {(1, 2), (1, 0), (0, 1)} gera o R2 . Qualquer par ordenado
(x, y) pode ser decomposto nas combinações lineares
ou
(x, y) = x(1, 2) + 0(1, 0) + (y − 2x)(0, 1).
Neste exemplo, o modo de escrever (x, y) como combinação linear dos elementos de B não
é única.
Exemplo 2.12 O conjunto B = {(2, 1), (1, 0) } gera o R2 pois podemos escrever um par
ordenado (x, y) qualquer como combinação linear desses dois vetores
Neste exemplo, o modo de escrever (x, y) como combinação linear dos elementos de B é
única.
Que diferença existe entre os conjuntos geradores dos exemplos acima? O primeiro é
linearmente dependente e o segundo é linearmente dependente.
Uma base B = {v1 , . . . , vn } gera V. Assim, para cada vetor v em V existem escalares
α1 , . . . , αn tais que
v = α1 v1 + · · · + αn vn .
Os vetores α1 v1 , . . . , αn vn são denominados de componentes do vetor v na base B, os
escalares α1 , . . . , αn são as coordenadas de v na base B e a matriz coluna
[v]B = [α1 . . . αn ]T
é a matriz das coordenadas de v na base B.
Uma base ordenada B = {v1 , v2 , . . . , vn } é aquela em que se estabelece que v1 é o
seu primeiro elemento, que v2 é o seu segundo elemento, e assim por diante. A ordem em
que seus elementos são escritos é relevante.
Proposição 2.14 A matriz das coordenadas de um vetor numa base ordenada é única.
De ora em diante, uma base ordenada será chamada simplesmente de base. O contexto
indicará a necessidade de ser a base ordenada ou não.
Exemplo 2.16 O conjunto {1, x, x2 } é uma base do espaço vetorial dos polinômios de
grau menor ou igual a dois com coeficientes complexos.
Nem todo espaço vetorial possui uma base tal como se definiu acima. O espaço vetorial
de todos os polinômios com coeficientes complexos não possui base no sentido definido
neste texto. Não existe conjunto finito de polinômios que gera todos os demais. Todo
conjunto finito de polinômios tem um polinômio de grau máximo, que não seria capaz de
gerar os polinômios de grau superior ao polinômio de grau máximo do conjunto.
Todas as bases de um espaço vetorial possuem o mesmo número de elementos, como
provaremos em seguida. Precederemos o teorema principal por três lemas.
v = x1 v1 + x2 v2 + · · · + xn vn
= x1 (β 1 w + β 2 v2 + · · · + β n vn ) + x2 v2 + · · · + xn vn
= (x1 β 1 )w + (x1 β 2 + x2 )v2 + · · · + (x1 β n + xn )vn ,
k1 (α1 v1 + α2 v2 + · · · + αn vn ) + k2 v2 + · · · + kn vn = 0
ou
k1 α1 v1 + (k1 α2 + k2 )v2 + · · · + (k1 αn + kn )vn = 0
com k1 α1 6= 0, o que contraria o fato de {v1 , v2 , . . . , vn } ser base de V. Logo, k1 = 0
e a combinação linear k1 w+ k2 v2 + · · · + kn vn = 0 se reduz a k2 v2 + · · · + kn vn = 0. Da
independência linear do conjunto {v2 , . . . , vn }, obtemos k2 = · · · = kn = 0, provando a
independência linear de {w, v2 , . . . , vn } que, portanto, é base de V. ¤
Lema 2.18 Seja {v1 , . . . , vn } uma base com n elementos do espaço vetorial V. Todo
conjunto linearmente independente com n elementos é base de V.
w1 = c11 v1 + · · · + cn1 v1 .
Como w1 6= 0, pelo menos um dos coeficientes desta combinação linear é diferente de zero.
Podemos supor que c11 6= 0 (se o c11 fosse nulo, bastaria reordenar a base {v1 , v2 , . . . , vn }
de modo que, nesta nova ordem, c11 6= 0).
Pelo lema anterior, {w1 , v2 , . . . , vn } é base e podemos escrever
Os coeficientes c22 , . . . , cn2 não podem ser todos nulos. De fato, se todos eles fossem nulos,
então w2 = c12 w1 , o que contraria a hipótese de o conjunto {w1 , . . . , wn } ser linearmente
40 Notas de aula do Prof. Antonio Cândido Faleiros
independente. Assim, pelo menos um dos coeficientes c22 , . . . , cn2 não é nulo. Como
antes, podemos supor, sem perda de generalidade, que c22 6= 0.
Pelo lema anterior, {w1 , w2 , v3 , . . . , vn } é base de V.
Prosseguindo com este raciocínio, substituímos todos os elementos da base {v1 , . . . ,
vn } por w1 , w2 , . . . , wn , provando que {w1 , w2 , . . . , wn } é base. ¤
Lema 2.19 Se um espaço vetorial V possuir uma base com n elementos, então todo
conjunto de vetores em V com mais de n elementos é linearmente dependente.
Teorema 2.20 Se um espaço vetorial V possuir uma base com n elementos, todas as
outras bases deste espaço vetorial têm o mesmo número de elementos.
Prova. De fato, como todo conjunto com mais do que n elementos é linearmente
dependente, não há base com mais do que n elementos.
Seja B1 a base com n elementos. Se existisse alguma base B2 com k elementos e k <
n, pelo lema anterior, a base B1 seria linearmente dependente, possibilidade que se exclui
pela definição de base. Logo não existe base com menos do que n elementos. ¤
Este teorema garante que todas as bases de um espaço vetorial possui o mesmo número
de elementos o que justifica a definição que segue.
Definição 2.21 Se um espaço vetorial possui uma base, diremos que ele possui dimen-
são finita e que o número de elementos das bases é a sua dimensão. Por definição, a
dimensão do espaço vetorial trivial, aquele que contém apenas o vetor nulo, é zero.
A matriz
p11 p12 · · · p1n
p21 p22 · · · p2n
M12 = .. .. . . ..
. . . .
pn1 pn2 · · · pnn
é chamada de matriz de mudança de base, mais especificamente, matriz de mudança
da base B1 para a base B2 . Observe que as coordenadas do desenvolvimento de v1 na
base B1 formam a primeira coluna, as coordenadas do desenvolvimento de v2 na base B1
formam a primeira coluna,
Sendo B3 = {w1 , . . . , wn } uma terceira base de V, podemos escrever os vetores de B3
como combinações lineares dos elementos da base B2 . Usando o símbolo de somatório,
X
n
wj = qij vi
i=1
provamos a identidade
M13 = M12 M23 .
Quando B3 = B1 , a matriz M13 é a identidade I e M23 = M21 . Da igualdade acima segue
M12 M21 = I,
mostrando que as matrizes de mudança de base são inversíveis e que a inversa de M12 é
M21 .
Sejam i e j inteiros do conjunto {1, 2, . . . , n}. O delta de Kronecker δ ij , é um
conjunto de n2 números definidos do seguinte modo: δ ij = 1 quando i = j e δ ij = 0
quando i 6= j.
Observe que o elemento da linha i coluna j da matriz identidade I de ordem n × n é
exatamente δ ij e podemos usar o delta de Kronecker para escrever I = [δ ij ].
As igualdades matriciais
M12 M21 = I e M21 M12 = I
42 Notas de aula do Prof. Antonio Cândido Faleiros
Mudança de coordenadas
Teorema 2.22 Sejam B1 e B2 duas bases do espaço vetorial V. Sejam
[u]1 a matriz das coordenadas de u na base B1 ,
[u]2 a matriz das coordenadas de u na base B2 e
M12 a matriz de mudança da base B1 para a base B2 .
Então
[u]1 = M12 [u]2
e
X
n
wj = pij vi .
i=1
Portanto,
X X X
u = yj wj = yj pij vi
j j i
à !
X X
= pij yj vi .
i j
P
Como u = i xi vi , segue da unicidade da decomposição de um vetor nos elementos da
base que X
xi = pij yj
j
¤
Notas de aula do Prof. Antonio Cândido Faleiros 43
Um subespaço vetorial sempre contém o vetor nulo. De fato, sendo 0 o escalar nulo,
para todo vetor v do subespaço, 0v é o vetor nulo e, por definição, pertence ao subespaço.
Sejam W1 e W2 subespaços vetoriais de um espaço vetorial V. A soma dos subespaços
W1 + W2 , definida por
W1 + W2 = {w1 + w2 : w1 ∈ W1 e w2 ∈ W2 }
W1 ∩ W2 = {w : w ∈ W1 e w ∈ W2 }
W1 ∪ W2 = {w ∈ V : w ∈ W1 ou w ∈ W2 }
Vamos descrever um processo para determinar uma base para o espaço gerado por S no
qual lançamos mão de alguns fatos para nos auxiliar nesta tarefa. Vamos enumerá-los
abaixo.
Os fatos enumerados acima nos permitem usar o método da eliminação de Gauss para
determinar uma base para o espaço gerado por S : Construa a matriz cujas linhas são
os elementos de w1 , w2 , . . . , wk , como acima e obtenha sua forma escalonada usando o
método da eliminação de Gauss. As linhas não nulas da forma escalonada desta matriz
r11 r12 · · · r1n
0 r22 · · · r2n
R= 0 0 · · · r
3n
.. .. . . ..
. . . .
w1 = β 11 v1 + β 12 v2 + · · · + β 1n vn
w2 = β 21 v1 + β 22 v2 + · · · + β 2n vn
···
wk = β k1 v1 + β k2 v2 + · · · + β kn vn
formar a matriz
β 11 β 12 · · · β 1n
β 21 β 22 · · · β 2n
.. .. ... ..
. . .
β k1 β k2 · · · β kn
e proceder como no caso em que o espaço vetorial é o Cn , obtendo, obter sua forma
escalonada
r11 r12 · · · r1n
0 r22 · · · r2n
R= 0 0 · · · r
3n
.. .. . . .
. . . ..
Os vetores não nulos obtidos na forma escalonada
Exemplo 2.27 Vamos determinar uma base do subespaço vetorial do R5 gerado por
Construímos a matriz
1 2 2 −3 −4
3 8 0 2 8
1 2 2 −1 0
−1 −2 8 8 8
2 6 3 5 9
e a escalonamos
1 0 0 0 0 1 2 2 −3 −4 1 2 2 −3 −4
−3 1 0 0 0 3 8
8 0 2 0 2 −6 11 20
−1 0 1 0 0 1 2 2 −1 0 4
= 0 0 0 2
1 0 0 1 0 −1 −2 8 8 8 0 0 10 5 4
−2 0 0 0 1 2 6 3 5 9 0 2 −1 11 17
1 0 0 0 0 1 2 2 −3 −4 1 2 2 −3 −4
0 1 0 0 0 0 2 −6 11 20 0 2 −6 11 20
0 0 1 0 0 0 0 0 2 4 = 0 0 0 2 4
0 0 0 1 0 0 0 10 5 4 0 0 10 5 4
0 −1 0 0 1 0 2 −1 11 17 0 0 5 0 −3
1 0 0 0 0 1 2 2 −3 −4 1 2 2 −3 −4
0 1 0 0 0 0 2 −6 11 20 0 2 −6 11 20
0 0 0 0 1 0 0 0 2 4 0 −3
= 0 0 5
0 0 0 1 0 0 0 10 5 4 0 0 10 5 4
0 0 1 0 0 0 0 5 0 −3 0 0 0 2 4
1 0 0 0 0 1 2 2 −3 −4 1 2 2 −3 −4
0 1 0 0 0 0 2 −6 11 20 0 2 −6 11 20
0 0 1 0 0 0 0 5 0 −3 0 −3
= 0 0 5
0 0 −2 1 0 0 0 10 5 4 0 0 0 5 10
0 0 0 0 1 0 0 0 2 4 0 0 0 2 4
1 0 0 0 0 1 2 2 −3 −4 1 2 2 −3 −4
0 1 0 0
0 0 2 −6 11 20 0 2 −6 11 20
0 0 1 0
0 0 0 5
0 −3 = 0 0 5 0 −3
0 0 0 1/5 0 0 0 0 5 10 0 0 0 1 2
0 0 0 −2/5 1 0 0 0 2 4 0 0 0 0 0
Notas de aula do Prof. Antonio Cândido Faleiros 47
Transformação linear
Neste capítulo consideraremos que os espaços vetoriais estão definidos em um mesmo corpo
K. Nos exemplos, K será o corpo dos números reais ou o corpo dos números complexos.
Sejam V e W dois espaços vetoriais sobre um mesmo corpo K. Uma função L : V → W
é uma transformação linear se, para todo par de vetores v, w em V e todo escalar α
do corpo K,
T ◦ L(v) = T (L(v)).
49
50 Notas de aula do Prof. Antonio Cândido Faleiros
A partir desta fórmula podemos afirmar que quando L for linear e {v1 , . . . , vn } for
base de V, o conhecimento dos vetores w1 = L(v1 ), . . . , wn = L(vn ) é suficiente para
calcular o valor de L em qualquer vetor v. Basta decompor v em uma combinação linear
dos vetores da base
v = x1 v1 + · · · + xn vn
e calcular
L(x1 , x2 , x3 ) = L(x1 e1 + x2 e2 + x3 e3 )
= x1 L(e1 ) + x2 L(e2 ) + x3 L(e3 )
= 5x1 + 7x2 + 11x3 .
L(x1 , x2 , x3 ) = L(x1 e1 + x2 e2 + x3 e3 )
= x1 L(e1 ) + x2 L(e2 ) + x3 L(e3 )
= a1 x1 + a2 x2 + a3 x3 .
ou
L(x1 , . . . , xn ) = a1 x1 + · · · + an xn .
Esta é a forma geral de um funcional linear do Rn em R.
de R2 em R3 . Se definirmos
então
L(x1 , x2 ) = ( L1 (x1 , x2 ), L2 (x1 , x2 ), L3 (x1 , x2 ) ).
Baseados neste exemplo, vemos que, se L é uma transformação linear do Rn em Rm , para
qualquer x no Rn , tem-se
onde L1 (x), . . . , Lm (x) são números reais, dependentes de x. Vamos mostrar que L1 , . . . ,
Lm são funcionais lineares de Rn em R. De fato, sendo α e β escalares e x, y ênuplas
ordenadas, então
L(αx + βy) = αLx + βLy
e assim,
L(x, y) = (2x − y, x + y, y)
de R2 em R3 é linear. A transformação
de R2 em R5 é linear.
52 Notas de aula do Prof. Antonio Cândido Faleiros
ker L = {v ∈ V : Lv = 0}
Im L = {Lv : v ∈ V }
L(x, y, z) = (x + z, 2x + y + z, x + 2y − z).
L(x, y, z) = (x + z, 2x + y + z, x + 2y − z) = (0, 0, 0)
x+z = 0
2x + y + z = 0
x + 2y − z = 0
cuja solução x = −z e y = z pode ser obtida pelo método da eliminação de Gauss. Assim,
L(x, y, z) = (x + z, 2x + y + z, x + 2y − z)
= x(1, 2, 1) + y(0, 1, 2) + z(1, 1, −1)
mostrando que todo elemento da imagem de L é uma combinação linear dos vetores (1, 2,
1), (0, 1, 2) e (1, 1, −1). Para determinar uma base do espaço gerado usamos o processo
de escalonamento. Construímos a matriz
1 2 1
0 1 2
1 1 −1
cujas linhas são os elementos dos vetores que geram o subespaço. Usando operações
elementares sobre as linhas chegamos a
1 2 1 1 2 1 1 2 1
0 1 2 l3 =l→ 3 −l1
0 1 2 l3 =l3 −l2
→ 0 1 2
1 1 −1 0 −1 −2 0 0 0
Notas de aula do Prof. Antonio Cândido Faleiros 53
(1, 2, 1) , (0, 1, 2)
Inicialmente, observamos que nenhum dos vetores L(vp+1 ), . . . , L(vn ) é nulo. Se fosse, o
vetor correspondente pertenceria ao núcleo de L e B seria linearmente dependente, o que
não é o caso pois é base de V.
Provemos agora que {L(vp+1 ), . . . , L(vn )} é base da Im (L).
v = x1 v1 + · · · + xp vp + xp+1 vp+1 + · · · + xn vn
de onde segue
kp+1 vp+1 + · · · + kn vn = k1 v1 + · · · + kp vp
ou
k1 v1 + · · · + kp vp − kp+1 vp+1 − · · · − kn vn = 0
onde pelo menos um dos ki , com i = 1, . . . , p, diferente de zero, o que vai contraria a
hipótese de B ser base de V.
Das partes 1 e 2 concluímos que {Lvp+1 , . . . , Lvn } é base da Im (L).
Como {v1 , . . . , vp } é base do ker(L) e {Lvp+1 , . . . , Lvn } é base da Im (L), então
Estas expressões podem ser escritas de modo taquigráfico usando somatório: para j = 1,
2, . . . , n
X
m
Lvj = aij wi .
i=1
Notas de aula do Prof. Antonio Cândido Faleiros 55
A matriz m por n
a11 a12 · · · a1n
a21 a22 · · · a2n
[L]12 = .. .. ... ..
. . .
am1 am2 · · · amn
é denominada de matriz de L nas bases B1 e B2 . Ainda se diz que [L]12 é a representação
matricial de L nas bases B1 e B2 .
Quando W = V e B2 = B1 , a matriz [L]12 é denotada por [L]1 e denominada de matriz
de L na base B1 . Também se diz que [L]1 é a representação matricial de L na base B1 .
Para simplificar a notação, podemos escrever [L] em lugar de [L]12 ou [L]1 , conforme o
caso, sempre que o contexto for claro quanto às bases envolvidas.
Teorema 3.7 Sejam B1 e B2 bases dos espaços vetoriais V e W, respectivamente. Seja
L : V → W uma transformação linear e v um vetor de V. Se [v]1 for a matriz de v na
base B1 , [Lv]2 a matriz de Lv na base B2 e [L]12 for ma matriz de Lv nas bases B1 e B2
então
[Lv]2 = [L]12 [v]1 .
Prova. Sejam B1 = {v1 , . . . , vn } e B2 = {w1 , . . . , wm } as bases de V e W. Se
X
n X
m X
m
v= xj vj , Lv = yi wi , Lvj = aij wi ,
j=1 i=1 i=1
então [v]1 = [x1 , . . . , xn ]T , [Lv]2 = [y1 , . . . , ym ]T são matrizes coluna e [L]12 = [aij ] é
uma matriz retangular m × n.
Por um lado,
à !
X X
Lv = L xj vj = xj L (vj )
j j
à !
X X X X
= xj aij wi = aij xj wi
j i i j
e por outro, X
Lv = yi wi .
i
Da unicidade da decomposição de um vetor nos elementos da base,
Xn
yi = aij xj
j=1
então [L1 ]12 = [aij ], [L2 ]23 = [bki ] e [L2 L1 ]13 = [ckj ]. Como
Ãm !
X Xm
L2 L1 vj = L2 aij wi = aij L2 (wi )
i=1 i=1
p
Ãm
p
!
X
m X X X
= aij bki uk = bki aij uk
i=1 k=1 k=1 i=1
segue
X
m
ckj = bki aij
i=1
X
n X
n
Lvj = aij vi , e Lwj = bij wi .
i=1 i=1
Por um lado,
à !
X X X X X
Lwj = bkj wk = bkj mik vi = mik bkj vi
k k i i k
e por outro,
à !
X X X X
Lwj = L mkj vk = mkj L (vk ) = mkj aik vi
k k k i
à !
X X
= aik mkj vi .
i k
Definição 3.10 Duas matrizes A e B são semelhantes se existir uma matriz inversível
P tal que
B = P −1 AP.
3.2 Isomorfismo
Sejam V e W dois espaços vetoriais sobre o mesmo corpo. Uma tranformação L : V →
W é injetora se, para todo v1 6= v2 em V, então L(v1 ) 6= L(v2 ). De forma equivalente, L
é injetora se para todo v1 e v2 em V com L(v1 ) = L(v2 ) tem-se v1 = v2 .
58 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 3.12 Dois espaços vetoriais V e W sobre um mesmo corpo e de dimensão finita
são isomorfos se e só se dim V = dim W.
s = s1 w1 + · · · + sn wn = s1 Lv1 + · · · + sn Lvn
= L(s1 v1 + · · · + sn vn ),
L(x1 v1 + · · · + xn vn ) = L(y1 v1 + · · · + yn vn )
Notas de aula do Prof. Antonio Cândido Faleiros 59
ou seja,
x1 w1 + · · · + xn wn = y1 w1 + · · · + yn wn .
Da independência linear de B2 , concluímos que x1 = y1 , . . . , xn = yn , de onde resulta
a igualdade x = y, provando que L é injetora.
Teorema 3.13 Sejam V e W espaços vetoriais sobre o mesmo corpo, ambos com a
mesma dimensão e L : V → W linear. São equivalentes:
1. L é um isomorfismo.
2. L é sobrejetora.
3. L é injetora.
Prova. Provemos que (2) implica em (3). Seja L sobrejetora e {w1 , . . . , wn } uma
base de W. Da sobrejetividade de L, existe um conjunto de vetores B = {v1 , . . . , vn } em
V tais que Lvi = wi , para i = 1, . . . , n. O conjunto B é base de V. Sejam x = x1 v1 + · · · +
xn vn e y = y1 v1 + · · · + yn vn dois vetores de V tais que Lx = Ly. Desta igualdade segue
x1 w1 + · · · + xn wn = y1 w1 + · · · + yn wn . A independência linear de {w1 , . . . , wn } implica
em x1 = y1 , . . . , xn = yn , ou x = y, provando a injetividade de L.
Provemos que (3) implica em (4). Se L é injetora e L(v) = 0, como L(0) = 0, segue
que v = 0, provando que (3) implica em (4).
Provemos que (4) implica em (2). Sendo ker(L) = {0} e {v1 , . . . , vn } uma base de V,
então {Lv1 , . . . , Lvn } é uma base de W. De fato, se k1 , . . . , kn forem escalares tais que
k1 Lv1 + · · · + kn Lvn = 0, então L(k1 v1 + · · · + kn vn ) = 0 e, como o núcleo de L contém
apenas o zero, k1 v1 + · · · + kn vn = 0. A independência linear dos vi acarreta em k1 = · · · =
kn = 0, provando que conjunto {Lv1 , . . . , Lvn } é linearmente independente e, portanto,
base de W. Logo, L é sobrejetor. ¤
Podemos afirmar que os isomorfismos são os mensageiros que trazem e levam as pro-
priedades de um espaço vetorial a outro. Se dois espaços vetoriais vetoriais forem iso-
morfos, todas as propriedades de um podem ser levados ao outro pelo isomorfismo. Isto
significa que, ao estudar as propriedades de um deles, teremos estudado as propriedades
do outro.
Por esta razão, ao estudar um espaço vetorial real ou complexo V de dimensão n, os
protótipos são o Rn e o Cn , respectivamente. Se soubermos como proceder com um dos
dois, saberemos como proceder com V. Se{v1 , . . . , vn } for uma base de V, basta usar a
correspondência
x1 v1 + · · · + xn vn ↔ (x1 , . . . , xn )
definida pelo isomorfismo estabelecido no teorema anterior.
Neste capítulo trabalharemos apenas com espaços vetoriais sobre o corpo dos números
reais ou sobre o corpo dos números complexos.
Das propriedades (2) e (3) se conclui que o produto interno é liner na primeira variável
hav + bw, zi = a hv, zi + b hw, zi .
Essas propriedades se extrai a linearidade do produto interno em relação à primeira e à
segunda variável. Tanto é que, se v1 , . . . , vp e w1 , . . . , wq forem vetores de V e ai , bj
forem números reais, então
* p q
+ p q
X X X X
ai vi , bj wj = ai bj hvi , wj i .
i=1 j=1 i=1 j=1
61
62 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 4.2 Seja P2 (R) o conjunto dos polinômios com coeficientes reais e grau menor
ou igual a 2. Neste espaço vetorial,
®
a0 + a1 x + a2 x2 , b0 + b1 x + b2 x2 = a0 b0 + a1 b1 + a2 b2
é um produto interno e
Z 1
hf (x), g(x)i = f (x)g(x)dx
−1
é outro.
Exemplo 4.3 Seja C [a, b] o conjunto das funções reais de variável real, definidas e con-
tínuas no intervalo [a, b]. Com as operações de adição de funções e a multiplicação de um
número real por uma função, C [a, b] é um espaço vetorial sobre o corpo de números reais.
Nele Z b
hf, gi = f (t)g(t) dt
a
é um produto interno.
e
(a + bi) × (c + di) = (ac − bd) + (ad + bc)i.
O sinal de multiplicação pode ser omitido e tanto (a + bi)× (c + di) quanto (a + bi) (c + di)
possuem o mesmo significado. Com a notação introduzida que identifica o par (a, b) com
a + bi, os números complexos a + bi e c + di são iguais se a = c e b = d e se escreve a + bi =
c + di para expressar esta igualdade. O número complexo z1 + z2 é a soma de z1 e z2 . O
número complexo z1 × z2 é o produto de z1 e z2 .
O conjunto de todos os números complexos com as operações de adição e multiplicação
é um corpo, denotado por C e denominado corpo dos números complexos. O elemento
neutro da adição é o 0 = 0+ 0i e o elemento neutro da multiplicação é o 1 = 1+ 0i. O 0
é denominado zero e 1 é denominado de unidade. Se a+ bi for um número complexo,
então seu inverso aditivo ou seu oposto, é −a + ( −b)i e seu inverso multiplicativo
ou seu inverso, é µ ¶
a b
(a + bi) − i .
a2 + b2 a2 + b2
que existe apenas quando a + bi for diferente de zero. O oposto de z é denotado por −z
e o inverso de z é denotado por z −1 .
Definimos a subtração z1 − z2 de dois números complexos z1 e z2 por
z1 − z2 = z1 + (−z2 )
z + w = z̄ + w̄
zw = z̄ w̄
z −1 = z̄ −1 .
64 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 4.7 Seja V um espaço vetorial sobre C, com dimensão finita e produto interno.
Dado um funcional linear f : V → C. Então existe um vetor w em V tal que f (v) =
hw, vi para todo v em V.
O vetor w tal que f (v) = hw, vi para todo v em V pertence ao complemento ortogonal
do ker(f ) uma vez que f (v) = 0 implica em hw, vi = 0.
Toda transformação linear L de um espaço vetorial complexo V de dimensão n em
Cm é da forma
L(v) = ( f1 (v), . . . , fm (v) ),
onde fi é um funcional linear em V. Dado um produto interno em V, existem w1 , . . . , wm
em V tais que
L(v) = ( hw1 , vi , . . . , hwm , vi ),
66 Notas de aula do Prof. Antonio Cândido Faleiros
4.4 Norma
Seja V um espaço vetorial real ou complexo e v um vetor de V. A norma de v é definida
por p
kvk = hv, vi.
Se kvk = 1, diz-se que o vetor é unitário.
Para todo v e w em V e todo escalar a, as igualdades abaixo se verificam.
1. kvk ≥ 0 e kvk = 0 se e só se v = 0.
Teorema 4.8 Seja V um espaço vetorial sobre o corpo C dos números complexos onde
se definiu um produto interno. Sejam v e w dois vetores em V. Vale a desigualdade de
Cauchy-Schwarz
|hv, wi| ≤ kvk kwk .
Como este polinômio real é maior ou igual a zero para todo λ, seu discriminante ∆ =
4 |hv, wi|2 − 4 kvk2 kwk2 é menor ou igual a zero, ou seja,
¤
Notas de aula do Prof. Antonio Cândido Faleiros 67
Sendo as bases ortonormais, aij = hvi , wj i = āji e bij = hwi , vj i = hvj , wi i = āji , mostrando
∗
que M12 = M12 e M12 −1
= M12∗
.¤
hw1 , v2 i
β 12 = .
hw1 , w1 i
Em seguida, considere
w3 = v3 − β 13 w1 − β 23 w3
e determine β 13 e β 23 para tornar w3 ortogonal a w1 e w2 . Das condições de ortogonalidade
hw1 , w3 i = 0 e hw2 , w3 i = 0 calcule
hw1 , v3 i hw2 , v3 i
β 13 = e β 23 = .
hw1 , w1 i hw2 , w2 i
w1 = v1 e q1 = w1 / kw1 k
w2 = v2 − r12 q1 e q2 = w2 / kw2 k ,
onde
rik = hqi , vk i ,
para k = 2, . . . , n e i = 1, . . . , k − 1.
70 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 4.12 Os ternos ordenados (1, 0, 0), (0, 3/5, 4/5), (0, 4/5, −3/5) formam uma
base ortonormal no espaço vetorial Cn em relação ao produto interno
Exemplo 4.14 Considere o espaço vetorial sobre C dos polinômios com coeficientes com-
plexos de grau menor ou igual a 3, com o produto interno
Z 1
hf, gi = f (x)g(x)dx.
−1
O conjunto {1, x, x2 , x3 } é uma base não ortogonal deste espaço vetorial. A base ortogonal
obtida a partir dela, usando o procedimento de Gram-Schmidt, é
{ 1, x, x2 − 1/3, x3 − (3/5)x }.
Este procedimento pode ser estendido para o espaço vetorial dos polinômios de grau
menor ou igual a n.
Denotemos por p0 (x), p1 (x), p2 (x), . . . os polinômios obtidos de 1, x, x2 , . . . pelo
processo de ortogonalização de Gram-Schmidt, usando o produto interno definido acima.
Os polinômios Lk (x) = pk (x)/pk (1) continuam ortogonais dois a dois e são denominados
de polinômios de Legendre. Os quatro primeiros são
3 1 5 3
L0 (x) = 1, L1 (x) = x, L2 (x) = x2 − , L3 (x) = x3 − x.
2 2 2 2
Tanto {1, x, x2 , x3 } quanto {L0 (x), L1 (x), L2 (x), L3 (x)} são bases do espaço dos polinômios
de grau menor ou igual a 3. A segunda possui a vantagem de ser ortogonal, o que a torna
mais adequada para determinados cálculos. Os métodos espectrais usam polinômios ortog-
onais para resolver equações diferenciais parciais tanto analítica quanto numericamente.
4.6 Decomposição QR
Vamos analisar o caso especial do espaço vetorial complexo Cn×1 com o produto interno
hx, yi = x∗ y.
Seja A = [v1 , . . . , vn ] uma matriz m × n cujo coluna k é vk . Um modo interessante
de olhar para o produto Ax, onde x = [x1 , . . . , xn ]T é uma matriz em Cm×1 consiste em
escrever
Ax = x1 v1 + · · · + xn vn
Notas de aula do Prof. Antonio Cândido Faleiros 71
b = x1 v1 + · · · + xn vn
que pode ser interpretada do seguinte modo: x é a matriz de b na base formada pelas
colunas de A. Se as colunas de A forem linearmente independentese b estiver na imagem
de A, a decomposição é única.
Ainda uma última observação, sendo A = [v1 , . . . , vn ], então
v1∗
A∗ = ...
vn∗
e
v1∗ v1 v1∗ v2 v1∗ vn
v2∗ v1 v2∗ v2 v2∗ vn
A∗ A =
= [vi∗ vj ] .
vn∗ v1 vn∗ v2 ∗
vn vn
Se {q1 , . . . , qn } for uma base ortonormal em Cn×1 , então qi∗ qj = δ ij . A matriz quadrada
Q = [q1 , . . . , qn ], cuja coluna k é qk , é unitária pois Q∗ Q = [qi∗ qj ] = [δ ij ] = I. Conclusão,
quando as colunas de uma matriz quadrada formarem uma base ortonormal de Cn×1 , ela
é unitária.
Vamos iniciar com um caso particular, em que n = 3. Seja {v1 , v2 , v3 } uma base de
3×1
C e {q1 , q2 , q3 } a base ortonormal de C3×1 obtida pelo processo de ortogonalização
de Gram-Schmidt. Seja A = [v1 , v2 , v3 ] a matriz cuja coluna k é vk e Q = [q1 , q2 , q3 ] a
matriz cuja coluna k é qk . Sabemos, pelo desenvolvimento da seção anterior que
v1 = w1
v2 = r12 q1 + w2
v3 = r13 q1 + r23 q2 + w3
v1 = r11 q1
v2 = r12 q1 + r22 q2
v3 = r13 q1 + r23 q2 + r33 q3
v1 = r11 q1
v2 = r12 q1 + r22 q2
v3 = r13 q1 + r23 q2 + r33 q3
···
hq1 i = hv1 i ,
hq1 , q2 i = hv1 , v2 i ,
hq1 , q2 , q3 i = hv1 , v2 , v3 i ,
...
Notas de aula do Prof. Antonio Cândido Faleiros 73
A = QR
2. Determine y = Q∗ b.
Quando isto ocorre, escolhemos um vetor unitário qj , ortogonal aos vetores q1 , . . . , qj−1 ,
obtendo um conjunto ortonormal {q1 , . . . , qj−1 , qj }.
Vejamos um exemplo em que A = [v1 , v2 , v3 , v4 ]. Suponha que v1 e v2 são linearmente
independentes. Usando o método de ortogonalização de Gram-Schmidt, calculamos
v1 = r11 q1
v2 = r12 q1 + r22 q2
w3 = v3 − r13 q1 − r23 q2 = 0
e
v3 = r13 q1 + r23 q2
Daí, escolhe-se de modo arbitrário um q3 unitário, ortogonal a q1 e a q2 . Com esta escolha,
{q1 , q2 , q3 } é ortonormal e o espaço que ele gera contém o espaço gerado por {v1 , v2 , v3 }.
Se v4 não pertencer ao espaço gerado por {q1 , q2 , q3 }, Calcula-se
1
q4 = (v4 − r14 q1 − r24 q2 − r34 q3 )
r44
quando então
r11 r12 r13 r14
0 r22 r23 r24
[v1 , v2 , v3 , v4 ] = [q1 , q2 , q3 , q4 ]
0
0 0 r34
0 0 0 r44
onde se observa que a matriz da direita é triangular superior. Note-se que o espaço gerado
por {q1 , q2 , q3 , q4 } contém o espaço gerado por {v1 , v2 , v3 , v4 }.
No caso genérico, este procedimento continua, até obter as matrizes Q̂ e R̂. As colunas
da matriz Q̂ = [q1 , . . . , qn ], de ordem m por n, são vetores ortogonais entre si e possuem
módulo unitário. A matriz R̂, de ordem n por n, é triangular superior. Para estas matrizes,
A = Q̂R̂.
0 2 0
√ √ √ √ √ √ √
1/ 2 1/√22 2/√33 3/ √3 2 1/√ 2 3/√ 2
0 2/ √22 4/ √33 −3/√3
é √ 0 1/ 22 3/√22
1/ 2 −1/ 22 −2/ 33 −3/ 3 0 0 6/ 33
√ √
0 4/ 22 −3/ 33 0 0 0 0
Exemplo 4.18 A decomposição QR de
1 1 2
0 1 1
1 0 1
0 0 0
76 Notas de aula do Prof. Antonio Cândido Faleiros
√ √ √ √ √ √
1/ 2 1/√6 1/ √3 0 2 1/√2 3/√2
0 2/ √6 −1√3 0
é √ 0 3/ 6 3/ 6
1/ 2 −1/ 6 −1 3 0 0 0 0
0 0 0 1 0 0 0
é A = QR, onde
√ √ √ √ √ √ √
1/ 2 1/√6 1/ √3 2 1/√2 3/√2 3/ √2
Q = 0√ 2/ √6 −1/√3 e R = 0 3/ 6 3/ 6 −1/√6 .
1/ 2 −1/ 6 −1/ 3 0 0 0 −4/ 3
Capítulo 5
Soma de subespaços
V1 + · · · + Vk = { v1 + · · · + vk : vi ∈ Vi para i = 1, . . . , k }
o que prova o teorema para este caso particular. Do mesmo modo se prova que o teorema
vale quando W está contido em V.
Vamos agora tratar o caso em que V ∩ W é diferente de V e de W. Seja B1 = {u1 , . . . ,
up } uma base de V ∩ W. Vamos completá-la de modo que B2 = {u1 , . . . , up , v1 , . . . , vq }
seja base de V e B3 = {u1 , . . . , up , w1 , . . . , wr } seja base de W. O conjunto B4 = {u1 ,
. . . , up , v1 , . . . , vq , w1 , . . . , wr } gera V + W e, se for linearmente independente, será base
de V + W. Neste caso,
dim(V + W ) = p + q + r = (q + p) + (r + p) − p
= dim(V ) + dim(W ) − dim(V ∩ W )
x1 u1 + · · · + xp up + y1 v1 + · · · + yq vq + z1 w1 + · · · + zr wr = 0,
então todos eles são nulos. Analisemos esta possibilidade. Se algum yj for diferente de
zero, o vetor não nulo y1 v1 + · · · + yq vq seria uma combinação linear dos elementos de
77
78 Notas de aula do Prof. Antonio Cândido Faleiros
v = v1 + · · · + vk
V = V1 ⊕ · · · ⊕ Vk .
v + |{z}
v = |{z} 0 = |{z}
0 + |{z}
v
∈V1 ∈V2 ∈V1 ∈V2
Quando V igual à soma de mais do que dois subespaços, o fato de os espaços envolvidos
serem disjuntos dois a dois não é suficiente para garantir que V seja a soma direta desses
subespaços como nos mostra o exemplo a seguir.
Notas de aula do Prof. Antonio Cândido Faleiros 79
v1 + · · · + vk = 0,
Para mostrar que um determinado vetor v está em S ⊥ , basta mostrar que ele é ortog-
onal a todo vetor de uma base de S. O único vetor que está ao mesmo tempo em S e em
S ⊥ é o vetor nulo e daí,
S ∩ S ⊥ = {0}.
w = v − hv1 , vi v1 − · · · − hvp , vi vp
é ortogonal a todo vetor de S. Desta forma, qualquer vetor v pode ser decomposto numa
soma v = s+ w, onde s = hv1 , vi v1 + · · · + hvp , vi vp pertence a S e w pertence a S ⊥ e
assim, V = S+ S ⊥ .
Vamos mostrar que esta decomposição é única. Se v = s1 + w1 , com s1 em S e w1 em
⊥
S , então s + w = s1 + w1 e assim, s − s1 = w1 − w, mostrando que os vetores s − s1 e
w1 − w estão na interseção S ∩ S ⊥ . Como a interseção só possui o vetor nulo, s = s e w =
w. ¤
Sejam V e W espaços vetoriais complexos com dimensão finita e produto interno. Dado
uma tansformação linear L : V → W, vamos mostrar que existe uma única transformação
linear L∗ : W → V tal que
hLv, wi = hv, L∗ wi .
para todo v em V e w em W.
Primeiro a existência. Sendo B1 = {v1 , . . . , vn } uma base ortonormal de V e B2 =
{w1 , . . . , wm } uma base ortonormal de W podemos escrever Lvj , para j = 1, . . . , n, como
uma combinação linear dos elementos de B2
Lv1 = a11 w1 + a21 w2 + · · · + am1 wm
Lv2 = a12 w1 + a22 w2 + · · · + am2 wm
···
Lvn = a1n w1 + a2n w2 + · · · + amn wm
Para definir uma transformação linear, basta estabelecer seu valor nos elementos de uma
base do seu domínio. Seja L∗ : W → V aquela transformação linear que leva wi , para i =
1, 2, . . . , m, nos seguintes vetores de V
L∗ w1 = ā11 v1 + ā12 v2 + · · · + ā1n vn
L∗ w2 = ā21 v1 + ā22 v2 + · · · + ā2n vn
···
∗
L wm = ām1 v1 + ām2 v2 + · · · + āmn vn
Usando o símbolo de somatório, os valores das transformações lineares L e L∗ nas bases
de seus respectivos domínios se escrevem
X
m
Lvj = aij wi
i=1
Xn
L∗ wi = āij vj .
j=1
81
82 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 6.1 Seja L(x, y) = (2x + 3y, 5x + 7y, 11x + 13y) uma transformação linear do
R2 no R3 . Consideremos nestes dois espaços seus respectivos produtos internos euclidianos
h (x1 , y1 ), (x2 , y2 ) i = x1 x2 + y1 y2
e
h (x1 , y1 , z1 ), (x2 , y2 , z2 ) i = x1 x2 + y1 y2 + z1 z2 .
Seja B1 = {e1 , e2 } a base canônica do R2 e B2 = (f1 , f2 , f3 ) a base canônica do R3 que são
ortonormais em relação aos produtos internos euclidianos de R2 e R3 , respectivamente.
Temos
Le1 = 2f1 + 5f2 + 11f3
Le2 = 3f1 + 7f2 + 13f3
Notas de aula do Prof. Antonio Cândido Faleiros 83
e
L∗ f1 = 2e1 + 3e2
L∗ f2 = 5e1 + 7e2
L∗ f3 = 11e1 + 13e2
de modo que
2 3 · ¸
2 5 11
[L]12 = 5 7 , ∗
[L ]21 =
3 7 13
11 13
onde uma é a transposta da outra.
Entretanto, se v1 = (1, 2), v2 = (0, 1), w1 = (1, 1, 1), w2 = (0, 1, 2) e w3 = (0, 0, 1)
então B3 = {v1 , v2 } será base de R2 e B4 = {w1 , w2 , w3 } será base de R3 . Nenhuma das
duas é ortonormal em relação ao produto interno euclidiano do R2 e R3 . O leitor poderá
verificar que
Lv1 = 8w1 + 11w2 + 7w3
Lv2 = 3w1 + 4w2 + 2w3
e
L∗ w1 = 18v1 − 13v2
L∗ w2 = 27v1 − 21v2
L∗ w3 = 11v1 − 9v2
As matrizes
8 3 · ¸
18 27 11
[L]34 = 11 4 e ∗
[L ]43 =
−13 −21 −9
7 2
não são mais uma a adjunta da outra.
Dada a transformação linear L, a transformação adjunta L∗ é a única que satisfaz
à igualdade hLv, wi = hv, L∗ wi para todo v em V e todo w em W. De fato, se T for
outra transformação linear para a qual hLv, wi = hv, T wi para todo v e todo w, então
hv, T wi = hv, L∗ wi e hv, T w − L∗ wi = 0 para todo v o que acarreta na igualdade T w =
L∗ w para todo w, nos conduzindo à igualdade T = L∗ .
Para todo v em V e w em W, tem-se
hL∗ w, vi = hv, L∗ wi = hLv, wi = hw, Lvi ,
mostrando que a adjunta da adjunta é igual a L, isto é,
(L∗ )∗ = L.
Um operador linear L : V → V é auto-adjunto quando L∗ = L.
Os operadores LL∗ e L∗ L são auto-adjuntos.
84 Notas de aula do Prof. Antonio Cândido Faleiros
Im (L)⊥ = ker(L∗ ).
Im (L∗ )⊥ = ker(L)
ou
Im (L∗ ) = ker(L)⊥
Sejam V e W espaços vetoriais com produto interno e L : V → W linear. Sendo
L∗ : W → V a adjunta de L,
V = ker(L) ⊕ Im (L∗ ).
1. Im (L) = Im (LL∗ ).
2. ker(L∗ ) = ker(LL∗ ).
(L∗ )∗ = L
Im (L∗ ) = ker(L)⊥
Im (LL∗ ) = Im (L),
ker(LL∗ ) = ker(L∗ ).
Definição 6.5 Seja V um espaço vetorial com produto interno. O operador linear L :
V → V é antiadjunto quando L∗ = −L e unitário quando L∗ = L−1 .
Teorema 6.13 Sejam V e W espaços vetoriais com dimensão finita, ambos com produto
interno. Seja L : V → W uma transformação linear com posto máximo.
Prova. Quando
1. posto(L) = dim V ≤ dim W, então dim Im (L∗ L) = dim Im (L) = dim(V ) e assim
L∗ L é sobrejetora e, portanto, um isomorfismo.
2. posto(L) = dim W ≤ dim V, então dim Im (LL∗ ) = dim Im (L∗ ) = dim(W ) e assim
LL∗ é sobrejetora e, portanto, um isomorfismo.
Projetores
De acordo com este teorema, todo projetor P é um projetor sobre sua imagem ao
longo do seu núcleo.
89
90 Notas de aula do Prof. Antonio Cândido Faleiros
ou
xi = hqi , vi
o que nos permite escrever
P v = hq1 , vi q1 + · · · + hqk , vi qk .
Teorema 7.2 Seja S um subespaço de dimensão finita de um espaço vetorial V com pro-
duto interno. Seja {q1 , . . . , qk } uma base ortonormal de S. Se P for o projetor ortogonal
sobre S, então, para todo v em V,
P v = hq1 , vi q1 + · · · + hqk , vi qk .
A partir deste teorema obtemos outro de imediato para projetores em Cn×1 . Vamos
lembrar que toda transformação linear L de Cn×1 em Cn×1 é do tipo L(x) = Ax, onde A
é uma matriz quadrada n × n e iremos identificar a transformação linear L com a matriz
A. Se P for uma projeção em Cn×1 , então P será uma matriz n × n.
Corolário 7.3 Considere o espaço vetorial Cn×1 com o produto interno hx, yi = x∗ y.
Seja P um projetor ortogonal em Cn×1 e {q1 , . . . , qk } uma base ortonormal da imagem
de P. Então
P = q1 q1∗ + · · · + qk qk∗ .
Prova. Observe que q1 , q2 , . . . , qk são matrizes coluna do Cn×1 . Sendo x uma matriz
coluna em Cn×1 , podemos escrever
e assim,
P x = hq1 , xi q1 + · · · + hqk , xi qk
= (q1 q1∗ )x + · · · + (qk qk∗ )x
= (q1 q1∗ + · · · + qk qk∗ ) x.
P = q1 q1∗ + · · · + qk qk∗ .
Quando P projeta ortogonalmente sobre o espaço gerado por um único vetor unitário
q, temos
P = qq∗ .
Se x for uma matriz coluna não nula em Cn×1 , não necessariamente unitário, então q =
x/ kxk é unitário e a projeção ortogonal P sobre o espaço gerado por x é
∗ x x∗ xx∗
P = qq = = ∗ .
kxk kxk xx
Vamos relembrar que, sendo x uma matriz coluna do Cn×1 , então x∗ x é um número real
e xx∗ é uma matriz complexa n por n.
O projetor complementar de P é
xx∗
I− ,
x∗ x
onde I é a matriz identidade n × n e sua imagem é o núcleo de P.
Teorema 7.4 Seja V um espaço vetorial com dimensão finita e um produto interno. Um
projetor P : V → V é ortogonal se e só se for auto-adjunto.
hP v, wi = hv1 , w1 + w2 i = hv1 , w1 i
e
hv, P wi = hv1 + v2 , w1 i = hv1 , w1 i
provando que P é auto-adjunto.
(2) Seja P uma projeção auto-adjunta de modo que
hP v, wi = hv, P wi
92 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 7.6 Determine o projetor ortogonal P sobre o espaço gerado pelos vetores v1 =
(1, 2, 0)T e v2 = (0, 1, 1)T .
Inicialmente estabelecemos
1 0
A = [v1 , v2 ] = 2 1
0 1
e calculamos
1/3 1/3 −1/3
P = A(A∗ A)−1 A∗ = 1/3 5/6 1/6 .
−1/3 1/6 5/6
Observe que P v1 = v1 e P v2 = v2 .
válida para j = 2, . . . , m. Como hqi , vj i qi = qi qi∗ vj , esta recorrência pode ser reescrita na
forma à !
j−1 j−1
X X
∗ ∗
wj = vj − qi qi vj = 1 − qi qi vj
i=1 i=1
onde Q̂j = [q1 , . . . , qj ] é a matriz cujas colunas são q1 , . . . , qj . A projeção ortogonal sobre
o complemento orgogonal de Sj é
Pj = I − Q̂j Q̂∗j
e a fórmula recursiva pode ser escrita de modo conciso como
wj
wj = Pj−1 vj e qj = .
kwj k
Conclui-se que o algoritmo clássico de Gram-Schmidt pode ser expresso em termos destes
projetores
P0 v1 P1 v2 Pm−1 vm
q1 = , q2 = , . . . , qm = ,
kP0 v1 k kP1 v2 k kPm−1 vm k
onde P0 é a identidade e Pj , para j = 1, . . . , n − 1, é a projeção ortogonal sobre o
complemento ortogonal do espaço gerado por {q1 , . . . , qj }.
uma vez que qr qr∗ qs qs∗ = 0 para todo r 6= s. O projetor Pj = I − Q̂j Q̂∗j é exatamente aquele
usado no algoritmo de Gram-Schmidt. A identidade
Pj = P⊥qj · · · P⊥q2 P⊥q1
será usada no algoritmo modificado. A obtenção de Pj através das projeções sucessivas
P⊥qj · · · P⊥q2 P⊥q1 é mais estável numericamente do que o cálculo clássico através da
matriz Pj . Em lugar de calcular wj pela fórmula,
wj = Pj−1 vj
96 Notas de aula do Prof. Antonio Cândido Faleiros
(1)
wj = vj
(2) (1) (1) (1)
wj = P⊥q1 wj = wj − q1 q1∗ wj
(3) (2) (2) (2)
wj = P⊥q2 wj = wj − q2 q2∗ wj ,
..
.
(j) (j−1) (j−1) ∗ (j−1)
wj = wj = P⊥qj−1 wj = wj − qj−1 qj−1 wj .
99
100 Notas de aula do Prof. Antonio Cândido Faleiros
Nota 8.2 Se os elementos de x e y forem todas reais, basta ter kxk = kyk para garantir
a igualdade entre hx, yi e hy, xi .
z
sign(z) = .
|z|
Observe que o sinal é um número complexo de módulo unitário. Se z for real, seu sinal
será +1 ou −1. Para todo número complexo z,
sign(z)sign(z) = 1.
Prova. O vetor
1
w= (x − sign(x1 ) kxk e1 )
2
é ortogonal a v e
x = u + w,
sign(x1 ) kxk e1 = u − w.
Portanto,
Hv (x) = Hv v + Hv w = −v + w = −sign(x1 ) kxk e1 .
O y definido neste teorema tem a forma (y1 , 0, . . . , 0)T , onde apenas y1 = −sign(x1 ) kxk
não é nulo. Esta escolha de u assegura que kxk ≤ kyk , o que fornece uma maior estabili-
dade numérica à decomposição QR usando refletores de Householder descrita em seguida.
Notas de aula do Prof. Antonio Cândido Faleiros 101
A × R1 × · · · × Rn = Q.
Qn × · · · × Q1 · A = R.
estão em Cm . Assim,
° °
° (1) ° (2) (2) (2)
−sign(a11 ) °a1 ° a12 a13 · · · a1n
0
(2) (2)
a22 a23 · · · a2n
(2)
Q1 A =
0
(2) (2) (2)
a32 a33 · · · a3n .
.. .. .. ... ..
. . . .
(2) (2) (2)
0 am2 am3 · · · amn
R = Qn · · · Q2 Q1 A.
for k = 1 to n
x = Ak:m,k
vk = x + sign(x1 ) kxk e1
vk = vk / kvk k
Ak:m, k:n = Ak:m, k:n − 2vk (vk∗ Ak:m, k:n )
=================================
Q∗ = Qn · · · Q2 Q1
ou
Q = Q∗1 Q∗2 · · · Q∗n
para obtê-la. Lembramos aqui que as matrizes Qi são unitárias e assim Q∗i = Q−1
i .
∗ ∗
Podemos calcular Q b ou Qx. O próximo algoritmo calcula Q b.
Notas de aula do Prof. Antonio Cândido Faleiros 105
=================================
Algoritmo 10.2 Fatoração QR de Householder
Entrada: As reflexões v1 , . . . , vn de ordem m por 1 e b de ordem m por 1
Saída: Substitui b pelo vetor Q∗ b de ordem m por 1.
=================================
for k = 1 to n
bk:m = bk:m − 2vk (vk∗ bk:m )
=================================
Podemos usar este algoritmo para obter Q∗ , calculando suas colunas Q∗ e1 , . . . , Q∗ em
de Q∗ .
Mínimos quadrados
107
108 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 9.3 Seja A uma matriz m por n e b um vetor coluna m por 1. Seja P a matriz
que projeta ortogonalmente sobre a imagem de A. Os sistemas lineares Ax = P b e A∗ Ax =
A∗ b possuem as mesmas soluções.
A∗ Ax = A∗ b.
Embora seja redundante, nunca é demais reafirmar que, se x for uma solução da
equação normal, então a projeção ortogonal de b sobre a imagem de A é igual a Ax
P b = Ax.
x = (A∗ A)−1 A∗ b.
Como P b = Ax, a projeção ortogonal P sobre a imagem de A será dada pelo produto
P = A(A∗ A)−1 A∗ .
Este sistema pode ser resolvido com facilidade, posto que R̂ é triangular superior e R̂∗ é
triangular inferior.
Quando m ≥ n e a matriz A de ordem m por n possuir posto máximo n, as matrizes
∗
A A e R̂ são inversíveis o que permite reduzir a equação normal à forma
R̂x = Q̂∗ b.
Neste caso, R̂ é inversível e esta equação tem solução única. A projeção P = A (A∗ A)−1
A∗ assumirá uma forma mais simples
x = (A∗ A)−1 A∗ b.
A matriz n por m
A+ = (A∗ A)−1 A∗ ,
é chamada de pseudo-inversa de A. Ela recebe este nome pois x = A+ b é a solução por
mínimos quadrados de Ax = b.
Sendo Q̂R̂ for a decomposição QR reduzida de A, então
x = R̂−1 Q̂∗ b
R∗ Rx = A∗ b
y = c0 + c1 x
P
que minimiza o resíduo m 2
i=1 (c0 + c1 xi − yi ) .
Consideremos
√ em Cm o produto interno definido por hx, yi = x∗ y e a norma definida
2
por kxk = x∗ x. Sendo
1 x1 µ ¶ y1
c0
A = ... ... , c = , d = ... ,
c1
1 xm ym
então
2
X
m
kAc − dk = hAc − d, Ac − di = (c0 + c1 xi − yi )2 .
i=1
µ Pm ¶µ ¶ µ Pm ¶
Pm m Pm 2 xi c0 y i
i=1 = Pm i=1
i=1 xi i=1 xi c1 i=1 xi yi
Exercício 9.5 Calcule a reta de regressão para os dados (1; 3), (2; 6), (3; 5, 5), (4; 6, 5).
y = p(x) = c0 + c1 x + · · · + ck xk
P
de grau k menor do que m − 1 que minimiza o resíduo m 2
i=1 (p(xi ) − yi ) .
Minimizar este resíduo é equivalente à minimização da norma kAc − dk2 , onde
1 x1 x21 · · · xk1 c0 y1
1 x2 x2 · · · xk c1 y2
2 2
A = .. .. .. . . .. , c = .. , d = .. ,
. . . . . . .
1 xm x2m · · · xkm ck ym
de modo que o problema proposto é equivalente àquele dos mínimos quadrados para Ac =
d com o produto interno
hx, yi = x∗ y.
Quando k = m − 1 caímos no caso anterior da interpolação polinomial.
y = p(x) = c0 + c1 x + · · · + ck xk
Notas de aula do Prof. Antonio Cândido Faleiros 113
de grau menor ou igual a k que melhor aproxima uma função g(x) definida no intervalo
[a, b]. Logo surge a pergunta: em que sentido p(x) é o melhor polinômio que aproxima
g(x)?
Numa tentativa de responder a esta indagação, legítima por sinal, poderíamos pegar
m pontos a = x1 ≤ x2 ≤ · · · ≤ xm = b igualmente espaçados em [a, b] e assim determinar
o polinômio p(x) que minimiza a soma
X
m
S= [p(xi ) − g(xi )]2 .
i=1
Denotando g(xi ) por yi , podemos resolver este problema usando a técnica anterior de
ajuste polinomial.
Entretanto, antes de encerrar o caso, vamos elaborar um pouco mais este problema.
Para m fixo, seja ∆x = (b − a)/m. Minimizar S ou S · ∆x é a mesma coisa. À medida
que o m cresce,
Xm
S · ∆x = |p(xi ) − g(xi )|2 ∆x
i=1
Rb
converge para a integral a
[f (x) − g(x)]2 dx. Tal fato motiva a definição do produto in-
terno
Z b
hf, gi = f (x)ḡ(x) dx
a
Rb
Nesta norma, kp − gk2 = a |p(x) − g(x)|2 dx.
O problema agora pode ser reformulado como segue: Seja g uma função contínua,
definida no intervalo real [a, b]. Determine o polinômio p(x) = c0 + c1 x+ · · · + ck xk de
grau menor ou igual a k, que minimiza
Z b
2
kp − gk = |p(x) − g(x)|2 dx.
a
115
116 Notas de aula do Prof. Antonio Cândido Faleiros
auto(λi ) = {x ∈ Cn : Ax = λi x}
v = x1 v1 + · · · + xn vn
Notas de aula do Prof. Antonio Cândido Faleiros 117
auto(λ) = {v ∈ V : Lv = λv}
a1 λ1 v1 + a2 λ1 v2 = 0
e
a1 λ1 v1 + a2 λ2 v2 = 0.
Subtraindo uma da outra chega-se a a2 (λ1 − λ2 )v2 = 0. Como λ1 6= λ2 e v2 6= 0, obtemos
a2 = 0 e, consequentemente, a1 = 0, provando que o conjunto {v1 , v2 } é linearmente
independente. Do mesmo modo se prova que um conjunto formado por dois autovetores
{vi , vj } são linearmente independentes.
2. Vamos supor, como hipótese de indução, que qualquer subconjunto de {v1 , . . . , vr }
com menos de r elementos é linearmente independente.
3. Vamos provar que {v1 , . . . , vr } é linearmente independente. Consideremos a
equação
a1 v1 + a2 v2 + · · · + ar vr = 0,
onde ai são escalares. Multiplicando-a por A e por λ1 , obtemos
a1 λ1 v1 + a2 λ2 v2 + · · · + ar λr vr = 0
e
a1 λ1 v1 + a2 λ1 v2 + · · · + ar λ1 vr = 0.
118 Notas de aula do Prof. Antonio Cândido Faleiros
Prova. Se Lv = λv, onde v é um vetor não nulo e λ escalar, então hLv, vi = hv, Lvi
o que implica em λ̄ hv, vi = λ hv, vi ou (λ̄ − λ) hv, vi = 0, de onde se conclui que λ̄ = λ.
Se v e w forem autovetores correspondentes aos autovalores reais distintos λ e µ, então,
de hLv, wi = hv, Lwi o que implica em λ hv, wi = µ hv, wi ou (λ − µ) hv, wi = 0. Como
λ 6= µ, hv, wi = 0. ¤
p(A) = c0 I + c1 A + · · · + ck Ak
onde I é a matriz identidade com ordem igual à de A. Se p(A) = 0, diremos que a matriz
A é um zero do polinômio p(t).
tem grau n. Cada elemento da adjunta clássica de B, denotada por adj(B), é um polinômio
de grau n − 1 ou inferior. Logo, adj(B) = Bn−1 tn−1 + · · · + B1 t+ B0 é um polinômio
matricial de grau n − 1 ou inferior. Sabe-se que B −1 = adj(B)/ det(B) e assim,
det(B)I = adj(B) · B.
Como
det(B)I = Itn + cn−1 Itn−1 + · · · + c1 It + c0 I
120 Notas de aula do Prof. Antonio Cândido Faleiros
e
¡ ¢
adj(B) · B = Bn−1 tn−1 + · · · + B1 t + B0 (tI − A)
= Bn−1 tn + (Bn−2 − Bn−1 A)tn−1 + · · · + (B0 − B1 A)t + B0 A
segue
I = Bn−1
cn−1 I = Bn−2 − Bn−1
···
c1 I = B0 − B1 A
c0 I = B0 A.
An + cn−1 An−1 + · · · + c1 A + c0 I
onde A1 e A2 são matrizes quadradas, podendo ter a mesma ordem ou não. Então
Teorema 10.9 Seja A uma matriz triangular em blocos, cujos blocos diagonais são A1 ,
. . . , Ar . Então o polinômio característico de A é o produto dos polinômios característicos
de A1 , . . . , Ar , isto é,
Teorema 10.13 Uma matriz quadrada A de ordem n é semelhante a uma matriz diagonal
D se e só se A tem n autovetores linearmente independentes.
Prova. 1. Se A for semelhante a uma matriz diagonal D, então existe uma matriz
inversível P tal que AP = P D. Os elementos diagonais de D são os autovalores de A e
as colunas de P os autovetores. Sendo inversível, as colunas de P são vetores linearmente
independentes.
2. Se A tem n autovetores linearmente independentes, sejam eles {v1 , . . . , vn } que
formam uma base de V e para os quais Avi = λi vi . Se P for a matriz cujas colunas são
formadas por esses vetores, temos AP = P D onde D = diag(λ1 , . . . , λn ). ¤
∆(t) = (t − λ1 )(t − λ2 ) · · · (t − λn )
pode ser fatorado em n fatores distintos do primeito grau. Então L possui n autovetores
linearmente independentes e portanto, possui uma representação matricial diagonal, na
base formada pelos autovetores. Os elementos da diagonal desta representação são os
autovalores λi .
Se D for diagonal e seus elementos diagonais forem d11 , d22 , . . . , dnn denotaremos esta
matriz por D = diag(d11 , d22 , . . . , dnn ). Sendo A = P DP −1 , então
¡ ¢m
Am = P DP −1 = P Dm P −1 = P diag(dm m m
11 , d22 , . . . , dnn )P
−1
.
Espaços Invariantes
Sendo W invariante sob L, então é invariante sob Lk , para todo k inteiro positivo. Se
f (t) for um polinômio, então W é invariante sob f (L). Sendo T a restrição de L a W,
para todo w em W, tem-se f (T )w = f (L)w.
123
124 Notas de aula do Prof. Antonio Cândido Faleiros
L = L1 ⊕ · · · ⊕ Lr .
L,
L(u1 ) = a11 u1 + · · · + ar1 ur
···
L(ur ) = a1r u1 + · · · + arr ur
L(w1 ) = b11 w1 + · · · + bs1 ws
···
L(ws ) = b1s w1 + · · · + bss ws
Desta forma, a representação matricial de L nesta base é
a11 · · · a1r 0 · · · 0
.. . . . .. .. . . .
. ..
. . . µ ¶
a · · · arr 0 · · · 0 A 0
A = r1 = .
0 · · · 0 b11 · · · b1s 0 B
. . . . .. .. . . .
.. . . . ..
0 · · · 0 bs1 · · · bss
¤
Teorema 11.7 Seja L : V → V linear e g(t), h(t) polinômios mônicos primos entre si,
tais que L é um zero do polinômio f (t) = g(t)h(t). Então os subespaços ker g(L) e ker g(L)
são invariantes sob L e
V = ker g(L) ⊕ ker h(L)
Sabemos que L é um zero de seu polinômio característico. Vamos provar que todo
polinômio que tem L como zero possui os mesmos fatores irredutíveis. Dentre eles,
destaca-se o de menor grau, denominado de polinômio mínimo de L.
Teorema 11.10 O polinômio mínimo de L divide todo polinômio que tem L como zero.
Em particular, o polinômio mínimo de L divide o polinômio característico de L.
Prova. Seja m(t) o polinômio mínimo de L e f (t) um polinômio mônico para o qual
f (L) = 0. O grau de f (t) é maior do que o grau de m(t) e, pelo algoritmo da divisão,
f (t) = q(t)m(t)+r(t), onde grau(r) < grau(m). Existem duas possibilidades: r(t) = 0 ou
r(t) 6= 0. Esta possibilidade, r(t) 6= 0, deve ser descartada pois nos leva a uma contradição,
considerando-se que r(A) = 0 e o grau(r) < grau(m). Logo, r(t) = 0 e m(t) divide f (t).
¤
Nota 11.36 Parece-me que dá para tirar uma regra para calcular a multiplicidade ge-
ométrica de um autovalor: Calcule os polinômios característico e mínimo da matriz e
fatore-os. Se o polinômio característico possuir o fator (t − λ)n o polinômio caracterís-
tico terá o fator (t − λ)m com m ≤ n. O número de autovetores correspondentes a λ
(multiplicidade geométrica de λ) é n − m + 1.
onde 0 são matrizes retangulares nulas, é uma matriz diagonal em bloco. Se f (t) for
um polinômio em t, então µ ¶
f (A) 0
f (D) = .
0 f (B)
uma matriz diagonal em bloco. Então o polinômio mínimo de A é igual ao mínimo múltiplo
comum dos polinômios mínimos dos blocos diagonais A1 e A2 .
132 Notas de aula do Prof. Antonio Cândido Faleiros
pois f (A1 ) = 0 e f (A2 ) = 0. Daí A é um zero de todo múltiplo comum de m1 (t) e m2 (t).
Sendo o polinômio mínimo o poliômio de menor grau que possui A como raiz, m(t) é o
mínimo múltiplo comum de g(t) e h(t). ¤
Teorema 11.38 Seja A uma matriz diagonal em bloco, cujos blocos diagonais são A1 ,
A2 , . . . , Ar . Então o polinômio mínimo de A é igual ao mínimo múltiplo comum (mmc)
dos polinômios mínimos dos blocos diagonais Ai
Nota 11.39 Frisamos que este teorema se aplica a matrizes diagonais em blocos, en-
quanto o Teorema (10.9) que é análogo a este e se refere aos polinômios característicos,
aplica-se a matrizes triangulares em blocos.
Nota 11.42 No teorema anterior, se m1 (t) e m2 (t) forem primos entre si, então m(t) =
m1 (t)m2 (t).
Teorema 11.43 Seja L : V → V linear e g(t), h(t) polinômios mônicos primos entre si,
tais que L é um zero do polinômio f (t) = g(t)h(t). Então:
2. Se f (t) for o polinômio mínimo de L, então g(t) e h(t) são os polinômios mínimos
das restrições de L ao ker g(L) e ao ker h(L), respectivamente.
Prova. Inicialmente, observamos que ker g(L) e ker h(L) são invariantes sob L.
1. Como g(t) e h(t) são primos entre si, existem polinômios r(t) e s(t) tais que
r(t)g(t) + s(t)h(t) = 1,
acarretando na igualdade
I = r(L)g(L) + s(L)h(L).
v = r(L)g(L)v + s(L)h(L)v.
Nesta soma, r(L)g(L)v pertence ao ker h(L) e w = s(L)h(L)v pertence ao ker g(L).
De fato,
h(L)r(L)g(L)v = r(L)g(L)h(L)v = r(L)f (L)v = 0
pois f (L) = 0. De modo análogo se prova que s(L)h(L)v pertence ao ker g(L).
Consequentemente,
V = ker g(L) + ker h(L).
Para completar a prova deste item, falta mostrar que esta decomposição é única.
Seja v = u+ w, uma decomposição de v, com u ∈ ker g(L) e w ∈ ker h(L). Então,
2. Se f (t) = g(t)h(t) for o polinômio mínimo de L, então ele é divisível pelos polinômios
mínimos m1 (t) e m2 (t) de L1 e L2 , como já se provou.
Por outro lado, g(L1 ) = 0 e h(L2 ) = 0. Portanto, m1 (t) divide g(t) e m2 (t) divide
h(t). Como g(t) e h(t) são primos entre si, o mesmo ocorre com m1 (t) e m2 (t) que
os divide.
Sendo m1 (t) e m2 (t) primos entre si e f (t) = mmc{m1 (t), m2 (t)}, segue
Por outro lado, f (t) = g(t)h(t), de onde segue que m1 (t) = g(t) e m2 (t) = h(t).
Notas de aula do Prof. Antonio Cândido Faleiros 135
V = W1 ⊕ · · · ⊕ Wr .
Prova. Para simplificar a prova, vamos abordar o caso particular em que m(t) =
f1 (t)n1 f2 (t)n2 onde f1 (t), f2 (t) são polinômios mônicos, distintos e irredutíveis. Certa-
mente, f1 (t)n1 e f2 (t)n2 são primos entre si. Este teorema decorre imediatamente do
anterior.
De fato, sabemos que V = W1 ⊕ W2 , onde Wi = ker fi (t)ni e que fi (t)ni , é o polinômio
mínimo da restrição de L em Wi . ¤
m(t) = (t − λ1 ) · · · (t − λr )
é semelhante a uma matriz diagonal. Isto significa que, se A for a matriz de L numa base
de V, então existe uma matriz inversível P e uma matriz diagonal D tais que
A = P DP −1 .
Podemos nos perguntar qual a condição mais geral que um operador linear deve sat-
isfazer para ser diagonalizável. Quando o operador linear L : V → V é auto-adjunto,
antiadjunto ou unitário, então LL∗ = L∗ L. Esta é a condição mais geral sob a qual um
operador é diagonalizável.
LL∗ = L∗ L.
Teorema 11.49 Seja L um operador normal sobre um espaço vetorial de dimensão finita
com produto interno. Se v for autovetor de L correspondente ao autovalor λ, então v é
autovetor de L∗ correspondente ao autovalor λ̄.
Teorema 11.50 Seja L uma transformação normal sobre um espaço vetorial de dimensão
finita com produto interno V. Então
2. Seja A uma matriz complexa normal de ordem n. Existe uma matriz unitária U e
uma matriz diagonal D para as quais
A = U DU −1 .
Prova. Seja B = {v1 , . . . , vn } uma base ortonormal de V cujos elementos são autove-
tores de L, de modo que Lvi = λi vi para i = 1, . . . , n. O escalar λi é o autovalor de L
correspondente ao autovetor vi . Se decompondo L∗ vi na base B, podemos escrever
X
L∗ vi = aij vj
j
Isto significa que aij = 0 quando i 6= j e aii = λ̄i , de modo que L∗ vi = λ̄i vi . Mostramos
assim que vi é autovetor de L∗ correspondente ao autovalor λ̄i . Portanto, L∗ Lvi = λi λ̄i vi =
|λi |2 vi e LL∗ vi = λ̄i λi vi = |λi |2 vi . Sendo as transformações L∗ L e LL∗ iguais em cada
elemento da base, são iguais no espaço todo, provando que L é normal. ¤
L = λ1 P1 + · · · + λn Pn .
Teorema 11.52 (Versão projetiva do teorema espectral) Seja V um espaço vetorial com-
plexo com produto interno e dimensão n. Seja L : V → V um operador normal e {v1 ,
. . . , vn } uma base ortonormal de V, formada pelos autovalores de L. Os autoespaços Si =
auto(λi ), i = 1, . . . , r, são ortogonais dois a dois e sua soma é igual a V. Se Pi : V → V
for a projeção ortogonal sobre Si , então
P1 + · · · + Pn = I
e
L = λ1 P1 + · · · + λn Pn .
Teorema 11.53 (Versão do teorema espectral para matriz real simétrica) Seja A uma
matriz normal de ordem n. Sejam λ1 , . . . , λr seus autovalores distintos. Então
A = λ1 P1 + · · · + λr Pr
P1 + · · · + Pk = I.
7 4 −5
Exemplo 11.54 A matriz A = 4 −2 4 é simétrica. Seus autovalores são
−5 4 7
6, 12 e −6. Os autovetores correspondentes são (1, 1, 1)T , (−1, 0, 1)T e (1, −2, 1)T .
Para montar S tal que A = SDS −1 , tomamos as colunas de S iguais aos autovetores
normalizados
√ √ √
1/√3 −1/ 2 1/ √6 6 0 0
S = 1/√3 0√ −2/√ 6 e D = 0 12 0 .
1/ 3 1/ 2 1/ 6 0 0 −6
Notas de aula do Prof. Antonio Cândido Faleiros 139
onde
1/3 1/3 1/3 1/2 0 −1/2 1 −2 1
1
P1 = 1/3 1/3 1/3 , P2 = 0 0 0 e P3 = −2 4 −2
6
1/3 1/3 1/3 −1/2 0 1/2 1 −2 1
0 1 1
Exemplo 11.55 A matriz A = −1 0 2 é anti-simétrica. Seus autovalores são
−1 −2 0
√ √
0, i 5 e −i 5. Os autovetores correspondentes são (2, −1, 1), (−.4 − .4899i, .2 − .9798i,
1) e (−.4 + .4899i, .2 + .9798i, 1).
√ √
1/√3 2/ √6 9√
Exemplo 11.56 A matriz A = 1/√3 −1/√6 −1/√ 2 é ortogonal. Seus autoval-
1/ 3 −1/ 6 1/ 2
ores são −1; 0, 9381+ 0, 3464i e 0, 9381− 0, 3464i. Os autovetores correspondentes são
T1 = V1∗ A1 V1
det(A) = λ1 × · · · × λn e tr(A) = λ1 + · · · + λn .
Teorema 11.59 (Teorema Espectral). Se H é uma matriz hermitiana, existe uma matriz
unitária U tal que U ∗ HU é diagonal.
T T ∗ = T ∗ T.
pois T é triangular superior. Segue que t12 = · · · = t1n = 0. Logo T tem a forma de blocos
· ¸
t11 0
T =
0 T1
onde T1 é normal e, por hipótese de indução, é diagonal. Cnclui-se daí que T é diagonal,
completando a prova do teorema. ¤
Nota 11.61 As matrizes normais reais 2 × 2 são as matrizes simétricas e aquelas com a
forma · ¸
a −b
b a
λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0.
Q = [q1 , . . . , qn ]
A∗ AQ = QD
142 Notas de aula do Prof. Antonio Cândido Faleiros
onde √
D = diag(λ1 , . . . , λn ) é uma matriz quadrada diagonal n×n. Como λi ≥ 0, definimos
σ i = λi ≥ 0. Seja r ≤ n o número de valores σ i diferentes de zero, de modo que
σ1 ≥ · · · ≥ σr > 0 e σr+1 = · · · = σ n = 0.
Para i = 1, . . . , r os vetores de Cm definidos por
1
pi = Aqi
σi
formam um conjunto ortonormal. Uma vez que qr+1 , . . . , qn estão no núcleo de A (pois
são levados por A em 0), o conjunto {p1 , . . . , pr } é uma base ortonormal da imagem de
A e, por este motivo r é o posto de A que deve ser menor ou igual a m.
Para provar que {p1 , . . . , pr } é um conjunto ortonormal, basta calcular, para 1 ≤ i,
j ≤ r, o produto interno
1 1
hpi , pj i = hAqi , Aqj i = hqi , A∗ Aqj i
σiσj σi σj
2
σj σj
= hqi , qj i = hqi , qj i = δ ij .
σiσj σi
Pode-se completar {p1 , . . . , pr } de modo a obter uma base ortonormal {p1 , . . . , pr , pr+1 ,
. . . , pm } de Cm .
A matriz m × m
P = [p1 , . . . , pr , pr+1 , . . . , pm ]
cujas colunas são os vetores pi , é unitária e, pelo modo como foi construída,
AQ = P Σ
onde
Σ = diag{σ 1 , . . . , σ r , 0, . . . , 0}.
é uma matriz m×n onde todos os elementos são nulos, à excessão dos r primeiros elementos
da diagonal principal que são σ 1 ≥ · · · ≥ σ r . Lembramos que r ≤ min(m, n).
Como Q é unitária, obtemos a decomposição de A em valores singulares
A = P ΣQ∗
Os números reais σ 1 , . . . , σ r , 0, são denominado de valores singulares de A.
Usando a expressão de A deduzida acima, prova-se que
A∗ AQ = QΣ∗ Σ e AA∗ P = P ΣΣ∗
mostrando que as colunas qi de Q são autovetores da matriz A∗ A, que as colunas pi de P
são autovetores da matriz AA∗ e, tanto no primeiro quanto no segundo caso, autovetores
correspondentes aos autovalores σ 2i .
Lembramos que ΣΣ∗ é uma matriz diagonal m×m e Σ∗ Σ é uma matriz diagonal n×n.
Se A tiver posto máximo, então r = min{m, n} e uma das duas matrizes, ΣΣ∗ ou Σ∗ Σ,
possui todos os termos diagonais diferentes de zero e, portanto, é não singular.
Provamos o seguinte teorema:
Notas de aula do Prof. Antonio Cândido Faleiros 143
Assim,
√
1/2 0√ −3/√ 12 0√ √
1/2 −1/ 2 1/ 12 −1/ 6 24 0 0 0
Q= 1/2 1/ 2
√ √ √ , Σ = 0 2 0 0 .
1/√12 −1/√ 6
0 0 0 0
1/2 0 1/ 12 2/ 6
√
Para determinar P, calculamos p1 = (1/ 24)Aq1 e p2 = (1/2)Aq2 para obter
1 −1
1 1
√ 1 , √ 1 .
6 2 2 0
Como o contradomínio de A tem dimensão 3, precisamos de mais um vetor para formar
¡ ¢T
a base. Calculamos p3 = p13 p23 p33 unitário e fazendo-o ortogonal a p1 e a p2 .
√ ¡ ¢T
Obtemos então p3 = (1/ 3) 1 1 −1 . Com estes vetores montamos
√ √ √
1/√6 −1/√ 2 1/√3
P = 1/√6 1/ 2 1/ √3 .
2/ 6 0 −1/ 3
Nota: Na decomposição em valores singulares de A, AQ = P Σ, de modo que P kAq1 k2 =
k2 = σ 1 . Por outro lado, para qualquer x em Rn com kxk2 = 1, temos x = ni=1 αi qi
kσ 1 p1P
onde ni=1 α2i = 1. Daí,
° n °2 ° r °2
°X ° °X ° X
r
2 ° ° ° °
kAxk2 = ° αi Aqi ° = ° αi σ i pi ° = σ 2i α2i kpi k22
° ° ° °
i=1 2 i=1 2 i=1
sendo a segunda igualdade verdadeira pois Aqi = 0 para i > r e a última igualdade se
justifica pela ortogonalidade dos pi . Como kpi k2 = 1, segue
X
r X
r X
n
kAxk22 = σ 2i α2i ≤ σ 21 α2i ≤ σ 21 α2i = σ 21 .
i=1 i=1 i=1
A primeira desigualdade se justifica pois σ 1 é o maior valor singular e a segunda por termos
acrescentado parcelas positivas à soma. Provamos que kAxk22 ≤ σ 21 e que kAq1 k2 = σ 1 .
Logo,
kAk2 = sup kAxk2 = σ 1 .
x∈Rn
kxk2 =1
Teorema 11.65 Se
A = U ST ∗
for outra decomposição por valores singulares de A, então S = Σ, as colunas t1 , . . . , tn de
T formam um conjunto ortonormal de autovetores de A∗ A correspondentes aos autovalores
σ 1 ≥ σ 2 ≥ · · · ≥ σ r ≥ 0 = · · · = 0, as colunas u1 , . . . , um de U são autovetores de AA∗
correspondentes aos mesmos autovalores e, para i = 1, . . . , r,
1
ui = Ati .
σi
147
148 Notas de aula do Prof. Antonio Cândido Faleiros
Suponhamos que
{ u1 , . . . , ur }
{ u1 , . . . , ur , v1 , . . . , vs }
{ u1 , . . . , ur , v1 , . . . , vs , w1 , . . . , wt }
{ u1 , . . . , ur , Lw1 , . . . , Lwt }
Prova. O teorema anterior assegura que os vetores Lw1 , . . . , Lwt pertencem ao ker Li .
Sejam α1 , . . . , αr , β 1 , . . . , β t escalares tais que
α1 u1 + · · · + αr ur + β 1 Lw1 + · · · + β t Lwt = 0.
Li (β 1 w1 + · · · + β t wt ) = 0,
β 1 w1 + · · · + β t wt = c1 u1 + · · · + cr ur + d1 v1 + · · · + ds vs .
Este resultado é interessante pois ele nos permite inferir que s ≥ t. Sabemos que a
dimensão do ker Li cresce com i ou permanece inalterada. Além disso, o acréscimo na
dimensão quando passamos do ker Li para o ker Li+1 nunca é maior do que o acréscimo
na dimensão quando passamos do ker Li−1 para o ker Li . ***
As ordens de todos os blocos são menores ou iguais a k. Pelo menos um bloco tem ordem k.
O número de blocos é igual à nulidade de L. O número de blocos do tipo N é determinado
de modo único por L.
{u1 , u2 , u3 , u4 } é base de W1
{u1 , u2 , u3 , u4 , u5 , u6 } é base de W2
{u1 , u2 , u3 , u4 , u5 , u6 , u7 } é base de W3
{u1 , u2 , u3 , u4 , u5 , u6 , u7 , u8 } é base de W4
v, Lv, L2 v, . . .
é linearmente independente.
O subespaço vetorial
Z(v, L) = [v, Lv, L2 v, . . . , Lk−1 v]
é chamado de subespaço cíclico de V gerado por L e v. Sua dimensão é k.
Este subespaço é a interseção de todos os subespaços L invariantes que contêm v.
Denotemos por Lv a restrição de L a Z(v, L). Se
Lk v = −a0 v − a1 Lv − a2 L2 v − · · · − ak−1 Lk−1 v
então
mv (t) = a0 + a1 t + a2 t2 + · · · + ak−1 tk−1 + tk
é o polinômio mínimo de Lv e a representação de Lv na base
{v, Lv, L2 v, . . . , Lk−1 v}
é
0 0· · · 0 0 −a0
0
1 0· · · 0 0 −a1
0
0 1· · · 0 0 −a2
0
.. .. ..
. . . .. .. ..
C= . . . . . .
0 0 0 · · · 0 0 −ak−3
0 0 0 · · · 1 0 −ak−2
0 0 0 · · · 0 1 −ak−1
denominada de matriz companheira do polinômio mv (t). O polinômio mv (t) é denom-
inado de L anulador de v e Z(v, L).
Teorema 12.13 (Forma canônica racional) Seja L : V → V linear com polinômio mín-
imo
m(t) = f1 (t)m1 . . . fs (t)ms
onde fi (t) são polinômios mônicos irredutíveis distintos. Então L possui uma única rep-
resentação matricial em bloco
C1 0 · · · 0
0 C2 · · · 0
.. .. . . ..
. . . .
0 0 · · · Cs
onde cada Ci é uma matriz com o formato
(1)
Ci 0 ··· 0
0 C (2) · · · 0
i
Ci = . . ... ..
.. .. .
(r)
0 0 · · · Ci
(j)
em que Ci são matrizes companheiras de fi (t)nij onde se pode ordenar os nij de modo
que
Prova. *** Como ∆(t) pode ser fatorado em polinômios do primeiro grau, L possui
ao menos um autovalor. Denotemo-lo λ1 e por v1 o autovetor correspondente, de modo
que Lv1 = λ1 v1 . Então V = V1 ⊕ (V1 )⊥ onde V1 = ger(v1 ). O espaço V1 é invariantes sob
L. Seja L1 a restrição de L a V1 . {v12 , . . . , v1n } uma base ortonormal de (V1 )⊥ . A matriz
de L nesta base é da forma *** ¤
Exemplo 12.16 Vamos apresentar um exemplo que mostra como se pode obter uma rep-
resentação matricial triangular de uma transformação linear. Seja L : R3 → R3 definida
por L(x, y, z) = (4x + y − z, 2x + 5y − 2z, x + y + 2z). A matriz de L na base canônica do
R3 é
4 1 −1
A = 2 5 −2
1 1 2
Os vetores v1 = (−1, 1, 0), v2 = (0, 1, 0), v3 = (0, 0, 1) formam uma base do R3 .
Destacamos que v1 é autovetor de L correspondente ao autovetor 3. Como
L(v1 ) = 3v1
L(v2 ) = −v1 + 6v2 + v3
L(v3 ) = v1 − 3v2 + 2v3
L(v1 ) = 3v1 + W = W = 0
L(v2 ) = −v1 + 6v2 + v3 + W = 6v 2 + v3
L(v3 ) = v1 − 3v2 + 2v3 + W = −3v 2 + 2v 3
Vamos omitir a barra e olhar para L no espaço gerado por v2 e v3 . Sabemos que
L(v2 ) = 6v2 + v3
L(v3 ) = −3v2 + 2v3
O w3 foi escolhido de modo arbitrário, exigimos apenas que {w1 , w2 , w3 } seja uma base
de V. Podemos inverter as relações acima para obter
v1 = w1 , v2 = (w2 − w3 )/3, v3 = w3 .
Daí segue
L(w1 ) = 3w1
L(w2 ) = −2w1 + 5w2
L(w3 ) = w1 − w2 + 3w3
que está na forma triangular. Esta transformação linear pode ser representada por uma
matriz diagonal pois ela possui três autovetores linearmente independente.
Capítulo 13
Aplicações
159
160 Notas de aula do Prof. Antonio Cândido Faleiros
Apêndice A
Matrizes
161
162 Notas de aula do Prof. Antonio Cândido Faleiros
A matriz em que todos os elementos são nulos é chamada de matriz nula e será
denotada por 0.
Se A = (aij ), então −A = (−aij ) é chamada de matriz oposta de A. Definimos a
diferença entre as matrizes A e B de mesma ordem por A − B = A + (−B).
Propriedades
Nas propriedades enumeradas abaixo, A, B e C são matrizes de mesma ordem, incluindo
a matriz nula e k1 , k2 são escalares. O 1 indica a unidade escalar.
1. Associatividade: A + (B + C) = (A + B) + C.
2. Comutatividade: A + B = B+ A.
3. Elemento neutro: A + 0 = 0 + A = A.
7. Distributividade: k1 (A + B) = k1 A + k1 B.
8. Unidade: 1A = A
δ ij = 1 se i=j
δ ij = 0 se i 6= j
pode ser usado para representar os elementos da matriz identidade. Em termos deste
símbolo, I = (δ ij ) .
Se os elementos abaixo da diagonal principal da matriz A forem nulos, a matriz é
triangular superior. Se os elementos à direita da diagonal principal de A forem nulos,
a matriz é triangular inferior.
Notas de aula do Prof. Antonio Cândido Faleiros 163
bij = āji
O primeiro elemento não nulo em cada linha, quando percorrida da esquerda para a
direira, é chamado de pivô da linha.
Definição A.2 Uma matriz m por n possui a forma escalonada reduzida se:
de ordemque é uma matriz m por p. Para efetuar o produto AB, o número de colunas de
A deve ser igual ao número de linhas de B. Quando este for o caso, se diz que A e B são
conformes para o produto.
A multiplicação de matrizes é uma operação associativa e distributiva mas não é
comutativa. Assim,
164 Notas de aula do Prof. Antonio Cândido Faleiros
2. A2 (B2 + C2 ) = A2 B2 + A2 C2
3. (A3 + B3 )C3 = A3 C3 + B3 C3
A.3 Inversa
Uma matriz quadrada A de ordem m é inversível se existir uma matriz quadrada B de
ordem m tal que AB = BA = I, onde I é a matriz identidade de ordem m. A matriz
B é a inversa de A, sendo denotada por A−1 . Sendo A = (aij ) e B = (bij ) , então as
igualdades matriciais AB = BA = I resultam nas seguintes igualdades entre os elementos
de A, B e I
Xn X n
aik bkj = δ ij e bik akj = δ ij .
k=1 k=1
B = BI = B(AC) = (BA)C = IC = C.
−1
Se A for inversível, então A−1 é inversível e (A−1 ) = A. Se k for um escalar não nulo
e A for inversível, então kA é inversível e (kA)−1 = k−1 A−1 .
Teorema A.3 Sejam A e B matrizes quadradas tais que AB = I. Isto é suficiente para
garantir que BA = I.
Prova. A prova deste fato se baseia em um teorema da Álgebra Linear que estabelece o
seguinte: Se as matrizes envolvidas forem de ordem n, o posto de I é n e, consequentemente
o posto de A é n, estabelecendo uma bijeção em Cn . Então B é necessariamente a bijeção
inversa e BA = I. ¤
A0 = I,
Ak = Ak−1 A,
¡ ¢k ¡ ¢−1
A−k = A−1 = Ak .
Teorema A.5 O posto de uma matriz não se modifica se ela for multiplicada por uma
matriz inversível.
Teorema A.6 Seja A uma matriz m × n de posto k. Existe uma matriz P de ordem n,
e uma matriz Q de ordem m, ambas inversíveis e tais que D = Q−1 AP é uma matriz
diagonal onde os k primeiros elementos da diagonal são iguais a 1 e os demais são todos
nulos.
Teorema A.7 Seja A uma matriz m × n de posto k. Existe uma matriz inversível Q de
ordem m, tal que A0 = Q−1 A é uma matriz escalonada reduzida.
(AB)T = B T AT .
Teorema A.9 Uma matriz quadrada A é inversível se e só se puder ser escrita como um
produto matrizes elementares.
Notas de aula do Prof. Antonio Cândido Faleiros 167
Determinante
B.1 Permutação
Uma função bijetora σ : {1, 2, . . . , n} → {1, 2, . . . , n} é chamada de permutação
do conjunto {1, 2, . . . , n}. Basta apresentar a ênupla ordenada (σ(1), . . . , σ(n)) para
estabelecer σ sem ambiguidade. A identidade (1, 2, . . . , n) é uma permutação. Sendo
bijetora, a permutação é inversível e, se σ(i) = j, sua inversa σ−1 leva j em i.
Sejam j e k dois inteiros distintos no conjunto {1, 2, . . . , n}. Uma permutação que
leva j em k e k em j, mantendo fixos os outros inteiros, é chamada de transposição.
Se τ for uma transposição, basta informar que τ (j) = k para inferir que τ (k) = j e que
τ (i) = i para todo i diferente de j e k.
Toda permutação é a composição de um número finito de transposições. De fato,
sejam τ i , i = 1, . . . , n permutações que tanto pode ser uma transposição quanto uma
identidade, definidas por
τ 1 (1) = σ(1),
τ 2 τ 1 (2) = σ(2),
...,
τ n (τ n−1 · · · τ 2 τ 1 (n)) = σ(n).
169
170 Notas de aula do Prof. Antonio Cândido Faleiros
Seja σ uma permutação de {1, 2, . . . , n}. Se i < j e σ(i) > σ(j) diremos que o par
(i, j) é uma inversão de σ. Definimos o sinal de σ do seguinte modo: Se o número de
inversões de σ for par, seu sinal será +1. Se o número de inversões de σ for ímpar, seu
sinal será −1. O sinal de σ será denotado por sign(σ).
A permutação identidade não apresenta nenhuma inversão. Portanto, seu sinal é +1.
Teorema B.1 Sejam σ 1 e σ 2 duas permutações de {1, 2, . . . , n}. Então
sign(σ 2 σ 1 ) = sign(σ 2 )sign(σ 1 ).
Prova. Observe a tabela que vem em seguida, onde i < j.
Inversões
σ1 σ2 σ2σ1
σ 1 (i) < σ 1 (j) σ 2 σ 1 (i) < σ 2 σ 1 (j) 0 0 0
σ 1 (i) < σ 1 (j) σ 2 σ 1 (i) > σ 2 σ 1 (j) 0 1 1
σ 1 (i) > σ 1 (j) σ 2 σ 1 (i) < σ 2 σ 1 (j) 1 1 0
σ 1 (i) > σ 1 (j) σ 2 σ 1 (i) > σ 2 σ 1 (j) 1 0 1
Ela mostra que quando há uma inversão em σ 2 σ 1 ou há uma inversão em σ 1 ou há
uma em σ 2 mas não em ambas ao mesmo tempo. Quando não há inversão em σ 2 σ 1 então
não há inversão nem em σ 1 nem em σ 2 ou ambas apresentam uma inversão. Isto significa
que o número de inversões de σ 2 σ 1 e a soma do número de inversões em σ 1 e σ 2 têm a
mesma paridade. Isto implica na igualdade dos sinais
sign(σ 2 σ 1 ) = sign(σ 2 )sign(σ 1 ).
¤
Prova. Como σ −1 σ é a identidade cujo sinal é +1, segue sign(σ −1 )sign(σ) = sign(σ −1 σ) =
1. Logo, sign(σ −1 ) e sign(σ) são ambos iguais a +1 ou ambos iguais a −1. ¤
B.2 Determinante
Seja A = (aij ) uma matriz quadrada de ordem n. O determinante de A é definido por
X
det(A) = sign(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ
Teorema B.6 Se uma linha ou uma coluna de uma matriz quadrada for nula, seu deter-
minante é zero.
Prova. Quando a linha i for nula, aiσ(i) = 0 para toda permutação σ e assim, det(A) =
0. Uma coluna nula na matriz é uma linha nula na transposta. Assim, det(AT ) = 0 e,
portanto, det(A) = 0. ¤
Teorema B.8 Se duas linhas ou duas colunas de uma matriz quadrada forem iguais, seu
determinante é zero.
Prova. Se duas linhas da matriz A são iguais, ao trocar uma linha pela outra, a matriz
A permanece inalterada e seu determinante troca de sinal. Logo, det(A) = − det(A), o
que resulta em det(A) = 0. ¤
det(βA) = β n det(A).
Teorema B.12 Se uma linha de uma matriz quadrada A for um múltiplo de outra linha
de A, então det(A) = 0.
Teorema B.14 Se A = (aij ) for uma matriz quadrada triangular superior ou triangular
inferior, então
det(A) = a11 a22 · · · ann .
Prova. Se A for uma matriz quadrada de ordem n, triangular superior, então aij = 0
quando i > j. Sendo σ uma permutação de {1, 2, . . . , n} termo
será não nulo apenas quando σ(1) ≥ 1, σ(2) ≥ 2, . . . , σ(n) ≥ n. Isto só ocorre se σ(n) = n,
. . . , σ(2) = 2, σ(1) = 1. Daí, o único termo não nulo do determinante de A é a11 a22 · · ·
ann . ¤
Teorema B.17 Se E for uma matriz elementar e A uma matriz quadrada, todas de
ordem n, então det(EA) = det(E) det(A).
Prova. Se E for uma matriz elementar que permuta a linha i com a linha j, então
det(E) = −1 e det(EA) = − det(A), provando que det(EA) = det(E) det(A) para este
caso.
Se E for uma matriz elementar que multiplica uma linha por r, então det(E) = r e
det(EA) = r det(A), provando que neste caso também vale o teorema.
Se E for uma matriz elementar que multiplica à linha i um múltiplo r da linha j, então
det(E) = 1 e det(EA) = det(A), provando que o teorema também vale neste último caso,
o que completa a prova do teorema. ¤
B.3 Cofator
Seja A = (aij ) uma matriz quadrada de ordem n. Seu determinante é
X
det(A) = sign(σ)a1σ(1) · · · anσ(n)
σ
P
onde o somatório σ percorre todas as permutações do conjunto S = {1, 2, . . . , n}.
Podemos agrupar esta soma do seguinte modo: tomemos todas as permutações que levam
1 em 1, depois aquelas que levam 1 em 2 e assim por diante, até aquelas que levam 1 em
Notas de aula do Prof. Antonio Cândido Faleiros 175
n. Nas permutações que levam 1 em 1 podemos colocar a11 em evidência; nas que levam
1 em 2, o a12 pode ser colocado em evidência e, naquelas que levam 1 em n podemos
colocar o a1n em evidência e escrever
det(A) = a11 c11 + a12 c12 + a13 c13 + · · · + a1n c1n .
O escalar c1j é chamado P de cofator de a1j .
Vemos que c11 = σ(1)=1 sign(σ)a2σ(2) · · · anσ(n) onde a soma percorre todas as per-
mutações que levam 1 em 1. A cada permutação σ em {1, 2, . . . , n} que mantém fixo o 1,
corresponde a uma permutação π em S 0 = {2, 3, . . . , n}, onde π(i) = σ(i) para i = 2, . . . ,
n. Ambas possuem o mesmo número de inversões e, portanto, possuem o mesmo sinal.
Para estabelecer o sinal de uma permutação, as inversões de um ponto fixo não precisam
ser contadas, uma vez que o número dessas inversões é um número par. Logo, c11 =
P
π sign(π)a2π(2) · · · anπ(n) é o determinante de uma matriz que se obtém de A excluindo
a primeira linha e a primeira coluna. Denotamos este determinante por A11 .
Em geral, vamos denotar por Aij o determinante da matriz obtida quando se elimina
a linha i e a coluna j de A.
Para determinar o termo c12 faz-se o seguinte raciocínio: Permutando a primeira
coluna de A com a segunda, obtemos uma matriz B = (bij ) onde b11 = a12 e det(B) =
− det(A). Desta igualdade segue b11 B11 + · · · = −a12 c12 + · · · e, como a12 = b11 , se conclui
que c12 = −B11 . O escalar B11 é o determinante da matriz obtida de B ao excluir sua
primeira linha e sua primeira coluna, que são a primeira linha e a segunda coluna de A.
Este determinante foi denotado por A12 . Desta forma, c12 = −A12 .
O termo c13 pode ser obtido trazendo a terceira coluna para o lugar da primeira,
fazendo duas permutações: basta trocar esta coluna sucessivamente com as que estão
à sua esquerda até conduzi-la para a posição da primeira. Neste processo, o sinal do
determinante da matriz se modifica duas vezes. O determinante da matriz final é igual
ao de A. Por um raciocínio análogo ao anterior, conclui-se que c13 = A13 , onde A13 é o
determinante da matriz obtida ao eliminar a primeira linha e a terceira coluna de A.
Prosseguindo com o raciocínio anterior, chega-se ao desenvolvimento
det(A) = a11 c11 + a12 c12 + a13 c13 + · · · + a1n c1n
onde c1j = (−1)1j A1j é o cofator de a1j e A1j é o determinante da matriz obtida ao eliminar
a linha 1 e a coluna j de A. Esta fórmula desenvolve o determinante pela primeira linha
e é conhecida por desenvolvimento do determinante pela primeira linha.
De modo semelhante, podemos desenvolver o determinante pela linha i, usando o
argumento seguinte. O determinante de A é a soma de diversas parcelas, cada uma com n
fatores. Dentre os fatores de uma parcela do determinante há um único elemento da linha
i. Aquelas parcelas que possuem como fator um elemento da linha i coluna j, não contém
como fator outro elemento da linha i nem outro elemento da coluna j. Nas parcelas que
possuem o fator aij , vamos colocá-lo em evidência. Denotemos por cij o termo que fica
multiplicado por aij e vamos chamá-lo de cofator de aij . Assim,
det(A) = aij cij + · · · ,
176 Notas de aula do Prof. Antonio Cândido Faleiros
onde os três pontos se referem às parcelas que contém elementos da linha i e colunas
distintas da j. Mediante transposição de linhas e colunas, podemos transformar a matriz
A numa matriz B, onde o elemento aij fique posicionado na linha 1 coluna 1 de B.
Basta transpor i − 1 vezes a linha i com as que estão acima, até posicioná-la no topo da
matriz. Em seguida, mediante j − 1 transposições da coluna j com as que estão à sua
esquerda, coloca-se o elemento aij na primeira posição da matriz. A cada transposição, o
determinante muda de sinal. Como há um total de (i−1)+(j −1) transposições, det(A) =
(−1)(i−1)+(j−1) det(B) = (−1)i+j det(B). O determinante de B possuirá parcelas onde um
dos fatores é o aij . Como aij ocupa a primeira linha primeira coluna de B, sabemos de
antemão que det(B) = aij cij + · · · onde cij é o determinante de uma matriz obtida de B
pela eliminação de sua linha 1 coluna 1. Ora, a matriz obtida ao eliminar a linha 1 coluna
1 de B é igual à matriz obtida ao eliminar a linha i coluna j de A. Assim, det(A) =
(−1)i+j aij det Aij , onde Aij é a matriz obtida de A retirando sua linha i e sua coluna j,
chamada de menor (i, j) de A. Provamos que o cofator de aij no desenvolvimento do
det(A) é cij = (−1)i+j det Aij .
Na soma que define o determinante de A, podemos colocar em evidência os elementos
ai1 , ai2 , . . . , ain . A parcela que contém um desses fatores não conterá os demais. Cada
um deles será multiplicado pelo seu cofator e assim
onde cij = (−1)i+j det A(i, j) é o cofator de aij . Como os elementos ai1 , ai2 , . . . , ain são
todos da linha i, a fórmula acima é conhecida por desenvolvimento do determinante pela
linha i.
Um argumento semelhante nos permite desenvolver o determinante pela coluna j.
Obtemos então o desenvolvimento do determinante pela coluna j
Definição B.22 Seja A uma matriz quadrada de ordem n. A matriz cujo elemento da
linha i coluna j é cji (observe a ordem dos índices em que primeiro vem o j e depois o i)
é chamada de matriz adjunta clássica de A e é denotada por adj(A).
Podemos usar o delta de Kronecker para unificar estas duas expressões em destaque
X
akj cij = δ ik det(A).
j
Ora, o lado esquerdo desta expressão é o elemento da linha k coluna i da matriz A· adj(A)
e o lado direito é o elemento da linha k coluna i da matriz det(A) · I, provando que
A · adj(A) = det(A) · I.
O lado esquerdo da expressão também é o elemento da linha i coluna k da matriz
adj(A) · A e o lado direito é o elemento da linha i coluna k da matriz det(A) · I, provando
que adj(A) · A = det(A) · I. ¤
Daí,
Y
Vn (x1 , . . . , xn ) = Vn−1 (x1 , . . . , xn−1 ) (xn − xi )
i<n
Y Y
= (xj − xi ) (xn − xi )
i<j<n i<n
Y
= (xj − xi )
i<j
Esta igualdade vale mesmo quando os xi não forem distintos dois a dois, caso em que o
determinante de Vandermonde é nulo.
Trocando o número xn pela variável x, Vn (x1 , . . . , xn−1 , x) se torna um polinômio em
x de grau n − 1 que possui x1 , . . . , xn−1 como raízes. Assim,
1. Multilinearidade
det[. . . , αvi + βwi , . . .] = α det[. . . , vi , . . .] + β det[. . . , wi , , . . .]
2. Alternatividade
det[. . . , vi , . . . , vj , . . .] = − det[. . . , vj , . . . , vi , . . .].
3. Normalização
det I = det[e1 , . . . , en ] = 1,
onde I é a matriz identidade de ordem n e ej = (0, . . . , 0, 1, 0, . . . , 0)T é a matriz
coluna n × 1 cujo único elemento não nulo é o da linha j, que é igual a 1.
Pela alternatividade, se uma coluna da matriz for nula ou se duas colunas forem iguais,
seu determinante é nulo. Agora, usando a multilinearidade e a observação acima, se α for
um escalar,
det(. . . , vi , . . . , vj + αvi , . . .) = det(. . . , vi , . . . , vj , . . .).
Daí fica evidente que, se uma coluna for uma combinação linear das demais, então seu
determinante é nulo. Se σ for uma permutação de {1, 2, . . . , n} então a alternatividade
garante que
det[eσ(1) , eσ(2) , . . . , eσ(n) ] = sign(σ)
P
pois a cada inversão de colunas há uma troca de sinal. Observando que vj = nij =1 aij j eij
obtemos XX X
det(A) = ··· ai1 1 ai2 2 · · · ain n det[ei1 , ei2 , . . . , ein ].
i1 i2 in
Se dois índices em det[ei1 , ei2 , . . . , ein ] forem iguais, o determinante é nulo. Logo, as
parcelas não nulas são aquelas em que {i1 , i2 , . . . , in } for uma permutação σ de {1, 2,
. . . , n} e assim,
XX X
det(A) = ··· sign(i1 , i2 , . . . , in )ai1 1 ai2 2 · · · ain n
i1 i2 in
X
= sign(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n
σ
[CaDoCo] Callioli, C.A., Domingues, H.H., e Costa R.C.F., Álgebra Linear e Aplicações.
Editora Atual.
[Hoffman] Hoffmann & Kunze, Álgebra Linear. Editora da USP com Editora Polígono.
[Kolman] Bernard Kolman, Introdução à Álgebra Linear com Aplicações, sexta edição.
Editora LTC, 1998.
[Lawson] Terry Lawson, Álgebra Linear. Editora Edgard Blücher, 1997. Acompanham
este livro: Matlab Labs for Linear Algebra, Mathematica Labs for Linear
Algebra, Maple Labs for Linear Algebra.
[Nering] Evar D. Nering, Linear Algebra and Matrix Theory. John Wiley & Sons, 1970.
[NobDan] Ben Noble & James W. Daniel, Álgebra Linear Aplicada. Guanabara Koogan.
[Poole] David Poole (Foi traduzido), Linear Algebra: A Modern Introduction (with
CD-ROM) 2ed. Brooks Cole 2005.
[RoHo] Chris Rorres e Howard Anton, Álgebra Linear com Aplicações, oitava edição.
Editora Bookman, 2001.
[TrefBau] Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra. SIAM,
Society for Industrial and Applied Mathematics, 1997.
181