Beruflich Dokumente
Kultur Dokumente
Álgebra Linear
Editora Fundamentos
16 de junho de 2003
Prefácio
Esse texto foi redigido para atender aos diversos Cursos oferecidos pela Univer-
sidade Federal do Ceará que possuem na sua integralização a disciplina semestral
Introdução à Álgebra Linear. Ela é ministrada por professores do Departamento de
Matemática e sua ementa é desenvolvida em 4 h por semana.
Embora não seja necessário, para facilitar a leitura do texto, o aluno precisará
de um conhecimento mı́nimo de Geometria Analı́tica e determinantes. Os tópicos
estudados no Ensino Médio são mais do que suficientes.
i
Sı́mbolos
I. Alfabeto grego
α . . . . . . . . . . . . . . . . . . . . . . . . . . . alfa
β . . . . . . . . . . . . . . . . . . . . . . . . . . beta
γ, Γ . . . . . . . . . . . . . . . . . . . . . . . gama
δ, ∆. . . . . . . . . . . . . . . . . . . . . . . .delta
, ε . . . . . . . . . . . . . . . . . . . . . . . epsilon
ζ . . . . . . . . . . . . . . . . . . . . . . . . . . . . zeta
η . . . . . . . . . . . . . . . . . . . . . . . . . . . . .eta
θ, Θ, ϑ . . . . . . . . . . . . . . . . . . . . . . teta
ι . . . . . . . . . . . . . . . . . . . . . . . . . . . . iota
κ . . . . . . . . . . . . . . . . . . . . . . . . . . . capa
λ, Λ . . . . . . . . . . . . . . . . . . . . . lambda
µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . mu
ν . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ni
ξ, Ξ . . . . . . . . . . . . . . . . . . . . . . . . . . qui
ø . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .o
π, Π, . . . . . . . . . . . . . . . . . . . . . . . pi
ρ, . . . . . . . . . . . . . . . . . . . . . . . . . . . rô
σ, Σ, ς . . . . . . . . . . . . . . . . . . . . sigma
τ . . . . . . . . . . . . . . . . . . . . . . . . . . . . tau
υ, Υ . . . . . . . . . . . . . . . . . . . . . upsilon
phi, ϕ, Φ . . . . . . . . . . . . . . . . . . . . . . fi
ψ, Ψ . . . . . . . . . . . . . . . . . . . . . . . . . psi
ω, Ω . . . . . . . . . . . . . . . . . . . . . . ômega
1 O espaço vetorial Rn 2
1.1 O conjunto Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 O espaço vetorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Combinação linear e base canônica . . . . . . . . . . . . . . . . . . . 8
1.4 Outras bases de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Sistema linear e combinação linear . . . . . . . . . . . . . . . . . . . 17
1.7 Leitura complementar . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Geomeria Analı́tica 25
2.1 Áreas e volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Retas e planos I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Produto interno 32
3.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Retas e planos II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Produto vetorial em R3 . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.6 Leitura complementar . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4 Subespaço vetorial 46
4.1 Subespaço e equação linear homogênea . . . . . . . . . . . . . . . . . 46
4.2 Subespaço e combinação linear . . . . . . . . . . . . . . . . . . . . . 49
4.3 O subespaço [[v1 , v2 , ..., vn ]] . . . . . . . . . . . . . . . . . . . . . . . 51
4.4 Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.6 Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
iii
SUMÁRIO
5 Transformações lineares 68
5.1 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . 73
5.3 Teorema do núcleo e da imagem . . . . . . . . . . . . . . . . . . . . 76
5.4 Operações com transformações lineares . . . . . . . . . . . . . . . . . 78
5.5 Transformações lineares invertı́veis . . . . . . . . . . . . . . . . . . . 80
6 Operadores lineares 89
6.1 Construindo operadores lineares . . . . . . . . . . . . . . . . . . . . . 89
6.2 Autovalor e Autovetor . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.3 Teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1
Capı́tulo 1
O espaço vetorial Rn
Esse capı́tulo tem dois objetivos. Primeiro, apresentar o espaço vetorial Rn , um
conjunto algébrico. Segundo, relacionar o plano e o espaço Euclidanos com os
conjuntos algébricos, R2 e R3 , respectivamente, estabelecendo uma ponte entre
esse novo conceito com os conhecimentos adqüiridos pelo leitor desde o Ensino
Médio. Ressaltamos que iremos discorrer sobre três objetos, um deles algébrico,
o Rn , enquanto os outros dois serão geométricos, o plano e o espaço, conceitos
não definidos. Um quarto objeto, a figura desenhada no papel, serve apenas para
organizar as idéias. Nesse texto, os termos função e aplicação possuem o mesmo
significado.
1.1 O conjunto Rn
Denotamos por Rn o conjunto das n-uplas ordenadas de números reais, ou seja,
Rn = {(x1 , x2 , ..., xn ); xi ∈ R para todo inteiro i, 1 ≤ i ≤ n}.
Os elementos deste conjunto são chamados de pontos e, por simplicidade, muitas
vezes indicaremos um ponto de Rn como
v = (x1 , x2 , ..., xn ).
Num primeiro momento, esses são os conjuntos para os quais voltaremos nosso
interesse. Observe que v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ) são iguais, v = w, se,
e somente se, xi = yi para todo i = 1, 2, ..., n. Para organizar a escrita utilizaremos
letras minúsculas para indicar os pontos de Rn . Por exemplo, ao escrevermos p =
(z1 , z2 , ..., zn ) estaremos indicando um ponto do Rn . A notação P (z1 , z2 , ..., zn ) será
apresentada logo a seguir e denotrará outro objeto.
A maior parte do texto está relacionada com os conjunto R2 e R3 , por isso,
reservaremos uma notação especial para indicar seus elementos. Para o primeiro
2
1.1. O CONJUNTO RN
conjunto, muitas vezes, indicaremos um par ordenado por v = (x, y) e uma tripla
ordenada em R3 será registrada na forma v = (x, y, z).
As idéias de ponto, reta, plano e espaço empregadas na Geometria Euclidiana
são auto-explicáveis, não suportam uma definição. Denotaremos uma reta, um
plano e um espaço Euclidianos por E1 , E2 e E3 , respectivamente. A identificação
entre os conjuntos algébricos R1 , R2 e R3 com aqueles é do conhecimento de todos,
mas recapitulemos a construção que justifica a existência da Geometria Analı́tica.
Observamos que devemos distinguir o conjunto algébrico, o conjunto Euclidiano e
as figuras que você faz no papel.
O conjunto das 1-upla ordenadas, R1 = {(x); x ∈ R}, é canonicamente identifi-
cado com o conjunto dos números reais R. Não distinguiremos uma 1-upla ordenada
(x) ∈ R1 de um número real x ∈ R. Para construir uma correspondência um a um
entre os números reais R e os pontos de uma reta Euclidiana E1 , fixamos uma uni-
dade e associamos a cada ponto de uma reta Euclidiana E1 um único número real,
o qual é chamado de abscissa do ponto.
Com isso, temos definido uma aplicação P : R →
E1 , pela regra P (x) é o ponto da reta Euclidiana
cuja abscissa é x.
Seja (x, y) ∈ R2 . Escolhidos dois eixos Cartesianos
num plano Euclidiano E2 , digamos ox e oy, defini-
mos P : R2 → E2 , pela regra P (x, y) é o ponto do
plano Euclidiano cuja abscissa é x e a ordenada é
y. Reciprocamente, cada ponto no plano é associ-
ado a um único par ordenado. Fixado o sistema de
eixos, o plano Euclidiano passa a ser chamado de
plano Cartesiano.
Da mesma forma, seja v = (x, y, z) ∈ R3 . Fixados
três eixos Cartesianos em E3 , ox, oy e oz, defini-
mos a aplicação P : R3 → E3 por, P (x, y, z) é o
ponto do espaço Euclidiano tal que a abscissa é
x, a ordenada é y e a altura é z. Certamente o
leitor está acostumado com a notação P (x, y, z).
Quando fixamos um sistema de eixos em E3 passa-
mos a chamá-lo de espaço Cartesiano.
Indicamos pontos de En , n = 1, 2, 3, por letras maiúsculas. Por exemplo, U ∈ E2
significa um ponto do plano Euclidiano. Ao escrevermos U (2, 3) estamos supondo
que já fixamos os eixos Cartesianos e este ponto é imagem do ponto u = (2, 3) ∈ R2 ,
pela aplicação P : R2 → E2 . Essa será uma regra notacional. O ponto v = (x, y)
3
CAPÍTULO 1. O ESPAÇO VETORIAL RN
terá sua imagem pela aplicação P indicada por V (x, y) em lugar de P (x, y), o ponto
w = (−1, 4) terá sua imagem indicada por W (−1, 4), etc. Uma regra notacional
similar será utilizada para R3 .
É fácil verificar que as duas operações gozam de várias propriedades, como por
exemplo, a soma de vetores é comutativa, v + w = w + v, ou que a soma de qualquer
vetor v com o vetor nulo é o próprio vetor, v +o = v. Novamente, remetemos o leitor
4
1.2. O ESPAÇO VETORIAL RN
Exemplo 1.2.2 Um vetor pode ser representado por vários segmentos orientados
diferentes. Vejamos duas representações para o vetor v = (1, 2) ∈ R2 .
5
CAPÍTULO 1. O ESPAÇO VETORIAL RN
6
1.2. O ESPAÇO VETORIAL RN
7
CAPÍTULO 1. O ESPAÇO VETORIAL RN
8
1.3. COMBINAÇÃO LINEAR E BASE CANÔNICA
A primeira pergunta tem resposta fácil. Existe pelo menos uma base ordenada
para o Rn . O subconjunto de n vetores C = {e1 , e2 , ..., en } cujos elementos são
e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ... en = (0, 0, ..., 1).
é uma base. O subconjunto C será chamado de base canônica pelos seguintes mo-
tivos. Dado um vetor w = (x1 , x2 , ..., xn ) ∈ Rn é imediato mostrar que w é uma
combinação linear do vetores de C e quais são os coeficientes da combinação linear:
w = (x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en .
9
CAPÍTULO 1. O ESPAÇO VETORIAL RN
10
1.4. OUTRAS BASES DE RN
Exemplo 1.4.2 Seja β = {v1 , v2 } ⊂ R2 onde v1 = (1, 1) e v2 = (1, 2). Observe que
a) para u = (−1, 1) vale a combinação linear u = −3v1 + 2v2 ,
b) para v = (0, −1) vale a combinação linear v = v1 − v2 ,
c) para w = ( x, y) vale a combinação linear w = (2x − y)v1 + (y − x)v2 .
O item c) diz que o conjunto β de dois vetores é uma base pois qualquer vetor
w = (x, y) do R2 é uma combinação linear de v1 e v2 onde os coeficientes da
combinação linear dependem das coordenadas do vetor, a1 = 2x − y e a2 = y − x.
Como foi determinado os coeficientes da combinação linear para w = (x, y)?
11
CAPÍTULO 1. O ESPAÇO VETORIAL RN
Logo, w = (2x − y)v1 + (y − x)v2 e os coeficientes são únicos pois são as únicas
soluções do sistema. Observamos que só existe uma combinação linear possı́vel para
expressar o vetor nulo, qual seja, o = (0, 0), é o = 0v1 + 0v2 . 2
12
1.4. OUTRAS BASES DE RN
det[v1 , ...vi−1 , w, vi+1 , ..., vn ] = Σnj=1 aj det[vi , v2 , ..., vi−1 , vj , vi+1 , ..., vn ].
No membro direito, a única parcela da soma que não é nula é precisamente quando
j = i, pois para ı́ndices diferentes de j duas colunas da matriz são iguais. Portanto,
Como o determinante da matriz [v1 , v2 , ..., vn ] não é zero, concluı́mos que ai neces-
sariamente é como descrito no enunciado.
Os coeficientes para expressar o vetor nulo o = (0, 0, ..., 0) como combinação
linear necessariamente deve ser ai = 0, para todo i, pois o numerador da fração é o
determinante de uma matriz com uma coluna igual a zero. 2
13
CAPÍTULO 1. O ESPAÇO VETORIAL RN
e de seus determinantes,
det[w, v2 , v3 ] = 2, det[v1 , w, v2 ] = −8, det[v1 , v2 , w] = 2.
Agora, podemos calcular os coeficientes procurados pela regra de Cramer,
det[w,v2 ,v3 ] det[v1 ,w,v2 ] det[v1 ,v2 ,w]
a1 = det[v1 ,v2 ,v3 ] = 1, a2 = det[v1 ,v2 ,v3 ] = −4, a3 = det[v1 ,v2 ,v3 ] = 1.
Portanto, w = (3, −2, 3) expressa-se como a combinação linear w = v1 − 4v2 + v3 .
Mais geralmente, mostre que um vetor w = (x, y, z) expressa-se nessa base como
a combinação linear w = (−y + z)v1 + (−x + y − z)v2 + (x − y − z)v3 . 2
2. Verifique quais dos conjuntos ordenados β = {v1 , v2 } ⊂ R2 é uma base. Caso seja,
expresse w = (x, y) por uma combinação linear com vetores da base.
a) v1 = (3, −1), v2 = (1, 2). b) v1 = (2, 1), v2 = (1, 2).
c) v1 = (−1, 2), v2 = (2, −4). d) v1 = (1, 0), v2 = (1, −1).
3. Verifique quais dos conjuntos ordenados β = {v1 , v2 , v3 } ⊂ R3 é uma base. Caso seja,
expresse w = (x, y, z) por uma combinação linear de vetores da base.
a) v1 = (0, 3, −1), v2 = (1, 1, 2), v3 = (1, 1, 1).
b) v1 = (2, 1, 1), v2 = (3, −1, 2), v3 = (0, 0, 0).
c) v1 = (1, 1, 2), v2 = (2, 0, 0), v3 = (0, 1, 1).
d) v1 = (1, 1, 1), v2 = (3, −2, 1), v3 = 2v1 − v2 .
5. Se β = {v1 , v2 , ..., vn } uma base de Rn . Escreva vi como uma combinação linear dos
vetores de β. Escreva o vetor nulo o como uma combinação linear dos vetores de β.
14
1.5. DETERMINANTES
1.5 Determinantes
A técnica básica para estudar problemas de Álgebra Linear é a resolução de sistemas
lineares. Existem muitos métodos para resolução: método de Gauss, escalonamento
de matrizes, substituição, etc. Nesse texto utilizaremos, preferencialmente, a regra
de Cramer, método mais claro e apropriado para o estudo dos espaços R2 e R3 .
Como necessitaremos de determinantes para a resolução de sistemas lineares faremos
uma breve apresentação do tópico ficando as demonstrações no capı́tulo final.
No que segue o sı́mbolo [A] = [v1 , v2 , ..., vk ] indica uma matriz quadrada k ×
n onde as colunas são as coordenadas de um vetor vi ∈ Rn . Nessa notação a
matriz identidade n × n escreve-se como [I] = [e1 , e2 , ..., en ], onde ei indica o i-ésimo
elemento da base canônica do Rn .
O determinante de uma matriz 2 × 2 Sejam v1 = (a, b) e v2 = (c, d) veto-
res do R2 . Definimos
a c
det[v1 , v2 ] = det = ad − bc.
b d
15
CAPÍTULO 1. O ESPAÇO VETORIAL RN
Teorema 1.5.1 Seja [A] = [v1 , v2 , ..., vn ] uma matriz quadrada n × n. As seguin-
tes afirmações são eqüivalentes:
1. det[A] = 0;
2. existe um vetor coluna que é combinação linear dos outros vetores colunas;
3. existe um vetor linha que é combinação linear dos outros vetores linhas.
16
1.6. SISTEMA LINEAR E COMBINAÇÃO LINEAR
Exercı́cio 1.5.3 Mostre que cada matriz tem determinante nulo e justifique.
2 1 3 1 0 2
1 3
a) , b) −1 3 2 , c) 1 −1 3 . 2
2 6
1 3 4 3 −2 8
Prova 1. Se vi = 0, ele é uma combinação linear dos outros vetores colunas, a saber,
vi = 0v1 + · · · + 0vi−1 + 0vi+1 + · · · + 0vn . Isso implica que o determinante é igual
a zero.
2. O argumento é o mesmo. Se duas colunas são iguais, digamos, vi = vj ,
o vetor coluna vi é uma combinação linear dos outros vetores colunas, a saber,
vi = 0v1 + · · · + 0vi−1 + 0vi+1 + · · · + 1vj + · · · + 0vn .
3. Observe que det[v1 , ..., vi + vi+1 , vi + vi+1 , ..., vn ] = 0, pois duas colunas adja-
centes são iguais. Utilizando a linearidade do determinante mostramos a igualdade
desejada. 2
17
CAPÍTULO 1. O ESPAÇO VETORIAL RN
18
1.6. SISTEMA LINEAR E COMBINAÇÃO LINEAR
1 2 1 0 2 0
[v1 , v2 ] = , [v1 , v3 ] = , [v2 , v3 ] = ,
1 2 1 1 2 1
e somente as duas últimas têm determinante diferente de zero. Resolvamos o sub-
sistema correspondene à segunda submatriz cujo determinante é det[v1 , v3 ] = 1,
a1 + = 2 − 2a2 1 0 a1 2 − 2a2
ou = .
a1 + a3 = −1 − 2a2 1 1 a3 −1 − 2a2
Para calcular os coeficientes pela regra de Cramer precisaremos das matrizes auxi-
liares,
2 − 2a2 0 1 2 − 2a2
[w − a2 v2 , v3 ] = , [v1 , w − a2 v2 ] = ,
−1 − 2a2 1 1 −1 − 2a2
e de seus determinantes,
det[w − a2 , v3 ] = 2 − 2a2 , det[v1 , w − a2 v2 ] = −3.
Agora, calculando os coeficientes pela regra de Cramer encontramos
det[w−a2 v2 ,v3 ] det[v1 ,w−a2 v2 ]
a1 = det[v1 ,v3 ] = 2 − 2a2 , a3 = det[v1 ,v3 ] = −3.
Portanto, w = (2, −1) expressa-se como a combinação linear
w = (2 − 2a2 )v1 + a2 v2 − 3v3 .
Isto é, não existe unicidade de combinação linear, para cada valor de a2 escolhido
a combinação linear para expressar w é diferente:
◦ w = 2v1 + 0v2 − 3v3 se a2 = 0
◦ w = 0v1 + 1v2 − 3v3 se a2 = 1 2
◦ w = 3v1 − 1v2 − 3v3 se a2 = −1
Exemplo 1.6.3 Nos dois exemplos acima, os sistemas são solúveis. No primeiro
exemplo existe apenas uma solução, isto é, uma única combinação linear para ex-
pressar o vetor w. No segundo exemplo existem infinitas soluções, o vetor w pode
ser expresso por uma infinidade de combinações lineares diferentes.
Quando o número de equações é maior que o número de incógnitas, o sistema
linear pode ser solúvel, ou não. Dado o sistema 3 × 2,
a1 + 2a2 = 1 1 2 1
a1
a1 + a2 = −1 ou 1 1 = −1 .
a2
2a1 − 3a2 = −2 2 −3 −2
Em liguagem vetorial, desejamos saber se existem escalares a1 e a2 que sejam
os coeficientes de uma combinação linear dos vetores colunas para expressar o vetor
w = (1, −1, 2) ∈ R3 , w = a1 v1 + a2 v2 , onde v1 = (1, 1, 2) e v2 = (2, 1, −3).
Não podemos utilizar imediatamente a regra de Cramer pois a matriz princi-
19
CAPÍTULO 1. O ESPAÇO VETORIAL RN
20
1.6. SISTEMA LINEAR E COMBINAÇÃO LINEAR
a1
a1 + a2 = 1 1 1 0 a2 = 1 .
ou
a1 + a3 = 2 1 0 1 2
a3
Tendo a solução do subsistema verificamos se ela satisfaz a equação eliminada. 2
21
CAPÍTULO 1. O ESPAÇO VETORIAL RN
c) Mostre que existem vetores de R2 que não são escritos como combinação linear
do vetor de α = {v1 }.
22
1.7. LEITURA COMPLEMENTAR
Respostas e sugestões
Seção 1.2
1) V=válido, N=não válido.
a) N. b) N. c) V. d) V. e) V. f ) N. g) N. h) N.
i) N. j) N. k) N. l) V. m) V. n) N. o) V.
2) 3v − w = (3, −1) e v + 2w = (8, −5). Representantes com ponto inicial a origem são,
−→ −−→
respectivamente, OA e OB, onde A(3, −1) e B(8, −5). Representantes com ponto
−→ −→
inicial P (−2, 1) são, respectivamente, P R e P S, onde R(1, 0) e S(6, −4).
3) b) São representantes, respectivamente, de u = (−4, 4), v = (5, −1) e w = (0, 0). O
−−
→
segmento orientado QP representa −u.
−→ −−→
c) A soma u + v é representado por P T onde T (2, 2) e 2u é representado por N M
onde N (10, −6).
4) Observe que as diagonais de um paralelogramo intercetam-se no ponto médio.
Seção 1.4
1) a) w = (3, 6, 8). b) w = (x, y, z). c) w = (0, 0, 0). d) w = v2 .
2) Será uma base de R2 se det[v1 , v2 ]
= 0. Somente os vetores em c) não formam uma
base.
a) (x, y) = −x+2y
7 v1 + x+3y
7 v2 . b) (x, y) =
2x−y 2y−x
3 v1 + 7 v2 . d) (x, y) = (x−y)v1 −yv2 .
23
CAPÍTULO 1. O ESPAÇO VETORIAL RN
24
Capı́tulo 2
Geomeria Analı́tica
Como aplicação da teoria já vista faremos uma breve apresentação de Geometria
Analı́tica com tratamento vetorial. Destacaremos as equações de retas e planos em
R2 e R3 em cujas construções serão utilizadas o conceitos de área e volume.
determinante da matriz cujas entradas são as coordenadas dos vetores como indicado
anteriormente,
| det[u, v]|,
é definido como o valor da área do paralelogramo. Quando o determinante é nulo,
significa que o paralelogramo é degenerado, não tem o comprimento ou não tem
altura. Mais ainda, a área de um paralelogramo obtido por transposte paralelo
daquele construı́do com um dos vértices na origem O(0, 0) tem a mesma área.
Observe que uma das diagonais do paralelogramo representa o vetor soma u + v.
26
2.2. RETAS E PLANOS I
a) P (0, 0), Q(1, 2), R(1, 3) e S(2, 5). b) P (1, 1), Q(3, 2), R(7, 7) e S(5, 6).
5. Considere os pontos do plano Cartesiano P (1, 1), Q(3, −3) e R(5, −2).
27
CAPÍTULO 2. GEOMERIA ANALÍTICA
28
2.2. RETAS E PLANOS I
x−1 1 −4
0 = det[u, v, w] = det y − 1 0 −3 = −3x + 4y − 3z + 2.
z − 1 −1 0
Sendo assim, o plano de E3 determinado por P , Q e R pode ser descrito como
Γ = {A(x, y, z) ∈ E3 ; 3x − 4y + 2z = 2}.
Seguindo a convenção notacional, diremos que o conjunto correspondente em R3 é
um plano e denotamos também por Γ = {(x, y, z) ∈ R3 ; 3x − 4y + 2z = 2}.
Retas em E3 Na Geometria Euclidiana espacial, dois pontos distintos, digamos P
e Q em E3 , determinam uma única reta Γ ⊂ E3 e a reta é a interseção de dois planos
distintos Γ1 e Γ2 , onde cada um deles contém os pontos dados, isto é, Γ = Γ1 ∩ Γ2 .
Tais postulados, indicam que podemos utilizar duas equações lineares para descrever
o conjunto Γ. Apresentemos um procedimento para descrever por equações lineares
a reta que contém P e Q.
Suponha que ao fixarmos um sistema de eixos Cartesiano em E3 tenhamos
P (2, 1, 0) e Q(−3, −2, 1). Para determinar um plano Γ1 que contenha esses pon-
tos basta escolher um terceiro ponto que não esteja sobre a reta definida por P e
Q, e considerar o plano Γ1 determinado pelos três pontos, P , Q e R. Para não
alongarmos as manipulações algébricas, escolhamos o terceiro ponto como sendo
R(1, 1, 1). Como vimos acima, a equação do plano já foi calculada, Γ1 = {A(x, yx) ∈
E3 ; 3x − 4y + 2z = 2}.
Agora, devemos escolher qualquer ponto que não pertença à Γ1 para determinar
o segundo plano Γ2 . O ponto S(0, 0, 0) serve aos propósitos, pois não pertence ao
plano Γ1 . Como sempre, consideremos um ponto
genérico A(x, y, z) ∈ Γ2 e os segmentos orienta-
−→ −→ −→
dos SA, SP e SQ, representante dos vetores u =
(x, y, z), v = (2, 1, 0) e w = (−3, −2, 1), respecti-
vamente. Calculando o volume do paralelepı́pedo
cujas arestas são paralelas a aqueles segmentos ob-
temos
0 = det[u, v, w] = x − 2y − 3z.
Logo, Γ2 = {A(x, y, z) ∈ E2 ; x − 2y − 3z = 0} e a
reta fica determinada por duas equações lineares,
Γ = {A(x, y, z) ∈ E2 ; x − 2y − 3z = 0 e 3x − 4y + 2z = 2}.
Para finalizar, deixamos um resumo dos fatos sobre equações lineares homogêneas
e Geometria Analı́tica que foram estudados nessa seção.
29
CAPÍTULO 2. GEOMERIA ANALÍTICA
Respostas e sugestões
Seção 2.1
1) a) área = 1. b) área = 3.
2) área = 1. 3) área = 0. 4) volume = 0.
5) a) u = (2, −4) e v = (2, 1). b) u + v = (4, −3) e u − v = (0, −5) são representados,
−→ −→
respectivamente, pelos segmentos orientados P S e P T , onde S(5, −2) e T (1, −4). c)
7 −2 13 −7
S(3, 3) e área = 8. d) A( 3 , 3 ) e B( 3 , 3 ).
6) volume = 15. Existem infinitos paralelepı́pedos cujas arestas são segmentos orienta-
dos que representam os vetores.
Seção 2.2
1) a) E : 2x + y − 3 = 0. b) E : 3x + 3y − 3 = 0. c) E : x − 1 = 0.
d) E : y − 4 = 0. e) E : x − y = 0. f ) E : x + 2y = 0.
2) a) E : x + z − 2 = 0. b) E : −3x + 2y + z = 0. c) E : 9x + y + 2z + 11 = 0.
d) E : y − x = 0. e) E : x = 0.
30
2.2. RETAS E PLANOS I
3) Como uma reta fica definida pela interseção de dois planos, escolhemos o primeiro
plano definido pelos pontos P QR, onde R está indicado no exercı́cio anterior. Depois
escolhemos um ponto S fora desse plano e calculamos a equação do plano P QS. Cada
reta é determinada por duas equações.
a) E : x + z − 2 = 0 e 3x + 2y − 3z = 0.
31
Capı́tulo 3
Produto interno
No primeiro capı́tulo estudamos um conjunto algébrico formado pelas n-úplas orde-
nadas, Rn , e induzimos no conjunto uma estrutura de espaço vetorial real. Também
relacionamos o conjunto R2 e R3 com a Geometria Euclidiana, plana e espacial,
respectivamente. Nesse capı́tulo, para compreender melhor os conjuntos algébricos,
continuaremos a relacioná-los com os conjuntos geométricos. Para isso, é conveni-
ente introduzir uma função bilinear, chamada de produto interno em Rn que servirá
para estabelecer conceitos geométricos tais como comprimento, distância e ângulo
em Rn . O produto interno será a nossa régua e compasso.
32
3.2. NORMA DE UM VETOR
33
CAPÍTULO 3. PRODUTO INTERNO
Fica como exercı́cio mostrar que o processo sempre produz um vetor unitário. 2
34
3.3. ÂNGULO ENTRE DOIS VETORES
35
CAPÍTULO 3. PRODUTO INTERNO
Logo, podemos garantir que existe um único θ ∈ [0, π], o qual será chamado de
ângulo entre os vetores não nulos v e w, tal que
v,w
cos θ = v w .
Portanto, para dois vetores não nulos, v e w, uma bela fórmula que relaciona produto
interno, norma (comprimento) e ângulo,
v, w = v wcosθ
onde θ ∈ [0, π] é o ângulo entre os dois vetores. Muitas vezes, para deixar claro que
o ângulo considerado é aquele formado pelos vetores v e w, escrevemos θ(v, w).
Exemplo 3.3.1 Calculemos o ângulo entre os vetores não nulos v = (2, −1, −1) e
w = (−1, −1, 2) de R3 . Pela definição, v, w = v wcosθ. Calculando,
√ √
v, w = −3, v = 6 e w = 6.
√ √
Da igualdade −3 = 6 6cos θ, obtemos cos θ = −1 2 . Portanto, o ângulo entre os
vetores é θ = 2π
3 . 2
36
3.4. RETAS E PLANOS II
37
CAPÍTULO 3. PRODUTO INTERNO
38
3.5. PRODUTO VETORIAL EM R3
−→
Como o segmento orientado P A representa o vetor v = (x − 2, y + 2, z − 1),
temos que 0 = v, η = x − 2 − y − 2 + 2z − 2. Logo, o plano é descrito como
Γ = {A(x, y, z) ∈ E3 ; x − y + 2z = 6}.
Novamente, os coeficientes da combinação linear são as coordenadas do vetor
η, indicando como devemos transcrever um plano definido por uma equação linear
para um plano que passa por um ponto e tem um vetor normal especı́fico.
39
CAPÍTULO 3. PRODUTO INTERNO
Prova i) Por definição temos que v, v × w = det[v, v, w]. Isto implica que a
matriz [v, v, w] tem duas linhas iguais. Como sabemos, nestas condições, podemos
garantir que o seu determinante é zero. Portanto, o produto interno de v por v × w
é zero, significando que v é perpendicular ao vetor v × w. O mesmo argumento vale
para w e v × w. Assim fica mostrado o item i).
ii) Utilizaremos propriedades conhecidas de combinação linear de vetores na
base canônica,
40
3.5. PRODUTO VETORIAL EM R3
v × w = det[e, v, w]
= 9e1 − 3e2 + 6e3
= (9, −3, 6).
41
CAPÍTULO 3. PRODUTO INTERNO
Prova A desigualdade de Cauchy-Schwarz nos garante que v2 w2 − v, w2 ≥ 0
e ocorre igualdade se, e somente se, v e w são colineares. Logo, pela Fórmula de
Lagrange podemos afirmar que v × w2 = v2 w2 − v, w2 = 0 se, e somente
se, v e w são colineares. 2
42
3.6. LEITURA COMPLEMENTAR
v + w2 = v + w, v + w
= v2 + w2 + 2v, w.
Por outro lado, por Cauchy-Schwarz podemos escrever v, w ≤ |v, w| ≤
vw. Sendo assim,
v + w2 = v2 + w2 + 2v, w
≤ v2 + w2 + 2vw
= (v + w)2 .
43
CAPÍTULO 3. PRODUTO INTERNO
Respostas e sugestões
Seção 3.1
1) Aplicando a definição de produto interno obtemos os valores,
a) v1 , v1 = 8, v1 , v2 = v2 , v1 = −4, v1 , v3 = v3 , v1 = 8.
b) v1 , v1 = 6, v1 , v2 = v2 , v1 = 0, vi , v3 = v3 , vi = 0.
c) v1 , v2 = 7. v2 , v1 = 7
2) Γ = {(x, y) ∈ R2 ; 3x + 2y = 0} corresponde a uma reta que contém a origem de E 2 e
o ponto P (−2, 3).
3) Γ = {(x, y, z) ∈ R3 ; x − 2y + z = 0} corresponde a um plano que contém a origem de
E 3 e os pontos P (2, 1, 0) e Q(1, 0, −1).
Seção 3.2 √ √ √ √
1) a) v = √5, w = 13, u = 1. 2) a) 5.√ b) 2. c) 2√ 2.
b) v = √ 5, w = 1, u = 1. d) 2 6. e) 1. f) 3.
21
√
c) v = 2 , w = 13, u = 1.
3) O vetor é unitário. O segmento orientado que representa u com ponto inicial a origem
faz um ângulo θ com o eixo ox, medido no sentido anti-horário. O esboço de todos
os pontos é um cı́rculo de raio r = 1 centrado na origem.
Seção 3.3
1) Nenhum vetor é o vetor nulo. Não existe obstrução para calcular o ângulo entre os
vetores dados. Veja a fórmula que relaciona produto interno, norma e cosseno do
ângulo entre vetores não nulos.
3π π π π
a) θ= 4 b) θ= 2 c) θ= 2 d) θ= 4.
2) Veja a fórmula que relaciona produto interno, norma e cosseno do ângulo entre vetores
não nulos.
a) x = 1 ou x = −17. b) y = 0 ou y = 2.
3) Dado η = (a, b), um vetor perpendicular ao vetor η é v = (−b, a). Qualquer vetor
perpendicular ao vetor η, v = (x, y), deve ter coordenadas que satisfazem a equação
(a, b), (x, y) = 0 = ax + by. Logo temos as respostas,
a) v = (3, 2), Γ = {(x, y) ∈ R2 ; −2x + 3y = 0}.
b) v = (−3, 3), Γ = {(x, y) ∈ R2 ; 3x + 3y = 0}.
c) v = (1, 1), Γ = {(x, y) ∈ R2 ; x − y = 0}.
44
3.6. LEITURA COMPLEMENTAR
4) Um vetor u = (x, y, z), simultaneamente ortogonal aos vetores dados, deve satisfazer
as equações u, v = 0 = 2x + y e u, w = 0 = x − y + 2x. Logo, os únicos vetores
unitários que satisfazem a essas equação são u = ( √229 , − √429 , − √329 ) ou −u.
Section 3.4)
1) a) Γ = {(x, y, z) ∈ R3 ; −2x + 3y = 0}. c) Γ = {(x, y, z) ∈ R3 ; y = 0}.
2) Examine o ângulo entre os vetores normais.
a) θ1 = θ2 = π2 . b) θ1 = π4 e θ2 = 3π
4 .
Section 3.5
2) Para todos os pares de vetores vale a igualdade v × w = −w × v e
a) v × w = (1, 3, 2). b) v × w = (−2, 11, −5).
c) v × w = (0, 0, 0). d) v × w = (1, −1, 0).
−−→ −→
3) Sejam v e w vetores cujos representantes são, respectivamente, P Q e P R. Um vetor
normal ao plano definido pelos pontos P , Q e R é η = v × w.
a) η = (1, 0, −1). b) η = (−3, 2, 1). c) η = (−11, −1, −2). d) η = (−1, 1, 0).
5) Escolhemos qualquer vetor v não nulo e pependicular ao vetor u, consideramos w =
u × v e normalizamos cada vetor, u, v e w.
a) √13 (1, 1, 1); v = 12 (1, −1, 0), w = √16 (1, 1, −2).
6) A área de um paralelogramo cujos lados são segmentos orientados representanto v e
√ v × w.
w é igual ao valor √ √
a) v × w = 14. b) v × w = 140. c) v × w = 0. d) v × w = 2.
8) Não é verdadeira. Verifique para t = e1 , u = e1 , v = e2 e w = e3 .
45
Capı́tulo 4
Subespaço vetorial
Dentre todos os subconjuntos de Rn alguns são especiais, não apenas para a com-
preensão do texto, mas para a Álgebra Linear como um todo. São os chamados
subespaços vetoriais, subconjunto que são eles mesmo espaço vetorias. Para melhor
entendimento do espaço Rn é conveniente estudá-los.
O termo subespaço vetorial está bem empregado. O leitor pode verificar que Γ
satisfaz todas as condições listadas na definição de espaço vetorial, ficando o termo
subespaço por conta de Γ ser um subconjunto de Rn . Naquela definição é exigido
que o conjunto tenha um elemento neutro em relação à soma de vetores. De fato, um
subespaço Γ contém o vetor nulo. Se não, vejamos. Como Γ é não vazio, escolhemos
um vetor qualquer v ∈ Γ e o escalar λ = 0. Pelo item 3, podemos garantir que o
produto λv = o ∈ Γ. Por simplicidade, muitas vezes diremos que Γ é um subespaço
em lugar de subespaço vetorial.
Destacamos dois exemplos de subespaços de Rn , a saber, o subespaço trivial
constituı́do apenas pelo vetor nulo, Γ = {o}, e aquele formado por todos os vetores,
Γ = Rn . É claro, que estaremos também interessados em estudar os subespaços
próprios, aqueles que satisfazem a condição
{o} Γ Rn .
46
4.1. SUBESPAÇO E EQUAÇÃO LINEAR HOMOGÊNEA
O sı́mbolo significa que o subconjunto está contido mas não é igual ao conjunto.
Empregaremos duas técnicas para descrevê-los,
equações lineares homogêneas
subespaços definidos por
combinações lineares
Portanto, v + w ∈ Γ.
3. Sejam v = (x1 , y1 , z1 ) ∈ Γ e λ ∈ R. Por definição de Γ sabemos que x1 − 2y1 +
3z1 = 0. Desejamos verificar que λv = (λx1 , λy1 , λz1 ) também pertence a Γ.
Substituindo na equação linear homogênea temos
λx1 − 2λy1 + 3λz1 = λ(x1 − 2y1 + 3z1 ) = λ0 = 0.
Isso mostra que λv ∈ Γ.
Podemos afirmar algo mais. O subespaço Γ é próprio pois {o} Γ, desde que
(4, 2, 0) ∈ Γ, bem como, Γ R3 pois o vetor v = (1, 1, 1) ∈
/ Γ. 2
Exercı́cio 4.1.1 Siga o mesmo roteiro do exemplo acima para mostrar que os con-
juntos são subespaços.
47
CAPÍTULO 4. SUBESPAÇO VETORIAL
1. Verifique quais dos vetores, u = (2, 0, 2), v = (8, −2, 4) e w = (1, 1, 6), pertencem ao
subespaço Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.
7. Um subespaço pode ser definido por várias equações lineares homogêneas. Mostre
que o subconjunto Γ ⊂ R3 é um subespaço, onde
Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0}.
Verifique que esse subespaço é representado no espaço Cartesiano por uma reta que
contém a origem. Quais dos vetores, v = (1, 2, 1) e w = (0, 2, 2) pertencem a Γ?
Expresse o subespaço como uma interseção de subespaços, Γ = Γ1 ∩ Γ2 .
48
4.2. SUBESPAÇO E COMBINAÇÃO LINEAR
Exemplo 4.2.2 Consideremos um subespaço definido por uma equação linear ho-
mogênea, digamos que seja Γ = {(x, y, z) ∈ R3 ; x − y + 3z = 0}.
Um vetor w = (a1 , a2 , a3 ) pertence a Γ se, e so-
mente se, {a1 − a2 + 3a3 = 0 . Resolvendo esse sis-
tema, a1 = a2 − 2a3 , podemos afirmar que v ∈ Γ,
se, e somente se,
w = (a2 − 3a3 , a2 , a3 )
= (a2 , a2 , 0) + (−3a3 , 0, a3 )
= a2 (1, 1, 0) + a3 (−3, 0, 1).
49
CAPÍTULO 4. SUBESPAÇO VETORIAL
50
4.3. O SUBESPAÇO [[V1 , V2 , ..., VN ]]
51
CAPÍTULO 4. SUBESPAÇO VETORIAL
52
4.4. GERADORES
a1 + a2 = t 1 1 t
2 a1 x
2a1 + a2 = x 1 .
ou 1 −1 a2 = y
a1 − a2 = y
−2a1 + a2 = z −2 1 z
Para resolver por regra de Cramer, podemos considerar somente as duas primeiras
equações, isto é, suprimir por um momento as duas últimas,
a1 + a2 = t 1 1 a1 t
ou = .
2a1 + a2 = x 2 1 a2 x
Obtemos os valores a1 = −t + x e a2 = 2t − x. Mas esses valores devem satisfazer
também as duas equações suprimidas, logo por substituição devemos ter
a1 − a2 = y (−t + x) − (2t − x) = y
, .
−2a1 + a2 = z −2(−t + x) + (2t − x) = z
Portanto, um vetor (t, x, y, z) ∈ Γ se, e somente se, suas coordenadas satisfazem as
equações, −3t + 2x − y = 0 e 4t − 3x − z = 0. Logo, o subespaço pode ser redefinido
como Γ = {(t, x, y, z) ∈ R4 ; −3t + 2x − y = 0 e 4t − 3x − z = 0}. 2
4.4 Geradores
É claro que não existem apenas essas duas formas, com equações lineares ho-
mogêneas ou com combinações lineares, para definir um subespaço. Existem inúme-
ras outras. Um ponto importante da teoria é simplificar o estudo mostrando que
seja qual for o subespaço Γ ⊂ Rn ele sempre pode ser descrito como o espaço de
combinações lineares de vetores, isto é, Γ = [[v1 , v2 , ..., vk ]]. Esse é o nosso objetivo.
O conjunto de tais vetores recebem um nome especial.
53
CAPÍTULO 4. SUBESPAÇO VETORIAL
Exemplo 4.4.1 O conceito de geradores não é novo. Já vimos anteriormente que
qualquer base ordenada β = {v1 , v2 , ..., vn } de Rn é um conjunto de geradores para
Rn . Vimos e revimos que Rn = [[v1 , v2 , ..., vn ]], até foi exibido um conjunto especial
de geradores, a base canônica C = {e1 , e2 , ..., en }. Base é um caso especial de
geradores, da mesma forma que elefantes africanos são um tipo especial de elefante,
pois existem outros tipos, como elefantes indianos. 2
Exemplo 4.4.2 Seja Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (5, −1, 0), v2 = (2, 2, −2) e
v3 = (−1, −7, 6). Consideremos o vetor w ∈ Γ, w = 2v1 − v2 − v3 = (9, 3, −4). O
54
4.4. GERADORES
fato do terceiro vetor do conjunto de geradores ser uma combinação linear dos dois
primeiros vetores, v3 = v1 − 3v2 , nos permite escrever que w = 2v1 − v2 − v1 + 3v2 =
v1 + 2v2 . Logo, w ∈ [[v1 , v2 ]]. Essas contas numéricas indicam que ao suprimirmos
um vetor do conjunto de geradores que seja combinação linear dos outros vetores
do conjunto de geradores o subespaço gerado é o mesmo. Deixemos registrado esse
fato no principal teorema do capı́tulo. 2
Deste ponto em diante, a menos que seja dito explicitamente o contrário, passamos
a supor que os subespaços considerados Γ ⊂ Rn não são o subespaço trivial e os
conjuntos ordenados β = {v1 , v2 , ..., vk } são formados por vetores não nulos.
Prova 1. ⇒ 2.) Sem perder a generalidade, podemos supor que seja vk o vetor que é
uma combinação linear dos outros vetores da lista, vk = c1 v1 + c2 v2 + · · · + ck−1 vk−1 .
Já sabemos que [[v1 , ..., vk−1 , vk ]] ⊂ [[v1 , ..., vk−1 , vk ]]. Para mostrar a igualdade
devemos mostrar a inclusão oposta. Considere um vetor w = a1 v1 +a2 v2 +· · ·+ak vk
em [[v1 , v2 , ..., vk ]]. Substituindo vk por sua combinação linear e reagrupando as
parcelas obtemos
w = (ak c1 + a1 )v1 + (ak c2 + a2 )v2 + · · · + (ak ck−1 + ak−1 )vk−1 .
Claramente, w ∈ [[v1 , v2 , ..., vk ]] pois é uma combinação linear dos k − 1 primeiros
vetores.
2. ⇒ 3.) A hipótese [[v1 , ...vk−1 , vk ]] = [[v1 , ..., vi , ...vk ]] implica que o vetor
vk ∈ [[v1 , v2 , ..., vk−1 ]]. Logo, existem coeficientes ai ’s não todos iguais a zero (pois
vk não é o vetor nulo) tais que vk = a1 v1 + a2 v2 + · · · + ak−1 vk−1 . Portanto o vetor
nulo expressa-se como o = a1 v1 + · · · + ak−1 vk−1 − vk , onde os coeficientes não são
todos iguais a zero.
55
CAPÍTULO 4. SUBESPAÇO VETORIAL
56
4.4. GERADORES
57
CAPÍTULO 4. SUBESPAÇO VETORIAL
dependentes. Encontremos as outras combinações lineares para o pois ela nos dirá
qual o vetor que podemos eliminar da lista. Escrevendo o = a1 v1 + a2 v2 + a3 v3 ,
obtemos o sistema linear
a1 − 2a2 + a3 = 0 1 −2 1 a1 0
− a2 + a3 = 0 ou 0 −1 1 a2 = 0 .
a1 − a3 = 0 1 0 −1 a3 0
Não podemos utilizar regra de Cramer pois já sabemos que a matriz principal
(dos coeficientes) tem determinante igual a zero. Devemos suprimir uma equação
resolver o subsistema obtido e verificar se a solução satisfaz a equação suprimida.
Quando suprimimos a última equação, obtemos duas equações com três incógnitas,
a1
a1 − 2a2 + a3 = 0 1 −2 1 0
ou a2 = .
− a2 + a3 = 0 0 −1 1 0
a3
Como sempre, devemos escolher uma maior submatriz quadrada com determinante
diferente de zero e resolver o sistema que dependerá de um coeficiente,
a1 − 2a2 = −a3 1 −2 a1 −a3
ou = .
− a2 = −a3 0 −1 a2 −a3
É imediato concluir que a1 = a3 e a2 = a3 e a solução satisfaz a equação suprimida.
Portanto, o = a3 v1 + a3 v2 + a3 v3 , ou seja, uma combinação linea para cada escolha
de a3 . Para a3 = 1, segue que v1 é a combinação linear dos outros vetores, v1 =
−v2 − v3 . Logo, podemos eliminar v1 dos geradores do subespaço que ele continua
sendo gerado pelos outros vetores, Γ = [[v2 , v3 , v4 , v5 ]].
Como det[[v2 , v3 , v4 ]] = 0, um dos vetores é combinação linear dos outros dois.
Com os mesmos procedimentos concluı́mos que o = 2a4 v2 + 0v3 + a4 v4 . Logo, como
v4 = −2v2 + 0v3 ele pode ser eliminado obtendo Γ = [[v2 , v3 , v5 ]].
Finalmente, é visı́vel que v5 = 2v3 , ou seja, ele é a combinação linear dos outros
dois vetores, v5 = 0v2 + 2v3 . Logo, Γ = [[v2 , v3 ]].
Não podemos mais reduzir o conjunto de geradores pois ele é linearmente inde-
pendente. Para mostrar esse fato, não existe mais o critério do determinante ser
ou não igual a zero, pois não podemos formar uma matriz quadrada 3 × 3 utili-
zando dois vetores do R3 . Devemos mostrar que são l.i. pela definição. Escrever a
combinação linear o = a2 v2 + a3 v3 resolver o sistema correspondente e verificar que
a2 = a3 = 0. Portanto, só existe a combinação linear o = 0v2 + 0v3 . 2
58
4.4. GERADORES
Prova Como k > n podemos formar matrizes n × n cujos vetores colunas são
elementos do conjunto de geradores.
Se alguma matriz formada por n vetores do conjunto de geradores tiver deter-
minante diferente de zero, os vetores colunas formam uma base para o Rn , Γ = Rn ,
e os outros vetores da lista são combinações lineares dos vetores encontrados, logo,
o conjunto com k > n vetores é linearmente dependente e Γ é gerado por essa base
do Rn . Terminamos a demonstração.
Resta o caso de qualquer matriz formada por n vetores do conjunto de gerado-
res ter determinante igual a zero. Consideramos o conjunto {v1 , v2 , ..., vn }, como
algum vetor é combinação linear dos outos, o conjunto de geradores é linearmente
dependente. Eliminado dessa lista um vetor que seja combinação linear dos outros
vetores, temos agora o subespaço Γ gerado por k − 1 ≥ n vetores. Podemos con-
tinuar eliminando vetores do conjunto de geradores enquanto tivermos um número
de vetores maior ou igual a n utilizando o critério do determinante ser igual a zero.
Isso termina a demonstração. 2
59
CAPÍTULO 4. SUBESPAÇO VETORIAL
4.5 Base
Anteriormente, utilizamos o conceito de combinação linear para dar significado aos
termos ”β = {v1 , v2 , ...vk } é um conjunto ordenado de geradores de um subespaço
vetorial Γ”. O passo seguinte foi classificar os conjuntos ordenados de geradores em
dois tipos:
Quando o subespaço já está definido por um conjunto de geradores, desse con-
junto podemos extrair uma base utilizando reiteradamente a proposição da seção
anterior.
60
4.6. DIMENSÃO
4.6 Dimensão
Aprendemos que só é possı́vel diminuir o número de vetores de um conjunto de
geradores de um subespaço quando ele é linearmente dependente.
A idéia principal dessa seção é, de certa forma, percorrer o caminho inverso.
Dado um subespaço qualquer Γ ⊂ Rn , iremos escolher, sucessivamente, vetores v1 ,
v2 ,...,vk em Γ, linearmente independentes, até obter uma base ordenada e concluir
que Γ = [[v1 , v2 , ..., vk ]]. Como isso, chegamos ao nosso objetivo, todo subespaço
61
CAPÍTULO 4. SUBESPAÇO VETORIAL
não trivial do Rn possui uma base, aliás, podemos construir muitas bases distintas
aplicando os procedimentos indicados no seguinte lema.
Lema 4.6.1 Seja {v1 , v2 , ..., vk } uma base do subespaço Γk = [[v1 , v2 , ..., vk ]]. Se
vk+1 ∈
/ Γk = [[v1 , v2 , ..., vk ]] então {v1 , v2 , ..., vk , vk+1 } é uma base do subespaço
Γk+1 = [[v1 , v2 , ..., vk , vk+1 ]].
Prova Suponha, por absurdo, que os geradores de Γk+1 sejam l.d. Então o vetor
nulo tem uma expressão do tipo o = a1 v1 + a2 v2 + · · · + vk vk + ak+1 vk+1 onde os
coeficientes ai ’s não são todos iguais a zero. Logo, ak+1 vk+1 = −a1 v1 − a2 v2 − · · · −
vk vk . Se o coeficiente ak+1 for igual a zero, como nem todos os coeficientes são iguais
a zero, o vetor nulo é expresso por uma combinação linear com coeficientes nem todo
iguais a zero, o = −a1 v1 − a2 v2 − · · · − vk vk , de onde segue que os geradores de Γk
não são linearmente independente, uma contradição. Portanto, ak+1
= 0. Sendo
assim,
a1 a2 ak
vk+1 = v1 + v2 + · · · + vk .
ak+1 ak+1 ak+1
Isso implica que vk+1 ∈ Γk = [[v1 , v2 , ..., vk ]], uma contradição. Portanto, não
podemos supor que os k + 1 vetores são linearmente dependente, eles são l.i. 2
Teorema 4.6.1 Seja Γ ⊂ Rn um subespaço não trivial. Então existe uma base
ordenada α = {v1 , v2 , ..., vk } ⊂ Γ. Além de Γ = [[v1 , v2 , ..., vk ]] podemos afirmar:
a) o número de elementos de uma base ordenada de Γ é menor ou igual a n;
62
4.6. DIMENSÃO
Prova Suponha que α = {v1 , v2 , ..., vk } e β = {w1 , w2 , ..., wl } sejam duas bases de
um subespaço Γ ⊂ Rn . É claro que k ≤ n e l ≤ n. Vamos supor, por absurdo, que
k
= l, digamos que k < l.
Sabemos que Γ = [[v1 , v2 ..., vk ]] = [[w1 , w2 , ...wl ]]. Se acrescentarmos um vetor
vk+1 ∈
/ Γ à lista de geradores teremos duas bases de um subespaço contendo Γ,
63
CAPÍTULO 4. SUBESPAÇO VETORIAL
[[v1 , v2 ..., vk , vk+1 ]] = [[w1 , w2 , ...wl , vk+1 ]]. Por esse processo, escolhendo sucessiva-
mente vetores não pertencente ao novo subespaço construı́do, obtemos após n − k
etapas uma base para o Rn ,
Rn = [[v1 , v2 ..., vk , vk+1 , ..., vn ]] = [[w1 , w2 , ...wl , vk+1 , ..., vn ]].
Uma constradição, pois o conjunto de geradores {w1 , ..., wl , vk+1 , ..., vn } tem
mais de n vetores, ele não pode ser linearmente independente. Logo l = k. 2
O corolário acima permite a seguinte definição.
64
4.6. DIMENSÃO
Respostas e sugestões
Seção 4.1
1) Substitua as coordenadas de cada vetor na equação. Resposta: u e v.
2) O paralelepı́pedo está contido num plano, ele não possui volume positivo.
3) a) Subespaço próprio, corresponde ao eixo oy.
b) Subespaço próprio corresponde ao plano determinado pelas retas (eixos) ox e oz.
c) Não é subespaço próprio, Γ = R2 .
d) Subespaço próprio correspondente ao eixo ox.
5) Por regra de Cramer, verificamos que os vetores em Γ são os múltiplos do vetor
v = (1, 2, 1)
6) O ponto O(0, 0) ∈ E2 .
7) Γ1 = {(x, y, z) ∈ R3 ; x + 2y − 3z = 0} e Γ2 = {(x, y, z) ∈ R3 ; x − y + z = 0}. Como é a
interseção de dois planos, Γ corresponde a uma reta que contém a origem O(0, 0, 0).
8) O vetor v = (1, 1) ∈ Π, mas um múltiplo, por exemplo, 3v não pertence a Π.
9) a) O ponto v = (3, 2) ∈ Π, mas seu múltiplo 2v não pertence.
b) Corresponde a duas retas paralelas do plano Cartesiano, uma delas passando pela
origem o(0, 0).
Seção 4.2
65
CAPÍTULO 4. SUBESPAÇO VETORIAL
2) Como det[v1 , v2 ] = 1
= 0 v1 e v2 formam uma base do R2 . Por regra de Cramer,
expressamos qualquer vetor v = (x, y) ∈ R2 de um único modo, (x, y) = (5x − y)v1 +
(x − 4y)v2 . Resta particularizar para os vetores dados, u, v, w e t.
4) Solução semelhante ao do item anterior. Como det[v1 , v2 , v3 ] = −11
= 0, os vetores
formam uma base do R3 e cada vetor é expresso por (x, y, z) = −1 11 (−x + 2y − 5z)v1 +
−1 −1
11 (2x + 3y − 2z)v2 + 11 (2x + 4y − z)v3 . Resta particularizar para os vetores dados.
5) Somente u e v pertencem ao subespaço.
Seção 4.4
1) Como det[v1 , v2 , v3 ] = 0, eles são l.d. Na verdade, v3 = v1 + v2 . Logo, o = 0v1 +
0v2 + 0v3 e o = v1 + v2 − v3 . Para o vetor w podem ser as combinações lineares
w = v1 + v2 + 0v3 ou w = w + o = 2v1 + 2v2 − v3 .
2) Como det[v1 , v2 ]
= 0, os dois vetores formam uma base para o R2 . Logo, Γ =
[[v1 , v2 ]] = R2 e o terceiro vetor escreve-se como v3 = 54 v1 + 14 v2 . Dessa igualdade
segue que o vetor nulo, ou qualquer outro vetor, não tem unicidade de combinação
linear com os três vetores dados, o = 54 v1 + 14 v2 − v3 . Se w = (x, y) então w = w + o =
1 1
4 (x + 3y + 5)v1 + 4 (x − 2y + 1)v2 − v3 . Todos os vetores pertencem ao subespaço
2
Γ=R .
3) Como det[v1 , v2 , v3 ] = 0 eles são l.d. Verifica-se que v2 = 3v1 + 2v3 . Logo, Γ =
[[v1 , v3 ]] R3 . Somente u e w pertencem ao subespaço Γ.
4) a) Como det[v2 , v3 ]
= 0, β = {v2 , v3 } é um conjunto de geradores l.i. Observe que
Γ = [[v2 , v3 ]].
b) Como det[vi , vj ] = 0, eliminamos dois vetores. Escolha β = {v1 } como o conjunto
de geradores.
5) Utilize o critério do determinante.
a) e b) são linearmente independente e Γ = R3 .
c) Γ = [[v1 , v3 ]] R3 .
6) a) β = {(5, 2)} b) β = {(5, 2, 0)} c) β = {(1, 0, 0), (0, 1, 1)} d) β = {(1, 0, 1), (0, 1, 2)}
Seção 4.5
66
4.6. DIMENSÃO
67
Capı́tulo 5
Transformações lineares
O leitor já deve ter visto algumas vezes nos cursos de Cálculo, perguntas sobre
existência de funções do tipo: Existe uma função f : R → R tal que f (x) = f (x)
e f (0) = 1? A resposta é sim e só existe uma, denominada de função exponencial,
f (x) = ex . Se o valor exigido no ponto x = 0 fosse f (0) = 3 a função seria
f (x) = 3ex .
Nesse capı́tulo iremos estudar funções, chamadas de transformações lineares,
A : Rm → Rn , satisfazendo duas condições listadas a seguir. Cada transformação
linear fica completamente determinada definindo o seu valor na base canônica do
domı́nio, valores esses, que serão guardados numa matriz, possibilitando estabelecer
vários e importantes algorı́tmos.
68
5.1. TRANSFORMAÇÕES LINEARES
Várias informações sobre uma transformação linear podem ser obtidas da igualdade
A(x1 , x2 , ..., xm ) = x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ).
1o Para construir uma transformação linear basta especificar quais são seus va-
lores na base canônica do domı́nio e definir a transformação linear pela com-
binação linear à direita da igualdade.
2o Para identificar uma transformação linear é suficiente que a imagem de um
vetor v = (x1 , x2 , ..., xm ) seja uma combinação linear como alı́ descrito.
3o Quando duas transformações lineares assumem os mesmos valores na base
canônica elas são idênticas.
4o Como veremos logo a seguir, dela obteremos informações, a respeito da inje-
tividade e sobrejetividade da transformação linear.
5o A igualdade nos permitirá construir uma matriz que será chamada de ma-
triz canônica da transformação linear da qual podemos obter muitas outras
informaçẽs sobre a transformação.
69
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Uma transformação linear possui duas propriedades básicas, quais sejam, A(o) = o
e A(−v) = −A(v). Para verificá-las, basta considerar λ = 0 e w = −v = (−1)v e
fazer a avaliação A(λv) = λA(v) e A(w) = A(−v).
Dada uma função, muitas vezes é conveniente conhecer duas informações sobre
ela, acerca da injetividade e sobrejetividade. No caso de uma transformação linear,
A : Rm → Rn , tais informações são obtidas examinando-se dois subespaços, um
no contradomı́nio e o outro no domı́nio, chamados de imagem e núcleo da trans-
formação linear. São eles, respectivamente,
70
5.1. TRANSFORMAÇÕES LINEARES
71
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
a) A : R2 → R2 , A(x, y) = (x + y, y).
b) A : R2 → R3 , A(x, y) = (2x + y, 4y + 2y).
c) A : R3 → R2 , A(x, y, z) = (x + y, y − z).
72
5.2. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR
73
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
= [A][u, v, w].
74
5.2. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR
75
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
2. Sabendo-se que a matriz na base canônica de uma transformação liner é [A], dê o
domı́nio, contradomı́nio, a relação, uma base para a imagem e uma base para o núcleo
(se não for trivial).
−2 −4 1 −1
1 −1 0
a) [A] = 1 2 b) [A] = 2 −2 c) [A] =
1 2 3
1 2 −1 0
w = A(v)
= A(x1 v1 + x2 v2 + · · · + xn vn )
= xk+1 A(vk+1 ) + xk+2 A(vk+2 ) + · · · + xm A(vm ).
De onde concluı́mos que v ∈ [[A(vk+1 ), A(vk+2 ), ..., A(vm )]], mostrando a inclusão
oposta e terminando a prova da afirmação.
76
5.3. TEOREMA DO NÚCLEO E DA IMAGEM
1. Determine as uma base para a imagem e uma base para o núcleo, quando ele for não
trivial, das seguintes transformações lineares. Verifique o Teorema do núcleo e da
imagem.
77
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
78
5.4. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES
Esse cálculo fica bastante simplificado com matrizes. Calculemos a matriz de A−2B
tendo em mente as regras para a soma de matrizes e a multiplicação de uma matriz
por um escalar,
[A − 2B] = [(A − 2B)(e1 ), (A − 2B)(e2 )]
= [A(e1 ) − 2B(e1 ), A(e2 ) − 2B(e2 )]
= [A(e1 ), A(e2 )] − 2[B(e1 ), B(e2 )]
= [A] − 2[B].
Registraremos uma proposição cuja demonstração será deixada como exercı́cio. 2
A C
Exemplo 5.4.2 Calculemos a composta R3 −→ R2 −→ R2 onde A(x, y, z) = (y, z)
e C(x, y) = (y, x − y). Primeiro observe que C ◦ A : R3 → R2 ,
C ◦ A(x, y, z) = C(A(x, y, z))
= C(y, z)
= (z, y − z).
Levando em conta a última proposição da seção anterior, a matriz da composta é
[C ◦ A] = [C(A(e1 )), C(A(e2 )), C(A(e3 ))]
= [C][A(e1 ), A(e2 ), A(e3 )]
= [C][A].
Isto é, a matriz da composta é o produto das matrizes. 2
79
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
80
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS
Da Teoria de conjuntos sabemos que uma função entre dois conjuntos é invertı́vel
se, e somente se, a função é injetiva e sobrejetiva. Logo, por um critério estabelecido
na seção 5.1, podemos afirmar que uma transformação linear A : Rm → Rn é
invertı́vel se, e somente se, Im(A) = Rn e N uc(A) = {o}. Pelo teorema do núcleo
e da imagem, segue que m = n. Temos provado a
Prova a) Isto é um fato da Teoria de Conjuntos. Uma função invertı́vel entre dois
conjuntos só possui uma função inversa.
b) Dados os vetores w1 , w2 ∈ Rn e o escalar λ ∈ R, como A é sobrejetiva é
possı́vel determinar dois vetores v1 , v2 ∈ Rm tais que A(v1 ) = w1 e A(v2 ) = w2 .
Sendo assim temos
A−1 (w1 + λw2 ) = A−1 (A(v1 ) + λA(v2 ))
= A−1 (A(v1 + λv2 ))
= v1 + λv2
= A−1 (w1 ) + λA−1 (w2 ).
81
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
[Id] = [A−1 ◦ A]
= [A−1 (A(e1 )), A−1 (A(e2 )), ..., A−1 (A(en ))]
= [A−1 ][A(e1 ), A(e2 ), ..., A(en )]
= [A−1 ][A].
Da mesma forma mostramos que [A][A−1 ] = [Id]. Concluı́mos que [A] é uma matriz
invertı́vel e que [A]−1 = [A−1 ]. 2
O último item do teorema aponta como explicitar a inversa de uma trans-
formação linear invertı́vel. Devemos ter em mãos a matriz da transformação linear
[A] que é quadrada, inverter a matriz, [A]−1 e recuperar a transformação linear A−1 .
Informamos que
uma matriz quadrada é invertı́vel se, e somente se, o seu determinante é não nulo.
Caso o leitor deseje conhecer a demonstração do fato, indicamos o último capı́tulo.
Inverter uma matriz quadrada 2×2 é simples e de fácil memo-
rização. No algoritmo, percebe-se claramente a necessidade
a b
do determinante ser diferente de zero. Consideremos a matriz [A] = .
c d
dada ao lado. Chamamos de matriz adjunta clássica de [A] à
matriz 2 × 2 definida por
d −b
adj [A] = .
−c a
Efetuando a multiplicação das duas matrizes obtemos
ad − bc 0 1 0
[A] · adj([A]) = = det[A] .
0 ad − bc 0 1
Essa conta mostra como devemos demonstrar a proposição a seguir para matrizes
2 × 2. O caso geral encontra-se no último capı́tulo.
Proposição 5.5.2 Uma matriz n×n, [A], é invertı́vel se, e somente se, det[A]
= 0.
E mais, se ela é invertı́vel então
[A]−1 = 1
det[A] adj([A]) e det[A]−1 = (det[A])−1
82
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS
2 −1
[A] = .
4 1
Como o determinante de [A] não é zero, det [A] = 6, a matriz é invertı́vel e sua
inversa e o determinante da inversa são, respectivamente,
1 1
1 1 6 6
[A]−1 = 16 = , det[A]−1 = 16 .
−4 2
−6 6
4 2
Precisamos explicar qual o significado de adjunta clássica, adj [A], para matrizes
quadradas em geral. Dada uma matriz quadrada n × n, com n > 1, digamos
[A] = [aji ], (o ı́ndice superior indica a linha e o inferior indica a coluna da entrada),
chamamos de ji-ésima matriz reduzida de [A] a matriz (n − 1) × (n − 1) obtida por
supressão da j-ésima linha e da i-ésima coluna de [A]. Denotaremos essa matriz
j
reduzida por [A]ji . O ji-ésimo cofator da matriz [A] = [ai ] é o escalar
83
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
1. Apenas uma das condições exigidas na definição de uma transformação linear in-
vertı́vel não é suficiente para garantir a invertibilidade da transformação. Dadas as
transformações lineares
A : R2 → R3 , A(x, y) = (x, y, 0), e B : R3 → R2 , B(x, y, z) = (x, y).
Verifique que B ◦ A = Id : R2 → R2 mas A ◦ B não é a identidade do R3 .
2. Se A : R2 → R2 for invertı́vel, calcule sua inversa.
a) A(x, y) = (2x, y − x). b) A(x, y) = (2x − 4y, x + 2y).
c) A(x, y) = (2x + 4y, x + 2y) d) A(x, y) = (x + y, x − y).
84
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS
6. Calcule uma fórmula para a potência k das matrizes e verifique que todas são in-
vertı́veis. Calcule a inversa da potência k.
1 1 1
1 1 cos t −sent
[A] = . [B] = 0 1 1 . [C] = .
0 1 sent cos t
0 0 1
Respostas e sugestões
Seção 5.1
1) a) Não. b) Sim. c) Não. d Sim.
85
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
8) b) Por absurdo, suponha que a transformação linear A seja sobrejetiva. Isto é,
Im(A) = [[A(e1 ), A(e2 )]] = R3 . Sendo assim, o espaço vetorial R3 é gerado por dois
vetores, uma contradição.
c) A : R3 → R2 , A(x, y, z) = (x − y, x + 2y + 3z),
N uc(A) = [[(3, 3, −3)]], Im (A) = [[A(e1 ), A(e2 )]] = R2 .
Seção 5.3
86
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS
87
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
2) Só podemos efeturar a multiplicação na ordem [A] [B]. Portanto, o produto matricial
corresponde à matriz da composta A ◦ B onde A : R2 → R3 , A(x, y) = (x + y, −y, 3x)
e B : R2 → R2 é definida por B(x, y) = (x + y, 2x).
3) A2 (x, y) = (0, 0) (identicamente nula), logo, Im (A) ⊂ N uc (A). Na verdade, nesse
exemplo a imagem e o núcleo são iguais.
Seção 5.5
1) B ◦ A(x, y) = (x, y, 0) e A ◦ B(x, y, z) = (x, y, 0).
2) É invertı́vel quando det[A]
= 0.
a) A−1 (x, y) = ( 12 x, 12 x + y). b) A−1 (x, y) = (x − 2y, − 21 x + y).
c) Não é invertı́vel. c) A−1 (x, y) = ( 12 x − 12 y, 12 x − 12 y).
3) Todas são invertı́veis pois det[A]
= 0.
a) A−1 (x, y, z) = (7x − y − z, −3x + y, −3x + z).
b) A−1 (x, y, z) = (−2x − y + 2z, 4x + y − 3z, x + y − z).
c) A−1 (x, y, z) = (6x − 11y + 9z, −x + 2y − z, −2x + 4y − 3z).
d) A−1 (x, y, z) = (x, −x + y, −y + z).
e) A−1 (x, y, z) = (y, z, x).
5) Todas são invertı́veis.
1 3 −2 1 −4 1
[A]−1 = −1 3 1 −2 . [B]−1 = −1 −3 6 −1 .
4 2
−2 −2 0 −1 2 −1
1 4 −1 3 −6 1
[C]−1 = −1 −2 −1 1 . [D]−1 = −1 −2 −1 1 .
2 5
−1 1 −1 −1 2 −2
1 0 1 5 −4 1
[E]−1 = 12 3 −2 −1 . [F ]−1 = 12 −1 2 −1 .
−2 2 0 −2 2 0
6) Todas são invertı́veis e o determinante é 1, para qualquer k.
1 −k k(k−1)
1 −k 2 cos kt sen kt
[A]−k = . [B]−k = 0 1 −k . [C]−k = .
0 1 −sen kt cos kt
0 0 1
88
Capı́tulo 6
Operadores lineares
Uma transformação linear cujo domı́nio e contradomı́nio são iguais, A : Rn → Rn , é
chamada de operador linear. Esse capı́tulo é dedicado aos operadores lineares e tem
como objetivo final apresentar o Teorema espectral, último teorema de qualquer
livro texto introdutório à Álgebra Linear. Antes, veremos como podemos contruir
operadores lineares especificando seus valores numa base qualquer, e não apenas na
base canônica.
89
CAPÍTULO 6. OPERADORES LINEARES
90
6.2. AUTOVALOR E AUTOVETOR
91
CAPÍTULO 6. OPERADORES LINEARES
De fato, se o núcleo de λId − A é não tivial, existe um vetor não nulo v pertencente
ao núcleo tal que λId(v)−A(v) = 0, de onde concluı́mos que A(v) = λv. A recı́proca
tem verificação imediata. Nesta altura da teoria, temos condições de responder à
última pergunta.
Existirá um escalar λ se, e somente se, λId − A é um operador não invertı́vel!
Em outras palavras, podemos responder da seguinte forma:
Existirá um escalar λ se, e somente se, det[λId − A] = 0!
Para continuar, fixemos mais duas terminologias.
a) O núcleo do operador linear λId − A : Rn → Rn , é chamado de autoespaço
associado a λ, e iremos registrá-lo como Vλ = {v ∈ Rn ; A(v) = λv}.
b) O polinômio de grau n, p(λ) = det[λId − A], é chamado de polinômio carac-
terı́stico de A.
Exemplo 6.2.2 Seja A : R2 → R2 , A(x, y) = (4x + 12y, 12x − 3y). Para o cálculo
dos autovetores e autovalores seguimos o seguinte roteiro.
92
6.2. AUTOVALOR E AUTOVETOR
Exemplo 6.2.3 Pode ocorrer que um operador linear não tenha autovetores. É o
caso do operador A : R2 → R2 , A(x, y) = (−y, x). Observe que A transforma um
vetor não nulo em um vetor perpendicular a ele, portanto a imagem nunca pode
ser colinear com o vetor. Este fato é detetado algebricamente com o polinômio
caracterı́stico,
λ − 0 −1
det[λId − A] = det = λ2 + 1.
1 λ0
Como o polinômio caracterı́stico não tem raiz real, o núcleo do operador linear
λId − A : R2 → R2 é trivial, qualquer que seja o escalar λ. 2
Exercı́cio 6.2.2 Defimos o traço de uma matriz quadrada como a soma das entra-
das da diagonal principal. Se a matriz é 2 × 2,
a b
[A] = ,
c d
temos que tr [A] = a + d.
93
CAPÍTULO 6. OPERADORES LINEARES
94
6.2. AUTOVALOR E AUTOVETOR
95
CAPÍTULO 6. OPERADORES LINEARES
96
6.3. TEOREMA ESPECTRAL
1 −4 1 −2
[A] = , [A]t = ,
−2 1 −4 1
e definir At (x, y) = (x − 2y, −4x + y). 2
Segue dos comentários acima que se A é simétrico se, e somente se, sua matriz
[A] é simétrica, [A] = [A]t .
Prova Seja i
= j. Observe a seguinte seqüência de igualdades,
λi ui , uj = λi ui , uj = A(ui ), uj = ui , A(uj ) = ui , λj uj = λj ui , uj .
Portanto, (λi − λj )ui , uj = 0. Como λi
= λj segue que ui , uj = 0. 2
97
CAPÍTULO 6. OPERADORES LINEARES
Prova Como o operador linear é simétrico, então A(x, y) = (ax + by, bx + cy) pois
sua matriz na base canônica é simétrica,
a b
[A] = .
b c
Calculando o polinômio caracterı́stico de [A] obtemos
λ − a −b
p(t) = det[λId − A] = = λ2 − (a + c)λ + (ac − b2 ).
−b λ − c
Como o discriminante do polinômio caracterı́stico p(λ), de uma matriz simétrica
2 × 2 não é negativo,
∆ = (−a − c)2 − 4(ac − b2 ) = (a − c)2 + 4b2 ≥ 0,
p(t) admite duas raı́zes reais, que serão distintas se, e somente se, ∆ > 0, e terá
uma raiz com repetição 2 se, e somente se, ∆ = 0. Examinemos os dois casos.
98
6.3. TEOREMA ESPECTRAL
Um operador linear simétrico A : Rn → Rn , é dito ser positivo quando v, A(v) >
0, qualquer que seja o vetor não nulo v ∈ Rn .
Exercı́cio 6.3.1 Mostre que um operador linear simétrico é positivo se, e somente
se, todos os seus autovalores são positivos.
Sugestão Seja β = {u1 , u2 , ..., u3 } uma base ortonormal de autovetores, relem-
brando, ui , uj = δij e A(ui ) = λi ui . Escreva um vetor não nulo v como combinação
linear dos vetores da base e faça a avaliação v, A(v) > 0.
a) A(x, y, z) = (x + y − z, 2x − 2y + z, x − y).
b) A(x, y, z) = (x + 2y + 4z, 2x + 3y − z, 4x − y − 2z).
99
CAPÍTULO 6. OPERADORES LINEARES
Respostas e sugestões
Seção 6.1
1) O operador C(x, y) é a composta B ◦ A−1 (x, y).
a) C(x, y) = (−y, x),
B(x, y) = (−x − y, x + y), A−1 (x, y) = 12 (x + y, −x + y).
100
6.3. TEOREMA ESPECTRAL
101
CAPÍTULO 6. OPERADORES LINEARES
102
6.3. TEOREMA ESPECTRAL
na Seção 1 desse capı́tulo para construir um operador linear tal que A(v1 ) = 2v2 e
A(v2 ) = 3v2 . Obtemos o operador linear simétrico A(x, y) = ( 14 2 2 11
5 x + 5 y, 5 x + 5 y).
b) Como A(3, 1) = 0(3, 1), A(−1, 3) = −(−1, 3), e os vetores v1 = (3, 1) e v2 = (−1, 3)
são ortogonais podemos utilizar o processo descrito na Seção 1 desse capı́tulo para
construir um operador linear tal que A(v1 ) = 0v2 e A(v2 ) = −v2 . Obtemos o operador
1 3 1 3
linear simétrico A(x, y) = (− 10 x + 10 y, 10 x − 10 y).
c) Como A(1, 2) = 2(1, 2) devemos definir num vetor perpendicular, digamos v2 =
(−2, 1) o valor A(−2, 1) = −(−2, 1). Agora, podemos utilizar o processo descrito na
Seção 1 desse capı́tulo para construir o operador linear A(x, y) = (− 25 x+ 65 y, 65 x− 75 y).
5) O polinômio caracterı́stico da identidade é p(λ) = (λ − 1)n . Todos os n autovalores
são iguais a λ = 1 e todos os vetores do Rn são autovetores associados.
103
Capı́tulo 7
Matrizes e determinantes
Aquı́ estão relacionadas as definições e propriedades utilizadas no texto. Uma ma-
triz é um objeto matemático cuja existência é independente do conceito de trans-
formação linear, embora possua uma relação estreita com elas. Também são larga-
mente utilizadas para cálculos em várias áreas do Conhecimento.
7.1 Matrizes
Uma matriz m × n com entradas entradas
reais é uma sequência de escalares [N ] = 1
[vij ], com vij ∈ R, organizada na forma ao v1 v21 · · · vn1
v2 v2 · · · v2
lado. O ı́ndice j de vij indicará a linha na 1 2 n
[N ] = . .. .. .
qual a entrada encontra-se e o ı́ndice i in- . . . .
dica a coluna. Consideramos dois tipos de v1 v2 · · · vnm
m m
j j j j
vetores, o vetor v = (v1 , v2 , ..., vn ) cujas
coordenadas são as
entradas da linha j da matriz [N ] e o vetor vi = (vi1 , vi2 , ..., vim ) formado pelas
entradas da i -ésima coluna da matriz [N ]. Utilizaremos freqüentemente a notação
para a matriz indicando suas colunas, na forma,
[N ] = [v1 , v2 , ..., vn ]
Induzimos uma estrutura de espaço vetorial no conjunto das matrizes m × n, (m
linha por n coluna) conjunto este denotado por M (m × n, R), definindo a adição de
matrizes e a multiplicação de uma matriz por um escalar, respectivamente por
[N ] + [P ] = [v1 + w1 , ..., vi + wi , ..., vn + wn ]
,
λ[N ] = [λv1 , ..., λvi , ..., λvn ]
em que [N ] = [v1 , v2 , ..., vn ], [P ] = [w1 , w2 , ..., wn ] são matrizes m × n e λ ∈ R. O
104
7.1. MATRIZES
vetor nulo do espaço é a matriz identicamente nula, isto é, a matriz com todas as
entradas nulas. Com esta estrutura M (m × n, R) torna-se um espaço vetorial de
dimensão mn.
c) ([N ][P ])[Q] = [N ]([P ][Q]). d) (λ[N ])[P ] = λ([N ][P ]) = [N ](λ[P ]).
105
CAPÍTULO 7. MATRIZES E DETERMINANTES
Exemplo 7.2.1 A matriz identidade [I]n tem uma propriedade especial. Para
qualquer matriz quadrada n × n, N = [v1 , v2 , ..., vn ], valem as identidades matriciais
[N ][I] = [N ] = [I]n [N ]. A demonstração segue diretamente da definição de produto
de matrizes. Provaremos apenas a igualdade [N ][I] = [N ], a segunda igualdade é
feita de modo análogo. Escrevamos
[N ][I]n = [v j , ei ] = [vij ] = [N ]. 2
106
7.3. DETERMINANTES
b) [N ] e [P ] invertı́veis implica que [N ][P ] é invertı́vel e ([N ][P ])−1 = [P ]−1 [N ]−1 .
c) [N ][P ] = [I] ⇔ [I] = [P ][N ]. 2
7.3 Determinantes
O restante desse capı́tulo é dedicado à construção do determinante. A demonstração
da existência do determinante é indutiva e a apresentação escolhida está baseada
num elegante tratamento dado por Artin [02]. Não nos ocuparemos da unicidade.
1. D[e1 , e2 , ..., en ] = 1;
2. D[v1 , ..., vi , vi+1 , ..., vn ] = 0 se vi = vi+1 para algum i;
3. D[v1 , ..., vi + λw, ..., vn ] = D[v1 , ..., vi , ..., vn ] + λD[v1 , ..., w, ...vn ].
para qualquer w ∈ Rn e qualquer λ ∈ R.
Posteriormente demonstraremos que para cada espaço M (n, R) existe uma única
aplicação satisfazendo essas três condições. Antes vejamos algumas propriedades
conhecidadas sobre o cálculo de determinantes que são consequências da definição.
107
CAPÍTULO 7. MATRIZES E DETERMINANTES
7.4 Existência
Para construir um determinante det : M (n, R) → R necessitaremos de algumas
notações. Indicaremos por [N ]ij a matriz (n − 1) × (n − 1) obtida de [N ] = [vij ]
108
7.4. EXISTÊNCIA
de ij-ésima
por supressão da j-ésima linha e da i-ésima coluna. Chamaremos [N ]ji
matriz reduzida de N . Reveja a definição de determinante de uma matriz 2 × 2 e
3 × 3 no capı́tulo 1.
Proposição 7.4.1 Para cada inteiro n > 0 existe uma aplicação determinante.
109
CAPÍTULO 7. MATRIZES E DETERMINANTES
Proposição 7.4.2 (Unicidade) Para cada inteiro n ≥ 1 só existe uma aplicação
no espaço das matrizes n × n satisfazendo as condições listadas na Definição 6.4.1.
110
7.5. PROPRIEDADES E MATRIZ INVERSA
Tais números são as entradas de uma outra matriz, chamada de adjunta clássica de
[N ], que por definição é a matriz transposta da matriz formada pelos cofatores,
adj[N ] = [cji ]t .
Exercı́cio 7.5.1 Verifique que (adj[N ])t = adj([N ]t ). Sugestão: Observe que
[N ]tji
= [N ]ij
. 2
dki = ck , vi
= (−1)1+k vi1 [N ]1k + · · · + (−1)
2+k 2 n+k n
+ (−1) vi [N ]2k vi [N ]nk
.
Daı́ concluı́mos que se k = i, temos o valor dii = det[N ] pois o última membro é o
desenvolvimento de Laplace do determinante de [N ] pela i-ésima coluna.
Vejamos o caso k
= i. Fixemos a coluna k. Denote por
[P ] = [v1 , ..., vk−1 , vi , vk+1 , ..., vi , ..., vn ],
isto é, [P ] é a matriz obtida de [N ] substituindo-se a coluna vk pela coluna vi .
Sendo assim, valem as igualdades, det[P ] = 0 e [P ] jk
= Njk
para todo 1 ≤ j ≤ n.
111
CAPÍTULO 7. MATRIZES E DETERMINANTES
0 = det[P ]
= (−1)1+k vk1 det N1k + · · · + (−1)
2+k 2 n+k n
+ (−1) vk det N2k vk det Nnk
Isso mostra que adj[N ] · [N ] é uma matriz diagonal e todas as entradas da diagonal
são iguais a det[N ], como desejávamos demonstrar.
Para provar a igualdade (det[N ]) · [I]n = [N ] · adj[N ], utilizamos o mesmo tipo
de argumento. 2
112
7.6. REGRA DE CRAMER
Prova Que o sistema tem solução é facil, pois o determinante sendo diferente de
zero, a matriz dos coeficientes é invertı́vel, seguindo que a solução é [a] = [N ]−1 [w].
O cálculo dos coeficientes ai ’s segue como na demonstração da regra de Cramer
feita no primeiro capı́tulo. 2
113
Índice Remissivo
A Im(A) 46
Abscissa 2 Imagem transf. linear 46 L
Ângulo entre dois vetores 36 Lei do paralelogramo 35 M
Aplicação Matriz
conceito 1 adjunta clássica 58, 61
identidade 44 canônica associada à A 48
Área de um paralelogramo 8 de uma transf. linear 48
Autoespaço 66 dos cofatores 61
Autovalor 66 invertı́veis 56
Autovetor 66 B quadrada 78
Base simétrica 71
canônica do Rn 27 transposta 70 N
ordenada 27 Norma
orotonormal 37 associada 35
positiva 30 C de um vetor 33
Combinação linear 11 N uc(A) 46
Comprimento de um seg. orientado 33 Núcleo transf. linear 46 O
Coeficientes da combinação linear 11 Operador linear
Composição 55 linear 47
Conjunto ordenado de geradores 15 simétrico 71
Conjunto simétrico negativo 73
linearmente independente 21 simético positivo 73
ortonormal 37 D transposto 70
Delta de Kronecker 37 Ordenada 2P
Desenvolv. de Laplace 88 Plano, conceito 2
Desigualdade de Cauchy-Schwarz 34 E Ponto, conceito 2
Escalar 4 Polinômio caracterı́stico 67
Espaço Produto
conceito 2 escalar 32
vetorial 4F interno 32
Fórmula de Lagrange 41 vetorial 38
Função 1H vetorial duplo 43 R
Homotetia 45 I Rn 1
Identidade Representação de um vetor 5
cı́clica 43 Reta, conceito 2S
de Apolonius 35 Segmento orientado 5
de Lagrange 43 Segunda desigualdade triangular 35
de polarização 35 Soma de transformações lineares 54
ij-ésima matriz reduzida 60 Subespaço
114
ÍNDICE REMISSIVO
trivial 10
vetorial 9
vetorial próprio 10 bf T
Transformação linear 44
identicamente nula 45
injetora 46
inversa 56
invertı́vel 56
sobrejetora 46
Teorema
espectral 71, 73
do núcleo e da imagem 52
Trac co de uma matriz 68 V
Vetor
conceito 4
normal a um subespaço 37
nulo 4
unitário 34
Vetores
ortogonais 36
perpendicluares 36
Volume de um paralelepı́pedo 9
115
Referências Bibliográficas
[02] Artin, Emil; Galois theory; Notre Dame Math. Lectures n 2, (1953).
[03] Boldrini, Costa, Figueiredo & Wetzler; Álgebra Linear; (4a Ed.), Ed. Habra.
[04] Cullen, C.; Matrices and Linear Transformations; Add-Wesley Comp. (1966).
[06] Garcia, A. & Lequain, Y.; Álgebra um curso de introdução; Projeto Euclides.
[07] Halmos; Espaços vetoriais de dimensão finita; Trad. laPenha; Ed. Campos, RJ.
[10] Lima, Elon Lages; Álgebra Linear (2a Ed.) IMPA; 1996.
[11] Lima, Elon Lages; A Matemática do Ensino Médio vol I, II, III. (5a Ed.) Coleção
Professor de Matemática, Sociedade Brasileira de Matemática. (2003)
116