Sie sind auf Seite 1von 120

Introdução à

Álgebra Linear

Plácido Francisco de Assis Andrade

Universidade Federal do Ceará


Centro de Ciências
Departamento de Matemática

Editora Fundamentos

16 de junho de 2003
Prefácio
Esse texto foi redigido para atender aos diversos Cursos oferecidos pela Univer-
sidade Federal do Ceará que possuem na sua integralização a disciplina semestral
Introdução à Álgebra Linear. Ela é ministrada por professores do Departamento de
Matemática e sua ementa é desenvolvida em 4 h por semana.

Embora não seja necessário, para facilitar a leitura do texto, o aluno precisará
de um conhecimento mı́nimo de Geometria Analı́tica e determinantes. Os tópicos
estudados no Ensino Médio são mais do que suficientes.

O ritmo da apresentação está baseado na experiência de sala de aula e a redação


levou em conta o estudante. Por isso, em alguns momentos, um leitor mais fami-
liarizado com Álgebra Linear pode achar o texto lento e simples. Nâo é o caso
do leitor iniciante. A elegância no desenvolvimento dos tópicos de Álgebra Linear
esconde diversos conceitos aparentemente dı́spares, tornando seu estudo uma des-
coberta constante para aqueles que nunca tiveram a oportunidade de conhecê-la
sistematicamente.

Sugestões e crı́ticas sobre o texto serão bem-vindas.

Plácido Francisco de Assis Andrade


andrade@mat.ufc.br
Fortaleza, 21 de março de 2003

O autor Plácido Francisco de Assis Andrade é Bacharel, Mestre e Doutor em


Matemática pela PUC-Rio. Foi professor daquela Instituição no perı́odo 1972/92,
transferindo-se para a UFF, Universidade na qual trabalhou por dois anos. A
partir de 1994 é Professor Adjunto do Departamento de Matemática da UFC e
membro da Coordenação de Pós-graduação de Matemática. Suas áreas de pesquisa
concentram-se em Geometria e Topologia.

i
Sı́mbolos
I. Alfabeto grego
α . . . . . . . . . . . . . . . . . . . . . . . . . . . alfa
β . . . . . . . . . . . . . . . . . . . . . . . . . . beta
γ, Γ . . . . . . . . . . . . . . . . . . . . . . . gama
δ, ∆. . . . . . . . . . . . . . . . . . . . . . . .delta
, ε . . . . . . . . . . . . . . . . . . . . . . . epsilon
ζ . . . . . . . . . . . . . . . . . . . . . . . . . . . . zeta
η . . . . . . . . . . . . . . . . . . . . . . . . . . . . .eta
θ, Θ, ϑ . . . . . . . . . . . . . . . . . . . . . . teta
ι . . . . . . . . . . . . . . . . . . . . . . . . . . . . iota
κ . . . . . . . . . . . . . . . . . . . . . . . . . . . capa
λ, Λ . . . . . . . . . . . . . . . . . . . . . lambda
µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . mu
ν . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ni
ξ, Ξ . . . . . . . . . . . . . . . . . . . . . . . . . . qui
ø . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .o
π, Π,  . . . . . . . . . . . . . . . . . . . . . . . pi
ρ,  . . . . . . . . . . . . . . . . . . . . . . . . . . . rô
σ, Σ, ς . . . . . . . . . . . . . . . . . . . . sigma
τ . . . . . . . . . . . . . . . . . . . . . . . . . . . . tau
υ, Υ . . . . . . . . . . . . . . . . . . . . . upsilon
phi, ϕ, Φ . . . . . . . . . . . . . . . . . . . . . . fi
ψ, Ψ . . . . . . . . . . . . . . . . . . . . . . . . . psi
ω, Ω . . . . . . . . . . . . . . . . . . . . . . ômega

II. Sı́mbolos utilizados


v = (x, y). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Vetor v ∈ R2
v = (x, y, z) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vetor v ∈ R3
u, v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Produto interno canônico de u, v ∈ Rn
v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norma de um vetor v ∈ Rn
θ(u, v) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ângulo entre os vetores u, v ∈ Rn
[v1 , v2 , ..., vk ] . . . . . . . . Matriz cujas colunas são coordenadas dos vetores vi ∈ Rn
[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matriz de uma tranformação linear
[A(e1 ), A(e2 ), ..., A(en )]. . . . . . . . . .Matriz canônica de uma transformação linear
det[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinante da matriz quadrada [A]
[[v1 , v2 , ..., vn ]]. . . . . . .Subespaço vetorial gerado pelos vetores v1 , v2 , ..., vn ∈ Rn
u × v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Produto vetorial de u, v ∈ R3
η . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vetor em R3 normal a um plano
Sumário

1 O espaço vetorial Rn 2
1.1 O conjunto Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 O espaço vetorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Combinação linear e base canônica . . . . . . . . . . . . . . . . . . . 8
1.4 Outras bases de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Sistema linear e combinação linear . . . . . . . . . . . . . . . . . . . 17
1.7 Leitura complementar . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Geomeria Analı́tica 25
2.1 Áreas e volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Retas e planos I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3 Produto interno 32
3.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Retas e planos II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Produto vetorial em R3 . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.6 Leitura complementar . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4 Subespaço vetorial 46
4.1 Subespaço e equação linear homogênea . . . . . . . . . . . . . . . . . 46
4.2 Subespaço e combinação linear . . . . . . . . . . . . . . . . . . . . . 49
4.3 O subespaço [[v1 , v2 , ..., vn ]] . . . . . . . . . . . . . . . . . . . . . . . 51
4.4 Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.6 Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

iii
SUMÁRIO

5 Transformações lineares 68
5.1 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . 73
5.3 Teorema do núcleo e da imagem . . . . . . . . . . . . . . . . . . . . 76
5.4 Operações com transformações lineares . . . . . . . . . . . . . . . . . 78
5.5 Transformações lineares invertı́veis . . . . . . . . . . . . . . . . . . . 80

6 Operadores lineares 89
6.1 Construindo operadores lineares . . . . . . . . . . . . . . . . . . . . . 89
6.2 Autovalor e Autovetor . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.3 Teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

7 Matrizes e determinantes 104


7.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2 Matrizes quadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.3 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.4 Existência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.5 Propriedades e matriz inversa . . . . . . . . . . . . . . . . . . . . . . 110
7.6 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

1
Capı́tulo 1

O espaço vetorial Rn
Esse capı́tulo tem dois objetivos. Primeiro, apresentar o espaço vetorial Rn , um
conjunto algébrico. Segundo, relacionar o plano e o espaço Euclidanos com os
conjuntos algébricos, R2 e R3 , respectivamente, estabelecendo uma ponte entre
esse novo conceito com os conhecimentos adqüiridos pelo leitor desde o Ensino
Médio. Ressaltamos que iremos discorrer sobre três objetos, um deles algébrico,
o Rn , enquanto os outros dois serão geométricos, o plano e o espaço, conceitos
não definidos. Um quarto objeto, a figura desenhada no papel, serve apenas para
organizar as idéias. Nesse texto, os termos função e aplicação possuem o mesmo
significado.

1.1 O conjunto Rn
Denotamos por Rn o conjunto das n-uplas ordenadas de números reais, ou seja,
Rn = {(x1 , x2 , ..., xn ); xi ∈ R para todo inteiro i, 1 ≤ i ≤ n}.
Os elementos deste conjunto são chamados de pontos e, por simplicidade, muitas
vezes indicaremos um ponto de Rn como
v = (x1 , x2 , ..., xn ).
Num primeiro momento, esses são os conjuntos para os quais voltaremos nosso
interesse. Observe que v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ) são iguais, v = w, se,
e somente se, xi = yi para todo i = 1, 2, ..., n. Para organizar a escrita utilizaremos
letras minúsculas para indicar os pontos de Rn . Por exemplo, ao escrevermos p =
(z1 , z2 , ..., zn ) estaremos indicando um ponto do Rn . A notação P (z1 , z2 , ..., zn ) será
apresentada logo a seguir e denotrará outro objeto.
A maior parte do texto está relacionada com os conjunto R2 e R3 , por isso,
reservaremos uma notação especial para indicar seus elementos. Para o primeiro

2
1.1. O CONJUNTO RN

conjunto, muitas vezes, indicaremos um par ordenado por v = (x, y) e uma tripla
ordenada em R3 será registrada na forma v = (x, y, z).
As idéias de ponto, reta, plano e espaço empregadas na Geometria Euclidiana
são auto-explicáveis, não suportam uma definição. Denotaremos uma reta, um
plano e um espaço Euclidianos por E1 , E2 e E3 , respectivamente. A identificação
entre os conjuntos algébricos R1 , R2 e R3 com aqueles é do conhecimento de todos,
mas recapitulemos a construção que justifica a existência da Geometria Analı́tica.
Observamos que devemos distinguir o conjunto algébrico, o conjunto Euclidiano e
as figuras que você faz no papel.
O conjunto das 1-upla ordenadas, R1 = {(x); x ∈ R}, é canonicamente identifi-
cado com o conjunto dos números reais R. Não distinguiremos uma 1-upla ordenada
(x) ∈ R1 de um número real x ∈ R. Para construir uma correspondência um a um
entre os números reais R e os pontos de uma reta Euclidiana E1 , fixamos uma uni-
dade e associamos a cada ponto de uma reta Euclidiana E1 um único número real,
o qual é chamado de abscissa do ponto.
Com isso, temos definido uma aplicação P : R →
E1 , pela regra P (x) é o ponto da reta Euclidiana
cuja abscissa é x.
Seja (x, y) ∈ R2 . Escolhidos dois eixos Cartesianos
num plano Euclidiano E2 , digamos ox e oy, defini-
mos P : R2 → E2 , pela regra P (x, y) é o ponto do
plano Euclidiano cuja abscissa é x e a ordenada é
y. Reciprocamente, cada ponto no plano é associ-
ado a um único par ordenado. Fixado o sistema de
eixos, o plano Euclidiano passa a ser chamado de
plano Cartesiano.
Da mesma forma, seja v = (x, y, z) ∈ R3 . Fixados
três eixos Cartesianos em E3 , ox, oy e oz, defini-
mos a aplicação P : R3 → E3 por, P (x, y, z) é o
ponto do espaço Euclidiano tal que a abscissa é
x, a ordenada é y e a altura é z. Certamente o
leitor está acostumado com a notação P (x, y, z).
Quando fixamos um sistema de eixos em E3 passa-
mos a chamá-lo de espaço Cartesiano.
Indicamos pontos de En , n = 1, 2, 3, por letras maiúsculas. Por exemplo, U ∈ E2
significa um ponto do plano Euclidiano. Ao escrevermos U (2, 3) estamos supondo
que já fixamos os eixos Cartesianos e este ponto é imagem do ponto u = (2, 3) ∈ R2 ,
pela aplicação P : R2 → E2 . Essa será uma regra notacional. O ponto v = (x, y)

3
CAPÍTULO 1. O ESPAÇO VETORIAL RN

terá sua imagem pela aplicação P indicada por V (x, y) em lugar de P (x, y), o ponto
w = (−1, 4) terá sua imagem indicada por W (−1, 4), etc. Uma regra notacional
similar será utilizada para R3 .

Exercı́cio 1.1.1 Represente graficamente


1. os pontos P (2, 3), Q(−1, 2), R(−2, −3) e O(0, 0) do plano Cartesiano;
2. os pontos P (2, 3, 1), Q(−1, 2, −1) e R(−2, −3, 1) e O(0, 0, 0) do espaço Carte-
siano.

1.2 O espaço vetorial Rn


Em Rn , definimos duas operações binárias, a soma de dois elementos e a multi-
plicação de um elemento por um escalar. Aqui, o termo escalar significa número
real. As operações são definidas pelas seguintes regra. Se v = (x1 , x2 , ..., xn ), w =
(y1 , y2 , ..., yn ) ∈ Rn e λ ∈ R estabelecemos que
v + w = (x1 + y1 , x2 + y2 , ..., xn + yn ),

λv = (λx1 , λx2 , ..., λxn ).


Diz-se que as operações equipam Rn com uma estrutura de espaço vetorial. Agora,
os pontos do Rn passam a ser chamados de vetores. Não é necessário que o leitor
tenha familiaridade com essa estrutura algébrica para continuar a leitura do texto,
na seção Leitura Complementar desse capı́tulo é apresentada a definição de espaço
vetorial.
Utilizamos uma terminologia própria quando estamos falando acerca do espaço
vetorial Rn . Por exemplo, escalar significa um número real, como já foi dito. O
vetor nulo é o vetor o = (0, 0, ..., 0). Dois vetores v, w ∈ Rn são colineares quando
existe um escalar λ tal que v = λw ou w = λv.

Exemplo 1.2.1 Sejam v = (2, −1) e w = (−4, 7) vetores de R2 . Pela definição, a


soma dos vetores é efetuada coordenada a coordenada,
v + w = (2, −1) + (−4, 7) = (2 − 4, −1 + 7) = (−2, 6).
Se λ = −3 então λv = −3 · (2, −1) = (−6, 3). O vetor u = (−4, 2) é colinear com v
pois u = −2v. 2

É fácil verificar que as duas operações gozam de várias propriedades, como por
exemplo, a soma de vetores é comutativa, v + w = w + v, ou que a soma de qualquer
vetor v com o vetor nulo é o próprio vetor, v +o = v. Novamente, remetemos o leitor

4
1.2. O ESPAÇO VETORIAL RN

para a última seção desse capı́tulo, Leitura Complementar. Observe que 0v = o,


isto é, um vetor multiplicado pelo escalar zero é igual ao vetor nulo.

Exercı́cio 1.2.1 Sejam 0 ∈ R e v, w ∈ Rn . Mostre que 0 · v + w = w e que o vetor


nulo é colinear com qualquer vetor. Verifique a igualdade v + (−1)v = 0. 2

Anteriormente, exibimos uma identificação entre os conjuntos Rn com os conjun-


tos Euclidianos, En , quando n = 1, 2, 3. Depois, definimos uma operação de soma
de dois elementos e um produto de um elemento por um escalar em Rn , passando
a chamá-los de espaço vetorial. Novamente, iremos representar geometricamente
os vetores para explicitar a existência da estrutura algébrica em Rn . A diferença
entre o conjunto e o conjunto com a estrutura algébrica (espaço vetorial) é sutil mas
existe, e a diferença é visualizada utilizando-se segmento orientado.
Sejam R, S ∈ En . Um segmento orientado em
En é o par ordenado (R, S) que por conveniências
−→
gráficas é indicado por RS, em lugar da notação
clássica para pares ordenados. Esta grafia registra
a idéia de uma seta com ponto inicial em R e ponto
final em S.

Dados os pontos R(r1 , r2 , ..., rn ) e S(s1 , s2 , ..., sn ) 


−→ 
 x1 = s1 − r1
em En . Diz-se que o segmento orientado RS repre- 
 x2 = s2 − r2
senta o vetor v = (x1 , x2 , ..., xn ) ∈ Rn se, e somente .. .

 .
se, as coordenadas dos pontos e as coordenadas do 

vetor estão relacinadas pelas equações ao lado xn = sn − rn

Exemplo 1.2.2 Um vetor pode ser representado por vários segmentos orientados
diferentes. Vejamos duas representações para o vetor v = (1, 2) ∈ R2 .

Se escolhermos os pontos R(2, 0) e Se escolhermos os pontos P (1, 1) e


S(3, 2) em E2 , o segmento orientado −−→
Q(2, 3) o segmento orientado P Q
−→
RS representa v = (1, 2) ∈ R2 pois também representa o mesmo vetor
pela definição temos as relações v = (1, 2) ∈ R2 pois
 
1 = 3−2 1= 2−1
. .
2 = 2−0 2= 3−1

Fica uma questão para o leitor: dado T (a, b) ∈ E2 , determine as coordenadas de


−→
U ∈ E2 para que o segmento orientado T U seja um representante de v = (1, 2). 2

5
CAPÍTULO 1. O ESPAÇO VETORIAL RN

Exercı́cio 1.2.2 Sejam P (3, −1) e Q(−4, 3) dois


pontos de E2 . Esboce os seguintes segmentos ori-
−−→ −−→ −−→ −−→
entados, P Q, QP , QQ e OP . Calcule os vetores do
R2 representados pelos segmentos orientados. 2

O segmento orientado canônico para represen-


tar o vetor v = (x1 , x2 , ..., xn ) é aquele que tem
como ponto inicial a origem O(0, 0, ..., 0) e ponto
final V (x1 , x2 , ..., xn ).

Falando numa linguagem informal, obtido um representante do vetor com ponto


inicial a origem O(0, 0, ..., 0), qualquer outro representante é obtido por transporte
paralelo daquele. Feitas essas considerações passemos às contruções.

a) Da mesma forma, definimos uma representação do espaço vetorial R2 estabe-



− −−→
lecendo que P (x, y) é o segmento orientado OP cujo ponto inicial é a origem
e o ponto final é P (x, y).

b) Similarmente fazemos a representação do espaço vetorial R3 estabelecendo que



− −−→
P (x, y, z) é o segmento orientado OP cujo ponto inicial é a origem e o ponto
final é P (x, y, z).

Comentário As duas operações álgebricas definidas em Rn podem ser visualizadas


quando n = 2 ou n = 3, utilizando segmentos orientados.
Apresentemos o caso planar, n = 2, para o caso espacial, n = 3, as construções
são as mesmas. Desejamos registrar graficamente a operação v + w, onde v = (3, 1)
e w = (−2, 1). Não podemos somar segmentos orientados quaisquer, mas podemos
definir a soma de segmentos orientados quando o ponto final do primeiro é o ponto
−−→ −−→ −−→
inicial do segundo, OV + V P = OP .

6
1.2. O ESPAÇO VETORIAL RN

Para representar o vetor v podemos escolher o seg-


mento orientado com pontos iniciais e finais 0(0, 0)
e V (3, 1), respectivamente. Quanto ao vetor w po-
demos escolher para representante o segmento ori-
entado com pontos iniciais e finais V (3, 1) e P (1, 2),
respectivamente. Sendo assim, a soma v + w é re-
−→
presentada por 0P .

A representação gráfica é válida para a soma de


três ou mais vetores. Se desejamos representar a
soma u + v + w, coloca-se os representantes dos
vetores de tal forma que o ponto final de um é o
−−
→ −− → −→ −→
ponto inicial do seguinte, P Q + QR + RS = P S.

Vejamos a representação gráfica da multiplicação de um vetor por um escalar.


Escolhamos v = (3, 1), λ1 = 2 e λ2 = −2.
Se o representante escolhido para do vetor v for
−−→
P Q, onde P (a, b) e Q(c, d), o representante de
−−→
λi v é o segmento orientado P  Q com coordena-
das P  (λi a, λi b) e Q (λi c, λi d). Mais conveniente é

−→
escolher um representante para v na forma OR,
com R(3, 1), pois os múltiplos λi v são graficamente registrados sobre uma mesma
reta que contém a origem do plano Cartesiano. 2

Exercı́cios propostos 1.2.1

1. Seguindo a notação do livro texto, quais dos registros são válidos:


a) v(2, 1) b) P (2, 1) c) v = (2, 1) d) P = (2, 1) e) (2, 1) ∈ R2

−→ −−

f) (2, 1) ∈ E2 g) E2 = R2 h) P (2, 1) ∈ R2 i) P Q ∈ R2 j) P Q ∈ E2
−−→
k) v = P Q l) P ∈ E2 m) v ∈ R2 n) R2 ⊂ R3 o) P (2, 1) ∈ E2

2. Sejam v = (2, −1) e w = (3, −2) vetores em R2 . Calcule 3v − w e v + 2w e


represente graficamente os vetores por segmentos orientados com ponto inicial O(0, 0).
Represente-os com ponto inicial P (−2, 1).

3. Considere os pontos P (1, −1), Q(−3, 3) e R(2, 2) do plano Cartesiano.


−−→ − −→ −−→
a) Esboce os segmentos orientados P Q e QR e QQ.
b) Determine os vetores u, v e w de R2 representados pelos segmentos orientados
−−→ −−→ −− → −−
→ −−→
P Q, QR e QQ. Qual a relação entre os vetores representados por P Q e QP .
c) Represente graficamente a soma u + v por um segmento orientado cujo ponto
inicial é o ponto P e represente o vetor 2u com ponto final M (2, 2).

7
CAPÍTULO 1. O ESPAÇO VETORIAL RN

4. A partir do esboço das representações por dos ve-


tores u e v, como indicado em cada figura, deter-
mine quais os outros vetores que estão represen-
tados.

1.3 Combinação linear e base canônica


Diz-se que um vetor w ∈ Rn é uma combinação linear dos vetores v1 , v2 , ..., vk ∈
Rn se existem escalares a1 , a2 , ..., ak ∈ R, chamados coeficientes da combinação
linear, tais que w = a1 v1 + a2 v2 + · · · + ak vk .

Exemplo 1.3.1 Dados os vetores v1 , v2 , v3 ∈ R2 onde v1 = (1, 1), v2 = (1, 2) e


v3 = (1, −1). O vetor w = (−1, 1) é uma combinação linear de v1 e v2 e v3 pois se
a1 = −6, a2 = 4 e a3 = −1 verifica-se que w = −6v1 + 4v2 + v3 .
O vetor u = (0, −1) também é uma combinação linear de v1 , v2 e v3 pois
u = v1 − v2 . Deverı́amos escrever u = 1v1 + (−1)v2 + 0v3 , mas, como sempre,
simplificamos a escrita para tornar a leitura menos cansativa. 2

Exercı́cio 1.3.1 Dados os vetores v1 = (1, 2) e v2 = (1, 1) de R2 , calcule o vetor w


nas combinações lineares indicadas.
a) w = 3v1 − 4v2 . b) w = −v2 + v2 . c) w = 13 v1 − 13 v2 . d) w = 0v1 + v2 . 2

Exercı́cio 1.3.2 Dados os vetores v1 = (−1, 2, 0) e v2 = (2, 1, −3) de R3 , calcule o


vetor w nas combinações lineares indicadas.
a) w = 3v1 − 4v2 . b) w = −v2 + v2 . c) w = 13 v1 − 13 v2 . d) w = 0v1 + v2 . 2

Comentário Para ilustrar a definição, façamos


uma analogia entre uma combinação linear de veto-
res e um conceito fı́sico. Dados dois vetores v1 e v2
em R2 , como no exemplo acima, eles determinam
no plano Cartesiano duas direções, indicadas grafi-
camente na figura como retas paralelas. Vamos su-
por que essas são as únicas direções possı́veis nas
quais podemos caminhar. Para partir da origem
e chegar a um ponto W , no caso da figura, deve-
mos percorrer uma trajetória na direção e sentido
determinada por v1 cujo comprimento é 2 vezes o
comprimento de v1 , seguida de uma trajetória cujo
comprimento é 75 na direção e sentido determinado por v2 . Isso é sugerido veto-
rialmente com a combinação linear w = 2v1 + 75 v2 . Nesse caso, não importa se a

8
1.3. COMBINAÇÃO LINEAR E BASE CANÔNICA

trajetória é feita em zig-zag ou não, levando em conta o sentido positivo e negativo


das direções no final teremos a mesma combinação linear.
Se consideramos apenas um único vetor, v1 ∈ R2 ,
ao dizermos que w ∈ R2 é uma combinação li-
near de v1 estamos apenas afirmando que w é um
múltiplo de v1 , em outras palavras, w = a1 v1 . Te-
mos uma única direção no plano Cartesiano. Sendo
assim, nem todos pontos do plano podem ser al-
cançados partindo-se da origem, apenas aqueles
que estão sobre a reta diretriz que passa pela ori-
gem. Falta uma direção transversal para para des-
crever todas as trajetórias poligonais possı́veis. 2

Definição 1.3.1 Um subconjunto ordenado de n vetores β = {v1 , v2 , ..., vn } ⊂ Rn


é uma base se qualquer vetor w ∈ Rn é uma combinação linear dos elementos de β.

A expressão ”subconjunto ordenado” significa que existe um primeiro elemento,


e ele está indexado por 1, um segundo elemento que está indexado por 2, etc. A
definição de base dá origem a um série de perguntas de caráter técnico e prático.

1. Existe base para o Rn ?


2. Se w ∈ Rn e β é uma base, quais são e como podemos calcular os coeficientes
ai ’s da combinação linear w = a1 v1 + a2 v2 + · · · + an vn ?
3. Quantas bases existem para o Rn ?
4. Dado um subconjunto de n vetores β ⊂ Rn , qual um algorı́tmo prático para
sabermos se ele é uma base?

A primeira pergunta tem resposta fácil. Existe pelo menos uma base ordenada
para o Rn . O subconjunto de n vetores C = {e1 , e2 , ..., en } cujos elementos são
e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ... en = (0, 0, ..., 1).
é uma base. O subconjunto C será chamado de base canônica pelos seguintes mo-
tivos. Dado um vetor w = (x1 , x2 , ..., xn ) ∈ Rn é imediato mostrar que w é uma
combinação linear do vetores de C e quais são os coeficientes da combinação linear:
w = (x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en .

Exemplo 1.3.2 A base canônica do R2 é um conjunto formado por √ dois2 vetores,


C = {e1 , e2 }, onde e1 = (1, 0) e e2 = (0, 1). O vetor v = (− 3, − 4 ) é uma
combinação linear dos vetores da base canônica, e é fácil determinar
√ imediatamente
quais os coeficientes da combinação linear a1 e a2 , v = − 3e1 − 24 e2 . 2

9
CAPÍTULO 1. O ESPAÇO VETORIAL RN

Exemplo 1.3.3 Considere o vetor w = (2, −2, 4) ∈ R3 . A base canônica C do R3 é


formada por três vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1). Veja a seguinte
seqüência de igualdades,
w = (2, −2, 4)
= (2, 0, 0) + (0, −2, 0) + (0, 0, 4)
= 2(1, 0, 0) − 2(0, 1, 0) + 4(0, 0, 1)
= 2e1 − 2e2 + 4e3 .
Portanto, na base canônica, as coordenadas do vetor são os coeficientes da com-
binação linear! 2

Para a base canônica a segunda pergunta tem resposta rápida e precisa.


Afirmação Ao escrevermos o vetor w ∈ Rn como uma combinação linear dos ele-
mentos da base canônia C, os coeficientes da combinação linear são únicos.
Se não, vejamos. Seja w = (w1 , w2 , ..., wn ) ∈ Rn . Escrevamos a combinação
linear w = a1 e1 + a2 e2 + · · · + an en . Examine a seqüência de igualdades,
(w1 , w2 , ..., wn ) = w
= a1 e1 + a2 e2 + · · · + an en
= a1 (1, 0, ..., 0) + a2 (0, 1, ..., 0) + · · · + an (0, 0, ..., 1)
= (a1 , 0, ..., 0) + (0, a2 , ..., 0) + · · · + (0, 0, ..., an )
= (a1 , a2 , ..., an ).
Sendo assim, necessariamente valem as igualdades ai = wi para todo i = 1, ..., n.
Temos concluı́do a demonstração da Afirmação.
Em particular, o vetor nulo, o = (0, 0, ..., 0), só pode ser escrito por uma única
combinação linear, a saber, o = 0e1 + 0e2 + · · · + 0en .

Exercı́cio 1.3.3 Quantos elementos possui a base canônica do R4 ? Escreva-os. 2

1.4 Outras bases de Rn


Passemos à terceira pergunta da lista apresentada na seção anterior.
Existe(m) outra(s) base(s) ordenada(s) para o Rn ?
Antecipemos a resposta. Sim, o Rn possui um número infinito de bases ordena-
das além da base canônica! Mostrar a existência de outras bases ordenadas está
relacionada com
◦ determinantes de matrizes quadradas n × n e
◦ resoluções de sistemas de equações lineares n × n.

10
1.4. OUTRAS BASES DE RN

Vejamos a relação. Com um conjunto ordenado de n vetores β = {v1 , v2 , ..., vn } ⊂


Rn , contruı́mos uma matriz quadrada n × n, matriz que denotaremos por
[v1 , v2 , ..., vn ].
A notação indica que as entradas da primeira coluna da matriz são as coordenadas do
vetor v1 , as entradas da segunda coluna são as coordenadas do vetor v2 , etc. Observe
que sendo [v1 , v2 , ..., vn ] uma matriz quadrada, podemos calcular o determinante.

Exemplo 1.4.1 Vejamos dois exemplos que ilustram a construção acima.


a) Seja β = {v1 , v2 } ⊂ R2 , onde v1 = (1, 1) e v2 = (1, 2). Esse conjunto de dois
vetores do R2 dá origem à matriz quadrada 2 × 2
 
1 1
[v1 , v2 ] = ,
1 2
cujo determinante é det[v1 , v2 ] = 1
= 0.
b) Seja β = {v1 , v2 , v3 } ⊂ R3 , onde v1 = (1, −1, 3), v2 = (0, 1, −2) e v3 =
(2, −3, 8). Esse conjunto de três vetores do R3 dá origem à matriz quadrada 3 × 3
 
1 0 2
[v1 , v2 , v3 ] =  −1 1 −3  ,
3 −2 8
cujo determinante é det[v1 , v2 , v3 ] = 0. 2

O ponto a ressaltar diz respeito ao deteminante da matriz [v1 , v2 , ...vn ] construı́da


com os n vetores do conjunto ordenado β = {v1 , v2 , ..., vn } ⊂ Rn ,
◦ se det[v1 , v2 , ..., vn ]
= 0 então β é uma base e
◦ se det[v1 , v2 , ..., vn ] = 0 então β não é uma base.
Portanto, temos em mãos um algorı́tmo rápido e eficiente para determinar
quando o conjunto β é, ou não, uma base, bem como, construir bases para Rn .
Examinaremos com um exemplo esse fato.

Exemplo 1.4.2 Seja β = {v1 , v2 } ⊂ R2 onde v1 = (1, 1) e v2 = (1, 2). Observe que
a) para u = (−1, 1) vale a combinação linear u = −3v1 + 2v2 ,
b) para v = (0, −1) vale a combinação linear v = v1 − v2 ,
c) para w = ( x, y) vale a combinação linear w = (2x − y)v1 + (y − x)v2 .
O item c) diz que o conjunto β de dois vetores é uma base pois qualquer vetor
w = (x, y) do R2 é uma combinação linear de v1 e v2 onde os coeficientes da
combinação linear dependem das coordenadas do vetor, a1 = 2x − y e a2 = y − x.
Como foi determinado os coeficientes da combinação linear para w = (x, y)?

11
CAPÍTULO 1. O ESPAÇO VETORIAL RN

Deixemos claro como a condição do determinante não ser zero, det[v1 , v2 ] = 1


=
0, implica que β = {v1 , v2 } é uma base. O elo de ligação entre os dois fatos é a regra
de Cramer um método para resolução de sistemas lineares n × n cuja demonstração
encontra-se no último capı́tulo do texto.
Para mostrar que β é uma base, devemos mostrar que dado um vetor w =
(x, y) ∈ R2 existem coeficientes a1 e a2 tais que
w = a1 v1 + a2 v2 .
Escrevamos essa última igualdade em coordenadas,
(x, y) = (a1 + a2 , a1 + 2a2 )
Portanto, a igualdade w = a1 v1 + a2 v2 dá origem a um sistema de equações li-
neares com duas equações e duas incógnitas, a1 e a2 , escrito na forma usual ou
matricialmente como
     
a1 + a2 = x 1 1 a1 x
ou = .
a1 + 2a2 = y 1 2 a2 y
A matriz principal do sistema é precisamente [v1 , v2 ] e as matrizes auxiliares são
[w, v2 ] e [v1 , w]. Explicitamente,
     
1 1 x 1 1 x
[v1 , v2 ] = , [w, v2 ] = , [v1 , w] = .
1 2 y 2 1 y
Como a matriz principal é quadrada com determinante não igual a zero, podemos
utilizar a Regra de Cramer para determinar as incógnitas a1 e a2 ,
det[w, v2 ] det[v1 , w]
a1 = = 2x − y e a2 = = y − x.
det[v1 , v2 ] det[v1 , v2 ]

Logo, w = (2x − y)v1 + (y − x)v2 e os coeficientes são únicos pois são as únicas
soluções do sistema. Observamos que só existe uma combinação linear possı́vel para
expressar o vetor nulo, qual seja, o = (0, 0), é o = 0v1 + 0v2 . 2

Teorema 1.4.1 (Regra de Cramer) Seja β = {v1 , v2 , ..., vn } ⊂ Rn um conjunto


ordenado de n vetores. Se det[v1 , v2 , ..., vn ]
= 0 então β é base. Mais precisamente,
se o determinante for diferente de zero, então cada vetor w ∈ Rn expressa-se como
única combinação linear na forma w = a1 v1 + a2 v2 + · · · + an vn onde os coeficientes
são dados por

det[w, v2 , ..., vn ] det[v1 , w, ..., vn ] det[v1 , v2 , ..., w]


a1 = , a2 = , ··· an = ;
det[v1 , v2 , ..., vn ] det[v1 , v2 , ..., vn ] det[v1 , v2 , ..., vn ]

Em particular, a única combinação linear com os elementos de β para expressar o


vetor nulo tem coeficientes todos iguais a zero.

12
1.4. OUTRAS BASES DE RN

Prova Vamos supor que det[v1 , v2 , ..., vn ]


= 0. Dado w ∈ Rn ele pode ser
expresso como uma combinação linear do vetores de β como w = a1 v1 + a2 v2 + · · · +
an vn . Essa afirmação encontra-se demonstrada no último capı́tulo do livro.
Para mostrar que os coeficientes são aqueles indicados pelas fórmulas é fácil. Por
linearidade do determinante temos que (veja na seção seguinte algumas propriedades
de determinantes que são do conhecimentos do leitor desde o Ensino Médio)

det[v1 , ...vi−1 , w, vi+1 , ..., vn ] = Σnj=1 aj det[vi , v2 , ..., vi−1 , vj , vi+1 , ..., vn ].

No membro direito, a única parcela da soma que não é nula é precisamente quando
j = i, pois para ı́ndices diferentes de j duas colunas da matriz são iguais. Portanto,

det[v1 , ...vi−1 , w, vi+1 , ..., vn ] = ai det[vi , v2 , ..., vi−1 , vi , vi+1 , ..., vn ].

Como o determinante da matriz [v1 , v2 , ..., vn ] não é zero, concluı́mos que ai neces-
sariamente é como descrito no enunciado.
Os coeficientes para expressar o vetor nulo o = (0, 0, ..., 0) como combinação
linear necessariamente deve ser ai = 0, para todo i, pois o numerador da fração é o
determinante de uma matriz com uma coluna igual a zero. 2

Exemplo 1.4.3 Mostremos que β = {v1 , v2 , v3 } ⊂ R3 é uma base, onde v1 =


(1, 1, 0), v2 = (1, 0, 1) e v3 = (0, 1, 1). Basta considerar a matriz
 
1 1 0
[v1 , v2 , v3 ] =  1 0 1 ,
0 1 1
e calcular seu determinante det[v1 , v2 , v3 ] = −2. Como o determinante não é zero,
segue que β é uma base do R3 .
Expressemos w = (3, −2, 3) por uma combinação linear dos vetores de β, w =
a1 v1 + a2 v2 + a3 v3 . Substituindo obtemos
(3, −2, 3) = (a1 + a2 , a1 + a3 , a2 + a3 ),
de onde segue o sistema linear
     
 a1 + a2 = 3 1 1 0 a1 3
a1 + a3 = −2 ou  1 0 1   a2  =  −2  .

a2 + a3 = 3 0 1 1 a3 3
Para calcular os coeficientes a1 ’s, precisaremos das matrizes auxiliares,
     
3 1 0 1 3 0 1 1 3
[w, v2 , v3 ] =  −2 0 1  , [v1 , w, v3 ] =  1 −2 1  , [v1 , v2 , w] =  1 0 −2 ,
3 1 1 0 3 1 0 1 3

13
CAPÍTULO 1. O ESPAÇO VETORIAL RN

e de seus determinantes,
det[w, v2 , v3 ] = 2, det[v1 , w, v2 ] = −8, det[v1 , v2 , w] = 2.
Agora, podemos calcular os coeficientes procurados pela regra de Cramer,
det[w,v2 ,v3 ] det[v1 ,w,v2 ] det[v1 ,v2 ,w]
a1 = det[v1 ,v2 ,v3 ] = 1, a2 = det[v1 ,v2 ,v3 ] = −4, a3 = det[v1 ,v2 ,v3 ] = 1.
Portanto, w = (3, −2, 3) expressa-se como a combinação linear w = v1 − 4v2 + v3 .
Mais geralmente, mostre que um vetor w = (x, y, z) expressa-se nessa base como
a combinação linear w = (−y + z)v1 + (−x + y − z)v2 + (x − y − z)v3 . 2

A demonstração da recı́proca da regra de Cramer ficará para uma seção futura


pois envolve outros conceitos. Mas de qualquer forma antecipamos a informação:
quando o conjunto β = {v1 , v2 , ..., vn } ⊂ Rn é uma base então det[v1 , v2 , ..., vn ]
= 0.

Exercı́cios propostos 1.4.1

1. Calcule as combinações lineares onde v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (0, 0, 1) são


vetores do R3 .
a) w = 3v1 + 0v2 − v3 . b) w = xv1 + (y − 2x)v2 + (x − 2y + z)v3 .
c) w = 0v1 + 0v2 + 0v3 . w = 0v1 + 1v2 + 0v3 .

2. Verifique quais dos conjuntos ordenados β = {v1 , v2 } ⊂ R2 é uma base. Caso seja,
expresse w = (x, y) por uma combinação linear com vetores da base.
a) v1 = (3, −1), v2 = (1, 2). b) v1 = (2, 1), v2 = (1, 2).
c) v1 = (−1, 2), v2 = (2, −4). d) v1 = (1, 0), v2 = (1, −1).

3. Verifique quais dos conjuntos ordenados β = {v1 , v2 , v3 } ⊂ R3 é uma base. Caso seja,
expresse w = (x, y, z) por uma combinação linear de vetores da base.
a) v1 = (0, 3, −1), v2 = (1, 1, 2), v3 = (1, 1, 1).
b) v1 = (2, 1, 1), v2 = (3, −1, 2), v3 = (0, 0, 0).
c) v1 = (1, 1, 2), v2 = (2, 0, 0), v3 = (0, 1, 1).
d) v1 = (1, 1, 1), v2 = (3, −2, 1), v3 = 2v1 − v2 .

4. Complete o conjunto de vetores para obter uma base do espaço indicado.

a) α = {v1 , v2 } ⊂ R2 , onde v1 = (3, 4).


b) β = {v1 , v2 , v3 } ⊂ R3 , onde v1 = (1, 1, 1) e v2 = (1, 0, 0).
b) γ = {v1 , v2 , v3 } ⊂ R3 , onde v1 = (−1, −3, 1).

5. Se β = {v1 , v2 , ..., vn } uma base de Rn . Escreva vi como uma combinação linear dos
vetores de β. Escreva o vetor nulo o como uma combinação linear dos vetores de β.

14
1.5. DETERMINANTES

1.5 Determinantes
A técnica básica para estudar problemas de Álgebra Linear é a resolução de sistemas
lineares. Existem muitos métodos para resolução: método de Gauss, escalonamento
de matrizes, substituição, etc. Nesse texto utilizaremos, preferencialmente, a regra
de Cramer, método mais claro e apropriado para o estudo dos espaços R2 e R3 .
Como necessitaremos de determinantes para a resolução de sistemas lineares faremos
uma breve apresentação do tópico ficando as demonstrações no capı́tulo final.
No que segue o sı́mbolo [A] = [v1 , v2 , ..., vk ] indica uma matriz quadrada k ×
n onde as colunas são as coordenadas de um vetor vi ∈ Rn . Nessa notação a
matriz identidade n × n escreve-se como [I] = [e1 , e2 , ..., en ], onde ei indica o i-ésimo
elemento da base canônica do Rn .
O determinante de uma matriz 2 × 2 Sejam v1 = (a, b) e v2 = (c, d) veto-
res do R2 . Definimos
 
a c
det[v1 , v2 ] = det = ad − bc.
b d

Exercı́cio 1.5.1 Dados os vetores v1 = (1, −2) e v2 = (4, 5) em R2 . Verifique as


igualdades.
a) det[e1 , e2 ] = 1. b) det[v1 , v2 ] = 13. c) det[v1 , v1 ] = 0 = det[v2 , v2 ].
O item a) mostra que o determinante da matriz identidade é igual a 1. O item c)
ilustra o fato: quando dois vetores colunas de uma matriz são iguais, o determinante
é zero. Agora, considere o vetor w = (−3, 1). Verifique as igualdades.
e) det[v1 , v2 + 3w] = det[v1 , v2 ] + 3 det[v1 , w].

f) det[v1 − 2w, v2 ] = det[v1 , v2 ] − 2 det[w, v2 ].


Com isso, ilustramos o fato do determinante ser linear ao fixamos uma coluna. 2

O determinante de uma matriz 3 × 3 é definido pela regra conhecida como


desenvolvimento de Laplace pela primeira coluna. A partir do determinante de
matrizes 2 × 2 define-se o determinante de matrizes 3 × 3. Sejam v1 = (a, b, c),
v2 = (d, e, f ) e v3 = (g, h, i), então
 
a d g

det[v1 , v2 .v3 ] = det b e h 
c f i
     
e h d g d g
= a det − b det + c det .
f i f i e h

15
CAPÍTULO 1. O ESPAÇO VETORIAL RN

Certamente o leitor aprendeu algum algorı́tmo na Escola para calcular o deter-


minante de uma matriz 3 × 3. Todas elas são variações da definição acima, utilize
a mais confortável, a resposta é a mesma.

Exercı́cio 1.5.2 Dados os vetores v1 = (0, −2, 1) e v2 = (1, 1, 0) e v3 = (3, 1, 1) em


R3 . Verifique as igualdades.
a) det[e1 , e2 , e3 ] = 1. b) det[v1 , v2 , v3 ] = 1. c) det[v1 , v1 , v3 ] = 0 = det[v1 , v2 , v2 ].
O item a) mostra que o determinante da matriz identidade é igual a 1. O item c)
ilustra o fato: quando dois vetores colunas de uma matriz são iguais, o determinante
é zero. Agora, considere o vetor w = (1, 1, 2). Verifique as igualdades.
e) det[v1 , v2 − w, v3 ] = det[v1 , v2 , v3 ] − det[v1 , w, v3 ].

f) det[v1 , v2 , v3 + 2w] = det[v1 , v2 , v3 ] + 2 det[v1 , v2 , w].


Com isso ilustramos o fato do determinante ser linear ao fixarmos duas colunas. 2

O determinante de uma matriz n × n O determinante é definido como uma


função dos espaço das matrizes n × n nos reais possuindo três propriedades:

1. det[e1 , e2 , ..., en ] = 1; (determinante da identidade)


2. det[v1 , ..., vi , vi+1 , ..., vn ] = 0 se vi = vi+1 ; (colunas adjacentes iguais)
3. det[v1 , ..., vi + λw, ..., vn ] = det[v1 , ..., vi , ..., vn ] + λ det[v1 , ..., w, ...vn ]
para qualquer w ∈ Rn e qualquer λ ∈ R. (multilinearidade)

Embora seja enfadonho, verifica-se que determinantes de matrizes 2 × 2 e 3 × 3


possuem essas propriedades. Para definirmos o determinante de matrizes 4 × 4
utiliza-se o determinante de matrizes 3 × 3 pelo desenvolvimento de Laplace pela
primeira coluna. Deixamos para leitura complementar a construção do determinante
de matrizes n × n com n ≥ 4.
Um teorema central da teoria estabelece uma relação entre o determinante ser
igual a zero e combinações lineares de colunas (ou de linhas).

Teorema 1.5.1 Seja [A] = [v1 , v2 , ..., vn ] uma matriz quadrada n × n. As seguin-
tes afirmações são eqüivalentes:
1. det[A] = 0;
2. existe um vetor coluna que é combinação linear dos outros vetores colunas;
3. existe um vetor linha que é combinação linear dos outros vetores linhas.

16
1.6. SISTEMA LINEAR E COMBINAÇÃO LINEAR

Exercı́cio 1.5.3 Mostre que cada matriz tem determinante nulo e justifique.
   
  2 1 3 1 0 2
1 3   
a) , b) −1 3 2 , c) 1 −1 3 . 2
2 6
1 3 4 3 −2 8

Proposição 1.5.1 Valem as seguintes afirmações sobre o determinante de uma


matriz [A] = [v1 , v2 , ..., vn ].

1. Se algum vi é o vetor nulo então det[v1 , v2 , ..., vn ] = 0.


2. det[v1 , ..., vi , ..., vj , ..., vn ] = 0, se vi = vj , i
= j.
3. det[v1 , ..., vi , vi+1 , ..., vn ] = −det[v1 , ...vi+1 , vi , ...vn ].

Prova 1. Se vi = 0, ele é uma combinação linear dos outros vetores colunas, a saber,
vi = 0v1 + · · · + 0vi−1 + 0vi+1 + · · · + 0vn . Isso implica que o determinante é igual
a zero.
2. O argumento é o mesmo. Se duas colunas são iguais, digamos, vi = vj ,
o vetor coluna vi é uma combinação linear dos outros vetores colunas, a saber,
vi = 0v1 + · · · + 0vi−1 + 0vi+1 + · · · + 1vj + · · · + 0vn .
3. Observe que det[v1 , ..., vi + vi+1 , vi + vi+1 , ..., vn ] = 0, pois duas colunas adja-
centes são iguais. Utilizando a linearidade do determinante mostramos a igualdade
desejada. 2

Exercı́cios propostos 1.5.1

1. Calcule o determinante de cada matriz.


   
  2 0 2 1 3 4
2 −2
a) [A] = . b) [A] =  −1 3 1  . c) [A] =  1 −1 0 .
4 1
−1 2 0 1 −2 −1
 
1 0 0 1  
 2  1 2 3
1 −1 2
d) [N ] = 
 0 −2
. e) [N ] =  1 2 1 .
0 −2 
1 0 1
1 0 2 3
2. Sejam v e w vetores do R2 . Sabendo-se que det[v, w] = −2, calcule
a) det[2v, w]. b) det[−3v, 4w]. c) det[w, v]. d) det[v + w, w].

1.6 Sistema linear e combinação linear


É conveniente dividir o estudo de sistemas lineares com m equações e n incógnitas
em três casos:

17
CAPÍTULO 1. O ESPAÇO VETORIAL RN

1o o número de equações é igual ao número de incógnitas;


2o o número de equações é menor que o número de incógnitas;
3o o número de equações é maior que o número de incógnitas.

Cada caso dependerá de um especı́fico determinante ser igual a zero, ou não.

Exemplo 1.6.1 Dado o sistema escrito na forma usual ou matriciamente como


     
 a1 + a2 = 1 1 1 0 a1 1
a + a3 = 2 ou  1 0 1   a2 = 2  .
 
 1
a2 + a3 = 0 0 1 1 a3 0
A primeira questão é sobre o significado da expressão ”resolver o sistema”. A
questão será colocada em termos de combinação linear, ponto de vista que nos
interessa. Consideramos o vetor w = (1, 2, 0) ∈ R3 e procuramos determinar os
escalares a1 , a2 e a3 tais que w é a combinação linear com esses coeficientes,
w = a1 v1 + a2 v2 + a3 v3 ,
onde os vetores v1 ’s são os vetores coluna da matriz dos coeficientes,
v1 = (1, 1, 0), v2 = (1, 0, 1), v3 = (0, 1, 0).
Como det[v1 , v2 , v3 ] = −1
= 0 o conjunto ordenado β = {v1 , v2 , v3 } é uma base
de R3 e pela regra de Cramer determinamos os valores a1 = 3, a2 = −1 e a3 = 1.2

Exemplo 1.6.2 Dado o sistema escrito na forma usual ou matriciamente como


 
   a  
a1 + 2a2 = 2 1 2 0  1  2
ou a2 = .
a1 + 2a2 + a3 = −1 1 2 1 −1
a3
A questão sobre o termo ”resolver o sistema” é a mesma. Dado o vetor w =
(2, −1) ∈ R2 desejamos determinar escalares a1 , a2 e a3 tais que w é uma combinação
linear com esses coeficientes,
w = a1 v1 + a2 v2 + a3 v3 ,
onde os vetores v1 ’s são os vetores coluna da matriz dos coeficientes,
v1 = (1, 1), v2 = (2, 2), v3 = (0, 1).
Não podemos utilizar imediatamente a regra de Cramer pois a matriz principal
[A] = [v1 , v2 , v3 ] não sendo quadrada, não existe determinante. É necessário uma
adaptação. Escolhemos a maior submatriz quadrada de [A] com determinante di-
ferente de zero e resolvemos o subsistema correspondente. Expliquemos melhor o
procedimento. Existem três submatrizes quadradas

18
1.6. SISTEMA LINEAR E COMBINAÇÃO LINEAR

     
1 2 1 0 2 0
[v1 , v2 ] = , [v1 , v3 ] = , [v2 , v3 ] = ,
1 2 1 1 2 1
e somente as duas últimas têm determinante diferente de zero. Resolvamos o sub-
sistema correspondene à segunda submatriz cujo determinante é det[v1 , v3 ] = 1,
     
a1 + = 2 − 2a2 1 0 a1 2 − 2a2
ou = .
a1 + a3 = −1 − 2a2 1 1 a3 −1 − 2a2
Para calcular os coeficientes pela regra de Cramer precisaremos das matrizes auxi-
liares,
   
2 − 2a2 0 1 2 − 2a2
[w − a2 v2 , v3 ] = , [v1 , w − a2 v2 ] = ,
−1 − 2a2 1 1 −1 − 2a2
e de seus determinantes,
det[w − a2 , v3 ] = 2 − 2a2 , det[v1 , w − a2 v2 ] = −3.
Agora, calculando os coeficientes pela regra de Cramer encontramos
det[w−a2 v2 ,v3 ] det[v1 ,w−a2 v2 ]
a1 = det[v1 ,v3 ] = 2 − 2a2 , a3 = det[v1 ,v3 ] = −3.
Portanto, w = (2, −1) expressa-se como a combinação linear
w = (2 − 2a2 )v1 + a2 v2 − 3v3 .
Isto é, não existe unicidade de combinação linear, para cada valor de a2 escolhido
a combinação linear para expressar w é diferente:
◦ w = 2v1 + 0v2 − 3v3 se a2 = 0
◦ w = 0v1 + 1v2 − 3v3 se a2 = 1 2
◦ w = 3v1 − 1v2 − 3v3 se a2 = −1

Exemplo 1.6.3 Nos dois exemplos acima, os sistemas são solúveis. No primeiro
exemplo existe apenas uma solução, isto é, uma única combinação linear para ex-
pressar o vetor w. No segundo exemplo existem infinitas soluções, o vetor w pode
ser expresso por uma infinidade de combinações lineares diferentes.
Quando o número de equações é maior que o número de incógnitas, o sistema
linear pode ser solúvel, ou não. Dado o sistema 3 × 2,
    
 a1 + 2a2 = 1 1 2   1
a1
a1 + a2 = −1 ou  1 1  =  −1  .
 a2
2a1 − 3a2 = −2 2 −3 −2
Em liguagem vetorial, desejamos saber se existem escalares a1 e a2 que sejam
os coeficientes de uma combinação linear dos vetores colunas para expressar o vetor
w = (1, −1, 2) ∈ R3 , w = a1 v1 + a2 v2 , onde v1 = (1, 1, 2) e v2 = (2, 1, −3).
Não podemos utilizar imediatamente a regra de Cramer pois a matriz princi-

19
CAPÍTULO 1. O ESPAÇO VETORIAL RN

pal [A] = [v1 , v2 ] não é quadrada. Procedemos da mesma forma, escolhemos a


maior submatriz quadrada de [A] com determinante diferente de zero e resolvemos
o subsistema correspondente. Existem tês submatrizes quadradas
     
1 2 1 2 2 1
[A]1 = , [A]2 = , [A]3 = ,
1 1 2 −3 2 −3
todas elas com determinantes diferentes de zero. Resolvamos o subsistema corres-
pondente à primeira submatriz cujo determinante é det[A]1 = −3, (a última equação
está por enquanto suprimida)
     
a1 + 2a2 = 1 1 2 a1 1
ou = .
a1 + a2 = −1 1 1 a2 −1
Para calcular os coeficientes pela regra de Cramer precisaremos das matrizes
auxiliares e de seus determinantes,
   
1 2 1 1
det = 3, det = −2,
−1 1 1 −1
obtendo a1 = 1 e a2 = 23 . Mas ainda resta saber se esses valores encontrados
satisfazem a equação que foi suprimida do sistema. Obviamente não satisfaz, pois
com uma substituição obtemos o absurdo 0 = 2. Em resumo, não podemos expressar
o vetor w = (1, −1, 2) por uma combinação linear de v1 = (1, 1, 2) e v = (2, 1, −3).
Agora observe que se perguntarmos se u = (1, −1, 0) é uma combinação linear
dos vetores v1 e v2 a resposta é sim. O sistema linear que devemos estudar é
    
 a1 + 2a2 = 1 1 2   1
a1
a1 + a2 = −1 ou  1 1  =  −1  .
 a2
2a1 − 3a2 = 0 2 −3 0
A resolução é idêntica àquela feita anteriormente, encontrando os valores a1 = 1
e a2 = 23 . Ao substituirmos na última equação não obtemos contradição alguma,
0 = 0. Logo, u = a1 v1 + a2 v2 e essa combinação linear é única. 2

Exemplo 1.6.4 Examinemos sistemas lineares n × n cujo determinante da matriz


dos coeficientes é zero.
     
 a1 + a2 = 1 1 1 0 a1 1
a1 + a3 = 2 ou  1 0 1   a2  =  2  .

2a1 + a2 + a3 = −4 2 1 1 a3 −4
Nesse caso det[v1 , v2 , v3 ] = 0. Também não podemos utilizar regra de Cramer,
pois não existe divisão por zero. Como sabemos, deve existir um vetor linha do
determinante que é combinação linear dos outros vetores linhas. Nesse caso v3 =
v1 + v2 . Resolvemos o subsistema obtido por supressão dessa equação,

20
1.6. SISTEMA LINEAR E COMBINAÇÃO LINEAR

 
   a1  
a1 + a2 = 1 1 1 0  a2  = 1 .
ou
a1 + a3 = 2 1 0 1 2
a3
Tendo a solução do subsistema verificamos se ela satisfaz a equação eliminada. 2

Um caso particular, mas importante, é um sistema linear homogêneo.


Um sistema linear homogêneo sempre tem solução!
A justificativa para essa afirmação é bem simples. Um sistema linear homogêneo
tem origem na pergunta: dados os vetores v1 , v2 , ..., vk ∈ Rn existem escalares
a1 , a2 , ..., ak tais que o = a1 v1 + a2 v2 + · · · + ak vk ? É claro que a resposta é sim,
basta tomar a1 = a2 = · · · = ak = 0. A pergunta nos leva a um sistema linear com
n equações e k incógnitas. Resta estudar se essa é, ou não, a única solução.

Exercı́cios propostos 1.6.1

1. Resolva os sistemas em duas incógnitas, coloque o problema em linguagem de com-


binação linear e estude a unicidade da combinação linear.
 
  2a1 − 6a2 = 0  2a1 − 6a2 = 0
2a1 + 2a2 = 5
a) b) 4a1 + 5a2 = 0 c) 4a1 + 5a2 = 4
6a1 − a2 = 1  
3a1 + 4a2 = 0 3a1 + 4a2 = 1
2. Resolva os sistemas em três incógnitas, coloque o problema em linguagem de com-
binação linear e estude a unicidade da combinação linear.
 
 2a1 + 2a2 + a3 = 5   2a1 − a2 + a3 = 0
2a1 − 6a2 − a3 = 0
a) 6a1 − a2 + 2a3 = 1 b) c) a1 − a3 = 0
 4a1 + 5a2 + 3a3 = 11 
2a1 − 4a2 =0 2a1 − a2 + a3 = 0
3. Se possı́vel, escreva o vetor w ∈ R2 como combinação linear de v1 = (1, 1), v2 = (2, 1)
e v3 = (1, −1) e estude se existe unicidade de combinação linear ou não.
a) o = (0, 0) b) w = (0, 1) c) w = (2, −3) d) w = v1 e) w = (−1, 1)
4. Se possı́vel, escreva o vetor w ∈ R3 como combinação linear de v1 = (1, 1, 1), v2 =
(2, 1, 0) e estude se existe unicidade de combinação linear ou não.
a) o = (0, 0, 0) b) w = (1, 2, 1) c) w = (1, 2, 3) d) w = v2 d) w = (4, 2, −1)
5. Se possı́vel, escreva cada vetor w ∈ R3 como combinação linear de v1 = (1, 1, 1),
v2 = (2, 1, 0), v3 = (0, 1, 2) estude se existe unicidade de combinação linear ou não.
a) w = (1, 2, 3) b) w = (1, 2, 1) c) w = (0, 0, 0) d) w = v3 d) w = (4, 2, −1)
6. Sejam v1 = (3, 1), v2 = (−1, 2) e v3 = (0, 7) vetores do R2

a) Mostre que β = {v1 , v2 } é uma base do R2 .


b) Mostre que todo vetor (x, y) ∈ R2 escreve-se como uma combinação linear dos
vetores de γ = {v1 , v2 , v3 }, mas não existe apenas uma combinação linear para
expressar o vetor.

21
CAPÍTULO 1. O ESPAÇO VETORIAL RN

c) Mostre que existem vetores de R2 que não são escritos como combinação linear
do vetor de α = {v1 }.

1.7 Leitura complementar


1. Definição de Espaço Vetorial Um espaço vetorial real consiste de

I Um conjunto V cujos elementos são chamados de vetores;


II O corpo R cujos elementos são chamados de escalares;
III Uma operação chamada de adição de vetores em que cada par de vetores
u, v ∈ V é associado ao vetor u + v ∈ V , chamado de soma de u e v,
satisfazendo os seguintes axiomas:
a) a adição é comutativa, u + v = v + u;
b) a adição é associativa, (u + v) + w = u + (v + w);
c) existe um único elemento 0 tal que v + 0 = v para todo v ∈ V ;
d) para cada vetor v ∈ V existe um único vetor −v ∈ V tal que v +
(−v) = 0;
IV Uma operação chamada de multiplicação por escalar em que um vetor
v ∈ V e um escalar λ ∈ R são associados ao vetor λv ∈ V , chamado de
produto de v por λ, satisfazendo os seguintes axiomas:
a) 1v = v para todo v ∈ V ;
b) a multiplicação por escalar é associativa, λ1 (λ2 v) = (λ1 λ2 )v;
c) a multiplicação por escalar é distributiva em relação à adição de
vetores, λ(u + v) = λu + λv;
d) a multiplicação por escalar é distributiva em relação à adição de
escalares, (λ1 + λ2 )v = λ1 v + λ2 v;

2. Determinante de matrizes n × n Seja [A] uma matriz quadrada n × n.


Indicamos por [A]ji  a ji -ésima matriz reduzida de [A], isto significa que a
matriz [A]ji  é a matriz (n − 1) × (n − 1) obtida de [A] por supressão da
j−ésima linha e da i-ésima coluna.
Por exemplo, uma matriz 3 × 3 tem nove ma-  
trizes reduzidas. Seja [A] = [v1 , v2 , v3 ], onde a d g
v1 = (a, b, c), v2 = (d, e, f ) e v3 = (g, h, i), [A] =  b e h 
então três delas são obtidas da seguinte forma c f i
     
e h d g d g
[A] 11 = , [A]
21 = , [A]31 = .
f i f i e h

22
1.7. LEITURA COMPLEMENTAR

O determinante de [A] foi definido utilizando-se essas submatrizes 2 × 2 e uma


construção chamada de desenvolvimento de Laplace pela primeira coluna,
det[A] = (−1)1+1 a det[A]
11 + (−1)
2+1
b det[A]
21 + (−1)
3+1
c det[A]
31 .
Essa é a regra para definirmos o determinante de uma matriz n×n conhecendo-
se o determinante para matrizes (n − 1) × (n − 1). Se [A] = [v1 , v2 , ..., vn ],
onde v1 = (v11 , v12 , ..., v1n ) definimos
det[A] = (−1)1+1 v11 det[A]
11 + (−1)
2+1 v 2 det[A]
1 21 + · · · + (−1)

n+1 v n det[A] .
1 
n1

Respostas e sugestões
Seção 1.2
1) V=válido, N=não válido.
a) N. b) N. c) V. d) V. e) V. f ) N. g) N. h) N.
i) N. j) N. k) N. l) V. m) V. n) N. o) V.
2) 3v − w = (3, −1) e v + 2w = (8, −5). Representantes com ponto inicial a origem são,
−→ −−→
respectivamente, OA e OB, onde A(3, −1) e B(8, −5). Representantes com ponto
−→ −→
inicial P (−2, 1) são, respectivamente, P R e P S, onde R(1, 0) e S(6, −4).
3) b) São representantes, respectivamente, de u = (−4, 4), v = (5, −1) e w = (0, 0). O
−−

segmento orientado QP representa −u.
−→ −−→
c) A soma u + v é representado por P T onde T (2, 2) e 2u é representado por N M
onde N (10, −6).
4) Observe que as diagonais de um paralelogramo intercetam-se no ponto médio.
Seção 1.4
1) a) w = (3, 6, 8). b) w = (x, y, z). c) w = (0, 0, 0). d) w = v2 .
2) Será uma base de R2 se det[v1 , v2 ]
= 0. Somente os vetores em c) não formam uma
base.
a) (x, y) = −x+2y
7 v1 + x+3y
7 v2 . b) (x, y) =
2x−y 2y−x
3 v1 + 7 v2 . d) (x, y) = (x−y)v1 −yv2 .

3) Será uma base de R3 se det[v1 , v2 , v3 ]


= 0. Somente os vetores em a) e c) formam
uma base.
4) a) Qualquer vetor v2 = (a, b) tal que det[v1 , v2 ]
= 0, por exemplo, v2 = (−2, 1).
b) Qualquer vetor v3 = (a, b, c) tal que det[v1 , v2 , v3 ]
= 0. c) A solução segue o
mesmo roteiro.
5) a) vi = 0v1 + · · · + 1vi + · · · + 0vn . b) o = 0v1 + 0v2 + · · · + 0vn .
Seção 1.5
1) a) det[A] = 10. b) det[A] = −2. c) det[A] = −1. d) det[A] = 0 pois o último
vetor coluna é combinação linear dos outros vetores colunas, v4 = v1 + v2 + v3 . e)
det[A] = −4.

23
CAPÍTULO 1. O ESPAÇO VETORIAL RN

2) a) det[2v, w] = −4. b) det[−3v, 4w] = 24. c) det[w, v] = 2. d) det[v + w, w] = −2.


Seção 1.6
1) a) Combinação linear em R2 . Expressar o vetor w = (5, 1) como combinação linear de
v1 = (2, 6) e v2 = (2, −1), w = a1 v1 + a2 v2 . É possı́vel pois a matriz dos coeficientes
não é nula, det[v1 , v2 ] = −14. Utilizando regra de Cramer encontramos a1 = 12 e
a2 = 2. A combinação linear é única.
b) Combinação linear em R3 . Expressar o vetor nulo o = (0, 0, 0) como combinação
linear de v1 = (2, 4, 3) e v2 = (−6, 5, 4), o = a1 v1 + a2 v2 . É claro que a1 = 0 e
a2 = 0 são soluções. Para encontrá-los, devemos suprimir uma equação, por exemplo
a última pois o determinante da matriz dos coeficientes não é igual a zero, resolver o
subsistema por regra de Cramer, encontrando os valores a1 = 0 e a2 = 0. Verificamos
que esses valores satisfazem a equação suprimida. A combinação linear é única.
c) Combinação linear em R3 . Escrever o vetor w = (0, 4, 1) como combinação linear de
v1 = (2, 4, 3) e v2 = (−6, 5, 4), w = a1 v1 + a2 v2 . Para encontrá-los, devemos suprimir
uma equação, por exemplo a última pois o determinante da matriz dos coeficientes
não é igual a zero, resolver o subsistema pela regra de Cramer, encontrando os valores
a1 = 12 4
17 e a2 = 17 . Verificamos que esses valores não satisfazem a equação suprimida.
Não podemos expressar w como combinação linear de v1 e v2 .
2) a) Combinação linear em R3 . Expressar o vetor w = (5, 1, 0) como combinação linear
de v1 = (2, 6, 2) e v2 = (2, −1, −4) e v3 = (1, 2, 0), w = a1 v1 + a2 v2 + a3 v3 . Como
det[v1 , v2 , v3 ] = 2
= 0, os vetores formam uma base de R3 . Pela regra de Cramer é
possı́vel encontrar uma única expressão para o vetor w como combinação linear de
v1 , v2 e v3 .
b) Combinação linear em R2 . Expressar o vetor w = (0, 11) como combinação linear
de v1 = (2, 4) e v2 = (−6, 5) e v3 = (−1, 3), w = a1 v1 + a2 v2 + a3 v3 . Para encontrá-
los, devemos escolher uma maior submatriz quadrada com determinante diferente de
zero, por exemplo [v1 , v2 ] (formam uma base de R2 ) resolver o subsistema w − a3 v3 =
a1 v1 + a2 v2 , por regra de Cramer, encontrando os valores que dependem de a3 , a
saber, w = 66−a 3
34 v1 +
22−6a3
34 v2 . Logo, para cada valor de a3 , existe uma combinação
linear diferente para expressar w, não existe unicidade de combinação linear.
c) Combinação linear em R3 . Expressar o vetor nulo o = (0, 0, 0) como combinação
linear de v1 = (2, 1, 2) e v2 = (−1, 0, −1) e v3 = (1, −1, 1), w = a1 v1 + a2 v2 + a3 v3 .
Como det[v1 , v2 , v3 ] = 0, (v3 = v1 − 3v2 ) não podemos utilizar imediatamente a regra
de Cramer. Logo, devemos considerar a maior submatriz quadrada com determinante
diferente de zero, e resolver o subsistema. Uma das soluções é 0 = a3 v1 +3a3 v2 +a3 v3 .
Não existe unicidade de combinação linear.
3) Todos os vetores são expressos por uma por uma combinação linear dos vetores v1 ,
v2 e v3 , mas não existe unicidade de combinação linear.
4) Os vetores dos itens a), c) e d) são expressos de maneira única por uma combinação
linear de v1 e v2 . Os vetores dos ı́tens b) e e) não podem ser expressos.
5) Como det[v1 , v2 , v3 ]
= 0 os três vetores formam uma base do R3 . Logo, qualquer
vetor é expresso de maneira única por uma combinação linear de v1 , v2 e v3 .

24
Capı́tulo 2

Geomeria Analı́tica
Como aplicação da teoria já vista faremos uma breve apresentação de Geometria
Analı́tica com tratamento vetorial. Destacaremos as equações de retas e planos em
R2 e R3 em cujas construções serão utilizadas o conceitos de área e volume.

2.1 Áreas e volumes


Dentre as muitas utilidades do determinante, existe uma interpretação geométrica
bastante útil.
Área de paralelogramo Fixados os vetores u = (1, 1) e v = (2, 5) em R2 ,
podemos construir um paralelogramo OU V P num plano Cartesiano da seguinte
forma. As coordenadas dos vértices são O(0, 0), U (1, 1), V (2, 5) e P (3, 6). Observe
−−→ −−→
que os segmentos orientados OU e V P são dois representantes do vetor u e os
−−→ −−→
segmentos orientados OV e U P são dois representantes do vetor v. Calculemos o
determinante det[u, v],
 
1 2
det[u, v] = det = 3.
1 5
O valor obtido, 3, é definido como o valor da área do paralelogramo, OU V P , cons-
truı́do com os segmentos orientados que representam os vetores u e v.
Geralmente. Aos vetores u = (u1 , u2 ) e v =
(v1 , v2 ) em R2 , associamos um parelogramo num
plano Cartesiano, OU V P , cujos vértices são
O(0, 0), U (u1 , u2 ), V (v1 , v2 ) e P (u1 +v1 , u2 +v2 ).
−−→ −−→
Observe que os segmentos orientados OU e V P
são dois representantes do vetor u e os segmentos
−−→ −−→
orientados OV e U P são dois representantes do
vetor v. O valor absoluto do
25
CAPÍTULO 2. GEOMERIA ANALÍTICA

determinante da matriz cujas entradas são as coordenadas dos vetores como indicado
anteriormente,
| det[u, v]|,
é definido como o valor da área do paralelogramo. Quando o determinante é nulo,
significa que o paralelogramo é degenerado, não tem o comprimento ou não tem
altura. Mais ainda, a área de um paralelogramo obtido por transposte paralelo
daquele construı́do com um dos vértices na origem O(0, 0) tem a mesma área.
Observe que uma das diagonais do paralelogramo representa o vetor soma u + v.

Exercı́cio 2.1.1 Dados os vetores v = (2, −1) e w = (3, 3) em R2 . Determine o


outro vértice de um paralelogramo no plano Cartesiano E2 conhecendo-se os três
vértices O(0, 0), V (2, −1) e W (3, 3). Calcule a sua área.
Determine os vértices do paralelogramo QRST , onde Q(1, −2) e os segmentos

−→ −→
orientados QR e QS representam os vetores, v e w, respectivamente. Calcule sua
área. 2

Volume de paralelepı́pedo Da mesma forma, dados três vetores do R3 , diga-


mos que sejam u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ). Com esses três
vetores podemos construir uma matriz quadrada 3 × 3 de tal modo que as entradas
por colunas sejam as coordenas dos vetores,
 
u1 v1 w1
[u, v, w] =  u2 v2 w2  .
u3 v3 w3
métrica
O valor absoluto do determinante dessa matriz,
|det[u, v, w]|, também admite uma interpretação
geo-
similar. Por definição, ele é o volume de um paralelepı́pedo do espaço Cartesiano
E2 , construı́do de tal forma que suas arestas são obtidas pelo transporte paralelo
dos segmentos orientados representando os três vetores. Observe que uma diagonal
do paralelepı́pedo representa a soma dos três vetores, u + v + w.

Exercı́cio 2.1.2 Dados os vetores u = (1, 0, 2), v = (2, 1, 1) e w = (−1, 3, 3) em


R3 . Determine os outros vértices de um paralelepı́pedo no espaço Cartesiano E3
conhecendo-se os quatro vértices O(0, 0, 0), U , V e W . Calcule o seu volume. 2

Exercı́cios propostos 2.1.1

1. Esboce o paralelogramo com os vértices P , Q, R e S do plano Cartesiano e calcule


sua área, quando

26
2.2. RETAS E PLANOS I

a) P (0, 0), Q(1, 2), R(1, 3) e S(2, 5). b) P (1, 1), Q(3, 2), R(7, 7) e S(5, 6).

2. Esboce um paralelogramo no plano Cartesiano associado aos vetores v, w ∈ R2 , onde


v = (1, 2) e w = (1, 3) e calcule sua área.

3. Sejam v, w ∈ R2 , onde v = (−1, 2) e w = 2v. Calcule e interprete, geometricamente,


o valor do determinante det[v, w].

4. Sejam u, v, w ∈ R3 , onde u = (−1, 2, 1) e v = (2, 1, 1) e w = −u + 2v. Calcule e


interprete, geometricamente, o valor do determinante det[u, v, w].

5. Considere os pontos do plano Cartesiano P (1, 1), Q(3, −3) e R(5, −2).

(a) Esboce os pontos e determine os vetores u e v representados pelos segmentos


−−→ − −→
orientados P Q e QR, respectivamente.
(b) Represente graficamente os vetores u + v e u − v por segmentos orientados com
ponto inicial P .
(c) Determine um ponto S(a, b) com a > 0 tal que P QRS seja um paralelogramo e
calcule sua área.
(d) Dê as coordenadas dos pontos A e B sobre o segmento QR tal que esses pontos
dividem o segmento QR em três partes iguais.

6. Calcule o volume de um paralelepı́pedo do espaço Cartesiano cujas arestas são seg-


mentos orientados que representam os vetores u = (1, 1, 1), v = (−2, 1, 4) e w =
(1, 0, 4). Qual o motivo para dizermos de um e não do?

2.2 Retas e planos I


Nesse texto, não estudaremos Geometria Analı́tica, mas lançaremos mão de uns
poucos resultados dessa disciplina que são do conhecimento de todos com a finali-
dade de ilustrar a teoria. No desenvolvimento do texto nos depararemos com vários
subconjuntos Γ ⊂ R2 definidos por uma equação linear.
Retas em E2 Por exemplo, um conjunto definido
na forma Γ = {(x, y) ∈ R2 ; x − 3y = 0} têm como
imagem pela aplicação P : R2 → E2 , uma reta que
contém a origem do plano Cartesiano cuja equação
linear é a mesma, {P (x, y) ∈ E2 ; x − 3y = 0}.
A identificação é tão natural que continuaremos
a designar pela mesma letra a sua imagem, Γ =
{P (x, y) ∈ E2 ; x − 3y = 0}, embora os dois sejam
subconjuntos de conjuntos diferentes.

27
CAPÍTULO 2. GEOMERIA ANALÍTICA

Relacionaremos equações lineares com duas


variáveis x e y com retas no plano Cartesiano.
Um único exemplo deixará claro a relação. Como
sabemos, dois pontos P e Q no plano Euclidiano
determinam uma única reta Γ. Vamos supor que
tenhamos fixados eixos Carteisanos no plano e
que nesse sistema de eixos obtivemos P (2, 1) e
Q(−3, −2). Um ponto A(x, y) pertence à reta Γ
se, e somente se, o paralalelogramo no qual
duas de suas arestas são QA e QP , tem área nula, pois está contido na reta Γ. Para
calcularmos a área devemos ter em mãos vetores representados pelos segmentos
orientados correspondentes. Ou seja, ter em mãos os vetores v = (x + 3, y + 2) e
w = (5, 3), respectivamente. Logo, a área fica sendo
 
x+3 5
0 = det[v, w] = det = 3x − 5y − 1.
y+2 3
Sendo assim, a reta determinada pelos pontos P e Q de E2 pode ser descrito como
Γ = {A(x, y) ∈ E2 ; 3x − 5y = 1}.
Seguindo a notação, diremos que o conjunto correspondente em R2 é uma reta e
denotamos também por Γ = {(x, y) ∈ R2 ; 3x − 5y = 1}.
Planos em E3 Do mesmo modo, subconjuntos
do R3 definidos por uma equação linear em três
variáveis, por exemplo, Γ = {(x, y, z) ∈ R2 ; x +
y + z = 0}, têm uma imagem pela aplicação
P : R3 → E3 um conjunto definido pela mesma
equação linear, {P (x, y, z) ∈ E3 ; x + y + z = 0}.
Esse último conjunto é um plano que contém a ori-
gem do espaço Cartesiano. Também indicaremos
a imagem de Γ pela mesma letra, Γ = {P (x, y, z) ∈ R3 ; x + y + z = 0}.
Vejamos um modo de estabelecer a relação entre planos no espaço Cartesiano
e equações lineares com três variáveis, x, y e z. Comos sabemos, três pontos não
colineares, digamos P , Q e R, no espaço Euclidiano E3 determinam um único plano
Γ. Vamos supor que tenhamos fixados eixos Cartesianos no espaço e que nesse
sistema de eixos obtivemos P (2, 1, 0), Q(−3, −2, 1) e R(1, 1, 1). Um ponto A(x, y, z)
pertence ao plano Γ se, e somente se, o paralepı́pedo no qual três de suas arestas
são RA, RP e RQ tem volume zero, pois está contido no plano Γ. Os segmentos
orientados correspondentes representam os vetores, u = (x − 1, y − 1, z − 1) v =
(1, 0, −1) e w = (−4, −3, 0), respectivamente. Logo, o volume do paralelepı́pedo
fica sendo

28
2.2. RETAS E PLANOS I

 
x−1 1 −4
0 = det[u, v, w] = det  y − 1 0 −3  = −3x + 4y − 3z + 2.
z − 1 −1 0
Sendo assim, o plano de E3 determinado por P , Q e R pode ser descrito como
Γ = {A(x, y, z) ∈ E3 ; 3x − 4y + 2z = 2}.
Seguindo a convenção notacional, diremos que o conjunto correspondente em R3 é
um plano e denotamos também por Γ = {(x, y, z) ∈ R3 ; 3x − 4y + 2z = 2}.
Retas em E3 Na Geometria Euclidiana espacial, dois pontos distintos, digamos P
e Q em E3 , determinam uma única reta Γ ⊂ E3 e a reta é a interseção de dois planos
distintos Γ1 e Γ2 , onde cada um deles contém os pontos dados, isto é, Γ = Γ1 ∩ Γ2 .
Tais postulados, indicam que podemos utilizar duas equações lineares para descrever
o conjunto Γ. Apresentemos um procedimento para descrever por equações lineares
a reta que contém P e Q.
Suponha que ao fixarmos um sistema de eixos Cartesiano em E3 tenhamos
P (2, 1, 0) e Q(−3, −2, 1). Para determinar um plano Γ1 que contenha esses pon-
tos basta escolher um terceiro ponto que não esteja sobre a reta definida por P e
Q, e considerar o plano Γ1 determinado pelos três pontos, P , Q e R. Para não
alongarmos as manipulações algébricas, escolhamos o terceiro ponto como sendo
R(1, 1, 1). Como vimos acima, a equação do plano já foi calculada, Γ1 = {A(x, yx) ∈
E3 ; 3x − 4y + 2z = 2}.
Agora, devemos escolher qualquer ponto que não pertença à Γ1 para determinar
o segundo plano Γ2 . O ponto S(0, 0, 0) serve aos propósitos, pois não pertence ao
plano Γ1 . Como sempre, consideremos um ponto
genérico A(x, y, z) ∈ Γ2 e os segmentos orienta-
−→ −→ −→
dos SA, SP e SQ, representante dos vetores u =
(x, y, z), v = (2, 1, 0) e w = (−3, −2, 1), respecti-
vamente. Calculando o volume do paralelepı́pedo
cujas arestas são paralelas a aqueles segmentos ob-
temos
0 = det[u, v, w] = x − 2y − 3z.
Logo, Γ2 = {A(x, y, z) ∈ E2 ; x − 2y − 3z = 0} e a
reta fica determinada por duas equações lineares,
Γ = {A(x, y, z) ∈ E2 ; x − 2y − 3z = 0 e 3x − 4y + 2z = 2}.
Para finalizar, deixamos um resumo dos fatos sobre equações lineares homogêneas
e Geometria Analı́tica que foram estudados nessa seção.

1. Um reta em E2 fica determinada por uma equação linear em x e y.

29
CAPÍTULO 2. GEOMERIA ANALÍTICA

2. Um plano em E3 fica definido por uma equação linear em x, y e z.


3. Uma reta em E3 fica definida por duas equações lineares em x, y e z.

Não faz sentido falar em esboçar o gráfico da equação 2x − y = 0. É necessário


informar, de algum modo, quantas variáveis estão envolvidas na equação, pois ela
poderia ser, por exemplo, 2x − y + 0z = 0.

Exercı́cios propostos 2.2.1

1. Determine a equação da reta determinada pelos pontos P e Q do plano Cartesiano.


a) P (1, 1), Q(0, 3). b) P (−1, 2), Q(2, −1). c) P (1, 1), Q(1, 5).
d) P (−3, 4), Q(3, 4). e) P (0, 0), Q(1, 1). f ) P (0, 0), Q(−2, 1).
2. Determine a equação do plano determinado pelos pontos P , Q e R em E3 .
a) P (1, 0, 1), Q(0, 3, 2), R(1, −1, 1).
b) P (0, −1, 2), Q(1, 2, −1), R(0, 0, 0).
c) P (1, −2, 1), Q(0, 1, 5), R(1, 0, 0).
d) P (0, 0, 0), Q(1, 1, 1), R(1, 1, 0).
e) P (0, 0, 1), Q(0, 1, 0). R(0, 0, −1).
3. Determine as equações da reta determinada pelos pontos P e Q em E3 .
a) P (1, 0, 1), Q(0, 3, 2). b) P (0, −1, 2), Q(1, 2, −1).
c) P (1, −2, 1), Q(0, 1, 5). d) P (0, 0, 0), Q(1, 1, 1).
e) P (0, 0, 1), Q(0, 1, 0).

Respostas e sugestões
Seção 2.1
1) a) área = 1. b) área = 3.
2) área = 1. 3) área = 0. 4) volume = 0.
5) a) u = (2, −4) e v = (2, 1). b) u + v = (4, −3) e u − v = (0, −5) são representados,
−→ −→
respectivamente, pelos segmentos orientados P S e P T , onde S(5, −2) e T (1, −4). c)
7 −2 13 −7
S(3, 3) e área = 8. d) A( 3 , 3 ) e B( 3 , 3 ).
6) volume = 15. Existem infinitos paralelepı́pedos cujas arestas são segmentos orienta-
dos que representam os vetores.
Seção 2.2
1) a) E : 2x + y − 3 = 0. b) E : 3x + 3y − 3 = 0. c) E : x − 1 = 0.
d) E : y − 4 = 0. e) E : x − y = 0. f ) E : x + 2y = 0.

2) a) E : x + z − 2 = 0. b) E : −3x + 2y + z = 0. c) E : 9x + y + 2z + 11 = 0.
d) E : y − x = 0. e) E : x = 0.

30
2.2. RETAS E PLANOS I

3) Como uma reta fica definida pela interseção de dois planos, escolhemos o primeiro
plano definido pelos pontos P QR, onde R está indicado no exercı́cio anterior. Depois
escolhemos um ponto S fora desse plano e calculamos a equação do plano P QS. Cada
reta é determinada por duas equações.
a) E : x + z − 2 = 0 e 3x + 2y − 3z = 0.

31
Capı́tulo 3

Produto interno
No primeiro capı́tulo estudamos um conjunto algébrico formado pelas n-úplas orde-
nadas, Rn , e induzimos no conjunto uma estrutura de espaço vetorial real. Também
relacionamos o conjunto R2 e R3 com a Geometria Euclidiana, plana e espacial,
respectivamente. Nesse capı́tulo, para compreender melhor os conjuntos algébricos,
continuaremos a relacioná-los com os conjuntos geométricos. Para isso, é conveni-
ente introduzir uma função bilinear, chamada de produto interno em Rn que servirá
para estabelecer conceitos geométricos tais como comprimento, distância e ângulo
em Rn . O produto interno será a nossa régua e compasso.

3.1 Produto interno


Sejam v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ) dois vetores de Rn . A aplicação
 ,  : Rn × Rn → R definida por v, w = x1 y1 + x2 y2 + · · · + xn yn ,
é chamada de produto interno do Rn . Para simplificar a escrita, diremos apenas
produto interno, ficando implı́cito que estamos trabalhando com aquela função.1

Exemplo 3.1.1 Dados os vetores v = (1, −3) e w = (−1, 1) em R2 , o produto


internos dos vetores é v, w = 1 · (−1) + (−3) · 1 = −4. Verifique que 2v, w =
2v, w.
Da mesma forma, o produto interno dos vetores v = (2, 1, −3) e w = (0, −1, 1)
de R3 é v, w = 2 · 0 + 1 · (−1) + (−3) · 1 = −4. Verifique que v, o = 0, para todo
vetor v. 2

O produto interno possue três propriedades básicas que registraremos numa


propositç ão cuja demonstração ficará aos cuidados do leitor.
1
Alguns textos também referem-se ao produto interno como produto escalar

32
3.2. NORMA DE UM VETOR

Proposição 3.1.1 O produto interno  ,  : Rn × Rn → R possui as seguintes


propriedades para quaisquer vetores u, v, w ∈ Rn e qualquer escalar λ ∈ R,
P1 v, v ≥ 0 e v, v = 0 ⇔ v = 0; (positiva definida)
P2 v, w = w, v; (simétrica)
P3 v + w, u = v, u + w, u; (linear)
P4 λv, w = λv, w. (linear)

Exercı́cios propostos 3.1.1

1. Calcule o produto interno vi , vj , i, j = 1, 2, 3, 4, onde


a) v1 = (2, 2), v2 = (−3, 1), v3 = (1, 3) são vetores do R2 .
b) v1 = (1, −1, 2), v2 = (0, −2, −1), v3 = (0, 0, 0) são vetores do R3 .
c) v1 = (−1, −1, 2, 0), v2 = (0, −3, 2, 1), v3 = (3, 0, 0, 0) são vetores do R4 .
2. Seja η = (3, 2) ∈ R2 . Identifique o conjunto Γ = {v ∈ R2 , η, v = 0}.
3. Seja η = (1, −2, 1) ∈ R3 . Identifique o conjunto Γ = {v ∈ R3 , η, v = 0}.
4. Mostre que o produto interno também possui as propriedades:
a) v, w + u = v, w + v, u. b) v, w = v, u para todo v ⇔ w = u.
c) v = v, e1 e1 + · · · + v, en en .

3.2 Norma de um vetor


Definido o produto interno, podemos iniciar a transposição dos conceitos de com-
primento e ângulo originários na Geometria. Iniciaremos o estudo da aplicação

  : Rn → [0, +∞), v = v, v.
O seu valor num vetor v ∈ Rn será chamado de norma de um vetor. Se desejarmos
escrevê-la utilizando coordenadas, v = (x1 , x2 , ..., xn ), obtemos a expressão

v = (x1 )2 + (x2 )2 + · · · + (xn )2 .
Exemplo 3.2.1 Para calcular a norma do vetor
v = (3, −5) em  R2 basta aplicar √ a definição,
v = v, v = (3)2 + (−5)2 = 34. Dese-
jamos agregar √ um conteúdo geométrico ao número
obtido, v = 34, para isso, utilizaremos segmen-
tos orientados. Observe que ao representarmos o
−−→
vetor por um segmento orientado P Q, digamos que
P (2, 6) e Q(5, 1), o Teorema de Pitágoras nos diz
que v corresponde exatamente ao comprimento
do segmento P Q. 2

33
CAPÍTULO 3. PRODUTO INTERNO

O valor v é interpretado, geometricamente, como o comprimento de um seg-


−−→
mento orientado P Q que representa o vetor v ∈ Rn .

 calcular a norma do√vetor w = (3, −1, 2) de R , efetuamos


Exemplo 3
 3.2.2 Para
w = v, v = (3) + (−1) + (2) = 14. Da mesma forma, o valor w =

2 2 2

14 corresponde ao comprimento de qualquer segmento orientado representando w.


Quais são as normas dos vetores 2w, −2w e do vetor nulo o = (0, 0, 0)? 2

Exemplo 3.2.3 Diremos que um vetor u é unitário quando u = 1.


√ 
Por exemplo, o vetor u = ( 23 , 35 ) ∈ R2 , é unitário pois u = u, u = 1.
Da mesma forma verificamos que o vetor u = ( √110 , 0, √−3
10
) ∈ R3 é unitário.
Para construir vetores unitários basta normalizar um vetor não nulo, isto é,
dividir um vetor não nulo v ∈ Rn por sua norma, u = v 1
v. Esse foi o método
que utilizamos para construir os exemplos acima. Para construir o vetorunitário
∈ R , consideramos o vetor v = (1, 0, −3), calculamos sua norma, v = v, v =
u 3

(1) + (0) + (−3) = 10, e dividimos o vetor por sua norma u = √110 (1, 0, −3).
2 2 2

Fica como exercı́cio mostrar que o processo sempre produz um vetor unitário. 2

A aplicação norma possui as seguintes propriedades para quaisquer vetores


v, w ∈ Rn e qualquer escalar λ ∈ R,
N1 v  0 e v = 0 ⇔ v = 0; (positiva definida)
N2 λv = |λ| v;
N3 v + w ≤ v + w. (desigualdade triangular)
Recordamos que |λ| indica o valor absoluto de um número real, isto é,

λ se λ ≥ 0
|λ| =
−λ se λ < 0
Para mostrar que a aplicação v possui essas propriedades necessitamos de uma
das mais importante desigualdades associadas a um produto interno.

Teorema 3.2.1 (Desigualdade de Cauchy-Schwarz) Sejam   ,  : Rn × Rn →


R o produto interno e   : R → R a norma associada, v = v, v. Então
n

para quaisquer v, w ∈ Rn vale a desigualdade


| v, w |≤ vw,
e a igualdade ocorre se, e somente se, v e w são vetores colineares.

34
3.3. ÂNGULO ENTRE DOIS VETORES

Prova Se um dos vetores, v ou w, é o vetor nulo, eles são colineares e a demonstração


reduz-se a verificar a igualdade, zero igual a zero.
Suponha que v seja um vetor não nulo. Temos pela propriedade P1 do pro-
duto interno, que para qualquer escalar t ∈ R e qualquer vetor w ∈ Rn , vale a
desigualdade
tv − w, tv − w ≥ 0,
e ocorre a igualdade se, e somente se, w = t0 v, para algum escalar t0 . Sendo assim,
desenvolvendo o produto interno acima,
p(t) = tv − w, tv − w = t2 v2 − 2tv, w + w2 ,
obtemos um polinômio quadrático p(t) ≥ 0. Isso implica que o seu discriminante é
menor ou igual a zero, i.e.
4v, w2 − 4v2 w2 ≤ 0.
Conseqüentemente, v, w2 ≤ v2 w2 . De onde segue imediatamente que |v, w| ≤
vw, como desejávamos. Agora, se vale a igualdade então p(t) possui uma única
raiz real λ com multiplicidade dois, ou seja p(λ) = λv − w, λv − w = 0. A pro-
priedade P1 garante que isto ocorre se, e somente se, w − λv = 0, isto é, v e w são
colineares. 2

Exercı́cios propostos 3.2.1

1. Calcule a norma e identifique os vetores unitários.


a) v = (1, 2); w = (−2, 3); u = (1, 0) vetores de R2 .
b) v = (0, −2, 1); w = √114 (2, −1, 3); u = (0, 1, 0) vetores de R3 .

c) v = (0, 2, 12 , 1); w = (− 2, −1, 3, 1); u = (0, 0, 0, 1) vetores de R4 .
−−

2. Determine o comprimento do segmento orientado P Q. Os pontos da primeira linha
estão no plano Cartesiano e os da segunda linha, no espaço Cartesiano.
a) P (1, 2) e Q(4, 6). b) P (1, 0) e Q(0, 1). c) P (1, 1) e Q(−1, −1).
d) P (−1, 0, 2) e Q(3, −2, 0). e) P (0, 0, 0) e Q(0, 1, 0). f ) P (0, 0, 0) e Q(1, 1, 1).
−→
3. Represente por um segmento orientado 0P o vetor u = (cos θ, sen θ) ∈ R2 . Qual a
norma de u? Esboce no plano Euclidiano todos os pontos P (cos θ, sen θ).

3.3 Ângulo entre dois vetores


A desigualdade de Cauchy-Schwarz, permite demonstrar que a norma associada ao
produto interno é de fato uma norma (Veja a leitura complementar desse capı́tulo).
Com a norma transpomos para o Rn a idéia de comprimento. Além disso, ela

35
CAPÍTULO 3. PRODUTO INTERNO

também permite transpor o conceito de ângulo. A única informação extra que


necessitaremos é bem conhecida,
para cada t ∈ [−1, 1] existe um único θ ∈ [0, π] tal que cos θ = t.
Sendo assim, dados dois vetores não nulos v e w em Rn , desde que v
= 0 e
w
= 0, a desigualdade de Cauchy-Schwarz pode ser reescrita, nesse caso, como

|v, w| v, w


≤ 1. ou equivalentemente, −1≤ ≤ 1.
vw v w

Logo, podemos garantir que existe um único θ ∈ [0, π], o qual será chamado de
ângulo entre os vetores não nulos v e w, tal que
v,w
cos θ = v w .
Portanto, para dois vetores não nulos, v e w, uma bela fórmula que relaciona produto
interno, norma (comprimento) e ângulo,
v, w = v wcosθ
onde θ ∈ [0, π] é o ângulo entre os dois vetores. Muitas vezes, para deixar claro que
o ângulo considerado é aquele formado pelos vetores v e w, escrevemos θ(v, w).

Exemplo 3.3.1 Calculemos o ângulo entre os vetores não nulos v = (2, −1, −1) e
w = (−1, −1, 2) de R3 . Pela definição, v, w = v wcosθ. Calculando,
√ √
v, w = −3, v = 6 e w = 6.
√ √
Da igualdade −3 = 6 6cos θ, obtemos cos θ = −1 2 . Portanto, o ângulo entre os
vetores é θ = 2π
3 . 2

Exemplo 3.3.2 Geralmente, não é possı́vel explicitar exatamente o valor do ângulo


entre dois vetores, necessitamos de uma máquina de calcular para conhecer apro-
ximadamente qual o valor do ângulo. Se v = (−1, 2, 1) e w = (3, −1, 3) são
vetores do R3 , a fórmula calcula indiretamente
√ √ o ângulo entre os vetores pois
v, w = v wcos θ, implica que −2 = 6 19cos θ. Logo, cos θ = √−2 114
. De-
vemos procurar o valor aproximado de θ = arccos √−2
114
. 2

Definição 3.3.1 Diz-se que dois vetores v e w em Rn são perpendiculares ou or-


togonais, quando v, w = 0.

O vetor nulo o ∈ Rn é perpendicular a qualquer outro vetor. Convém observar


que quando dois vetores não nulos são ortogonais estamos exigindo que o ângulo
entre eles seja um ângulo reto, pois se v
= 0 e w
= 0, as igualdades

36
3.4. RETAS E PLANOS II

0 = v, w = vw cos θ


implicam que cos θ = 0. Como θ ∈ [0, π], concluı́mos que o ângulo entre os dois
vetores é reto, θ = π/2.
Exemplo 3.3.3 Os vetores v = (1, 2), w =
(−4, 2) ∈ R2 são ortogonais pois o produto interno
é zero, v, w = 1·(−4)+2·2 = 0. Em E2 quaisquer
dois segmentos orientados com mesmo ponto inicial
−−→ −→
representando os vetores, digamos P Q e P R, são
perpendiculares. 2
Um processo prático para construir um vetor
perpendicular a um vetor não nulo v = (a, b) ∈
R2 é considerar o vetor v ⊥ = (−b, a) ∈ R2 .

Exercı́cios propostos 3.3.1

1. Calcule o ângulo entre os vetores u e v.


a) u = (−3, −3), v = (0, 4) ∈ R2 b) u = (2,
√ 2, 2),√ √ −1, 0)
v = (1, √∈R 3
3

c) u = (10, −3), v = (3, 10) ∈ R2 d) u = ( 2, 2, 2), v = ( 3, 0, 3), ∈ R .


2. Determine o valor da coordenada para que os ângulos entre os vetores do R3 seja o
ângulo pedido.
a) v = (−1, 2, 1), w = (x, 1, 2), θ(v, w) = π3 .
b) v = (0, 1, 0), w = (1, y, 4), θ(v, w) = − π4 .
3. Determine um vetor ortogonal ao vetor η ∈ R2 . Descreva o conjunto Γ de todos os
vetores que são ortogonais ao vetor η e verifique que o conjunto é uma reta.
a) η = (−2, 3). b) η = (3, 3). c) η = (1, −1).
4. Calcule um vetor unitário u ∈ R3 simultaneamente ortogonal aos vetores v = (2, 1, 0)
e w = (1, −1, 2).
5. Determine o ângulo entre o vetor v = (−3, 2, 3) ∈ R3 e cada um dos vetores da base
canônica.

3.4 Retas e planos II


Recordamos que no capı́tulo anterior estudamos subconjuntos Γ ⊂ Rn , n = 2, 3
definidos por equações lineares. Para isso, utilizamos o conceito de áreas e volumes.
Agora, examinaremos a relação entre equações lineares com o produto interno.
Retas em E2 Seja η = (3, −2) um vetor em R2 . Escolhido um ponto no plano
Cartesiano, digamos P (1, 2), podemos representar o vetor η por um segmento ori-
−−→
entado P Q e definir uma reta Γ da seguinte forma:

37
CAPÍTULO 3. PRODUTO INTERNO

Γ =: conjunto dos pontos A(x, y) ∈ E2 tais que o


−→
segmento orientado P A é perpendicular ao
−−→
segmento orientado P Q.

Os vetores η = (3, −2) e v = (x − 1, y − 2)


são representados pelos segmentos orientados,
portanto a condição de serem perpendiculares
significa que v, η = 0. Efetuando o produto
interno obtemos 3x − 2y = −1.
Isso significa que a reta é descrita por uma equação linear, a saber,
Γ = {A(x, y) ∈ E2 ; 3x − 2y = −1}.
Iremos nos referir a essa reta como
a reta que passa pelo ponto P ∈ E2 e tem vetor normal η.
Observamos que coeficientes da equação linear são precisamente as coordenadas
do vetor normal η. Isso nos indica qual o caminho inverso da construção acima.

Exemplo 3.4.1 A reta Γ = {A(x, y) ∈ R2 ; 2x − y = 1}, é a reta que passa por


P (1, 1) e tem vetor normal η = (2, −1). Vejamos essa afirmação.
É claro que P ∈ Γ pois suas coordenadas satisfazem a equação linear que define
a reta Γ. Seja η = (2, −1). Considere os pontos A(x, y) ∈ E2 , tais que o segmento
−→ −−→
orientado P A é perpendicular ao segmento orientado P Q que representa η. O
primeiro segmento orientado representa o vetor v = (x − 1, y − 1). A condição de
perpendicularismo significa que 0 = v, η = 2x − y − 1. 2

Planos em E3 Ampliemos a idéia utilizada no plano Cartesiano. Sejam η um


vetor de R3 e P um ponto do espaço Cartesiano E3 . Com um exemplo, daremos
significado à terminologia
o plano que passa por P e tem como vetor normal η.
Vamos supor que η = (1, −1, 2) ∈ R3 seja o vetor
normal dado e que P (2, −1, 1) ∈ E3 seja o ponto
considerado. Representemos o vetor normal por
−−→
P Q. É claro que Q(3, −2, 3). O plano com vetor
normal η passando pelos ponto P é o conjunto Γ
formado por todos os pontos A(x, yz) ∈ E3 tais
−→ −−→
que os segmentos orientados P A e P Q são perpen-
diculares. Descrevamos a condição de perpendicu-
larismo com o produto interno.

38
3.5. PRODUTO VETORIAL EM R3

−→
Como o segmento orientado P A representa o vetor v = (x − 2, y + 2, z − 1),
temos que 0 = v, η = x − 2 − y − 2 + 2z − 2. Logo, o plano é descrito como
Γ = {A(x, y, z) ∈ E3 ; x − y + 2z = 6}.
Novamente, os coeficientes da combinação linear são as coordenadas do vetor
η, indicando como devemos transcrever um plano definido por uma equação linear
para um plano que passa por um ponto e tem um vetor normal especı́fico.

Exemplo 3.4.2 O leitor pode verificar que o plano Γ = {A(x, yz) ∈ E3 ; 2x − 3z =


0} é o plano que contém o ponto P (3, −2, 2) e tem vetor normal η = (2, 0, −3). Ele
também é o plano que contém o ponto R(6, 0, 4) e tem como vetor normal η. 2

Exercı́cios propostos 3.4.1

1. Descreva o conjunto Γ ⊂ R3 de todos os vetores que são ortogonais ao vetor η ∈ R3 .


a) η = (−2, 3, 0). b) η = (3, 3, 1). c) η = (0, 1, 0)
2. Determine a medida dos ângulos formados pelas retas do plano Cartesiano.
a) Γ1 = {A(x, y) ∈ E2 ; x − 2y = 0} e Γ2 = {A(x, y) ∈ E2 ; 2x + y = 3}.
b) Γ1 = {A(x, y) ∈ E2 ; x − y = 0} e Γ2 = {A(x, y) ∈ E2 ; y = −6}.

3.5 Produto vetorial em R3


O espaço Euclidiano R3 admite uma operação especial com dois vetores chamado
de produto vetorial. Sejam v e w vetores de R3 . O produto vetorial de v por w
denotado por v × w é o vetor em R3 tal que para qualquer vetor u ∈ R3 , vale a
identidade
u, v × w = det[u, v, w].
O produto vetorial goza de várias propriedades importantes. A seguir, mostraremos
algumas delas e um algoritmo para calcular o produto vetorial de vetores.

Proposição 3.5.1 Sejam v = (a, b, c) e w = (d, e, f ) vetores de R3 . Então

i) v × w é perpendicular aos vetores v e w, simultaneamente;

ii) o produto vetorial de v por w é calculado pelo algoritmo


      
b e a d a d
v × w = det , − det , det ;
c f c f b e

iii) v × w2 = det[v, w, v × w] ≥ 0.

39
CAPÍTULO 3. PRODUTO INTERNO

Prova i) Por definição temos que v, v × w = det[v, v, w]. Isto implica que a
matriz [v, v, w] tem duas linhas iguais. Como sabemos, nestas condições, podemos
garantir que o seu determinante é zero. Portanto, o produto interno de v por v × w
é zero, significando que v é perpendicular ao vetor v × w. O mesmo argumento vale
para w e v × w. Assim fica mostrado o item i).
ii) Utilizaremos propriedades conhecidas de combinação linear de vetores na
base canônica,

v × w = e1 , v × we1 + e2 , v × we2 + e3 , v × we3

= det[e1 , v, w]e1 + det[e2 , v, w]e2 + det[e3 , v, w]e3



= det[e1 , v, w], det[e2 , v, w], det[e3 , v, w] .

Agora, é suficiente observarmos que as coordenadas são obtidos por


 
1 a d  
  b e
det[e1 , v, w] = det 0 b e = det ,
c f
0 c f
 
0 a d  
  a d
det[e2 , v, w] = det 1 b e = − det ,
c f
0 c f
 
0 a d  
a d
det[e3 , v, w] = det  0 b e  = det .
b e
1 c f
Temos demonstrado o item (ii).
iii) Provemos que det[v, w, v × w] ≥ 0. Desenvolvendo este determinante pela
terceira coluna (desenvolvimento de Laplace) obtemos
 
a d bf − ce
det[u, v, v × w] = det  b e cd − af 
c f ae − bd
= (ae − bd)2 + (af − cd)2 + (bf − ce)2
= v × w2
≥ 0,

provando o que querı́amos. 2

40
3.5. PRODUTO VETORIAL EM R3

Exemplo 3.5.1 Apresentaremos um procedimento para avaliar mais rapidamente


o produto vetorial e diminuir os erros de cálculo. Sejam v = (3, 1, −4) e w = (0, 2, 1)
dois vetores do R2 . Para avaliarmos v ×w, calculamos, formalmente, o determinante
de uma matriz do tipo [e, v, w], onde esse sı́mbolo significa
 
e1 3 0
[e, v, w] =  e2 1 2 .
e3 −4 1
Portanto, ao desenvolver o determinante pela primeira coluna é obtido

v × w = det[e, v, w]
= 9e1 − 3e2 + 6e3
= (9, −3, 6).

Verifica-se facilmente que v, v × v = 0 e que w, v × w = 0.


Examinemos o último item da proposição, v ×
w2 = det[v, w, v × w] = 126. Como comentado
anteriormente, det[v, w, v × w] é o volume do para-
lelepı́pedo no espaço Cartesiano construı́do de tal
forma que as arestas são segmentos orientados re-
presentando os vetores v, w e v × w.
Observe que o segmento orientado representando o vetor v × w é perpendicular à
base e esta é o paralelogramo cujos lados são segmentos orientados representando
os vetores v e w. Sendo assim, como o volume é a área da base multiplicado pela
altura h = ||v × w|| e o volume é v × w2 , segue que, geometricamente, a norma
do vetor v × w é a área de um paralelogramo em R3 cujos lados são segmentos
orientados representando v e w. 2

Proposição 3.5.2 (Fórmula de Lagrange) Para quaisquer dois vetores v e w


do R3 vale a identidade
v × w2 = v2 w2 − v, w2 .
Em particular, se θ(v, w) é a medida do ângulo entre os vetores v e w, então
v × w = v wsen θ(v, w).

Prova Sejam v = (a, b, c) e w = (d, e, f ). A demonstração é de fato uma verificação.


Calculando
  
v2 w2 − v, w2 = a2 + b2 + c2 d2 + e2 + f 2 − (ad + be + cf )2

41
CAPÍTULO 3. PRODUTO INTERNO

= (ae)2 + (af )2 + (bd)2 + (bf )2 + (cd)2 + (ce)2

−2 (abde + acdf + bcef )

= (ae − bd)2 + (af − cd)2 + (bf − ce)2 .


Mas esse último membro das igualdades é precisamente v × w2 . Portanto,
v × w2 = v2 w2 − v, w2 ,
provando a Fórmula de Lagrange. A segunda parte da proposição fica como exercı́cio.
2
O resultado acima e a desigualdade de Cauchy-Schwarz implicam que

Corolário 3.5.1 Dados os vetores v e w em R3 , então v × w = 0 se, e somente


se, v e w são colineares.

Prova A desigualdade de Cauchy-Schwarz nos garante que v2 w2 − v, w2 ≥ 0
e ocorre igualdade se, e somente se, v e w são colineares. Logo, pela Fórmula de
Lagrange podemos afirmar que v × w2 = v2 w2 − v, w2 = 0 se, e somente
se, v e w são colineares. 2

Exercı́cios propostos 3.5.1

1. Seja C = {e1 , e2 , e3 } a base canônica do R3 . Verifique as identidades e observe a


ciclicidade na primeira linha.
a) e1 × e2 = e3 . b) e2 × e3 = e1 . c) e3 × e1 = e2 .
d) e2 × e1 = −e3 . e) e3 × e2 = −e1 . f) e1 × e3 = −e2 .
2. Calcule o produto vetorial v × w e w × v dos vetores de R3 . Calcule v, v × w e
w × v × w
a) v = (1, −1, 1) e w = (2, 0, −1). b) v = (−2, 1, 3) e w = (0, 0, 1).
c) v = (−1, 1, 0) e w = (−2, 2, 0). d) v = (3, 1, 1) e w = (1, 0, 0).
3. Determine o vetor normal do plano detefinido pelos pontos P , Q e R em E3 .
a) P (1, 0, 1), Q(0, 3, 2), R(1, 1, 1). b) P (0, −1, 2), Q(1, 2, −1), R(0, 0, 0).
c) P (1, −2, 1), Q(0, 1, 5), R(1, 0, 0). d) P (0, 0, 0), Q(1, 1, 1), R(1, 1, 0).
4. Mostre as identidades envolvendo produto vetorial.
a) u × (v + w) = u × v + u × w. b) u × v = −v × u.
c) v × w = v wsenθ. d) v × w, u = v, w × u.
5. Dado o vetor u ∈ R3 , determine dois vetores, digamos v e w, tal que o conjunto
β = {u, v, w} é uma base ortonormal do R3 , isto é, seus elementos são dois a dois
ortogonais e unitários.
a) u = (1, 1, 1). b) u = (−2, 0, 1). c) u = (0, −5, 0).

42
3.6. LEITURA COMPLEMENTAR

6. Calcule a área do paralelogramo em R3 cujos lados são segmentos orientados que


representam os vetores v e w, onde
a) v = (1, −1, 1) e w = (2, 0, −1). b) v = (−2, 1, 3) e w = (0, 0, 1).
c) v = (−1, 1, 0) e w = (−2, 2, 0). d) v = (3, 1, 1) e w = (1, 0, 0).
7. Sejam u e v vetores do R3 , unitários e perpendiculares. Mostre que β = {u, v, u × v}
é uma base ortonormal.
8. Dados quatro vetores t, u, v, w ∈ R3 , é verdade que (t×u)×(v ×w) = (t×v)×(u×w)?
9. Demonstre as relações entre os produtos vetorial e interno.
a) (u × v) × w = u, wv − v, wu. (Produto vetorial duplo)
b) u, v × w = w, u × v = v, w × u. (Identidade cı́clica)
10. Sejam u, v, w ∈ R3 vetores não nulos e tais que u = 1, u ⊥ v e u ⊥ w. Mostre que
o ângulo entre os vetores v e w é igual ao ângulo entre os vetores u × v e u × w, em
outras palavras, θ(v, w) = θ(u × v, u × w). Interprete geometricamente fazendo uma
figura. Generalize o resultado. É necessário que u seja unitário? É necessário que u
seja perpendicular aos outros dois vetores?

3.6 Leitura complementar


1. Norma associada ao produto interno

Proposição 3.6.1 (Norma associada) Seja  ,  : Rn × Rn → R o produto


interno. A aplicação a seguir é uma norma,

  : Rn → R, v = < v, v >.

Prova As duas primeiras propriedades, N1 e N2 ,


são imediatas e suas demonstrações serão deixadas
aos cuidados do leitor. Mostremos a desigualdade
triangular, N3 . Observemos inicialmente as igual-
dades,

v + w2 = v + w, v + w
= v2 + w2 + 2v, w.

Por outro lado, por Cauchy-Schwarz podemos escrever v, w ≤ |v, w| ≤
vw. Sendo assim,
v + w2 = v2 + w2 + 2v, w
≤ v2 + w2 + 2vw
= (v + w)2 .

43
CAPÍTULO 3. PRODUTO INTERNO

Como ambos membros da desigualdade são quadrados de números positivos,


ao extraı́rmos a raiz quadrada concluı́mos a demonstração. 2

Exercı́cio 3.6.1 Mostre que para quaisquer v, w ∈ Rn vale a segunda desi-


gualdade triangular, |v − w| ≤ v − w. 2

Respostas e sugestões
Seção 3.1
1) Aplicando a definição de produto interno obtemos os valores,
a) v1 , v1  = 8, v1 , v2  = v2 , v1  = −4, v1 , v3  = v3 , v1  = 8.
b) v1 , v1  = 6, v1 , v2  = v2 , v1  = 0, vi , v3  = v3 , vi  = 0.
c) v1 , v2  = 7. v2 , v1  = 7
2) Γ = {(x, y) ∈ R2 ; 3x + 2y = 0} corresponde a uma reta que contém a origem de E 2 e
o ponto P (−2, 3).
3) Γ = {(x, y, z) ∈ R3 ; x − 2y + z = 0} corresponde a um plano que contém a origem de
E 3 e os pontos P (2, 1, 0) e Q(1, 0, −1).
Seção 3.2 √ √ √ √
1) a) v = √5, w = 13, u = 1. 2) a) 5.√ b) 2. c) 2√ 2.
b) v = √ 5, w = 1, u = 1. d) 2 6. e) 1. f) 3.
21

c) v = 2 , w = 13, u = 1.
3) O vetor é unitário. O segmento orientado que representa u com ponto inicial a origem
faz um ângulo θ com o eixo ox, medido no sentido anti-horário. O esboço de todos
os pontos é um cı́rculo de raio r = 1 centrado na origem.
Seção 3.3

1) Nenhum vetor é o vetor nulo. Não existe obstrução para calcular o ângulo entre os
vetores dados. Veja a fórmula que relaciona produto interno, norma e cosseno do
ângulo entre vetores não nulos.
3π π π π
a) θ= 4 b) θ= 2 c) θ= 2 d) θ= 4.

2) Veja a fórmula que relaciona produto interno, norma e cosseno do ângulo entre vetores
não nulos.
a) x = 1 ou x = −17. b) y = 0 ou y = 2.
3) Dado η = (a, b), um vetor perpendicular ao vetor η é v = (−b, a). Qualquer vetor
perpendicular ao vetor η, v = (x, y), deve ter coordenadas que satisfazem a equação
(a, b), (x, y) = 0 = ax + by. Logo temos as respostas,
a) v = (3, 2), Γ = {(x, y) ∈ R2 ; −2x + 3y = 0}.
b) v = (−3, 3), Γ = {(x, y) ∈ R2 ; 3x + 3y = 0}.
c) v = (1, 1), Γ = {(x, y) ∈ R2 ; x − y = 0}.

44
3.6. LEITURA COMPLEMENTAR

4) Um vetor u = (x, y, z), simultaneamente ortogonal aos vetores dados, deve satisfazer
as equações u, v = 0 = 2x + y e u, w = 0 = x − y + 2x. Logo, os únicos vetores
unitários que satisfazem a essas equação são u = ( √229 , − √429 , − √329 ) ou −u.

5) θ(e1 , v) = arccos √−3


23
.

Section 3.4)
1) a) Γ = {(x, y, z) ∈ R3 ; −2x + 3y = 0}. c) Γ = {(x, y, z) ∈ R3 ; y = 0}.
2) Examine o ângulo entre os vetores normais.
a) θ1 = θ2 = π2 . b) θ1 = π4 e θ2 = 3π
4 .

Section 3.5
2) Para todos os pares de vetores vale a igualdade v × w = −w × v e
a) v × w = (1, 3, 2). b) v × w = (−2, 11, −5).
c) v × w = (0, 0, 0). d) v × w = (1, −1, 0).
−−→ −→
3) Sejam v e w vetores cujos representantes são, respectivamente, P Q e P R. Um vetor
normal ao plano definido pelos pontos P , Q e R é η = v × w.
a) η = (1, 0, −1). b) η = (−3, 2, 1). c) η = (−11, −1, −2). d) η = (−1, 1, 0).
5) Escolhemos qualquer vetor v não nulo e pependicular ao vetor u, consideramos w =
u × v e normalizamos cada vetor, u, v e w.
a) √13 (1, 1, 1); v = 12 (1, −1, 0), w = √16 (1, 1, −2).
6) A área de um paralelogramo cujos lados são segmentos orientados representanto v e
√ v × w.
w é igual ao valor √ √
a) v × w = 14. b) v × w = 140. c) v × w = 0. d) v × w = 2.
8) Não é verdadeira. Verifique para t = e1 , u = e1 , v = e2 e w = e3 .

45
Capı́tulo 4

Subespaço vetorial
Dentre todos os subconjuntos de Rn alguns são especiais, não apenas para a com-
preensão do texto, mas para a Álgebra Linear como um todo. São os chamados
subespaços vetoriais, subconjunto que são eles mesmo espaço vetorias. Para melhor
entendimento do espaço Rn é conveniente estudá-los.

4.1 Subespaço e equação linear homogênea


Definição 4.1.1 Diz-se que um subconjunto Γ ⊂ Rn é um subespaço vetorial
quando
1. Γ é um conjunto não vazio;
2. se v, w ∈ Γ então v + w ∈ Γ; (fechado em relação à soma de vetores)
3. se v ∈ Γ e λ ∈ R então λv ∈ Γ. (fechado em relação ao produto por escalar)

O termo subespaço vetorial está bem empregado. O leitor pode verificar que Γ
satisfaz todas as condições listadas na definição de espaço vetorial, ficando o termo
subespaço por conta de Γ ser um subconjunto de Rn . Naquela definição é exigido
que o conjunto tenha um elemento neutro em relação à soma de vetores. De fato, um
subespaço Γ contém o vetor nulo. Se não, vejamos. Como Γ é não vazio, escolhemos
um vetor qualquer v ∈ Γ e o escalar λ = 0. Pelo item 3, podemos garantir que o
produto λv = o ∈ Γ. Por simplicidade, muitas vezes diremos que Γ é um subespaço
em lugar de subespaço vetorial.
Destacamos dois exemplos de subespaços de Rn , a saber, o subespaço trivial
constituı́do apenas pelo vetor nulo, Γ = {o}, e aquele formado por todos os vetores,
Γ = Rn . É claro, que estaremos também interessados em estudar os subespaços
próprios, aqueles que satisfazem a condição
{o}  Γ  Rn .

46
4.1. SUBESPAÇO E EQUAÇÃO LINEAR HOMOGÊNEA

O sı́mbolo  significa que o subconjunto está contido mas não é igual ao conjunto.
Empregaremos duas técnicas para descrevê-los,

 equações lineares homogêneas
subespaços definidos por

combinações lineares

Exemplo 4.1.1 Ilustremos com um exemplo qual é o significado de um subespaço


ser definido por uma equação linear homogênea. Dado o subconjunto
Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0} ⊂ R3 .
A sentença que define o conjunto, x − 2y + 3z = 0, é uma equação linear homogênea
e o conjunto Γ correspondente a um plano em E2 que contém a origem. Verifique-
mos que ele é um subespaço do R3 mostrando que ele satisfaz as três condições
enumeradas na definição de subespaço.

1. Γ é não vazio pois (4, 2, 0) ∈ Γ.


2. Sejam v = (x1 , y1 , z1 ) e w = (x2 , y2 , z2 ) vetores em Γ. Sendo assim,
x1 − 2y1 + 3z1 = 0 e x2 − 2y2 + 3z2 = 0.
Desejamos mostrar que a soma v + w = (x1 + x2 , y1 + y2 , z1 + z2 ) pertence ao
conjunto Γ. Fazendo a substituição na equação linear homogênea obtemos

x1 + x2 − 2(y1 + y2 ) + 3(z1 + z2 ) = (x1 − 2y1 + 3z1 ) + (x2 − 2y2 + 3z2 )


= 0+0
= 0.

Portanto, v + w ∈ Γ.
3. Sejam v = (x1 , y1 , z1 ) ∈ Γ e λ ∈ R. Por definição de Γ sabemos que x1 − 2y1 +
3z1 = 0. Desejamos verificar que λv = (λx1 , λy1 , λz1 ) também pertence a Γ.
Substituindo na equação linear homogênea temos
λx1 − 2λy1 + 3λz1 = λ(x1 − 2y1 + 3z1 ) = λ0 = 0.
Isso mostra que λv ∈ Γ.

Podemos afirmar algo mais. O subespaço Γ é próprio pois {o}  Γ, desde que
(4, 2, 0) ∈ Γ, bem como, Γ  R3 pois o vetor v = (1, 1, 1) ∈
/ Γ. 2

Exercı́cio 4.1.1 Siga o mesmo roteiro do exemplo acima para mostrar que os con-
juntos são subespaços.

1. Γ = {(x, y) ∈ R2 , 2x − 3y = 0}. O conjunto correspondente no plano Cartesi-


ano é uma reta que contém a origem.

47
CAPÍTULO 4. SUBESPAÇO VETORIAL

2. Γ = {(x, y, z) ∈ R3 ; x − z = 0 e 2x − y + z = 0}. O conjunto correspondente


no espaço Cartesiano é uma reta que contém a origem.

3. Mostre que se Γ1 e Γ2 são dois subespaços vetoriais de Rn , então a interseção


Γ1 ∩ Γ2 também o é. 2

Exercı́cios propostos 4.1.1

1. Verifique quais dos vetores, u = (2, 0, 2), v = (8, −2, 4) e w = (1, 1, 6), pertencem ao
subespaço Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.

2. Considere o subespaço Γ = {(x, y, z) ∈ R3 ; −x + 4y + z = 0}. Escolhidos três


vetores distintos, u, v e w, nesse subespaço, como você justifica, geometricamente
que det[u, v, w] = 0?

3. Quais dos subconjunto é um subespaço próprio? Esboce-os.


a) Γ = {(x, y) ∈ R2 ; x = 0}. b) Γ = {(x, y, z) ∈ R3 ; y = 0}.
c) Γ = {(x, y) ∈ R2 ; 0x + 0y = 0}. d) Γ = {(x, y, z) ∈ R3 ; y = 0 e z = 0}.

4. Mostre que o conjunto Υ = {t(1, 2, 1), t ∈ R} (os múltiplos de v = (1, 2, 1)) é um


subespaço.

5. Mostre que os subespaços Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0} e


Υ = {t(1, 2, 1), t ∈ R} são iguais.

6. Esboce o conjunto no plano Cartesiano correspondente ao subespaço Γ = {(x, y) ∈


R2 ; x − 2y = 0 e 2x − 3y = 0}.

7. Um subespaço pode ser definido por várias equações lineares homogêneas. Mostre
que o subconjunto Γ ⊂ R3 é um subespaço, onde
Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0}.
Verifique que esse subespaço é representado no espaço Cartesiano por uma reta que
contém a origem. Quais dos vetores, v = (1, 2, 1) e w = (0, 2, 2) pertencem a Γ?
Expresse o subespaço como uma interseção de subespaços, Γ = Γ1 ∩ Γ2 .

8. Mostre que o subconjunto Π = {(x, y) ∈ R2 ; x2 −y = 0} não é um subespaço (encontre


um item da definição de subespaço que não seja válido para o conjunto).

9. O fato da equação linear ser homogênea é crucial.

(a) Verifique que Π = {(x, y) ∈ R2 ; 2x − y = 4} não é um subespaço.


(b) Esboce no plano Cartesiano os conjuntos Γ = {P (x, y) ∈ E2 ; 2x − y = 0} e
Π = {P (x, y) ∈ E2 ; 2x − y = 4}.

48
4.2. SUBESPAÇO E COMBINAÇÃO LINEAR

4.2 Subespaço e combinação linear


Para apresentar uma segunda maneira de descrever um subespaço recorremos ao
conceito de combinação linear. Antes fixemos uma notação.
O conjunto formado por todos os vetores que são combinações lineares dos ve-
tores v1 , v2 , ..., vk ∈ Rn será indicado por [[v1 , v2 , ..., vk ]] ⊂ Rn , formalmente,
[[v1 , v2 , ..., vk ]] = {w ∈ Rn ; w = a1 v1 + a2 v2 + · · · + ak vk , ai ∈ R}.
Observe que [[v1 ]] é o conjunto de todos os múltiplos de v1 .

Exemplo 4.2.1 Sejam v1 = (1, −2, 1) e v2 = (1, 0, 1) vetores em R3 . Veja as


afirmações,
◦ u = (−1, −2, −1) ∈ [[v1 , v1 ]] pois u = v1 − 2v2 ;
◦ v = (4, −6, 4) ∈ [[v1 , v1 ]] pois v = 3v1 + v2 ;
◦ w = (a1 + a2 , −a2 , a1 + a2 ) ∈ [[v1 , v1 ]] pois w = a1 v1 + a2 v2 ;
A questão é saber responder se um dado vetor, por exemplo, w = (0, −1, 2) ∈ R3 ,
pertence ao conjunto [[v1 , v2 ]], ou não. Para isso, necessitaremos de um pouco mais
de teoria que será desenvolvida a seguir. 2

Antes de demonstrarmos que os conjuntos formado pelas combinações lineares


de vetores são subespaços, relacionemos os dois tipos de definições.

Exemplo 4.2.2 Consideremos um subespaço definido por uma equação linear ho-
mogênea, digamos que seja Γ = {(x, y, z) ∈ R3 ; x − y + 3z = 0}.
Um vetor w = (a1 , a2 , a3 ) pertence a Γ se, e so-
mente se, {a1 − a2 + 3a3 = 0 . Resolvendo esse sis-
tema, a1 = a2 − 2a3 , podemos afirmar que v ∈ Γ,
se, e somente se,

w = (a2 − 3a3 , a2 , a3 )
= (a2 , a2 , 0) + (−3a3 , 0, a3 )
= a2 (1, 1, 0) + a3 (−3, 0, 1).

Portanto, w ∈ Γ se, e somente se, w é uma combinação linear dos vetores v1 =


(1, 1, 0) e v2 = (−3, 0, 1). Logo, Γ = [[v1 , v2 ]]. Observe que os dois vetores encontra-
dos pertencem ao subespaço Γ. Se apelarmos para a nossa intuição fı́sica, de fato,
deverı́amos ter encontrar pelo menos dois vetores para indicar as duas direções no
plano Γ que permitem fazer todas trajetórias possı́veis da origem a um outro ponto
sobre ele.

49
CAPÍTULO 4. SUBESPAÇO VETORIAL

Mas na resolução do sistem {a1 − a2 + 3a3 = 0 po-


derı́amos ter escolhido a2 = a1 + 3a3 . Sendo as-
sim, seguindo o mesmo roteiro terı́amos, v ∈ Γ, se,
e somente se, v = a1 (1, 1, 0) + a3 (0, 3, 1). Isto é,
Γ = [[w1 , w2 ]], onde w1 = (1, 1, 0) e w2 = (0, 3, 1).
Observe que a dupla de vetores não é igual à dupla
anterior. Um mesmo subespaço pode ser descrito
como o subespaço de combinações lineares utili-
zando várias coleções de vetores, não existe apenas
uma coleção. 2

Exemplo 4.2.3 Seja Γ = {(x, y, z) ∈ R2 , x−y+2z = 0 e x+y+z = 0}. Mostremos


que Γ = [[v1 ]], onde v1 = (−3, 1, 2).
Solução Observe que w = (a1 , a2 , a3 ) ∈ Γ se, e somente se,
 
   a1  
a1 − a2 + 2a3 = 0 1 −1 2   0
ou a2 = .
a1 + a2 + a3 = 0 1 1 1 0
a3
Não podemos utilizar regra de Cramer para resolver o sistema pois matriz principal
não é quadrada. Devemos escolher uma maior submatriz quadrada com determi-
nante não igual a zero, e resolver o sistema cuja matriz principal é essa submatriz.
As submatrizes 2 × 2 do sistema são
     
1 −1 1 2 −1 2
, , .
1 1 1 1 1 1
Como qualquer uma delas tem determinante diferente de zero, escolhamos uma, por
exemplo, a segunda. Logo o sistema que devemos resolver fica sendo
     
a1 + 2a3 = a2 1 2 a1 −a2
ou = ,
a1 + a3 = −a2 1 1 a3 a2
de onde obtemos
a1 = 3a2 e a3 = 2a2 .
Portanto w ∈ Γ se, e somente se, w = (3a2 , a2 , 2a2 ) = a2 (3, 1, 2). Isso mostra que
Γ = [[v1 ]], onde v1 = (3, 1, 2). Caso tivéssemos escolhido a primeira submatriz
terı́amos outro subsistema
     
− a2 + 2a3 = −a1 −1 2 a2 −a1
ou = ,
a2 + a3 = −a1 1 1 a3 −a1
cuja solução seria
a2 = 13 a1 e a3 = 23 a1 .
Isso mostra que Γ = [[w1 ]], onde w1 = (1, 13 , 23 ). Observe que v1 = 3w1 , portanto,

50
4.3. O SUBESPAÇO [[V1 , V2 , ..., VN ]]

afirmar que Γ é formado pelos múltiplo de v1 ou pelos múltiplos de w1 não faz


diferença, o conjunto é o mesmo. 2

Exercı́cios propostos 4.2.1

Mostre a igualdade dos conjuntos (subespaços).

1. {(x, y) ∈ R2 , 3x − y = 0} = [[v1 ]] onde v1 = (1, 3).


2. {(x, y, z) ∈ R3 ; x − 2y + z = 0} = [[v1 , v2 ]], onde v1 = (2, 1, 0) e v2 = (−1, 0, 1).
3. {(t, x, y, z) ∈ R4 ; t + 2y = 0} = [[v1 , v2 , v3 ]], onde v1 = (−2, 0, 1, 0), v2 = e2 e v3 = e4 .
4. {(x, y) ∈ R2 , 3x + 4y = 0 e x − y = 0} = {o} = [[o]] onde o = (0, 0).
5. {(x, y, z) ∈ R3 ; 2x − 2y − z = 0 e y = 0} = [[v1 ]], onde v1 = (1, 0, 2).
6. {(t, x, y, z) ∈ R4 ; t + 2y = 0 e 2x + 3y + z = 0} = [[v1 , v2 ]], onde v1 = (−2, 0, 1, 0) e
v2 = (0, 1, 0, −3).
7. Considere Γ = {(x, y, z) ∈ R3 ; 2x + 2y + 2z = 0 e x + y + z = 0}. Esse subespaço
corresponde a uma reta ou a um plano no espaço Cartesiano?

4.3 O subespaço [[v1, v2, ..., vn]]


A notação para o conjunto de combinações lineares de vetores é extremamente
compacta, ela possui uma série de informações
√ agregadas e não explicitadas. Por
exemplo, escrevendo [[(1, 0), (1, 1), (− 2, 1)]] já sabemos que ele é um subconjunto
do R2 (na verdade, como veremos, é um subespaço) pois é formado por todos √ os
vetores do tipo v = a1 v1 + a2 v2 + a3 v3 , onde v1 = (1, 0), v2 = (1, 1) e v3 = (− 2, 1)
são vetores do R2 .
Ao escrevermos o sı́mbolo [[(2, 12 , −5)]] estamos indicando um subconjunto do R3
formado por todos os vetores w = a1 v1 , onde v1 = (2, 12 , −5). Portanto, o conjunto
é formado pelos múltiplos do vetor v1 .

Exemplo 4.3.1 Algumas vezes podemos identificar imediatamente qual o conjunto


indicado. Ao escrevermos [[(1, −1), (2, 4)]], sabemos que [[(1, −1), (2, 4)]] ⊂ R2 .
Observando que o determinante da matriz formada pelos vetores v1 = (1, −1) e
v2 = (2, 4) não é zero, det[v1 , v2 ] = 6, concluı́mos que β = {v1 , v2 } é uma base
de R2 . Recordando a definição de base, podemos afirmar que todo vetor w ∈ R2
escreve-se como uma combinação linear w = a1 v1 +a2 v2 . Logo, w ∈ [[(1, −1), (2, 4)]],
significando que R2 = [[(1, −1), (2, 4)]].
Mais geralmente, dado [[v1 , v2 , ..., vn ]], com vi ∈ Rn , se det[v1 , v2 , ..., vn ]
= 0,
concluı́mos que Rn = [[v1 , v2 , ..., vn ]]. 2

51
CAPÍTULO 4. SUBESPAÇO VETORIAL

Da notação seguem outras informações. Por exemplo, v1 ∈ [[v1 , v2 , ..., vn ]] pois


vale a combinação linear v1 = 1v1 + 0v2 + · · · + 0vn . Da mesma forma, qualquer vi
pertence ao subconjunto. O vetor nulo o = (0, 0, ..., 0) também pertence pois vale a
combinação linear o = 0v1 + 0v2 + · · · + 0vn .

Proposição 4.3.1 Sejam v1 , v2 , ..., vk ∈ Rn . O conjunto das combinações lineares


desses vetores,
[[v1 , v2 , ..., vk ]] = {w ∈ Rn ; w = a1 v1 + a2 v2 + · · · + ak vk , ai ∈ R},
é um subespaço vetorial de Rn .

Prova Devemos mostrar que o conjunto possui as três propriedades exigidas na


definição de subespaço.

1. O conjunto não é vazio pois vi ∈ [[v1 , v2 , ..., vk ]],


2. Sejam v, w ∈ [[v1 , v2 , ..., vk ]]. Por definição de conjunto das combinações line-
ares, existem escalares a1 , a2 , ...,ak e b1 , b2 , ...,bk tais que
v = a1 v1 + a2 v2 + · · · + ak vk e w = b1 v1 + b2 v2 + · · · + bk vk .
Sendo assim, a soma v + w pertence ao conjunto [[v1 , v2 , ..., vk ]] pois essa soma
é uma combinação linear com coeficientes ci = ai + bi , isto é,
v + w = (a1 + b1 )v1 + (a2 + b2 )v2 + · · · + (ak + bk )vk .

3. Seja λ um escalar. Então λv pertence ao conjunto [[v1 , v2 , ..., vk ]] pois ele


é uma combinação linear dos vi com coeficientes di = λai , explicitamente,
λv = λa1 v1 + λa2 v2 + · · · + λak vk . 2

A proposição ensina um pouco mais: é muito fácil construir subespaços vetoriais,


basta escolher uma coleção não vazia de vetores, v1 , v2 , ..., vk ∈ Rn , e considerar o
conjunto de todas combinações lineares desses vetores, [[v1 , v2 , ..., vk ]]. O próximo
exemplo nos ensina como devemos redefinir um subespaço de combinações lineares
utilizando equações lineares homogêneas.

Exemplo 4.3.2 Seja Γ = [[v1 , v2 ]] ⊂ R4 o subespaço das combinações lineares


dos vetores v1 = (1, 2, 1, −2) e v2 = (1, 1, −1, 1). Por definição, um vetor w =
(t, x, y, z) ∈ Γ se, e somente se, existem escalares a1 e a2 tais que
(t, x, y, z) = a1 v1 + a2 v2 .
Desejamos determinar os dois escalares em função de t, x, y e z. A igualdade acima
nos leva ao sistema linear 4 × 2,

52
4.4. GERADORES

    

 a1 + a2 = t 1 1   t
  2  a1  x 
2a1 + a2 = x  1    .
ou  1 −1  a2 =  y 

 a1 − a2 = y

−2a1 + a2 = z −2 1 z
Para resolver por regra de Cramer, podemos considerar somente as duas primeiras
equações, isto é, suprimir por um momento as duas últimas,
     
a1 + a2 = t 1 1 a1 t
ou = .
2a1 + a2 = x 2 1 a2 x
Obtemos os valores a1 = −t + x e a2 = 2t − x. Mas esses valores devem satisfazer
também as duas equações suprimidas, logo por substituição devemos ter
 
a1 − a2 = y (−t + x) − (2t − x) = y
, .
−2a1 + a2 = z −2(−t + x) + (2t − x) = z
Portanto, um vetor (t, x, y, z) ∈ Γ se, e somente se, suas coordenadas satisfazem as
equações, −3t + 2x − y = 0 e 4t − 3x − z = 0. Logo, o subespaço pode ser redefinido
como Γ = {(t, x, y, z) ∈ R4 ; −3t + 2x − y = 0 e 4t − 3x − z = 0}. 2

Exercı́cios propostos 4.3.1

1. Para cada subespaço, redefina-o utilizando equações lineares homogêneas.


a) [[(−2, 5)]]. b) [[(−2, 1, 0), (1, 1, 1)]]. c) [[(0, 1, −2), (1, 0, 1)]].
d) [[(−1, 2, −1)]]. e) [[(−2, 1, 0)]]. f ) [[(1, 1, 1), (2, 2, 2)]].
g) [[(0, 1, −3, 2) (1, −1, 1, 3)]] h) [[(2, 1, 1, −3)]]
2. Expresse os vetores de R2 como combinação linear de v1 = (1, 4) e v2 = (1, 5).
a) u = (4, 1). b) v = (2, 3). c) w = (−1, 2). d) t = (1, 4).
3. Expresse os vetores do R3 como combinação linear de v1 = (1, 0, 2), v2 = (−2, −1, 0)
e v3 = (−1, 2, 1).
a) u = (−8, 4, 1). b) v = (0, 2, 3). c) w = (−1, 2, 1).
4. Quais dos vetores pertencem ao subespaço [[(1, −1, 1), (0, 2, 1)]]?
a) u = (2, 0, 3). b) v = (3, 7, 8). c) w = (4, 1, 6). d) t = (1, 0, 0).

4.4 Geradores
É claro que não existem apenas essas duas formas, com equações lineares ho-
mogêneas ou com combinações lineares, para definir um subespaço. Existem inúme-
ras outras. Um ponto importante da teoria é simplificar o estudo mostrando que
seja qual for o subespaço Γ ⊂ Rn ele sempre pode ser descrito como o espaço de
combinações lineares de vetores, isto é, Γ = [[v1 , v2 , ..., vk ]]. Esse é o nosso objetivo.
O conjunto de tais vetores recebem um nome especial.

53
CAPÍTULO 4. SUBESPAÇO VETORIAL

Um subconjuto β = {v1 , v2 , ..., vk } ⊂ Rn é um conjunto ordenado de geradores


do subespaço Γ ⊂ Rn se Γ = [[v1 , v2 , ..., vk ]]. Nesse caso diz-se que β gera Γ.

Exemplo 4.4.1 O conceito de geradores não é novo. Já vimos anteriormente que
qualquer base ordenada β = {v1 , v2 , ..., vn } de Rn é um conjunto de geradores para
Rn . Vimos e revimos que Rn = [[v1 , v2 , ..., vn ]], até foi exibido um conjunto especial
de geradores, a base canônica C = {e1 , e2 , ..., en }. Base é um caso especial de
geradores, da mesma forma que elefantes africanos são um tipo especial de elefante,
pois existem outros tipos, como elefantes indianos. 2

Ao descrevermos o subespaço na forma Γ = [[v1 , v2 , ..., vk ]], é supérfluo perguntar


por geradores, ele já está definido por geradores. Com outro tipo de definição, por
exemplo, por equações lineares homogêneas, faz sentido perguntar por geradores do
subespaço.
Um subespaço pode ter duas coleções distintas de geradores! Isto é, ocorrer que
Γ = [[v1 , v2 , ..., vk ]] = [[w1 , w2 , ..., wl ]], onde os vetores e a quantidade deles não
são iguais. Tais fenômenos já foram comentados em exemplos de seções anteriores.
Como veremos, aumentar o número de vetores na coleção β ou diminuı́-los sem
modificar o subespaço diz respeito apenas ao conceito de combinação linear.
Se eliminarmos um vetor da lista, digamos que seja o último vetor, vn , fica
valendo a inclusão, [[v1 , v2 , ..., vn−1 ]] ⊂ [[v1 , v2 , ..., vn−1 , vn ]]. De fato, cada vetor
pertencente ao primeiro subespaço é um vetor pertencente ao segundo subespaço.
Se não, vejamos. Afirmar que w ∈ [[v1 , v2 , ..., vn−1 ]] significa que w = a1 v1 + a2 v2 +
· · · + an−1 vn−1 . Mas ao somarmos o vetor nulo o = 0vn ao vetor w obtemos ainda o
vetor w. Logo, w = a1 v1 +a2 v2 +· · ·+an−1 vn−1 +0vn . Mas a expressão está indicando
que w é uma combinação linear dos n vetores, logo, w ∈ [[v1 , v2 , ...vn−1 , vn ]].
Portanto, ao eliminarmos o elemento vi da lista, fato que indicaremos simboli-
camente como [[v1 , v2 , ..., vi , ..., vn ]], vale a inclusão de subespaços
[[v1 , v2 , ..., vi , ..., vn ]] ⊂ [[v1 , v2 , ..., vi , ..., vn ]].
Mas não podemos concluir que vale a inclusão própria,
[[v1 , v2 , ..., vi , ..., vn ]]  [[v1 , v2 , ..., vi , ..., vn ]].
Algumas vezes, ao eliminarmos um vetor da lista, continuamos com o mesmo con-
junto! Outras vezes, obtemos um subconjunto próprio. Tal comportamento está
relacionado com o conceito de combinação linear e será discutido na próxima pro-
posição.

Exemplo 4.4.2 Seja Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (5, −1, 0), v2 = (2, 2, −2) e
v3 = (−1, −7, 6). Consideremos o vetor w ∈ Γ, w = 2v1 − v2 − v3 = (9, 3, −4). O

54
4.4. GERADORES

fato do terceiro vetor do conjunto de geradores ser uma combinação linear dos dois
primeiros vetores, v3 = v1 − 3v2 , nos permite escrever que w = 2v1 − v2 − v1 + 3v2 =
v1 + 2v2 . Logo, w ∈ [[v1 , v2 ]]. Essas contas numéricas indicam que ao suprimirmos
um vetor do conjunto de geradores que seja combinação linear dos outros vetores
do conjunto de geradores o subespaço gerado é o mesmo. Deixemos registrado esse
fato no principal teorema do capı́tulo. 2

Deste ponto em diante, a menos que seja dito explicitamente o contrário, passamos
a supor que os subespaços considerados Γ ⊂ Rn não são o subespaço trivial e os
conjuntos ordenados β = {v1 , v2 , ..., vk } são formados por vetores não nulos.

A seguir, apresentaremos três afirmações eqüivalentes. Isso significa que quando


ocorre uma delas as outras duas também ocorrem. Tal como raio, relâmpago e
trovão, que são fenômenos sincrônicos.

Teorema 4.4.1 Dado o subespaço [[v1 , v2 , ..., vk ]] ⊂ Rn . As afirmações são eqüiva-


lentes.

1. Algum vetor vi é uma combinação linear dos outros vetores da lista;


2. [[v1 , ..., vi , ...vk ]] = [[v1 , ..., vi , ...vk ]]. (
vi indica que o vetor foi suprimido)
3. O conjunto é linearmente dependente (l.d.), isto é, o vetor nulo expressa-se
por uma combinação linear o = a1 v1 + a2 v2 + · · · + ak vk , onde os coeficientes
ai ’s não são todos iguais a zero.

Prova 1. ⇒ 2.) Sem perder a generalidade, podemos supor que seja vk o vetor que é
uma combinação linear dos outros vetores da lista, vk = c1 v1 + c2 v2 + · · · + ck−1 vk−1 .
Já sabemos que [[v1 , ..., vk−1 , vk ]] ⊂ [[v1 , ..., vk−1 , vk ]]. Para mostrar a igualdade
devemos mostrar a inclusão oposta. Considere um vetor w = a1 v1 +a2 v2 +· · ·+ak vk
em [[v1 , v2 , ..., vk ]]. Substituindo vk por sua combinação linear e reagrupando as
parcelas obtemos
w = (ak c1 + a1 )v1 + (ak c2 + a2 )v2 + · · · + (ak ck−1 + ak−1 )vk−1 .
Claramente, w ∈ [[v1 , v2 , ..., vk ]] pois é uma combinação linear dos k − 1 primeiros
vetores.
2. ⇒ 3.) A hipótese [[v1 , ...vk−1 , vk ]] = [[v1 , ..., vi , ...vk ]] implica que o vetor
vk ∈ [[v1 , v2 , ..., vk−1 ]]. Logo, existem coeficientes ai ’s não todos iguais a zero (pois
vk não é o vetor nulo) tais que vk = a1 v1 + a2 v2 + · · · + ak−1 vk−1 . Portanto o vetor
nulo expressa-se como o = a1 v1 + · · · + ak−1 vk−1 − vk , onde os coeficientes não são
todos iguais a zero.

55
CAPÍTULO 4. SUBESPAÇO VETORIAL

3. ⇒ 1.) Deixaremos como exercı́cio. 2


A proposição estabelece um critério simples para detetar quando o subespaço
Γ = [[v1 , v2 , ..., vk ]] está sendo descrito com excesso de geradores. Basta exami-
nar se o vetor nulo também tem excesso de combinações lineares para descrevê-lo.
Ou falando tecnicamente, examinar se o conjunto β = {v1 , v2 , ..., vk } é lineamente
dependente. A proposição demonstrada tem uma versão na forma contrapositiva
(negando todas as afirmações).

Teorema 4.4.2 Dado o subespaço [[v1 , v2 , ..., vk ]] ⊂ Rn . As afirmações são equiva-


lentes.

1. Nenhum vetor vi é uma combinação linear dos outros vetores da lista;


2. [[v1 , ..., vi , ...vk ]]  [[v1 , ..., vi , ...vk ]], para qualquer vetor vi ;
3. O conjunto é linearmente independente, (l.i) isso é, a única combinação para
expressar o vetor nulo é aquela com todos os coeficientes iguais a zero, o =
0v1 + 0v2 + · · · + 0vk .

Como uma primeira aplicação da proposição, veremos que só precisamos de um


número de vetores no conjunto degeradores menor ou igual a n para gerar qualquer
subespaço Γ ⊂ Rn . O determinante será a ferramenta utilizada para verificar essa
propriedade.
O determinante de uma matriz quadrada é igual a zero se, e somente se, uma
coluna é combinação linear de outras colunas.

Exemplo 4.4.3 Dado o subespaço Γ = [[v1 , v2 , v3 ]] ⊂ R2 , onde


v1 = (1, 1), v2 = (1, 2) e v3 = (−1, 1).
Como o determinante da matriz 2 × 2 cujas colunas são os dois primeiros vetores
não é igual a zero, det[v1 , v2 ] = 1, esses dois vetores formam uma base para o R2 .
Logo, o terceiro vetor v3 é uma combinação linear dos dois primeiros, calculando
obtemos que w = −3v1 + 2v2 . Pela proposição podemos eliminar o terceiro vetor
que continuaremos com um conjunto de geradores para o subespaço, Γ = [[v1 , v2 ]].
Ilustremos um pouco mais a proposição. Na verdade, Γ = R2 , pois qualquer
vetor de R2 é uma combinação linear de v1 e v2 .
Para determinar os coeficientes da combinação linear para expressar o terceiro
vetor, devemos escrever v3 = a1 v1 + a2 v2 e resolver o sistema
     
a1 + a2 = −1 1 1 a1 −1
ou = .
a1 + 2a2 = 1 1 2 a2 1

56
4.4. GERADORES

A regra de Cramer nos dá imediatamente que a1 = −3 e a2 = 2.


Como o conjunto de três vetores em R2 não é linearmente independente, o vetor
nulo o = (0, 0) não tem unicidade de combinação linear,
◦ o = 0v1 + 0v2 + 0v3 , (essa combinação sempre existe)
◦ o = −3v1 + 2v2 − v3 , (obtida da combinação linear para v3 )
◦ o = −3a3 v1 + 2a3 v2 − a3 v3 . (pois a3 o = o)
Continuemos ilustrando a proposição. Se o vetor nulo não se expressa de maneira
única utilizando combinação linear dos três vetores, v1 , v2 e v3 , o mesmo ocorre com
qualquer vetor. Vejamos essa afirmação. Um vetor w = (x, y) ∈ R2 , expressa-se
como a combinação linear dos dois primeiros vetores como w = (2x−y)v1 +(y−x)v2 .
Logo, somando o vetor nulo a ambos os membros, obtemos as igualdades w + o =
w = (2x − y − 3a3 )v1 + (y − x + 2a3 )v2 − a3 v3 . 2

Comentário Novamente, façamos uma analogia


entre dependência (ou independência) linear de ve-
tores e um conceito fı́sico. Suponha que são da-
dos três vetores que fixam as direções possı́veis
num plano Cartesiano nas quais podemos cami-
nhar para sair da origem O e chegar a um ponto W ,
como na figura. Podemos percorrer uma trajetória
sugerida pela combinação linear w = 37 v1 + 83 v2 , ou
seguir uma trajetória do tipo w = v3 + 43 v2 − 17 v1 .
Fato: não são necessárias três direções para sair da
origem e chegar a qualquer ponto do plano. Bas-
tam duas direções, digamos, aquelas indicadas por v1 e v2 , a terceira direção é
desnecessária. Esse fenômeno pode ser captado examinando apenas trajetórias que
partem da origem e chegam à origem, por exemplo, aquela sugerida por, o = 27 v1 +
3 v2 − v3 . Nesse exemplo os vetores são linearmente dependentes. 2
4

Exemplo 4.4.4 Considere o subespaço Γ = [[v1 , v2 , v3 , v4 , v5 ]] ⊂ R3 onde


v1 = (1, 0, 1), v2 = (−2, −1, 0), v3 = (1, 1, −1) v4 = (4, 2, 0) e v5 = (2, 2, −2).
Se, por acaso, para três vetores da lista o determinante da matriz correspondente
não fosse zero, os três vetores formarı́am uma base do R3 , portanto, os outros vetores
restantes serı́am expresso por uma combinação linear dos três vetores encontrados
e mais, Γ = R3 . Mas esse não é o caso.
Como det[v1 , v2 , v3 ] = 0, um desses vetores é combinação linear dos outro dois
vetores, portanto, o vetor nulo tem uma outra combinação linear para expressá-lo
além da combinação linear trivial, o = 0v1 + 0v2 + 0v3 , os três são linearmente

57
CAPÍTULO 4. SUBESPAÇO VETORIAL

dependentes. Encontremos as outras combinações lineares para o pois ela nos dirá
qual o vetor que podemos eliminar da lista. Escrevendo o = a1 v1 + a2 v2 + a3 v3 ,
obtemos o sistema linear
     
 a1 − 2a2 + a3 = 0 1 −2 1 a1 0
− a2 + a3 = 0 ou  0 −1 1   a2  =  0 .

a1 − a3 = 0 1 0 −1 a3 0
Não podemos utilizar regra de Cramer pois já sabemos que a matriz principal
(dos coeficientes) tem determinante igual a zero. Devemos suprimir uma equação
resolver o subsistema obtido e verificar se a solução satisfaz a equação suprimida.
Quando suprimimos a última equação, obtemos duas equações com três incógnitas,
 
   a1  
a1 − 2a2 + a3 = 0 1 −2 1   0
ou a2 = .
− a2 + a3 = 0 0 −1 1 0
a3
Como sempre, devemos escolher uma maior submatriz quadrada com determinante
diferente de zero e resolver o sistema que dependerá de um coeficiente,
     
a1 − 2a2 = −a3 1 −2 a1 −a3
ou = .
− a2 = −a3 0 −1 a2 −a3
É imediato concluir que a1 = a3 e a2 = a3 e a solução satisfaz a equação suprimida.
Portanto, o = a3 v1 + a3 v2 + a3 v3 , ou seja, uma combinação linea para cada escolha
de a3 . Para a3 = 1, segue que v1 é a combinação linear dos outros vetores, v1 =
−v2 − v3 . Logo, podemos eliminar v1 dos geradores do subespaço que ele continua
sendo gerado pelos outros vetores, Γ = [[v2 , v3 , v4 , v5 ]].
Como det[[v2 , v3 , v4 ]] = 0, um dos vetores é combinação linear dos outros dois.
Com os mesmos procedimentos concluı́mos que o = 2a4 v2 + 0v3 + a4 v4 . Logo, como
v4 = −2v2 + 0v3 ele pode ser eliminado obtendo Γ = [[v2 , v3 , v5 ]].
Finalmente, é visı́vel que v5 = 2v3 , ou seja, ele é a combinação linear dos outros
dois vetores, v5 = 0v2 + 2v3 . Logo, Γ = [[v2 , v3 ]].
Não podemos mais reduzir o conjunto de geradores pois ele é linearmente inde-
pendente. Para mostrar esse fato, não existe mais o critério do determinante ser
ou não igual a zero, pois não podemos formar uma matriz quadrada 3 × 3 utili-
zando dois vetores do R3 . Devemos mostrar que são l.i. pela definição. Escrever a
combinação linear o = a2 v2 + a3 v3 resolver o sistema correspondente e verificar que
a2 = a3 = 0. Portanto, só existe a combinação linear o = 0v2 + 0v3 . 2

Proposição 4.4.1 Seja Γ = [[vi , v2 , ..., vk ]] ⊂ Rn um subespaço. Se k > n então o


conjunto de geradores é linearmente dependente. Em particular, existe um subcon-
junto de no máximo n vetores de {v1 , v2 , ..., vk } que geram Γ.

58
4.4. GERADORES

Prova Como k > n podemos formar matrizes n × n cujos vetores colunas são
elementos do conjunto de geradores.
Se alguma matriz formada por n vetores do conjunto de geradores tiver deter-
minante diferente de zero, os vetores colunas formam uma base para o Rn , Γ = Rn ,
e os outros vetores da lista são combinações lineares dos vetores encontrados, logo,
o conjunto com k > n vetores é linearmente dependente e Γ é gerado por essa base
do Rn . Terminamos a demonstração.
Resta o caso de qualquer matriz formada por n vetores do conjunto de gerado-
res ter determinante igual a zero. Consideramos o conjunto {v1 , v2 , ..., vn }, como
algum vetor é combinação linear dos outos, o conjunto de geradores é linearmente
dependente. Eliminado dessa lista um vetor que seja combinação linear dos outros
vetores, temos agora o subespaço Γ gerado por k − 1 ≥ n vetores. Podemos con-
tinuar eliminando vetores do conjunto de geradores enquanto tivermos um número
de vetores maior ou igual a n utilizando o critério do determinante ser igual a zero.
Isso termina a demonstração. 2

Exercı́cios propostos 4.4.1

1. Expresse os vetores o = (0, 0, 0) e w = (2, 3, 1) por duas combinações lineares distintas


dos vetores v1 = (1, 1, 1), v2 = (1, 2, 0) e v3 = (2, 3, 1).
2. Considere o subespaço Γ = [[v1 , v2 , v3 ]] ⊂ R2 , onde v1 = (1, 1), v2 = (3, −1) e
v3 = (2, 1). Verifique quais dos vetores pertence ao subespaço e estude a unicidade
da combinação linear.
a) e1 = (1, 0). b) u = (−2, 1). c) w = (1, 1).
3. Considere o subespaço Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (1, 0, 1), v2 = (3, 2, 3)
e v3 = (0, 1, 0). Determine quais dos vetores pertencem ao subespaço e estude a
unicidade da combinação linear.
a) e1 = (1, 0, 0). b) u = (−3, 4, 3). c) w = (1, 1, 1).
4. Seja Γ = [[v1 , v2 , v3 ]]. Extraia um conjunto de geradores l.i. da lista.
a) v1 = (−2, 3), v2 = (−1, 1), v3 = (0, 1).
b) v1 = (2, 2), v2 = (1, 1), v3 = (−2, −2).
c) v1 = (−1, 4), v2 = (3, 2), v3 = (1, 0).
5. Seja Γ[[v1 , v2 , v3 ]]. Extraia um conjunto de geradores l.i. para Γ e identifique quais
dos subespaço são iguais ao espaço R3 .
a) v1 = (1, 1, 0), v2 = (−1, 1, 1), v3 = (0, 1, 0).
b) v1 = (2, 1, −1), v2 = (1, 0, 1), v3 = (3, 2, 0).
c) v1 = (2, 1, −1), v2 = (−2, 1, −1), v3 = (1, −1, 4).
6. Determine um conjunto de geradores l.i. para cada subespaço.
a) Γ = {(x, y) ∈ R2 ; 2x − 5y = 0}. b) Γ = {(x, y, z) ∈ R3 ; 2x − 5y = 0 e y = 0}.
c) Γ = {(x, y, z) ∈ R3 ; y − z = 0}. d) Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.

59
CAPÍTULO 4. SUBESPAÇO VETORIAL

4.5 Base
Anteriormente, utilizamos o conceito de combinação linear para dar significado aos
termos ”β = {v1 , v2 , ...vk } é um conjunto ordenado de geradores de um subespaço
vetorial Γ”. O passo seguinte foi classificar os conjuntos ordenados de geradores em
dois tipos:

1. aqueles conjuntos com os quais escrevemos cada vetor do espaço de maneira


única, tecnicamente falando, os linearmente independentes,
2. e aqueles que não possuem essa propriedade, os linearmente dependentes.

Combinando os dois conceitos, geradores e independência linear, definimos base


ordenada de um subespaço,

 Conjunto ordenado de geradores
Base ordenada .

Conjunto linearmente independente

Definição 4.5.1 Um conjunto ordenado β = {v1 , v2 , ..., vk } ⊂ Rn é uma base para


o subespaço Γ se

1. Γ = [[v1 , v2 , ..., vk ]]; (geradores)


2. β é linearmente independente. (l.i.)

Quando o subespaço já está definido por um conjunto de geradores, desse con-
junto podemos extrair uma base utilizando reiteradamente a proposição da seção
anterior.

Corolário 4.5.1 Dado o subespaço Γ = [[v1 , v2 , ..., vk ]] ⊂ Rn , podemos escolher um


subconjunto α ⊂ {v1 , v2 , ..., vk } que é uma base ordenada do subespaço.

Prova Se o conjunto de geradores for linearmente independente, terminamos o


problema, pois ele é uma base. Caso contrário, se o conjunto for linearmente
dependente, diminuı́mos o número de vetores do conjunto ordenado de gerado-
res β = {v1 , ..., vi , ..., vk } retirando do conjunto um elemento vi que seja com-
binação linear dos outros, concluı́mos que o subespaço das combinações lineares
de βi = {v1 , ..., vi , ..., vk } é o mesmo,
[[v1 , ..., vi , ..., vk ]] = [[v1 , ..., vi , ..., vk ]].
Ao conjunto ordenado de geradores βi , aplicamos o mesmo processo, retiramos um
elemento vj que seja combinação lineares dos outros. Após um número finito de

60
4.6. DIMENSÃO

etapas menor que k, temos construı́do um conjunto ordenado de geradores, diga-


mos α, contendo pelo menos um vetor e gerando o mesmo subespaço original. No
conjunto α, um vetor qualquer não é combinação linear dos outros. Logo, é um
conjunto de geradores linearmente independente, isto é, uma base. 2
Chamamos a atenção para um caso particular. Quando o conjunto ordenado é
constituı́do de um único vetor não nulo, β = {v1 }, ele é linearmente independente
pois se o = a1 v1 então a1 = 0. Por exemplo, para β = {(1, −1, 3)} ⊂ R3 , temos que
se (0, 0, 0) = a1 (1, −1, 3) = (a1 , −a1 , 3a1 ) então a1 = 0.

Exercı́cios propostos 4.5.1

1. Justifique as respostas dadas.


a) O conjunto de geradores de Γ = [[v1 , −3v1 ]] ⊂ Rn é uma base? Resp.: Não.
b) Um conjunto de geradores de um subespaço, linearmente independente, pode
conter dois vetores iguais? Resp.: Não.
2. Quais dos conjuntos abaixo são linearmente independente? Extraia um conjunto
linearmente independente do conjunto dado.
a) β = {(4, 1, 0), (−2, 1, 2), (1, −3, 2), (2, 0, 1)} ⊂ R3 .
b) β = {(1, 1, 0), (0, −3, 4), (1, −4, 4)} ⊂ R3 .
3. Para cada subespaço, descreva-o como o subespaço de combinações linerares de uma
base. Encontrado a base de Γ estenda-a a uma base do espaço.
a) Γ = {(x, y) ∈ R2 ; x − 2y = 0}.
b) Γ = {(x, y, z) ∈ R3 ; x − 2y + z = 0}.
c) Γ = {(t, x, y, z) ∈ R4 ; x − 2y = 0, 2x − 3y = 0}.
d) Γ = {(s, t, x, y, z) ∈ R5 ; x = 0}.
4. Encontre uma base para cada um dos subespaços e estenda-a a uma base do espaço.
a) Γ = [[(−4, 8), (2, −4), (−1, 2)]]. b) Γ = [[(−2, 1, 0), (1, 1, 1)]].
c) Γ = [[(0, 1, −2), (−3, 2, −7), (1, 0, 1)]]. d) Γ = [[(−1, 2, −1)]].
e) Γ = [[(−2, 1, 0)]]. f ) Γ = [[(1, 1, 1), (2, 2, 2)]].
g) Γ = [[(−2, 2, 0), (1, −1, 0), (1, 1, 1)]].

4.6 Dimensão
Aprendemos que só é possı́vel diminuir o número de vetores de um conjunto de
geradores de um subespaço quando ele é linearmente dependente.
A idéia principal dessa seção é, de certa forma, percorrer o caminho inverso.
Dado um subespaço qualquer Γ ⊂ Rn , iremos escolher, sucessivamente, vetores v1 ,
v2 ,...,vk em Γ, linearmente independentes, até obter uma base ordenada e concluir
que Γ = [[v1 , v2 , ..., vk ]]. Como isso, chegamos ao nosso objetivo, todo subespaço

61
CAPÍTULO 4. SUBESPAÇO VETORIAL

não trivial do Rn possui uma base, aliás, podemos construir muitas bases distintas
aplicando os procedimentos indicados no seguinte lema.

Lema 4.6.1 Seja {v1 , v2 , ..., vk } uma base do subespaço Γk = [[v1 , v2 , ..., vk ]]. Se
vk+1 ∈
/ Γk = [[v1 , v2 , ..., vk ]] então {v1 , v2 , ..., vk , vk+1 } é uma base do subespaço
Γk+1 = [[v1 , v2 , ..., vk , vk+1 ]].

Prova Suponha, por absurdo, que os geradores de Γk+1 sejam l.d. Então o vetor
nulo tem uma expressão do tipo o = a1 v1 + a2 v2 + · · · + vk vk + ak+1 vk+1 onde os
coeficientes ai ’s não são todos iguais a zero. Logo, ak+1 vk+1 = −a1 v1 − a2 v2 − · · · −
vk vk . Se o coeficiente ak+1 for igual a zero, como nem todos os coeficientes são iguais
a zero, o vetor nulo é expresso por uma combinação linear com coeficientes nem todo
iguais a zero, o = −a1 v1 − a2 v2 − · · · − vk vk , de onde segue que os geradores de Γk
não são linearmente independente, uma contradição. Portanto, ak+1
= 0. Sendo
assim,
a1 a2 ak
vk+1 = v1 + v2 + · · · + vk .
ak+1 ak+1 ak+1
Isso implica que vk+1 ∈ Γk = [[v1 , v2 , ..., vk ]], uma contradição. Portanto, não
podemos supor que os k + 1 vetores são linearmente dependente, eles são l.i. 2

Exemplo 4.6.1 Ilustraremos com um exemplo como o lema indica um processo


para construção de uma base para um subespaço. Dado o subespaço próprio
Γ = {(t, x.y.z) ∈ R4 ; 2t − x − 3y + z = 0} ⊂ R4 .
Primeiro, escolhemos um vetor não nulo, digamos v1 = (1, 2, 0, 0) ∈ Γ, e consi-
deramos o subespaço Γ1 = [[v1 ]] ⊂ Γ.
Segundo, escolhemos outro vetor não nulo v2 ∈ Γ mas com v2 ∈ / Γ1 = [[v1 ]], por
exemplo v2 = (0, −1, 3, 0), basta não ser múltiplo de v1 e pertencer ao subespaço Γ.
Construı́mos o subespaço Γ2 = [[v1 , v2 ]] ⊂ Γ. Observe que Γ1 ⊂ Γ2 ⊂ Γ.
Terceiro, escolhemos um vetor v3 ∈ Γ mas com v3 ∈ / Γ2 = [[v1 , v2 ]], por exemplo
v3 = (0, 1, 0, 1) (pertence a Γ mas não pode ser combinação linear dos outros dois
primeiros desde que sua última coordenada não é igual a zero e a última coordenada
de v1 e de v2 são iguais a zero). Consideramos Γ3 = [[v1 , v2 , v3 ]] ⊂ Γ.
O processo termina aqui, isto é, Γ3 = Γ. Deixemos essa afirmação para o
próximo teorema. 2

Teorema 4.6.1 Seja Γ ⊂ Rn um subespaço não trivial. Então existe uma base
ordenada α = {v1 , v2 , ..., vk } ⊂ Γ. Além de Γ = [[v1 , v2 , ..., vk ]] podemos afirmar:
a) o número de elementos de uma base ordenada de Γ é menor ou igual a n;

62
4.6. DIMENSÃO

b) se o número de elementos de uma base ordenada de Γ é igual a n então


Γ = Rn .
c) se k < n, então a base α = {v1 , v2 , ..., vk } pode ser estendida a uma base
β = {v1 , ...vk , vk+1 , ..., vn } de Rn .

Prova Iniciemos com a construção de uma base ordenada para Γ.


Como Γ é não trivial podemos escolher um vetor não nulo v1 ∈ Γ e considerar
o subespaço Γ1 = [[v1 ]] ⊂ Γ. Se vale a igualdade dos conjuntos terminamos, pois
α1 = {v1 } é um conjunto ordenado linearmente independente.
Se não vale a igualdade, existe um outro vetor não nulo v2 ∈ Γ e v2 ∈
/ [[v1 ]]. Pelo
lema, o conjunto α2 = {v1 , v2 } é linearmente independente. Consideramos então o
subespaço Γ2 = [[v1 , v2 ]] ⊂ Γ. Se vale a igualdade, terminamos.
Se não, continuamos com o mesmo procedimento. O processo acaba após um
número de etapas menor ou igual a n, pois sendo o conjunto αk linearmente inde-
pendente, ele não pode conter mais de n vetores. Fica demonstrado o item a).
A demonstração do item b) repete a mesma idéia. Seja αn = {v1 , v2 , ..., vn } é uma
base ordenada de Γ com n elementos. Por absurdo, assuma que Γ  Rn . Escolha um
vetor vn+1 ∈ / Γ. Necessariamente este vetor é não nulo e αn+1 = {v1 , v2 , ..., vn , vn+1 }
é um conjunto linearmente independente em Rn com mais de n elementos. Uma
constradição. Logo, Γ = [[v1 , v2 , ..., vn ]] = Rn
Exercı́cio: demonstre o item c) acrescentando vetores fora do subespaço. 2
O número mı́nimo de vetores que geram um subespaço Γ chama-se de dimensão
de Γ. Na lı́ngua portuguesa, dependendo do contexto, a palavra dimensão transmite
a noção de comprimento, largura e altura. Fisicamente, diz-se que um segmento
de reta tem comprimento; uma figura plana como um retângulo tem comprimento
e largura; um sólido como um paralelepı́pedo tem comprimento, largura e altura.
A noção de dimensão de um subespaço transfere essas sensações fı́sicas para a Ma-
temática, mas para transferı́-la precisamos de toda a teria apresentada até o mo-
mento.

Corolário 4.6.1 As bases de um subespaço não trivial Γ ⊂ Rn têm o mesmo


número de elementos.

Prova Suponha que α = {v1 , v2 , ..., vk } e β = {w1 , w2 , ..., wl } sejam duas bases de
um subespaço Γ ⊂ Rn . É claro que k ≤ n e l ≤ n. Vamos supor, por absurdo, que
k
= l, digamos que k < l.
Sabemos que Γ = [[v1 , v2 ..., vk ]] = [[w1 , w2 , ...wl ]]. Se acrescentarmos um vetor
vk+1 ∈
/ Γ à lista de geradores teremos duas bases de um subespaço contendo Γ,

63
CAPÍTULO 4. SUBESPAÇO VETORIAL

[[v1 , v2 ..., vk , vk+1 ]] = [[w1 , w2 , ...wl , vk+1 ]]. Por esse processo, escolhendo sucessiva-
mente vetores não pertencente ao novo subespaço construı́do, obtemos após n − k
etapas uma base para o Rn ,
Rn = [[v1 , v2 ..., vk , vk+1 , ..., vn ]] = [[w1 , w2 , ...wl , vk+1 , ..., vn ]].
Uma constradição, pois o conjunto de geradores {w1 , ..., wl , vk+1 , ..., vn } tem
mais de n vetores, ele não pode ser linearmente independente. Logo l = k. 2
O corolário acima permite a seguinte definição.

Definição 4.6.1 A dimensão de um subespaço não trivial Γ ⊂ Rn é o número de


elementos de uma de suas bases. A dimensão do espaço trivial é zero, por definição.

Comentário As dimensões possı́veis para subespaços não triviais do Γ ⊂ R2 , são


poucas. Como todo subespaço possui uma base ordenada β e mais de dois vetores
em R2 são linearmente dependentes, segue que o conjunto linearmente independente
β tem um ou dois vetores não nulos. Quando β = {v1 } diz-se que Γ = [[v1 ]] tem
dimensão um. Sua representação no plano Cartesiano é uma reta que contém a
origem. Caso β = {v1 , v2 } podemos afirmar que Γ = R2 . Recordamos que a base
canônica de R2 tem dois elementos, logo sua dimensão é dois.
As dimensões possı́veis para os subespaços não triviais Γ ⊂ R3 são 3. Se β é uma
base ordenada de Γ, β não pode ter mais de três vetores pois é l.i. Quando β = {v1 },
Γ = [[v1 ]] tem dimensão um. Sua representação gráfica no espaço Cartesiano é uma
reta que contém a origem. Quando β = {v1 , v2 }, o subespaço Γ = [[v1 , v2 ]] tem
dimensão dois. A representação gráfica Γ é um plano que contém a origem. Da
mesma forma, se β tem três elementos sabemos que Γ = R3 . 2

Exercı́cio 4.6.1 Qual a dimensão do subespaço Γk = [[e1 , e2 , ..., ek ]] ⊂ Rn ? 2

Exemplo 4.6.2 Sejam Γ1 = {(x, y, z) ∈ R3 ; x −


y + z = 0} e Γ2 = {(x, y, z) ∈ R3 ; 2x + y + z = 0}
dois subespaços do R3 . Como sabemos eles têm di-
mensão dois (plano) e são formado por vetores or-
togonais aos vetores η1 = (1, −1, 1) e η2 = (2, 1, 1),
respectivamente. A interseção Γ1 ∩ Γ2 também é
um subespaço e tem dimensão um (reta) e seus
vetores são simultaneamente orotogonais aos veto-
res normais η2 e η2 . Logo, qualquer vetor na in-
terseção é colinear com o produto vetorial η2 ×η2 =
(−2, 1, 3). Portanto, Γ1 ∩ Γ2 = [[η1 × η2 ]]. 2

64
4.6. DIMENSÃO

Corolário 4.6.2 Dado um conjunto ordenado de n vetores β = {v1 , v2 , ..., vn } ⊂


Rn . As seguintes afirmações são equivalentes.

i) β = {v1 , v2 , ..., vn } é uma base ordenada de Rn ;


ii) det[v1 , v2 , ..., vn ]
= 0;
iii) β é linearmente independente.

A base ordenada é positiva ou tem orientação positiva se det[v1 , v2 , ..., vn ] > 0,


caso contrário diremos que ela tem orientação negativa.

Exercı́cios propostos 4.6.1

As afirmações são verdadeira. Mostre-as.

a) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0}. Tem dimensão 3.


b) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0 e t − x + z = 0}. Tem dimensão 2.
4
c) Γ = {(t, x, y, z) ∈ R ; x − 2y + z = 0, t − x + z = 0 e t − z = 0}. Tem dimensão 1.
d) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0, t − x + z = 0 e z = 0}. Tem dimensão 1.
e) [[(1, 0, 0, 1), (1, 1, 0, 1), (2, 1, 0, 2)]]. Tem dimensão 2.
f) [[(1, 1, 1, 1) (2, 2, 2, 2), (3, 3, 3, 3)]]. Tem dimensão 1.

Respostas e sugestões
Seção 4.1
1) Substitua as coordenadas de cada vetor na equação. Resposta: u e v.
2) O paralelepı́pedo está contido num plano, ele não possui volume positivo.
3) a) Subespaço próprio, corresponde ao eixo oy.
b) Subespaço próprio corresponde ao plano determinado pelas retas (eixos) ox e oz.
c) Não é subespaço próprio, Γ = R2 .
d) Subespaço próprio correspondente ao eixo ox.
5) Por regra de Cramer, verificamos que os vetores em Γ são os múltiplos do vetor
v = (1, 2, 1)
6) O ponto O(0, 0) ∈ E2 .
7) Γ1 = {(x, y, z) ∈ R3 ; x + 2y − 3z = 0} e Γ2 = {(x, y, z) ∈ R3 ; x − y + z = 0}. Como é a
interseção de dois planos, Γ corresponde a uma reta que contém a origem O(0, 0, 0).
8) O vetor v = (1, 1) ∈ Π, mas um múltiplo, por exemplo, 3v não pertence a Π.
9) a) O ponto v = (3, 2) ∈ Π, mas seu múltiplo 2v não pertence.
b) Corresponde a duas retas paralelas do plano Cartesiano, uma delas passando pela
origem o(0, 0).
Seção 4.2

65
CAPÍTULO 4. SUBESPAÇO VETORIAL

7) Corresponde a um plano. As equações definem um mesmo plano em R3 .


Seção 4.3
1) Você pode ter encontrado outras equações mas o número delas são iguais. De qualquer
forma, verifique se os vetores dados satisfazem as equações encontradas por você.
a) Γ = {(x, y) ∈ R2 ; 5x + 2y = 0}.
b) Γ = {(x, y, z) ∈ R3 ; x + 2y − 3z = 0}.
c) Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.
d) Γ = {(x, y, z) ∈ R3 ; 2x + y = 0 e y + 2z = 0}.
e) Γ = {(x, y, z) ∈ R3 ; x + 2y = 0 e z = 0}.
f ) Γ = [[(1, 1, 1)]], Γ = {(x, y, z) ∈ R3 ; x − y = 0 e y − z = 0}.
g) Γ = {(t, x, y, z) ∈ R4 ; 2t + 3x + y = 0 e − 5t − 2x + z = 0}.
h) Γ = {(t, x, y, z) ∈ R4 ; t − 2x = 0, x − y = 0 e 3y + z = 0}.

2) Como det[v1 , v2 ] = 1
= 0 v1 e v2 formam uma base do R2 . Por regra de Cramer,
expressamos qualquer vetor v = (x, y) ∈ R2 de um único modo, (x, y) = (5x − y)v1 +
(x − 4y)v2 . Resta particularizar para os vetores dados, u, v, w e t.
4) Solução semelhante ao do item anterior. Como det[v1 , v2 , v3 ] = −11
= 0, os vetores
formam uma base do R3 e cada vetor é expresso por (x, y, z) = −1 11 (−x + 2y − 5z)v1 +
−1 −1
11 (2x + 3y − 2z)v2 + 11 (2x + 4y − z)v3 . Resta particularizar para os vetores dados.
5) Somente u e v pertencem ao subespaço.
Seção 4.4
1) Como det[v1 , v2 , v3 ] = 0, eles são l.d. Na verdade, v3 = v1 + v2 . Logo, o = 0v1 +
0v2 + 0v3 e o = v1 + v2 − v3 . Para o vetor w podem ser as combinações lineares
w = v1 + v2 + 0v3 ou w = w + o = 2v1 + 2v2 − v3 .
2) Como det[v1 , v2 ]
= 0, os dois vetores formam uma base para o R2 . Logo, Γ =
[[v1 , v2 ]] = R2 e o terceiro vetor escreve-se como v3 = 54 v1 + 14 v2 . Dessa igualdade
segue que o vetor nulo, ou qualquer outro vetor, não tem unicidade de combinação
linear com os três vetores dados, o = 54 v1 + 14 v2 − v3 . Se w = (x, y) então w = w + o =
1 1
4 (x + 3y + 5)v1 + 4 (x − 2y + 1)v2 − v3 . Todos os vetores pertencem ao subespaço
2
Γ=R .
3) Como det[v1 , v2 , v3 ] = 0 eles são l.d. Verifica-se que v2 = 3v1 + 2v3 . Logo, Γ =
[[v1 , v3 ]]  R3 . Somente u e w pertencem ao subespaço Γ.
4) a) Como det[v2 , v3 ]
= 0, β = {v2 , v3 } é um conjunto de geradores l.i. Observe que
Γ = [[v2 , v3 ]].
b) Como det[vi , vj ] = 0, eliminamos dois vetores. Escolha β = {v1 } como o conjunto
de geradores.
5) Utilize o critério do determinante.
a) e b) são linearmente independente e Γ = R3 .
c) Γ = [[v1 , v3 ]]  R3 .
6) a) β = {(5, 2)} b) β = {(5, 2, 0)} c) β = {(1, 0, 0), (0, 1, 1)} d) β = {(1, 0, 1), (0, 1, 2)}
Seção 4.5

66
4.6. DIMENSÃO

2) a) L.d. pois são quatro vetores do R3 . Tome os três primeiros vetores de β.


c) São l.d. pois o determinante da matriz formada pelos vetores é igual a zero.
Escolha os dois primeiros vetores.
3) Para construir uma base do espaço Rn escolha vetores que não estejam em Γ.
a) Γ = [[(2, 1)]] e R2 = [[(2, 1) (1, 0)]].
b) Γ = [[(2, 1)]] e R2 = [[(2, 1) (1, 0)]].
c) Γ = [[e2 , e3 ]] e R4 = [[e1 , e2 , e3 , e4 ]].
d) Γ = [[e1 , e2 , e4 , e5 ]] e R5 = [[e1 , e2 , e3 , e4 , e5 ]].
4) Acrescente o(s) vetor(es) indicado(s) para construir uma base do Rn . Utilizamos o
critério do determinante para escolher os vetores para formar uma base. Você pode
ter encontrado outra base.
a) Γ = [[(−4, 8)]], v1 = (8, 4).
b) Γ = [[(−2, 1, 0), (1, 1, 1)]], v1 = (0, 0, 1).
c) Γ = [[(0, 1, −2), (−3, 2, −7)]], v1 = (1, 0, 0).
d) Γ = [[(−1, 2, −1)]], v1 = (1, 0, 0), v2 = (0, 1, 0).
e) Γ = [[(−2, 1, 0)]], v1 = (1, 0, 0), v2 = (0, 0, 1).
f ) Γ = [[(1, 1, 1), ]], v1 = (1, 0, 0), v2 = (0, 1, 0).
g) Γ = [[(−2, 2, 0), (1, 1, 1)]], v1 = (1, 0, 0).

67
Capı́tulo 5

Transformações lineares
O leitor já deve ter visto algumas vezes nos cursos de Cálculo, perguntas sobre
existência de funções do tipo: Existe uma função f : R → R tal que f  (x) = f (x)
e f (0) = 1? A resposta é sim e só existe uma, denominada de função exponencial,
f (x) = ex . Se o valor exigido no ponto x = 0 fosse f (0) = 3 a função seria
f (x) = 3ex .
Nesse capı́tulo iremos estudar funções, chamadas de transformações lineares,
A : Rm → Rn , satisfazendo duas condições listadas a seguir. Cada transformação
linear fica completamente determinada definindo o seu valor na base canônica do
domı́nio, valores esses, que serão guardados numa matriz, possibilitando estabelecer
vários e importantes algorı́tmos.

5.1 Transformações lineares


Diz-se que uma aplicação A : Rn → Rm é uma transformação linear se para quais-
quer vetores v, w ∈ Rn e para qualquer escalar λ ∈ R as seguintes condições são
verificadas,
a) A(v + w) = A(v) + A(w), b) A(λv) = λA(w).
Mostrar que transformações lineares existem, construı́-las ou identificá-las é
simples. Suponha que A : Rm → Rn seja uma transformação linear. Um vetor
v = (x1 , x2 , ..., xm ) do domı́nio é uma combinação linear dos elementos da base
canônica, a saber, v = x1 e1 + x2 e2 + · · · + xm em . Pela definição de transformação
linear seguem as igualdades,
A(x1 , x2 , ..., xm ) = A(x1 e1 + x2 e2 + · · · + xm em )
= A(x1 e1 ) + A(x2 e2 ) + · · · + A(xm em )
= x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ).

68
5.1. TRANSFORMAÇÕES LINEARES

Várias informações sobre uma transformação linear podem ser obtidas da igualdade
A(x1 , x2 , ..., xm ) = x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ).

1o Para construir uma transformação linear basta especificar quais são seus va-
lores na base canônica do domı́nio e definir a transformação linear pela com-
binação linear à direita da igualdade.
2o Para identificar uma transformação linear é suficiente que a imagem de um
vetor v = (x1 , x2 , ..., xm ) seja uma combinação linear como alı́ descrito.
3o Quando duas transformações lineares assumem os mesmos valores na base
canônica elas são idênticas.
4o Como veremos logo a seguir, dela obteremos informações, a respeito da inje-
tividade e sobrejetividade da transformação linear.
5o A igualdade nos permitirá construir uma matriz que será chamada de ma-
triz canônica da transformação linear da qual podemos obter muitas outras
informaçẽs sobre a transformação.

Exercı́cio 5.1.1 Vamos construir uma transformação linear A : R2 → R2 . Esco-


lhamos os valores de A na base canônica para ser A(e1 ) = (−1, 0) e A(e2 ) = (0, 3).
Portanto, a expressão para a transformação linear em termos de coordenadas será
A(x, y) = (−x, 3y) pois
A(x, y) = xA(e1 ) + yA(e2 ) = x(−1, 0) + y(0, 3) = (−x, 3y).
Falta verificar que essa aplicação A é uma transformação linear, isto é, ela satisfaz
as condições listadas na definição. Seguimos os seguintes cálculos que são procedi-
mentos de rotina. Considere dois vetores v = (x1 , y1 ) e w = (x2 , y2 ) em R2 e um
escalar λ ∈ R. Calculemos
 

 A(v + w) = A(x1 + x2 , y1 + y2 ) 
 A(λv) = A(λx, λy)

 

= (−x1 − x2 , 3y1 + 3y2 ) = (−λx, 3λy)

 = (−x1 , 3y1 ) + (−x2 , 3y2 ) 
 = λ(−x, 3y)

 

= A(v) + A(w), = λA(x, y).
Esse exemplo ilustra uma proposição que será enunciada posteriormente e cuja
demostração será deixada como exercı́cio. 2

Exemplo 5.1.1 Para construir uma transformação linear A : R2 → R3 basta es-


pecificar os valores na base canônica do domı́nio C = {e1 , e2 }. Por exemplo, se
desejamos que A(1, 0) = (1, −1, 2) e A(0, 1) = (2, 0, 3), então construı́mos a trans-
formação linear como indicado,

69
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

A(x, y) = xA(1, 0) + yA(0, 1)


= x(1, −1, 2) + y(2, 0, 3)
= (x + 2y, −x, 2x + 3y).
Portanto, em coordenadas temos que A(x, y) = (x + 2y, −x, 2x + 3y). 2

Exemplo 5.1.2 A aplicação A : R3 → R3 , A(x, y, z) = (2x − y + 3z, 4y + 2z, 2x − y)


é uma transformação linear. Se não vejamos,
A(x, y, z) = (2x − y + 3z, 4y + 2z, 2x − y)
= (2x, 0, 2x) + (−y, 4y, −y) + (3z, 2z, 0)
= x(2, 0, 2) + y(−1, 4, −1) + z(3, 2, 0).
Verifica-se que A(e1 ) = (2, 0, 2), A(e2 ) = (−1, 4, −1) e A(e3 ) = (3, 2, 0). 2

Proposição 5.1.1 Sejam v1 , v2 ,...,vm vetores do Rn . A aplicação A : Rm → Rn ,


definida por A(x1 , x2 , ..., xm ) = x1 v1 + x2 v2 + · · · + xm vm é uma transformação
linear. Mais ainda, essa é a única transformação linear A : Rm → Rn tal que
A(ei ) = vi .

Uma transformação linear possui duas propriedades básicas, quais sejam, A(o) = o
e A(−v) = −A(v). Para verificá-las, basta considerar λ = 0 e w = −v = (−1)v e
fazer a avaliação A(λv) = λA(v) e A(w) = A(−v).

Exemplo 5.1.3 Seguem exemplos para o leitor familiarizar-se com o conceito.

1. A aplicação Id : Rn → Rn , Id(v) = v, chamada de aplicação identidade, é


uma transformação linear. Em termos de coordenadas fica Id(x1 , x2 , ..., xn ) =
(x1 , x2 , ..., xn ). Observe que Id(x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en .
2. Chamaremos de transformação linear identicamente nula de Rm em Rn a
aplicação A(v) = o para qualquer v ∈ Rm . Em termos de coordenadas,
A(x1 , x2 , ...xm ) = (0, 0, ..., 0). Nesse caso, A(x1 , x2 , ..., xn ) = x1 o + x2 o + · · · +
xn o.

Exercı́cio 5.1.2 A aplicação A : R2 → R3 , A(x, y) = (3x + y, x − y, x + y), é uma


transformação linear. 2

Dada uma função, muitas vezes é conveniente conhecer duas informações sobre
ela, acerca da injetividade e sobrejetividade. No caso de uma transformação linear,
A : Rm → Rn , tais informações são obtidas examinando-se dois subespaços, um
no contradomı́nio e o outro no domı́nio, chamados de imagem e núcleo da trans-
formação linear. São eles, respectivamente,

70
5.1. TRANSFORMAÇÕES LINEARES

a) Im (A) = {w ∈ Rn ; w = A(v) para algum v ∈ Rm };


b) N uc (A) = {v ∈ Rm ; A(v) = o}.

Exercı́cio 5.1.3 Examinemos uma transfromação linear A : R3 → R2 . Digamos


que seja A(x, y, z) = (x + y − z, 3x − 2y). Como sabemos, podemos escrever que
A(x, y, z) = xA(e1 ) + yA(e2 ) + zA(e3 ),
onde A(e1 ) = (1, 3), A(e2 ) = (1, −2) e A(e3 ) = (−1, 0).
Imagem A igualdade acima nos diz que o subespaço imagem é um subespaço de
combinações lineares com geradores A(e1 ), A(e2 ) e A(e3 ), ou seja,
Im(A) = [[A(e1 ), A(e2 ), A(e3 )]].
Mostremos essa afirmação. Um elemento da imagem A(v) ∈ Im(A) escreve-se
como uma combinação linear do tipo A(v) = xA(e1 ) + yA(e2 ) + zA(e3 ), onde v =
(x, y, z). Logo, esse elemento também pertence ao subespaço [[A(e1 ), A(e2 ), A(e3 )]],
isso mostra que a imagem está contida nesse último subespaço. Reciprocamente,
dado um elemento de w ∈ [[A(e1 ), A(e2 ), A(e3 )]], por definição de subespaço das
combinações lineares, podemos afirmar que w = a1 A(e1 ) + a2 A(e2 ) + a3 A(e3 ). É
claro que A(v) = w onde v = (a1 , a2 , a3 ).
Núcleo A apresentação da transformação linear em coordenadas nos dá a des-
crição do núcleo utilizando equações lineares homogêneas. Observe que o vetor
v = (x, y, z) está no núcleo se, e somente se, A(x, y, x) = (0, 0). Portanto, as
coordenadas de um vetor do núcleo satisfazem as equações lineares homogêneas
x + y − z = 0 e 3x − 2y = 0. Logo,
N uc(A) = {(x, y, z) ∈ R3 ; x + y − z = 0 e 3x − 2y = 0}. 2

Registremos numa proposição dois fatos simples mas de bastante utilidade.

Proposição 5.1.2 Se A : Rm → Rn uma transformação linear então

a) A é injetiva ⇔ N uc(A) = {o};


b) A é sobrejetiva ⇔ Im A = Rn .

Prova a) Suponha que A é injetiva. Como A(o) = o, somente o vetor nulo, e


nenhum outro vetor, pode assumir o valor o ∈ Rn , mostrando que N uc(A) = {o}.
Vamos supor que N uc(A) = {o}. Sejam v, w ∈ V vetores tais que A(v) = A(w).
Por linearidade obtemos A(v − w) = o. Como o núcleo é trivial concluimos que
v − w = 0, isto é, v = w, mostrando a injetividade. A demonstração do segundo
item é trivial. 2

71
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Nesse texto reservamos um capı́tulo para transformações lineares do Rn para o


Rn ,
isto é, A : Rn → Rn . Para enfatizar que o domı́nio e o contradomı́nio são iguais,
chamaremos a transformação linear de operador linear em Rn .

Exercı́cios propostos 5.1.1

1. Verifique quais das aplicações são transformações lineares.

a) A : R2 → R2 , A(x, y) = (xy, y).


b) A : R3 → R2 , A(x, y, z) = 3(x − y, x + 2y + z).
c) A : R2 → R2 , A(x, y) = (3 − x + y − 1, x − 3y + 2).
d) A : R3 → R2 , A(x, y, z) = (x − 3z, y + 2z − 3x).

2. Dado o conjunto ordenado de vetores γ = {w1 , w2 , w3 } ⊂ Rn . Para cada item


encontre a transformação linear A : R3 → Rn satisfazendo as condições A(ei ) = wi .
a) γ = {(1, 1), (1, −1), (2, 1)} ⊂ R2 .
b) γ = {(2, −3, 1), (0, 1, 0), (1, −1, 4)} ⊂ R3 .
c) γ = {(1, 1, 0, 1), (0, 1, 0, 1), (1, 2, 0, 2)} ⊂ R4 .
3. Determine uma base para o núcleo da transformação linear, se ela não for injetiva.

a) A : R2 → R2 , A(x, y) = (x + y, y).
b) A : R2 → R3 , A(x, y) = (2x + y, 4y + 2y).
c) A : R3 → R2 , A(x, y, z) = (x + y, y − z).

4. Construa um operador linear A : R2 → R2 com a propriedade pedida.

a) A reflete cada vetor em relação ao eixo ox.


b) A reflete cada vetor em relação ao eixo oy.
c) A reflete cada vetor em relacão ao subespaço Γ = {(x, y) ∈ R2 ; x − y = 0}.
π
d) A rotaciona cada vetor no sentido anti-horário por um ângulo de 2.

5. Construa uma transformação linear com a propriedades pedida.


a) A : R3 → R2 tal que Im (A) = [[v1 , v2 ]], onde v1 = (1, 2) e v2 = (1, 1).
b) A : R2 → R3 tal que Im (A) = [[v1 ]], onde v1 = (0, 3, −1).
c) A : R3 → R2 tal que Im (A) = {(x, y) ∈ R2 ; 2x − y = 0}.
d) A : R3 → R3 tal que Im (A) = {(x, y, z) ∈ R3 ; 2x + 3y + z = 0}.
e) A : R3 → R2 tal que Im(A) = {(x, y) ∈ R2 ; x − y = 0}.
6. Construa uma transformação linear com a propriedades pedida.
a) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; x − y + 2z = 0}.

72
5.2. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR

b) A : R2 → R3 tal que N uc (A) = {(x, y) ∈ R2 ; x = 0}.


c) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; 2x − y = 0}.
d) A : R3 → R3 tal que Im (A) = {(x, y, z) ∈ R3 ; 2x + 3y + z = 0 e x − z = 0}.
e) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; x + y = 0 e z = 0}.
f) A : R2 → R2 tal que N uc (A) = {o}.
7. Fixados os vetores v1 , v2 ∈ R2 defina a aplicação A : R2 → R2 , A(x, y) = xv1 + yv2 .

a) Verifique que A é um operador linear.


b) Demonstre que u e v são linearmente independente ⇔ a aplicação é injetiva.

8. Prove utilizando conjunto de geradores que uma transformação linear A : R3 → R2 ,


não pode ser injetiva.
9. Fixado λ0 ∈ R. A aplicação A : Rn → Rn , A(v) = λ0 v, é um operador linear
chamado de homotetia. Mostre que ele é uma transformação linear e descreva-o
utilizando coordenadas.

5.2 Matriz de uma transformação linear


Como vimos, uma transformação linear A : Rm → Rn fica completamente determi-
nada quando conhecemos os valores de A na base canônica, A(e1 ), A(e2 ),...,A(em ).
Por esse e outros motivos, guardamos os valores A(ei ) numa matriz.

Definição 5.2.1 Seja A : Rm → Rn uma transformação linear. A matriz canônica


associada a A é a matriz n × m [A] definida por
[A] = [A(e1 ), A(e2 ), ..., A(em )].

Exemplo 5.2.1 Seja A : R3 → R3 , A(x, y, z) = (x − z, −2x + 2y + 4z, −y + 2z).


Não é difı́cil mostrar que A é um operador linear. A matriz 3 × 3 do operador linear
é obtida avaliando
  
 A(1, 0, 0) = ( 1, −2, 0), 1 0 −1
A(0, 1, 0) = ( 0, 2, 1), Logo, a matriz é [A] =  −2 2 4 .

A(0, 0, 1) = (−1, 4, 2). 0 −1 2
Ressaltamos que conhecida a matriz [A] recuperamos a transformação. 2

Exemplo 5.2.2 Se a matriz de uma transformação linear A : Rm → Rn é


  
10 −1  1. A : R2 → R3 ,
[A] =  −2 31  , então 2

0 5 2. A(x, y) = (10x − y, −2x + 31y, 5y).

73
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Exemplo 5.2.3 Seja A : R3 → R2 , A(x, y, z) = (x − 2y + 5z, 2x − z). Sua matriz


canônica [A] é 3 × 2
 
1 −2 5
[A] = .
2 0 −1
Qual a matriz da identidade Id : Rn → Rn ? 2

Exemplo 5.2.4 Calculemos a matriz canônica associada ao operador linear A :


R3 → R3 , A(x, y, z) = (2x − 3y, x + y − z, y − 4z). Como
A(x, y, z) = x(2, 1, 0) + y(−3, 1, 1) + z(0, −z, −4z)
obtemos a matriz 3 × 3  
2 −3 0
[A] =  1 1 −1  .
0 1 −4

Avancemos um pouco mais. Considere os vetores u, v e w e suas avaliações


u = (1, 1, 0), v = (−1, 2, 1), w = (0, 3, −2),
A(u) = (−1, 2, 1), A(v) = (−8, 0, −2), A(w) = (−9, 5, 11).
Vejamos uma relação entre as três matrizes
[A(u), A(v), A(w)], [A] e [u, v, w].
Observe a seqüência de igualdades matriciais,
 
−1 −8 −9
[A(u), A(v), A(w)] =  2 0 −2  .
1 −2 11
  
2 −3 0 1 −1 0
=  1 1 −1   1 2 3 
0 1 −4 0 1 −2

= [A][u, v, w].

Esse é um algorı́tmo que será explorado posteriormente. 2

Proposição 5.2.1 Seja A : Rm → Rn uma transformação linear e u1 , u2 , ..., um ∈


Rm . Valem as seguintes afirmações.
a) [A(u1 ), A(u2 ), ..., A(um )] = [A][u1 , u2 , ..., um ].
b) Se m = n então as matrizes descritas no item anterior são quadradas e
det [A(u1 ), A(u2 ), ..., A(un )] = det [A] det[u1 , u2 , ..., un ].

74
5.2. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR

Prova A demonstração do item a) é combinatória e o segundo item é uma con-


seqüência imediata do primeiro, pois o determinante do produto de duas matrizes
n × n é o produto dos determinantes de cada matriz. 2
Comentário O último ı́tem da proposição
contém uma informação geométrica relacio-
nada com operadores lineares que não está ex-
plicitada no enunciado. Examinemos o caso
do operador linear A : R2 → R2 , A(x, y) =
(2x − y, x + y). É fácil calcular o determinante
de [A], seu valor é det[A] = 3. Esse é o fator
de transformação de área, no seguinte sentido.
Considere a área de um paralelogramo cujas arestas são segmentos orientados
que representam os vetores v e w. Como sabemos o valor dessa área é |det[v, w]|.
O operador linear A transforma esse paralelogramo num outro cujas arestas são
representantes dos vetores A(v) e A(w). A área desse último paralelogramo é
|detA(V ), A(W )]|. O determinante det[A] = 3 é o fator que relaciona as áreas do
paralelogramo no domı́nio e a área do paralelogramo imagem, |detA(V ), A(W )]| =
|det[A] det[v, w]|.
Para operadores lineares A : R3 → R3 , a interpretação é semelhante. O
valor |det[A]| é o fator de transformação de volumes quando consideramos um
paralelepı́pedo cujas arestas são segmentos orientados representando os vetores
u, v, w ∈ R3 . 2

Exemplo 5.2.5 É possı́vel calcular a matriz de uma transformação linear A :


Rm → Rn utilizando o produto interno. Mostre que as entradas da matriz [A] = [aij ]
são determinadas por aij = ei , A(ej ). Primeiro, faça o exercı́cio numericamente
com a transformação linear A : R2 → R3 , A(x, y) = (x−y, 2x−3y, −x+4y). Depois
faça o caso geral. 2

Exercı́cios propostos 5.2.1

1. Determine as matrizes das seguintes transformações lineares.

a) A : R3 → R3 , A(x, y, z) = (6x + y − 3z, z − y, 2x − z).


b) A : R2 → R3 , A(x, y) = (x + y, 2x − y, y − 2x).
c) A : R3 → R2 , A(x, y, z) = (x + y + z, x + y + z).
d) Id : R3 → R3 , Id(x, y, z) = (x, y, z). (Identidade)
e) A : R2 → R4 , A(x, y) = (0, 0, 0, 0). (identicamente nula)
3 3
f) A : R → R , A(x, y, z) = (0, y, 0). (projeção sobre o eixo y)

75
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

2. Sabendo-se que a matriz na base canônica de uma transformação liner é [A], dê o
domı́nio, contradomı́nio, a relação, uma base para a imagem e uma base para o núcleo
(se não for trivial).
   
−2 −4 1 −1  
    1 −1 0
a) [A] = 1 2 b) [A] = 2 −2 c) [A] =
1 2 3
1 2 −1 0

5.3 Teorema do núcleo e da imagem


Para avançar no entendimento de transformações lineares precisaremos de um re-
sultado, conhecido como Teorema do núcleo e da imagem, do qual decorrem muitos
corolários. Intuitivamente falando, a dimensão do núcleo de A : Rm → Rn , está
medindo o quanto de dimensão foi perdida quando transformamos linearmente o
Rm no subespaço Im(A) do contradomı́nio Rn .

Teorema 5.3.1 (Teorema do núcleo e da imagem) Seja A : Rm → Rn uma


transformação linear. Então
dim Rm = dim N uc(A) + dim Im(A).

Prova Vamos assumir que dim N uc(A) = k. É claro que k ≤ m. Inicialmente


considere uma base ordenada β = {v1 , ..., vk , vk+1, ..., vm } para Rm na qual os k
primeiros elementos formam uma base para o núcleo de A.
Afirmação 1: Vale a igualdade entre os subespaços
Im(A) = [[A(vk+1 ), A(vk+2 ), ..., A(vm )]].
Como cada A(vi ) ∈ Im(A) é imediato concluı́rmos a inclusão
[[A(vk+1 ), A(vk+2 ), ..., A(vm )]] ⊂ Im(A).
Examinemos a inclusão oposta. Por definição, dado um vetor w ∈ Im(A) existe
um vetor v ∈ Rm tal que w = A(v). Escrevamos o vetor v como uma combinação
linear dos vetores da base β, v = x1 v1 + x2 v2 + · · · + xm vm . Levando-se em conta
que os k primeiros vetores de β pertencem ao núcleo de A, avaliemos,

w = A(v)
= A(x1 v1 + x2 v2 + · · · + xn vn )
= xk+1 A(vk+1 ) + xk+2 A(vk+2 ) + · · · + xm A(vm ).

De onde concluı́mos que v ∈ [[A(vk+1 ), A(vk+2 ), ..., A(vm )]], mostrando a inclusão
oposta e terminando a prova da afirmação.

76
5.3. TEOREMA DO NÚCLEO E DA IMAGEM

Afirmação 2: A(β) = {A(vk+1 ), A(vk+2 ), ..., A(vm )} é um conjunto linearmente


independente. Em particular dim Im(A) = n − k.
Consideremos a combinação linear o = yk+1 A(vk+1 ) + yk+2 A(vk+2 ) + · · · +
ym A(vm ). Por linearidade de A podemos reescrever esta última equação como
o = A(yk+1 vk+1 + yk+2 vk+2 + · · · + ym vm ).
Isto significa que o vetor yk+1 vk+1 + yk+2 vk+2 + · · · + ym vm ∈ N uc(A). Logo,
este último vetor também é uma combinação linear dos k primeiros vetores da base
ordenada β, pois tais vetores formam uma base para o núcleo de A, isto é,
yk+1 vk+1 + yk+2 vk+2 + · · · + ym vm = x1 v1 + x2 v2 + · · · + xk v,
ou equivalentemente,
x1 v1 + x2 v2 + · · · + xk vk − yk+1 vk+1 − yk+2 vk+2 − · · · − ym vm = 0.
Como β é linearmente independente, todos os coeficientes dessa combinação linear
são nulos, em particular, yk+1 = yk+2 = · · · = ym = 0, mostrando que o conjunto
A(β) é linearmente independente. Como A(β) é um conjunto ordenado de geradores,
significa que A(β) é uma base ordenada de Im(A), de onde segue que dim Im(A) =
n − k. Temos provado a afirmação. Sendo assim
dim Rm = k + (m − k) = dim N uc(A) + dim Im (A).
Isto termina a demostração do teorema. 2

Exercı́cios propostos 5.3.1

1. Determine as uma base para a imagem e uma base para o núcleo, quando ele for não
trivial, das seguintes transformações lineares. Verifique o Teorema do núcleo e da
imagem.

a) A : R3 → R3 , A(x, y, z) = (6x + y − 3z, z − y, 2x − z).


b) A : R2 → R3 , A(x, y) = (x + y, 2x − y, y − 2x).
c) A : R3 → R2 , A(x, y, z) = (x + y + z, x + y + z).
d) Id : R3 → R3 , Id(x, y, z) = (x, y, z).
e) A : R3 → R3 , A(x, y, z) = (0, z − y, 0).
f) A : R2 → R4 , A(x, y) = (x + y, x + y, x + y, x + y).

2. Para cada item determine a transformação linear A : R3 → Rn satisfazendo as


condições A(ei ) = wi , em que γ = {w1 , w2 , w3 } ⊂ Rn e encontre uma base do
núcleo e uma base da imagem para cada uma das transformações lineares.

a) γ = {(1, 1), (1, −1), (2, 1)} ⊂ R2 .


b) γ = {(2, −3, 1), (0, 1, 0), (1, −1, 4)} ⊂ R3 .

77
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

c) γ = {(1, 1, 0, 1), (0, 1, 0, 1), (1, 2, 0, 2)} ⊂ R4 .

3. Construa uma transformação linear A : R3 → R3 satisfazendo a condição dada.

a) Im (A) é gerado por ε = {(2, −1, 1), (1, 0, 1)}.


b) N uc(A) é gerado por ε = {(2, −1, 1), (1, 0, 1)}.
c) Im(A) ⊂ N uc(A).

4. Seja A : Rm → Rn uma transformação linear. Prove as afirmações.


a) Se m < n então A não é sobrejetiva. b) Se m > n então A não é injetiva.
5. Existe uma transformação linear A : R11 → R11 tal que Im(A) = N uc(A)? Justifique
sua resposta.

5.4 Operações com transformações lineares


Nessa seção definiremos três operações envolvendo transformações lineares,
◦ soma de transformações lineares;
◦ multiplicação de uma transformação linear por um escalar;
◦ composição de transformações lineares.
Dados duas transformações lineares com os mesmos domı́nio e contradomı́nio,
digamos A, B : Rm → Rn , definimos a aplicação soma das transformações lineares
como
A + B : Rm → Rn , (A + B)(v) = A(v) + B(v).
A nova aplicação assim construı́da é também uma transformação linear pois

(A + B)(v + w) ≡ A(v + w) + B(v + w)


= A(v) + A(w) + B(v) + B(w)
= (A + B)(v) + (A + B)(w).

De modo semelhante mostramos que (A + B)(λv) = λ(A + B)(v).


Dado um escalar µ ∈ R, definimos a aplicação multiplicação µA : Rm → Rn ,
por (µA)(v) = µA(v). É rotina verificar que µA é uma transformação linear.

Exemplo 5.4.1 Sejam A, B : R3 →R2 duas transformações lineares definidas por


A(x, y, z) = (2y, z − x) e B(x, y, z) = (x − z, z).
Calculemos A − 2B : R3 → R3 . Pelas definições, obtemos
(A − 2B)(x, y, z) = (2y, z − x) − 2(x − z, z) = (2y − 2x + 2z, −z − x).

78
5.4. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES

Esse cálculo fica bastante simplificado com matrizes. Calculemos a matriz de A−2B
tendo em mente as regras para a soma de matrizes e a multiplicação de uma matriz
por um escalar,
[A − 2B] = [(A − 2B)(e1 ), (A − 2B)(e2 )]
= [A(e1 ) − 2B(e1 ), A(e2 ) − 2B(e2 )]
= [A(e1 ), A(e2 )] − 2[B(e1 ), B(e2 )]
= [A] − 2[B].
Registraremos uma proposição cuja demonstração será deixada como exercı́cio. 2

Proposição 5.4.1 Sejam A, B : Rm → Rn duas transformações lineares e λ ∈ R.


Então vale a relação matricial [A − λB] = [A] − λ[B].

Uma outra operação que efetuamos com transformações lineares é a composição.


Se A : Rm → Rn e C : Rn → Rk são duas transformações lineares, construı́mos uma
outra transformação linear denotada por C ◦ A : Rm → Rk , chamada de composta
de C e A, definindo C ◦ A(v) = C(A(v)) para cada vetor v ∈ Rm . Para efetuar a
operação de composição é necessário que o contradomı́nio de A seja o domı́nio de
C. A composta é também uma transformação linear pois se u, v ∈ Rm e λ ∈ R, as
igualdades abaixo são justificadas pelas definições já apresentadas,
C ◦ A(u + λv) = C(A(u + λv))
= C(A(u) + λA(v))
= C(A(u)) + λC(A(v))
= C ◦ A(u) + λC ◦ A(v).

A C
Exemplo 5.4.2 Calculemos a composta R3 −→ R2 −→ R2 onde A(x, y, z) = (y, z)
e C(x, y) = (y, x − y). Primeiro observe que C ◦ A : R3 → R2 ,
C ◦ A(x, y, z) = C(A(x, y, z))
= C(y, z)
= (z, y − z).
Levando em conta a última proposição da seção anterior, a matriz da composta é
[C ◦ A] = [C(A(e1 )), C(A(e2 )), C(A(e3 ))]
= [C][A(e1 ), A(e2 ), A(e3 )]
= [C][A].
Isto é, a matriz da composta é o produto das matrizes. 2

79
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Proposição 5.4.2 Sejam A : Rm → Rn e C : Rn → Rk duas transformações


lineares. Então a composta C ◦ A : Rm → Rk é uma transformação linear e sua
matriz é [C ◦ A] = [C][A].

Exercı́cios propostos 5.4.1

1. Para cada item, calcule, quando possı́vel, 2A − B e as compostas A ◦ B, B ◦ A, A2 e


B 2 em que A e B são as transformações lineares dadas. Efetue as operações explı́cita
e matricialmente.
a) A : R2 → R2 , A(x, y) = (2x, y − x)
B : R2 → R2 , B(x, y) = (x − y, −y).

b) A : R2 → R3 , A(x, y) = (3y, y − 2x, y − x)


B : R3 → R3 , B(x, y, z) = (x − y, y, 2x).

c) A : R2 → R2 , A(x, y) = (2x + 2y, y − x)


B : R2 → R2 , B(x, y) = (x − y, y).
2. Efetue o produto das seguintes matrizes na ordem possı́vel
 
1 2  
  1 1
[A] = 0 −1 e [B] = .
2 0
3 0
Dê as transformações lineares que elas definem (domı́nio, contradomı́nio e relação).
3. Efetue a composta A2 = A ◦ A, onde A : R2 → R2 , A(x, y) = (−2x + 4y, −x + 2y).
Qual a relação de inclusão entre N uc(A) e Im(A)?

5.5 Transformações lineares invertı́veis


A operação de composição nos permite fixar um novo conceito. Uma transformação
linear A : Rm → Rn é invertı́vel se existe uma aplicação denotada por A−1 : Rn →
Rm tal que 
 A−1 ◦ A = Id : Rm → Rm

A ◦ A−1 = Id : Rn → Rn

Quando existe uma tal aplicação diremos que A−1 é a inversa de A.

Exemplo 5.5.1 Alguns exemplos deixarão clara a definição.

1. A aplicação identidade Id : Rn → Rn é uma transformação linear invertı́vel e


a sua inversa é ela própria.

80
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS

2. A transformação linear A : R2 → R2 , A(x, y) = (x − y, y), é invertı́vel e tem


como aplicação inversa A−1 : R2 → R2 , A−1 (x, y) = (x + y, y). Verifique e
observe que a inversa é também uma transformação linear. 2

Da Teoria de conjuntos sabemos que uma função entre dois conjuntos é invertı́vel
se, e somente se, a função é injetiva e sobrejetiva. Logo, por um critério estabelecido
na seção 5.1, podemos afirmar que uma transformação linear A : Rm → Rn é
invertı́vel se, e somente se, Im(A) = Rn e N uc(A) = {o}. Pelo teorema do núcleo
e da imagem, segue que m = n. Temos provado a

Proposição 5.5.1 Uma transformação linear A : Rm → Rn , é invertı́vel, se,


Im(A) = Rn e N uc(A) = {0}. Em particular, se A é invertı́vel então m = n.

Por essa proposição concluı́mos que quando A : Rn → Rn é invertı́vel, sua matriz


[A] é uma matriz quadrada n × n.
No que segue, desejamos relacionar trans-  
1 0 ··· 0
formações lineares invertı́veis com matrizes qua-  0 1 ··· 0 
dradas invertı́veis. Uma matiz quadrada n × n, [M ][N ] = 

.

···
digamos [M ], é invertı́vel quando existe uma ma-
0 0 ··· 1
triz n × n, [N ], tal que o produto de ambas, não
importa a ordem, é a matriz identidade n × n, [M ][N ] = [Id] = [N ][M ]. Nesse caso,
seguiremos a notação [N ] = [M ]−1 . Apresentemos a relação entre transformações
lineares invertı́veis e matrizes invertı́veis.

Teorema 5.5.1 Se A : Rn → Rn é invertı́vel, então valem as afirmações:


a) só existe uma inversa para A;
b) a inversa A−1 é uma transformação linear;
c) a matriz de A é uma matriz invertı́vel n × n e [A−1 ] = [A]−1 .

Prova a) Isto é um fato da Teoria de Conjuntos. Uma função invertı́vel entre dois
conjuntos só possui uma função inversa.
b) Dados os vetores w1 , w2 ∈ Rn e o escalar λ ∈ R, como A é sobrejetiva é
possı́vel determinar dois vetores v1 , v2 ∈ Rm tais que A(v1 ) = w1 e A(v2 ) = w2 .
Sendo assim temos
A−1 (w1 + λw2 ) = A−1 (A(v1 ) + λA(v2 ))
= A−1 (A(v1 + λv2 ))
= v1 + λv2
= A−1 (w1 ) + λA−1 (w2 ).

81
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

c) Que a matriz é quadrada n × n, é óbvio, pois o domı́nio e o contradomı́nio


são iguais. Calculemos a matriz da composta A−1 ◦ A = Id, lembrando-se que [Id]
é a matriz identidade n × n,

[Id] = [A−1 ◦ A]
= [A−1 (A(e1 )), A−1 (A(e2 )), ..., A−1 (A(en ))]
= [A−1 ][A(e1 ), A(e2 ), ..., A(en )]
= [A−1 ][A].

Da mesma forma mostramos que [A][A−1 ] = [Id]. Concluı́mos que [A] é uma matriz
invertı́vel e que [A]−1 = [A−1 ]. 2
O último item do teorema aponta como explicitar a inversa de uma trans-
formação linear invertı́vel. Devemos ter em mãos a matriz da transformação linear
[A] que é quadrada, inverter a matriz, [A]−1 e recuperar a transformação linear A−1 .
Informamos que
uma matriz quadrada é invertı́vel se, e somente se, o seu determinante é não nulo.
Caso o leitor deseje conhecer a demonstração do fato, indicamos o último capı́tulo.
Inverter uma matriz quadrada 2×2 é simples e de fácil memo-
rização. No algoritmo, percebe-se claramente a necessidade  
a b
do determinante ser diferente de zero. Consideremos a matriz [A] = .
c d
dada ao lado. Chamamos de matriz adjunta clássica de [A] à
matriz 2 × 2 definida por
 
d −b
adj [A] = .
−c a
Efetuando a multiplicação das duas matrizes obtemos
   
ad − bc 0 1 0
[A] · adj([A]) = = det[A] .
0 ad − bc 0 1
Essa conta mostra como devemos demonstrar a proposição a seguir para matrizes
2 × 2. O caso geral encontra-se no último capı́tulo.

Proposição 5.5.2 Uma matriz n×n, [A], é invertı́vel se, e somente se, det[A]
= 0.
E mais, se ela é invertı́vel então
[A]−1 = 1
det[A] adj([A]) e det[A]−1 = (det[A])−1

Exercı́cio 5.5.1 Examinemos a invertibilidade da transformação linear A : R2 →


R2 , A(x, y) = (2x − y, 4x + 1y). Por tudo que já apresentamos, sabemos que a
matriz de [A] na base canônica é

82
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS

 
2 −1
[A] = .
4 1
Como o determinante de [A] não é zero, det [A] = 6, a matriz é invertı́vel e sua
inversa e o determinante da inversa são, respectivamente,
 1 1 
 
1 1 6 6
[A]−1 = 16 = , det[A]−1 = 16 .
−4 2
−6 6
4 2

Sabendo que [A]−1 = [A−1 ], recuperamos imediatamente a transformação linear


inversa, A−1 : R2 → R2 , A−1 (x, y) = ( 16 x + 16 y, − 46 x + 26 y). 2

Precisamos explicar qual o significado de adjunta clássica, adj [A], para matrizes
quadradas em geral. Dada uma matriz quadrada n × n, com n > 1, digamos
[A] = [aji ], (o ı́ndice superior indica a linha e o inferior indica a coluna da entrada),
chamamos de ji-ésima matriz reduzida de [A] a matriz (n − 1) × (n − 1) obtida por
supressão da j-ésima linha e da i-ésima coluna de [A]. Denotaremos essa matriz
j
reduzida por [A]ji  . O ji-ésimo cofator da matriz [A] = [ai ] é o escalar

cji = (−1)j+i det[A]ji


,

e a adjunta clássica de [A] é a matriz transposta da matriz dos cofatores,


ad[A] = [cji ]t .

Exemplo 5.5.2 Ilustremos o algorı́tmo para inversões de matrizes com a matriz


 
1 2 0
[A] =  1 4 3 .
−1 0 2
Esta matriz dá origem à 9 matrizes reduzidas, uma para cada ı́ndice ji. Explicitemos
quatro delas,
       
4 3 1 0 2 0 1 4
11 =
[A] , [A] 32 = , [A]
21 = , [A] 13 = .
0 2 1 3 0 2 −1 0
Para calcular a adjunta clássica da matriz [A], calculamos a matriz dos cofatores
e consideramos sua transposta,
 t  
11 − det[A]
det[A] 12 det[A]13 8 −4 6
adj [A] =  − det[A]21 det[A]22 − det[A] 23
 =  −5 2 −3  .
31 − det[A]
det[A] 32 det[A]33 4 −2 2
Observe que det[A] = −2. Calculando diretamente o produto das matizes obtemos
a matriz adj [A] · [A] = det[A] [Id], onde [Id] é a matriz identidade 3 × 3. 2

83
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Corolário 5.5.1 Seja A : Rn → Rn uma transformação linear. Então as seguintes


afirmações são equivalentes.
a) A é invertı́vel;
b) N uc(A) = {0};
c) Im(A) = Rn ;
d) a imagem por A de uma base de Rn é uma base de Rn .

Prova a) ⇒ b) Se A é invertı́vel então A é injetiva, portanto N uc(A) = {0}.


b) ⇒ c) Se N uc(A) = {0}, pelo Teorema do núcleo e da imagem segue imedia-
tamente que dim Im(A) = dim Rn . Desde que Im(A) ⊂ Rn é um subespaço com a
mesma dimensão de Rn , concluı́mos que Im(A) = Rn .
c) ⇒ d) Considere uma base ordenada β = {v1 , v2 , ..., vn } de Rn . É fácil mos-
trar que o conjunto ordenado A(β) = {A(v1 ), A(v2 ), ..., A(vn )} é um conjunto de
geradores com n elementos de Im(A) = Rn . Portanto podemos afirmar que A(β) é
uma base de Rn = Im(A).
d) ⇒ a) Vamos supor, por absurdo, que o núcleo de A é não trivial. Considere
uma base ordenada β = {v1 , ..., vk , vk+1 , ..., vn } de Rn na qual os k primeiros vetores
formam uma base para o núcleo de A, com k > 0. Por hipótese, a transformação
linear A aplica bases de Rn em bases de Rn , portanto o conjunto de vetores A(β) =
{A(vk+1 ), A(vk+2 ), ..., A(vn )} é uma base de Rn de onde concluı́mos que dim Rn =
n − k < dim Rn , uma contradição. Logo k = 0, significando que o núcleo é trivial,
em outras palavras, A é injetiva. Pelo Teorema do núcleo e da imagem temos que
n = dim Rn = dim Im(A). Como o subespaço imagem de A tem a mesma dimensão
do contradomı́nio, obtemos que Im(A) = Rn , isto é, A é sobrejetiva. Em resumo,
A é injetiva e sobrejetiva, portanto ela é invertı́vel. 2

Exercı́cio 5.5.2 Se A, C : Rn → Rn são dois operadores lineares invertı́veis, prove


que a composta C ◦ A é invertı́vel e que (C ◦ A)−1 = A−1 ◦ C −1 . 2

Exercı́cios propostos 5.5.1

1. Apenas uma das condições exigidas na definição de uma transformação linear in-
vertı́vel não é suficiente para garantir a invertibilidade da transformação. Dadas as
transformações lineares
A : R2 → R3 , A(x, y) = (x, y, 0), e B : R3 → R2 , B(x, y, z) = (x, y).
Verifique que B ◦ A = Id : R2 → R2 mas A ◦ B não é a identidade do R3 .
2. Se A : R2 → R2 for invertı́vel, calcule sua inversa.
a) A(x, y) = (2x, y − x). b) A(x, y) = (2x − 4y, x + 2y).
c) A(x, y) = (2x + 4y, x + 2y) d) A(x, y) = (x + y, x − y).

84
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS

3. Se A : R3 → R3 , for invertı́vel, calcule a sua inversa.

a) A(x, y, z) = (x + y + z, 3x + 4y + 3z, 3x + 3y + 4z).


b) A(x, y, z) = (2x + y + z, x + 2z, 3x + y + 2z).
c) A(x, y, z) = (2x − 3y + 7z, x + 3z, 2y − z).
d) A(x, y, z) = (x, x + y, x + y + z).
e) A(x, y, z) = (z, x, y).

4. Calcule a adjunta cássica, o determinante e a inversa, se existir, da matriz.


     
2 0 5 2 10 3 1 −1 3
[A] =  1 2 1  . [B] =  0 1 3  . [C] =  4 2 3 .
−3 1 3 0 0 2 5 1 6

5. Determine a inversa das seguintes matrizes.


     
1 −1 1 2 1 1 0 1 1
[A] =  −1 1 1 . [B] =  1 0 1 . [C] =  1 0 1 .
1 1 2 0 −1 3 1 −1 3
     
0 2 1 1 1 1 1 1 1
[D] =  1 1 1 . [E] =  1 1 2 . [F ] =  1 1 2 .
1 0 3 1 −1 −1 1 −1 3

6. Calcule uma fórmula para a potência k das matrizes e verifique que todas são in-
vertı́veis. Calcule a inversa da potência k.
 
  1 1 1  
1 1   cos t −sent
[A] = . [B] = 0 1 1 . [C] = .
0 1 sent cos t
0 0 1

7. Se a transformação linear A : Rn → Rn tem uma inversa à esquerda, prove que A é


invertı́vel.

8. Assuma que β = {v1 , v2 } é uma base de R2 . Defina a aplicação A : R2 → R2 por


A(x, y) = xv1 + yv2 . Prove que A é invertı́vel.

Respostas e sugestões
Seção 5.1
1) a) Não. b) Sim. c) Não. d Sim.

2) a) A(x, y, z) = (x + y + 2z, x − y + z). b) A(x, y, z) = (2x + z, −3x + y − z, x + 4z).


c) A(x, y, z) = (x + z, x + 2y + z, 0, x + y + 2z).

3) a) A é injetiva, N uc(A) = {o}. b) N uc(A) = [[(1, −2)]]. c) N uc(A) = [[(−1, 1, 1)]].

85
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

4) Defina a transformação na base canônica como indicado e escreva em coordenadas.


a) A(e1 ) = e1 , A(e2 ) = −e2 , A(x, y) = (x, −y).
b) A(e1 ) = −e1 , A(e2 ) = e2 , A(x, y) = (−x, y).
c) A(e1 ) = e2 , A(e2 ) = e1 , A(x, y) = (y, x).
d) A(e1 ) = e2 , A(e2 ) = −e1 , A(x, y) = (y, −x).

5) Defina a transformação na base canônica como indicado e escreva em coordenadas.


a) A(e1 ) = v1 , A(e2 ) = v2 , A(e3 ) = v1 ,
A(x, y) = (x + y + z, 2x + y + z).
b) A(e1 ) = v1 , A(e2 ) = v1 ,
A(x, y) = (0, 3x + 3y, −x − y).
c) A(e1 ) = (1, 0, −2), A(e2 ) = (0, 1, −3), A(e3 ) = o,
A(x, y, z) = (x, y, −2x − 3z).
d) A(e1 ) = (1, 1), A(e2 ) = (1, 1), A(e3 ) = o,
A(x, y) = (x + y, x + y).
Os três últimos exemplos foram construı́dos calculando uma base para a imagem.

6) Você pode ter encontrado outras transformações lineares.


a) A(x, y, z) = (x − y + 2z, x − y + 2z) b) A(x, y, z) = (x, 2x, 3x)
c) A(x, y, z) = (2x − y, 0) d) A(x, y, z) = (x + 3y + z, x − y, 2x − y)
e) A(x, y, z) = (x + y, z) f ) A(x, y, z) = (z, x, y)

8) b) Por absurdo, suponha que a transformação linear A seja sobrejetiva. Isto é,
Im(A) = [[A(e1 ), A(e2 )]] = R3 . Sendo assim, o espaço vetorial R3 é gerado por dois
vetores, uma contradição.

9) A(x1 , x2 , ..., xn ) = (λ0 x1 , λ0 x2 , ..., λ0 xn ).


Seção 5.2
     
6 1 −3 1 1   1 0 0
1 1 1
1) a)  0 −1 1 . b)  2 −1 . c) . d)  0 1 0 .
1 1 1
 2 0 −1 −2 1 0 0 1
0 0  
 0 0 0
0 0 
e) 

. f )  0 1 0 .
0 0 
0 0 0
0 0

2) Você pode ter encontrados outras vetores para as bases.


a) A : R2 → R3 , A(x, y) = (−2x + 4y, x + 2y, x + 2y),
N uc(A) = [[2e1 − e2 ]], Im (A) = [[A(e1 )]].

b) A : R2 → R3 , A(x, y) = (x − y, 2x − 2y, −x),


N uc(A) = {o}, Im (A) = [[A(e1 ), A(e2 )]].

c) A : R3 → R2 , A(x, y, z) = (x − y, x + 2y + 3z),
N uc(A) = [[(3, 3, −3)]], Im (A) = [[A(e1 ), A(e2 )]] = R2 .
Seção 5.3

86
5.5. TRANSFORMAÇÕES LINEARES INVERTÍVEIS

1) Você pode ter encontrado outros vetores para as bases.


a) Im(A) = [[A(e1 ), A(e2 ), A(e3 )]] = R3 , N uc(A) = {o},
dim Im(A) = 3, dim N uc(A) = 0.
b) Im(A) = [[A(e1 ), A(e2 )]], N uc(A) = {o},
dim Im(A) = 2, dim N uc(A) = 0.
c) Im(A) = [[A(e1 )]], N uc(A) = [[e1 − e2 , e1 − e3 ]],
dim Im(A) = 1, dim N uc(A) = 2.
d) Im(A) = [[A(e1 ), A(e2 ), A(e3 )]], N uc(A) = {o},
dim Im(A) = 3, dim N uc(A) = 0.
e) Im(A) = [[A(e2 )]], N uc(A) = [[e1 , e2 + e3 ]],
dim Im(A) = 1, dim N uc(A) = 2.
e) Im(A) = [[A(e1 )]], N uc(A) = [[e1 − e2 ]],
dim Im(A) = 1, dim N uc(A) = 1.
2) Você pode ter encontrado outros vetores para as bases.
a) Im(A) = [[A(e1 ), A(e2 )]] = R2 , N uc(A) = [[4e1 − 2e3 ]],
A(x, y, z) = (x + y + 2z, x − y + 2z).
b) Im(A) = [[A(e1 ), A(e2 ), A(e3 )]] = R3 , N uc(A) = {o},
A(x, y, z) = (2x + z, −3x + y − z, x + 4z).
c) Im(A) = [[A(e1 ), A(e2 )]], N uc(A) = [[e1 − e2 ]],
A(x, y, z) = (x + z, x + y + 2z, 0, x + y + 2z).
3) Você pode ter encontrado outras transformações.
a) A(x, y, z) = (2x + y, −x, x + y). c) A(x, y, z) = (0, 0, x + y).
b) A(x, y, z) = (x + y − z, x + y − z, x + y − z).
4) a) Suponha, por absurdo, que A seja sobrejetiva, isso é equivalente a dizer que
Rn = Im(A) = [[A(e1 ), A(e2 ), ..., A(em )]]. Logo, o espaço Rn teria um conjunto
de geradores com um número de vetores m < n. Uma contradição.
b) Suponha, por absurdo, que A seja injetiva, isso é equivalente a dizer que Rn =
Im(A) = [[A(e1 ), A(e2 ), ..., A(em )]]. Logo, o espaço Rn teria uma base com um
número de vetores m > n. Uma contradição.
5) Não pode, caso contrário, pelo teorema do núcleo e da imagem terı́amos 11 =
2dim Im(A), mas 11 não é par.
Seção 5.4
1) Estão omitidos os cálculos.
a) (2A − B)(x, y) = (3x + y, −2y + 3x). A ◦ B(x, y) = (x − 2y, −x).
B ◦ A(x, y) = (3x − y, x − y). A ◦ A(x, y) = (4x, −3x + y).
B ◦ B(x, y) = (3x − y, x − y).
b) (2A − B) não existe. A ◦ B(x, y) não existe.
B ◦ A(x, y) = (2x + 2y, −2x + y, 6y). A ◦ A(x, y) não existe.
B ◦ B(x, y) = (x, y, 2x − 2y).
c) (2A − B) = (3x + 5y, −2x + y). A ◦ B(x, y) = (2x, −x + 2y).
B ◦ A(x, y) = (3x + y, −x + y). A ◦ A(x, y) = (6y, −3x − y).
B ◦ B(x, y) = (x − 2y, y).

87
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

2) Só podemos efeturar a multiplicação na ordem [A] [B]. Portanto, o produto matricial
corresponde à matriz da composta A ◦ B onde A : R2 → R3 , A(x, y) = (x + y, −y, 3x)
e B : R2 → R2 é definida por B(x, y) = (x + y, 2x).
3) A2 (x, y) = (0, 0) (identicamente nula), logo, Im (A) ⊂ N uc (A). Na verdade, nesse
exemplo a imagem e o núcleo são iguais.
Seção 5.5
1) B ◦ A(x, y) = (x, y, 0) e A ◦ B(x, y, z) = (x, y, 0).
2) É invertı́vel quando det[A]
= 0.
a) A−1 (x, y) = ( 12 x, 12 x + y). b) A−1 (x, y) = (x − 2y, − 21 x + y).
c) Não é invertı́vel. c) A−1 (x, y) = ( 12 x − 12 y, 12 x − 12 y).
3) Todas são invertı́veis pois det[A]
= 0.
a) A−1 (x, y, z) = (7x − y − z, −3x + y, −3x + z).
b) A−1 (x, y, z) = (−2x − y + 2z, 4x + y − 3z, x + y − z).
c) A−1 (x, y, z) = (6x − 11y + 9z, −x + 2y − z, −2x + 4y − 3z).
d) A−1 (x, y, z) = (x, −x + y, −y + z).
e) A−1 (x, y, z) = (y, z, x).
5) Todas são invertı́veis.
   
1 3 −2 1 −4 1
[A]−1 = −1  3 1 −2  . [B]−1 = −1  −3 6 −1  .
4 2
−2 −2 0 −1 2 −1
   
1 4 −1 3 −6 1
[C]−1 = −1  −2 −1 1 . [D]−1 = −1  −2 −1 1 .
2 5
−1 1 −1 −1 2 −2
   
1 0 1 5 −4 1
[E]−1 = 12  3 −2 −1  . [F ]−1 = 12  −1 2 −1  .
−2 2 0 −2 2 0
6) Todas são invertı́veis e o determinante é 1, para qualquer k.
 
  1 −k k(k−1)  
1 −k 2 cos kt sen kt
[A]−k = . [B]−k =  0 1 −k . [C]−k = .
0 1 −sen kt cos kt
0 0 1

88
Capı́tulo 6

Operadores lineares
Uma transformação linear cujo domı́nio e contradomı́nio são iguais, A : Rn → Rn , é
chamada de operador linear. Esse capı́tulo é dedicado aos operadores lineares e tem
como objetivo final apresentar o Teorema espectral, último teorema de qualquer
livro texto introdutório à Álgebra Linear. Antes, veremos como podemos contruir
operadores lineares especificando seus valores numa base qualquer, e não apenas na
base canônica.

6.1 Construindo operadores lineares


Para construir um operador linear A : Rn → Rn basta estabelecer os valores de A
nos vetores da base canônica C = {e1 , e2 , ..., en }. Recapitulemos os procedimentos
com um exemplo.

Exemplo 6.1.1 Se desejarmos contruir um operador linear A : R3 → R3 tal que


A(e1 ) = (1, 2, −1), A(e2 ) = (1, 0, 1) e A(e3 ) = (2, 2, 0) basta definir o operador
linear pela matriz
 
1 1 2
[A] = [u, v, w] =  2 0 2  .
−1 1 0
Observe que este operador linear não é invertı́vel pois det[A] = 0, isto significa que
os vetores u = (1, 2, −1), v = (1, 0, 1) e w = (2, 2, 0) não formam uma base de R3 .
Portanto o núcleo de A não é trivial, nem a imagem de A é o R3 . 2

Podemos ir um pouco mais longe com a construção. Coloquemos a questão.


Questão Construir um operador linear C : R3 → R3 que aplica uma base
ordenada α = {u, v, w} num conjunto ordenado β = {u , v  , v  }.
Solução Basta seguir os seguintes procedimentos.

89
CAPÍTULO 6. OPERADORES LINEARES

1o Construı́mos um operador linear A que aplica a base canônica C = {e1 , e2 , e3 }


na base α = {u, v, w}. Nesse caso, como sabemos, a matriz é [A] = [u, v, w].
2o Construı́mos um operador linear B que aplica a base canônica C = {e1 , e2 , e3 }
no conjunto ordenado β = {u , v  , v  }. Nesse caso, a matriz é [B] = [u , v  , v  ].
3o Consideramos o operador linear cuja matriz na base canônica é [C] = [B][A]−1 .

Exemplo 6.1.2 O conjunto de vetores em R3 , {u, v, w}, onde


u = (0, 1, 1), v = (1, 0, −1), w = (2, 1, 0),
é uma base de R3 pois det[u, v, w]
= 0. Contruiremos um operador linear C : R3 →
R3 que aplica essa base, na ordem apresentada, no conjunto ordenado de três vetores
{u , v  , w }, onde
u = (2, 0, −1), v  = (1, 2, −1), w = (2, 1, 2).
O operador linear A : R3 → R3 que aplica e1 , e2 e e3 nos vetores u, v e w é invertı́vel
e sua matriz e de sua inversa são, respectivamente,
   
0 1 2 −1 2 −1
[A] =  1 0 1 , [A]−1 =  −1 2 −2  .
1 −1 0 1 −1 1
O operador linear B : R3 → R3 que aplica e1 , e2 e e3 em u , v  e w tem matriz
 
2 1 2
[B] =  0 2 1 .
−1 −1 2
Logo, o operador linear C : R3 → R3 é definido pela matriz [C] = [B][A]−1 . Um
cálculo simples mostra que
    
2 1 2 −1 2 −1 −1 4 −2
[C] = [B][A]−1 =  0 2 1   −1 2 −2  =  −1 3 −3  .
−1 −1 2 1 −1 1 4 −6 5
Deixaremos para o leitor verificar que o operador linear
C(x, y, z) = (−x + 4y − 2z, −x + 3y − 3z, 4x − 6y + 5z)
de fato aplica os vetores como pedido, C(u) = u , C(v) = v  e C(w) = w . 2

Exemplo 6.1.3 Os mesmos procedimentos são seguidos para construir operadores


lineares em qualquer espaço Rn . Vejamos um exemplo quando desejamos construir
um operador A : R2 → R2 tal que

Exercı́cios propostos 6.1.1

90
6.2. AUTOVALOR E AUTOVETOR

1. Construa um operador linear A : R2 → R2 que assume os seguintes valores.


(a) C(1, 1) = (−1, 1) e C(−1, 1) = (−1, −1).
(b) C(3, 1) = (2, 1) e C(3, 2) = (2, 1);
(c) C(−2, 1) = (1, 1) e C(1, 1) = (1, −1).
2. Construa um operador linear A : R3 → R3 que assume os seguintes valores.
(a) C(1, 1, 1) = (−1, 1, 0), C(−1, 0, 1) = (−1, −1, 2) e C(0, 2, 0) = (0, 0, 0).
(b) C(1, 1, 1) = (1, 1, 1), C(1, 0, 1) = (1, 0, 1) e C(0, 0, 1) = (0, 0, 1).
(c) C(1, −2, 0) = (1, 1, 0), C(−1, 0, 1) = (1, 1, 2) e C(0, 2, 1) = (1, 0, 0).

6.2 Autovalor e Autovetor


Nesta seção responderemos à seguinte pergunta.
Dado um operador linear A : Rn → Rn .
Existe um vetor não nulo v ∈ Rn e um escalar λ ∈ R tal que A(v) = λv?
Antes de tudo, fixemos alguns termos.
Quando existe um vetor não nulo v ∈ Rn e existe um escalar λ ∈ R tais que
A(v) = λv, diremos que o vetor v é um autovetor de A associado ao autovalor λ.1

Exemplo 6.2.1 Considere o operador linear A : R2 → R2 , A(x, y) = (3x − 2y, 4y).


O vetor v = (1, 0) é um autovetor associado ao autovalor λ1 = 3 pois
A(v) = A(1, 0) = (3, 0) = 3(1, 0) = 3A(v).
O vetor w = (−2, 1) é autovetor associado ao autovalor λ2 = 4 pois
A(w) = A(−2, 1) = (−8, 4) = 4(−2, 1) = 4A(w).
O leitor pode verificar que qualquer múltiplo de v é um autovetor associado ao
autovalor λ1 = 3, bem como, qualquer múltiplo de w é um autovetor associado ao
autovalor λ = 2. 2

Mas como conseguimos determinar os autovetores e autovalores no exemplo


acima? Existe um procedimento padrão aplicado a qualquer operador linear A :
Rn → Rn para calcular seus autovalores e seus autovetores associados. Conside-
ramos o operador identidade Id : Rn → Rn e fazemos uma pergunta equivalente
àquela feita no inı́cio da seção.
Existe um escalar λ tal que o núcleo de λId − A : Rn → Rn é não trivial?
1
Em alguns livros encontramos a terminologia valor próprio e vetor próprio

91
CAPÍTULO 6. OPERADORES LINEARES

De fato, se o núcleo de λId − A é não tivial, existe um vetor não nulo v pertencente
ao núcleo tal que λId(v)−A(v) = 0, de onde concluı́mos que A(v) = λv. A recı́proca
tem verificação imediata. Nesta altura da teoria, temos condições de responder à
última pergunta.
Existirá um escalar λ se, e somente se, λId − A é um operador não invertı́vel!
Em outras palavras, podemos responder da seguinte forma:
Existirá um escalar λ se, e somente se, det[λId − A] = 0!
Para continuar, fixemos mais duas terminologias.
a) O núcleo do operador linear λId − A : Rn → Rn , é chamado de autoespaço
associado a λ, e iremos registrá-lo como Vλ = {v ∈ Rn ; A(v) = λv}.
b) O polinômio de grau n, p(λ) = det[λId − A], é chamado de polinômio carac-
terı́stico de A.

Fixados os termos, reescrevamos a resposta da seguinte forma:


Existirá um vetor não nulo v ∈ Rn tal que A(v) = λv se, e somente se, λ for uma
raiz real do polinômio caracterı́stico de A!

Exemplo 6.2.2 Seja A : R2 → R2 , A(x, y) = (4x + 12y, 12x − 3y). Para o cálculo
dos autovetores e autovalores seguimos o seguinte roteiro.

1o Consideramos a identidade Id : R2 → R2 e contruı́mos as matrizes


     
4 12 1 0 λ − 4 −12
[A] = , [Id] = , [λ Id − A] = .
12 −3 0 1 −12 λ + 3
2o Calculamos o polinômio caracterı́stico
 
λ − 4 −12
p(λ) = det[λId − A] = det = λ2 − λ − 156.
−12 λ + 3
3o Calculamos as raı́zes do polinômio caracterı́stico que são os autovalores de A.
p(λ) = 0 se, e somente se, λ1 = −12 e λ2 = 13.
4o Calculamos os autovetores associados ao autovalor λ1 = −12. Desejamos
determinar vetores v = (x, y) tais que λ1 (x, y)−A(x, y) = (0, 0). Essa equação
vetorial dá origem a um sistema de equações lineares, a saber,

16x + 12y = 0
12x + 9y = 0
É imediato concluir que o vetor procurado é do tipo v = (x, − 43 x). O auto-
espaço associado é descrito por

92
6.2. AUTOVALOR E AUTOVETOR

Vλ1 = {(x, y) ∈ R2 ; 4x + 3y = 0} = [[(−3, 4)]].

5o Calculamos os autovetores associados ao autovalor λ2 = 13. Desejamos deter-


minar vetores v = (x, y) tais que A(x, y) = λ2 (x, y). Essa equação vetorial dá
origem a um sistema de equações lineares, a saber,

9x − 12y = 0
−12x + 16y = 0
Logo, o autoespaço associado é o subespaço
Vλ1 = {(x, y) ∈ R2 ; 3x − 4y = 0} = [[(4, 3)]]. 2

Exercı́cio 6.2.1 O operador linear A : R2 → R2 , A(x, y) = (x, x + y) tem apenas


um autovalor com repetição dois, λ1 = λ2 = 1 e um autoespaço Vλ1 de dimensão
um. Verifique a afirmação. 2

Recordando que, sendo Vλ um subespaço, podemos encontrar uma base ordenada


de autovetores, isto é, podemos escrever Vλ = [[v1 , v2 , ..., vk ]], onde A(vi ) = λvi e
αλ = {v1 , v2 , ...vk } é uma base ordenada para o subespaço.

Exemplo 6.2.3 Pode ocorrer que um operador linear não tenha autovetores. É o
caso do operador A : R2 → R2 , A(x, y) = (−y, x). Observe que A transforma um
vetor não nulo em um vetor perpendicular a ele, portanto a imagem nunca pode
ser colinear com o vetor. Este fato é detetado algebricamente com o polinômio
caracterı́stico,
 
λ − 0 −1
det[λId − A] = det = λ2 + 1.
1 λ0
Como o polinômio caracterı́stico não tem raiz real, o núcleo do operador linear
λId − A : R2 → R2 é trivial, qualquer que seja o escalar λ. 2

Sendo o polinômio caracterı́stico de um operador linear A : Rn → Rn um po-


linômio com grau n, pode ocorrer que suas raı́zes reais sejam distintas ou não.
Portanto, contada as repetições, pode ocorrer um número de autovalores entre 0 e
n, inclusive.

Exercı́cio 6.2.2 Defimos o traço de uma matriz quadrada como a soma das entra-
das da diagonal principal. Se a matriz é 2 × 2,
 
a b
[A] = ,
c d
temos que tr [A] = a + d.

93
CAPÍTULO 6. OPERADORES LINEARES

1. Mostre que o polinômio caracterı́stico de uma matriz 2 × 2 é


p(λ) = λ2 − tr[A]λ + det[A].
2. Seja [A] uma matriz 3 × 3. Mostre que o coeficiente do termo λ2 do polinômio
caracterı́stico de [A] é −tr[A] enquanto que o termo independente é − det[A].
2

Exemplo 6.2.4 Seja A : R3 → R3 , A(x, y, ) = (x+ 2y, y, x+ y + 2z). Para o cálculo


dos autovetores e autovalores seguimos o seguinte roteiro.

1o Consideramos a identidade Id : R3 → R3 e contruı́mos as matrizes


     
1 2 0 1 0 0 λ−1 −2 0
[A] =  0 1 0  , [Id] =  0 1 0  , [λ Id − A] =  0 λ−1 0 .
1 1 2 0 0 1 −1 −1 λ − 2

2o Calculamos o polinômio caracterı́stico


 
λ − 1 −2 0
p(λ) = det[λId − A] = det  0 λ−1 0  = λ3 − 4λ2 + 5λ + 2.
−1 −1 λ − 2
3o Calculamos as raı́zes do polinômio caracterı́stico que são os autovalores de A.
Como p(λ) = (λ − 2)(λ − 1)(λ − 1), os autovalores são λ1 = 2 e λ2 = 1 = λ3 .
4o Calculamos os autovetores associados ao autovalor λ1 = 2. Desejamos deter-
minar vetores v = (x, y, z) tais que λ1 (x, y, z) − A(x, y, z) = (0, 0, 0). Essa
equação vetorial dá origem a um sistema de equações lineares, a saber,

 x − 2y = 0
y = 0

−x − y = 0
É imediato concluir que o vetor procurado é do tipo v = (0, 0, z). O autoespaço
associado é descrito por
Vλ1 = {(x, y, z) ∈ R2 ; x = 0, e y = 0} = [[(0, 0, 1)]].
5o Calculamos os autovetores associados ao autovalor λ2 = 1. Desejamos de-
terminar vetores v = (x, y, z) tais que A(x, y, z) = λ2 (x, y, z). Essa equação
vetorial dá origem a um sistema de equações lineares, a saber,

 − 2y = 0
0= 0

−x − y − z = 0
Logo, o autoespaço associado é o subespaço
Vλ2 = {(x, y, z) ∈ R2 ; x + z = 0} = [[(1, 1, 0) (0, 1, 1)]]. 2

94
6.2. AUTOVALOR E AUTOVETOR

Lema 6.2.1 Sejam A : Rn → Rn um operador linear e β = {v1 , v2 , ..., vk } um


conjunto formado por autovetores de A associados aos autovalores λ1 , λ2 , ..., λk ,
respectivamente. Se os autovalores são distintos dois a dois então β é um conjunto
linearmente independente.

Prova Assuma, por absurdo, que o conjunto de autovetores é linearmente depen-


dente. Seja vi+1 o primeiro autovetor que é uma combinação linear dos anteriores,
vi+1 = a1 v1 + a2 v2 + · · · + ai vi .
Recordamos que algum escalar ai não é nulo pois vi+1 não é o vetor nulo. A menos de
uma reordenação dos i primeiros elementos do conjunto β podemos supor que ai
= 0.
Avaliando o operador linear A em cada membro da igualdade e multiplicando ambos
os membros da igualdade por λi+1 obtemos duas outras igualdades,
λi+1 vi+1 = λ1 a1 v1 + λ2 a2 v2 + · · · + λi ai vi ,

λi+1 vi+1 = λi+1 a1 v1 + λi+1 a2 v2 + · · · + λi+1 ai vi .


Subtraindo chegamos à combinação linear
0 = (λi+1 − λ1 )a1 v1 + (λi+1 − λ2 )a2 v2 + · · · + (λi+1 − λi )ai vi .
Por hipótese os autovalores são distintos dois a dois, λi+1 − λj
= 0, garantimos que
vi é uma combinação linear dos anteriores, a saber,
λi+1 − λ1 λi+1 − λ2 λi+1 − λi−1
vi = a1 v1 + a2 v2 + · · · + ai−1 vi−1 .
λi+1 − λi λi+1 − λi λi+1 − λi
Isto contradiz a escolha de vi+1 . Portanto, os autovetores são linearmente indepen-
dentes. 2

Exercı́cio 6.2.3 Mostre que se um operador linear A : Rn → Rn é invertı́vel então


1. todos autovalores são diferentes de zero e
2. os autovalores da inversa A−1 são os inversos dos autovalores de A. 2

Exercı́cios propostos 6.2.1

1. Verifique se o vetor v é autovetor do operador A : R3 → R3 onde


a) A(x, y, z) = (x + y + z, 2y + z, 2y + 3z) e v = (1, 1, 2);
b) A(x, y, z) = (−2x + 3y − z, y − z, x + 2y − 2z) e v = (−2, 1, 3).
2. Determine os autoespaços do operador linear A : R2 → R2 quando
a) A(x, y) = (−3x + 4y, −x + 2y); b) A(x, y) = (4x + 5y, 2x + y);
c) A(x, y) = (2x + 2y, x + y); d) A(x, y) = (2x − 4y, x − 2y);
e) A(x, y) = (x, x + y); f ) A(x, y) = (x − y, x + y).

95
CAPÍTULO 6. OPERADORES LINEARES

3. Determine os autoespaços do operador linear A : R3 → R3 quando

a) A(x, y, z) = (3x + y − z, x + 3y − z, −x − y + 5z);


b) A(x, y, z) = (x + y + z, 2y + z, 2y + 3z);
c) A(x, y, z) = (2z, −y, 2x);
d) A(x, y, z) = (3x − y − 3z, 2y − 3z, −z);
e) A(x, y, z) = (x, −2x − y, 2x + y + 2z).
f) A(x, y, z) = (2x + 2z, −2y, −2x + 2z).
g) A(x, y, z) = (x − y, 2x + 2y + 2z, x + y + z).
h) A(x, y, z) = (x, x + y − 2z, y − z).
i) A(x, y, z) = (3x + 3y − 2z, −y, 8x + 6y − 5z).

4. Mostre que um operador linear A : R3 → R3 sempre possui pelo menos um autovalor.


5. Um operador linear A : Rn → Rn não é invertı́vel se, e somente se, λ = 0 é raiz do
polinômio caracterı́stico de [A]. Mostre a afirmação.

6.3 Teorema espectral


Existe uma classe de operadores lineares A : Rn → Rn cujo polinômio caracterı́stico
possui todas as raı́zes reais. Para descrevê-los, necessitamos do produto interno.
Para cada operador linear A : Rn → Rn , desejamos construir um outro operador
linear, chamado de operador transposto de A, denotado por At : Rn → Rn , que
possua a popriedade
v, A(w) = At (v), w,
para quaisquer v, w ∈ Rn . Para identificar matricalmente o operador linear At , ob-
servamos que as entradas da matriz [A] = [aji ] são determinadas por aji = ej , A(ei ).
Logo, as entradas bji da matriz [At ] devem ser
bji = ej , At (ei ) = At (ei ), ej  = ei , A(ej ) = aij .
Portanto, a matriz do operador transposto de A é a transposta da matriz de A,
notacionalmente registramos esta afirmação como [At ] = [A]t . Como existe uma
correspondência biunı́voca entre operadores lineares em Rn e matrizes n×n, também
mostramos que o operador transposto de A é único.

Exemplo 6.3.1 Seja A : R2 → R2 o operador linear A(x, y) = (x − 4y, −2x + y).


Para determinar um operador linear At : R2 → R2 tal que v, A(w) = At (v), w
para quaisquer vetores v, w ∈ R2 é suficiente considerar a matriz de A e sua trans-
posta, ou seja,

96
6.3. TEOREMA ESPECTRAL

   
1 −4 1 −2
[A] = , [A]t = ,
−2 1 −4 1
e definir At (x, y) = (x − 2y, −4x + y). 2

Definição 6.3.1 Diz-se que um operador linear A : Rn → Rn é simétrico se


v, A(w) = A(v), w para quaisquer dois vetores v, w ∈ Rn .

Segue dos comentários acima que se A é simétrico se, e somente se, sua matriz
[A] é simétrica, [A] = [A]t .

Exemplo 6.3.2 Seja A : R3 → R3 , o operador linear A(x, y, z) = (7x − 2y, −2x +


6y − 2z, −2y + 5z). Para verificar que v, A(w) = A(v), w para quaisquer vetores
v, w ∈ R3 é suficiente examinar a matriz
 
7 −2 0
[A] =  −2 6 −2  = [A]t .
0 −2 5
Como a matriz é simetrica (em relação à diagonal principal), o operador linear é
simétrico. 2

Na última seção, tomamos conhecimento que autovetores associados a auto-


valores distintos são linearmente independentes. Quando o operador é simétrico
podemos afirmar mais.

Lema 6.3.1 Sejam A : Rn → Rn um operador linear simétrico e β = {v1 , v2 , ..., vk }


um conjunto formado por autovetores de A associados aos autovalores λ1 , λ2 , ..., λk ,
respectivamente. Se os autovalores são distintos dois a dois então os vetores de β
são ortogonais dois a dois.

Prova Seja i
= j. Observe a seguinte seqüência de igualdades,
λi ui , uj  = λi ui , uj  = A(ui ), uj  = ui , A(uj ) = ui , λj uj  = λj ui , uj .
Portanto, (λi − λj )ui , uj  = 0. Como λi
= λj segue que ui , uj  = 0. 2

Teorema 6.3.1 (Teorema espectral em R2 ) Se o operador linear A : R2 → R2


é simétrico então
a) o polinômio caracterı́stico do operador linear, p(t) = det[tId − A], possui 2
raı́zes reais, contando as repetições, {λ1 , λ2 };
b) existe uma base ortonormal de R2 formada por autovetores, β = {u1 , u2 },
onde A(ui ) = λi ui .

97
CAPÍTULO 6. OPERADORES LINEARES

Prova Como o operador linear é simétrico, então A(x, y) = (ax + by, bx + cy) pois
sua matriz na base canônica é simétrica,
 
a b
[A] = .
b c
Calculando o polinômio caracterı́stico de [A] obtemos
 
λ − a −b
p(t) = det[λId − A] = = λ2 − (a + c)λ + (ac − b2 ).
−b λ − c
Como o discriminante do polinômio caracterı́stico p(λ), de uma matriz simétrica
2 × 2 não é negativo,
∆ = (−a − c)2 − 4(ac − b2 ) = (a − c)2 + 4b2 ≥ 0,
p(t) admite duas raı́zes reais, que serão distintas se, e somente se, ∆ > 0, e terá
uma raiz com repetição 2 se, e somente se, ∆ = 0. Examinemos os dois casos.

1o Quando ∆ = 0, significa que a = c e b = 0. Logo, a matriz [A] é uma matriz


diagonal, a saber  
a 0
[A] = .
0 a
Sendo assim A(x, y) = (ax, ay) = a(x, y). Isto significa que qualquer vetor
de R2 é um autovetor associado ao autovalor λ = a, seguindo nossa notação
escrevemos R2 = Vλ . Portanto, escolhidos quaisquer dois vetores unitários
mutuamente ortogonais, β = {u1 , u2 } formamos uma base ortonormal para o
R2 com autovetores unitários.
2o Quando ∆ > 0 teremos dois autovalores distintos, digamos λ1 e λ2 . Sejam
u1 e u2 dois autovetores unitários associados aos autovalores λ1 e λ2 , respec-
tivamente. Como vimos na última seção o conjunto β = {u1 , u2 } ⊂ R2 é
linearmente independente, portanto, β é uma base ortonormal. 2

A existência de uma base ortonormal de autovetores de um operador linear


simétrico é um dos importantes teoremas de Álgebra Linear e é um resultado válido
em qualquer dimensão. Deixaremos o enunciado do teorema mas sem a demons-
tração pois a argumentação utilizada, quando o operador linear simétrico é em Rn ,
n > 2, foge do material apresentado neste texto.

Teorema 6.3.2 (Teorema espectral) Se o operador linear A : Rn → Rn é simétrico


então
a) o polinômio caracterı́stico do operador linear, p(t) = det[tId − A], possui n
raı́zes reais, contando as repetições, {λ1 , λ2 , ..., λn };

98
6.3. TEOREMA ESPECTRAL

b) existe uma base ortonormal de Rn formada por autovetores, β = {u1 , u2 , ..., un },


onde A(ui ) = λi ui .

Exemplo 6.3.3 Considere a matriz simétrica [A],


 
1 −1 1
[A] =  −1 1 1 .
1 1 2
Como a matriz é simétrica o operador linear que ela define em R3 é simétrico.
Pelo Teorema Espectral, podemos garantir que A possui três autovalores reais e
podemos determinar três autovetores associados, um para cada autovalor, que são
ortogonais dois a dois. Se calcularmos as raı́zes do polinômio caracterı́stico de A,
pA (t) = det [tId − A] obtemos os autovalores
√ √
λ1 = 2 > 0, λ2 = 1 + 3 > 0, λ3 = 1 − 3 < 0.
Observe que a matriz [A] é não singular, isto é equivalente a dizer que det [A]
= 0,
de fato vale a propriedade det[A] = λ1 λ2 λ3 . Com um pouco de esforço o leitor
pode determinar os seguintes autovetores associados,
√ √ √ √
v1 = (−1, 1, 0), v2 = (−1+ 3, −1+ 3, 1), v3 = (−1− 3, −1− 3, 1).
Verifique que eles são dois a dois ortogonais. 2

Um operador linear simétrico A : Rn → Rn , é dito ser positivo quando v, A(v) >
0, qualquer que seja o vetor não nulo v ∈ Rn .

Exercı́cio 6.3.1 Mostre que um operador linear simétrico é positivo se, e somente
se, todos os seus autovalores são positivos.
Sugestão Seja β = {u1 , u2 , ..., u3 } uma base ortonormal de autovetores, relem-
brando, ui , uj  = δij e A(ui ) = λi ui . Escreva um vetor não nulo v como combinação
linear dos vetores da base e faça a avaliação v, A(v) > 0.

Definimos um operador linear simétrico negativo de forma análoga e concluı́mos


que todos os autovalores são negativos.

Exercı́cios propostos 6.3.1

1. Dado o operador linear A : R3 → R3 , calcule o operador transposto.

a) A(x, y, z) = (x + y − z, 2x − 2y + z, x − y).
b) A(x, y, z) = (x + 2y + 4z, 2x + 3y − z, 4x − y − 2z).

99
CAPÍTULO 6. OPERADORES LINEARES

2. Verifique que o operador linear A : R3 → R3 é simétricos e determine uma base de


autovetores.
a) A(x, y) = (10x + 6y, 6x + 10y). b) A(x, y) = (4x + 4y, 4x + 10y)
c) A(x, y) = (6x − 2y, −2x + 6y). d) A(x, y) = (5x + 3y, 3x + 5y)
3. Verifique que o operador linear A : R3 → R3 é simétrico e determine uma base de
autovetores.
a) A(x, y, z) = (2z, −y, 2x). c) A(x, y, z) = (x + 3y, 3x + 9y, 0).
b) A(x, y, z) = (x + z, −y, x + z). d) A(x, y, z) = (−7x, −7y, 2z).
4. Construa um operador linear simétrico A : R2 → R2 , tal que

a) A(−1, 2) = (2, −4) e A(2, 1) = (6, 3).


b) A(3, 1) = (0, 0) e A(−1, 3) = (1, −3).
c) A(1, 2) = (2, 4) e que possua λ = −1 como autovalor.

5. Determine os autovalores e autovetores da Id : R3 → R3 .

Respostas e sugestões
Seção 6.1
1) O operador C(x, y) é a composta B ◦ A−1 (x, y).
a) C(x, y) = (−y, x),
B(x, y) = (−x − y, x + y), A−1 (x, y) = 12 (x + y, −x + y).

b) C(x, y) = 13 (2x, x),


B(x, y) = (2x + 2y, x + y), A−1 (x, y) = 13 (2x − y, −x + 3y).

c) C(x, y) = 13 (3y, −2x − y),


B(x, y) = (x + y, x − y), A−1 (x, y) = 13 (−x + y, x + 2y).
2) O operador C(x, y, z) é a composta B ◦ A−1 (x, y, z).
a) C(x, y, z) = (−z, x, − 21 x − 32 z),
B(x, y, z) = (−x − y, x − y, x + 2y, 0),
A−1 (x, y, z) = 14 (2x + 2z, −x + 2z, −x + 2y − z).
b) C(x, y, z) = (x, y, z),
B(x, y, z) = (x + y, x, x + y + z),
A−1 (x, y, z) = (y, x − y, −x + z).
c) C(x, y, z) = 14 (2x − y + 6z, −2y + 4z, −4x − 2y + 4z),
B(x, y, z) = (x + y + z, x + y, 2y),
A−1 (x, y, z) = 14 (2x − y + 2z, −2x − y + 2z, 2x + y + 2z).
Seção 6.2
1) É suficiente fazer a avaliação. a) A(v) = 4v, b) A(v) = −2v.

100
6.3. TEOREMA ESPECTRAL

2) Apresentamos o polinômio caracterı́stico decomposto em produtos de parcelas inde-


componı́veis, os autovalores e autoespaços associados com uma base, respectivamente.
a) p(λ) = (λ − 1)(λ + 2), λ1 = 1, λ2 = −2.
Vλ1 = {(x, y) ∈ R2 ; x − y = 0} = [[(1, 1)]],
Vλ2 = {(x, y) ∈ R2 ; x − 4y = 0} = [[(4, 1)]].
b) p(λ) = (λ − 6)(λ + 1), λ1 = 6, λ2 = −1.
Vλ1 = {(x, y) ∈ R2 ; 2x − 5y = 0} = [[(5, 2)]],
Vλ2 = {(x, y) ∈ R2 ; −x − y = 0} = [[(1, 1)]].
c) p(λ) = (λ − 0)(λ − 3), λ1 = 0, λ2 = 3.
Vλ1 = {(x, y) ∈ R2 ; −x − y = 0} = [[(−1, 1)]],
Vλ2 = {(x, y) ∈ R2 ; x − 2y = 0} = [[(2, 1)]].
d) p(λ) = (λ − 0)(λ − 0), λ1 = 0 = λ2 .
Vλ1 = {(x, y) ∈ R2 ; x − 2y = 0} = [[(2, 1)]],
e) p(λ) = (λ − 1)(λ − 1), λ1 = 1 = λ2 .
Vλ1 = {(x, y) ∈ R2 ; x = 0} = [[(0, 1)]],
f) p(λ) = λ2 − 2λ + 2, não tem autovalor.
3) Apresentamos o polinômio caracterı́stico decomposto em produtos de parcelas inde-
componı́veis, os autovalores e autoespaços associados com uma base, respectivamente.
a) p(λ) = (λ − 2)(λ − 3)(λ − 6), λ1 = 2, λ2 = 3, λ3 = 6.
Vλ1 = {(x, y, z) ∈ R3 ; x + y − z = 0 e x + y − 3z = 0} = [[(1, −1, 0)]],
Vλ2 = {(x, y, z) ∈ R3 ; x − z = 0 e y − z = 0} = [[(1, 1, 1)]].
Vλ3 = {(x, y, z) ∈ R3 ; 3x − y + z = 0 e x − 3y − z = 0} = [[(1, 1, −2)]].
b) p(λ) = (λ − 1)(λ − 1)(λ − 4), λ1 = 1 = λ2 , λ3 = 4.
Vλ1 = {(x, y, z) ∈ R3 ; y + z = 0} = [[(1, 0, 0) (0, 1, −1)]],
Vλ3 = {(x, y, z) ∈ R3 ; 3x − y + z = 0 e 2y − z = 0} = [[(1, 1, 2)]].
c) p(λ) = (λ + 1)(λ − 2)(λ + 2), λ1 = −1, λ2 = −2, λ3 = 2.
Vλ1 = {(x, y, z) ∈ R3 ; x + 2z = 0 e 2x + z = 0} = [[(0, 1, 0)]],
Vλ2 = {(x, y, z) ∈ R3 ; y = 0 e x − z = 0} = [[(1, 0, 1)]],
Vλ3 = {(x, y, z) ∈ R3 ; y = 0 e x + z = 0} = [[(1, 0, −1)]].
d) p(λ) = (λ − 3)(λ − 2)(λ + 1), λ1 = −3, λ2 = 2, λ3 = 1.
Vλ1 = {(x, y, z) ∈ R3 ; y + 3z = 0 e z = 0} = [[(1, 0, 0)]],
Vλ2 = {(x, y, z) ∈ R3 ; z = 0 e y + 3z = 0} = [[(1, 1, 0)]],
Vλ3 = {(x, y, z) ∈ R3 ; −4x + y + 3z = 0 e − 3y + 3z = 0} = [[(1, 1, 1)]].
e) p(λ) = (λ − 1)(λ + 1)(λ − 2), λ1 = 1, λ2 = −1, λ3 = 2.
Vλ1 = {(x, y, z) ∈ R3 ; 2x + 2y = 0 e − 2x − y − z = 0} = [[(1, −1, 1)]],
Vλ2 = {(x, y, z) ∈ R3 ; x = 0 e 2x + y + 3z = 0} = [[(0, −3, 1)]],
Vλ3 = {(x, y, z) ∈ R3 ; x = 0 e 2x + 3y = 0} = [[(0, 0, 1)]].
f) p(λ) = (λ + 2)(λ2 + 2λ + 2), λ1 = −2.
Vλ1 = {(x, y, z) ∈ R3 ; −4x − 2z = 0 e 2x − 4z = 0} = [[(0, 1, 0)]],
g) p(λ) = (λ − 0)(λ2 − 4λ + 5), λ1 = 0.
Vλ1 = {(x, y, z) ∈ R3 ; −x + y = 0 e − x − y − z = 0} = [[(1, 1, −2)]],

101
CAPÍTULO 6. OPERADORES LINEARES

h) p(λ) = (λ − 1)(λ2 + 1), λ1 = 1.


Vλ1 = {(x, y, z) ∈ R3 ; −x + 2y = 0 e − y + 2z = 0} = [[(4, 2, 1)]],
i) p(λ) = (λ + 1)(λ + 1)(λ + 1), λ1 = λ2 = λ3 = 1.
Vλ1 = {(x, y, z) ∈ R3 ; −4x − 3y + 2z = 0} = [[(1, 0, 2) (0, 1, 3/2)]],
4) O polinômio caracterı́stico de um operador linear em R3 tem grau 3. Todo polinômio
de grau ı́mpar com coeficientes reais tem pelo menos uma raiz real, e a raiz do po-
linômio caracterı́stico é um autovalor. O resultado é o mesmo para qualquer operador
linear num espaço R2k+1 (dimensão ı́mpar).
5) Se o operador A não for invertı́vel, ele não é injetor, logo, seu núcleo é não trivial.
Logo, existe um vetor não nulo v ∈ N uc(A) tal que A(v) = o. Isso significa que
v é um autovetor associado ao autovalor λ = 0. Reciprocamente, se λ = 0 é um
autovalor, então existe um autovetor associado a esse autovalor, digamos que seja
o vetor não nulo v. Sendo assim, A(v) = o. Portanto, o núcleo de A é não trival,
implicando que A é não invertı́vel.
Seção 6.3
1) Devemos considerar a matriz [A], construir a matriz transposta, [A]t e recuperar o
operador transposto.
a) At (x, y, z) = (x + 2y + z, x − 2y − z, −x + y).
b) At (x, y, z) = (x + 2y + 4z, 2x + 3y − z, 4x − y − 2z)
2) Cada operador linear é simétrico pois sua matriz é simétrica, [A]t = [A]. Pelo Teorema
espectral podemos determinar uma base de R2 formada por autovetores. Para cada
operador apresentamos o polinômio caracterı́stico decomposto em fatores lineares e
a base de R2 formada pelos autovetores correspondente aos autovalores.
a) p(λ) = (λ − 16)(λ − 4), β = {( √12 , √12 ), ( −1 √ , √1 )}
2 2

b) p(λ) = (λ − 12)(λ − 2), β = {( √15 , √


−2
5
), ( √25 , √15 )}

c) p(λ) = (λ − 8)(λ − 4), β = {( √12 , √12 ), ( −1


√ , √1 )}
2 2

d) p(λ) = (λ − 0)(λ − 10), β = {( √−1


10
, √310 ), ( √−3
10
, √−1
10
)}
2) Cada operador linear é simétrico. Para cada operador apresentamos o polinômio ca-
racterı́stico decomposto em fatores lineares e a base de R3 formada pelos autovetores
correspondente aos autovalores.
a) p(λ) = (λ − 1)(λ − 2)(λ + 2), β = {(0, 1, 0), ( √12 , 0, √12 ), ( −1
√ , 0, √1 )}.
2 2
1 −1 1 1
b) p(λ) = (λ − 0)(λ − 2)(λ + 1), β = {( √2 , 0, √2 ), ( √2 , 0, √5 ), (0, 1, 0))}.

c) p(λ) = (λ − 0)(λ − 0)(λ − 10), β = {( √−3


10
, √110 ), (0, 0, 1), ( √−1
10
, √−3
10
, 0)}.

d) p(λ) = (λ + 7)(λ + 7)(λ − 2), β = {e1 , e2 , e3 }.


4) a) Como A(−1, 2) = 2(−1, 2), A(2, 1) = 3(2, 1), e os vetores v1 = (−2, 1) e v2 = (1, 2)
são ortogonais (o produto interno v1 , v2  = 0), podemos utilizar o processo descrito

102
6.3. TEOREMA ESPECTRAL

na Seção 1 desse capı́tulo para construir um operador linear tal que A(v1 ) = 2v2 e
A(v2 ) = 3v2 . Obtemos o operador linear simétrico A(x, y) = ( 14 2 2 11
5 x + 5 y, 5 x + 5 y).
b) Como A(3, 1) = 0(3, 1), A(−1, 3) = −(−1, 3), e os vetores v1 = (3, 1) e v2 = (−1, 3)
são ortogonais podemos utilizar o processo descrito na Seção 1 desse capı́tulo para
construir um operador linear tal que A(v1 ) = 0v2 e A(v2 ) = −v2 . Obtemos o operador
1 3 1 3
linear simétrico A(x, y) = (− 10 x + 10 y, 10 x − 10 y).
c) Como A(1, 2) = 2(1, 2) devemos definir num vetor perpendicular, digamos v2 =
(−2, 1) o valor A(−2, 1) = −(−2, 1). Agora, podemos utilizar o processo descrito na
Seção 1 desse capı́tulo para construir o operador linear A(x, y) = (− 25 x+ 65 y, 65 x− 75 y).
5) O polinômio caracterı́stico da identidade é p(λ) = (λ − 1)n . Todos os n autovalores
são iguais a λ = 1 e todos os vetores do Rn são autovetores associados.

103
Capı́tulo 7

Matrizes e determinantes
Aquı́ estão relacionadas as definições e propriedades utilizadas no texto. Uma ma-
triz é um objeto matemático cuja existência é independente do conceito de trans-
formação linear, embora possua uma relação estreita com elas. Também são larga-
mente utilizadas para cálculos em várias áreas do Conhecimento.

7.1 Matrizes
Uma matriz m × n com entradas entradas
reais é uma sequência de escalares [N ] =  1 
[vij ], com vij ∈ R, organizada na forma ao v1 v21 · · · vn1
 v2 v2 · · · v2 
lado. O ı́ndice j de vij indicará a linha na  1 2 n 
[N ] =  . .. ..  .
qual a entrada encontra-se e o ı́ndice i in-  . . . . 
dica a coluna. Consideramos dois tipos de v1 v2 · · · vnm
m m
j j j j
vetores, o vetor v = (v1 , v2 , ..., vn ) cujas
coordenadas são as
entradas da linha j da matriz [N ] e o vetor vi = (vi1 , vi2 , ..., vim ) formado pelas
entradas da i -ésima coluna da matriz [N ]. Utilizaremos freqüentemente a notação
para a matriz indicando suas colunas, na forma,
[N ] = [v1 , v2 , ..., vn ]
Induzimos uma estrutura de espaço vetorial no conjunto das matrizes m × n, (m
linha por n coluna) conjunto este denotado por M (m × n, R), definindo a adição de
matrizes e a multiplicação de uma matriz por um escalar, respectivamente por

 [N ] + [P ] = [v1 + w1 , ..., vi + wi , ..., vn + wn ]
,

λ[N ] = [λv1 , ..., λvi , ..., λvn ]
em que [N ] = [v1 , v2 , ..., vn ], [P ] = [w1 , w2 , ..., wn ] são matrizes m × n e λ ∈ R. O

104
7.1. MATRIZES

vetor nulo do espaço é a matriz identicamente nula, isto é, a matriz com todas as
entradas nulas. Com esta estrutura M (m × n, R) torna-se um espaço vetorial de
dimensão mn.

Definição 7.1.1 Seja [N ] = [vij ] uma matriz m × n. A matriz transposta de [N ] é


a matriz n × m denotada e definida por [N ]t = [wij ] onde wij = vji .

Dadas uma matriz m × n, [N ] = [v1 , v2 , ...vn ], e uma matriz n × r, [P ] =


[w1 , w2 , ..., wr ], utilizamos o fato dos comprimentos das colunas de [N ] ser igual ao
comprimento das linhas de [P ], para construir uma matriz m × r, [N ][P ] = [uji ],
chamada de produto de [N ] por [P ], cujas entradas são definidas pela regra (com
a simbologia de produto interno: um vetor linha da primeira com um vetor coluna
da segunda)
uji = v1j wi1 + v2j wi2 + · · · + vnj win = v j , wi .

Exercı́cio 7.1.1 Quando for possı́vel efetuar as operações, demonstre as seguintes


identidades matriciais, onde N ,P e Q são matrizes com entradas reais e λ ∈ R.
a) [N ]([P ] + [Q]) = [N ][P ] + [N ][Q]. b) ([P ] + [Q])[N ] = [P ][N ] + [Q][N ].

c) ([N ][P ])[Q] = [N ]([P ][Q]). d) (λ[N ])[P ] = λ([N ][P ]) = [N ](λ[P ]).

Solução Ilustremos a técnica de demonstração provando a). Suponhamos que


[N ] = [vij ] ∈ M (m × n, R) e que [P ] = [wij ], Q = [uji ] ∈ M (n × r, R).
Pelas definições de soma e de produto de matrizes sabemos que
[N ]([P ] + [Q]) = [dji ] onde dji = v j , vi + ui .
Desenvolvendo o último produto interno temos as igualdades
dj1 = v j , wi  + v j , ui .
No membro direito da igualdade, a primeira parcela da soma é a ji-ésima entrada
de [N ][P ] e a segunda é a ji-ésima entrada de [N ][Q]. Portanto, vale a igualdade
matricial [N ]([P ] + [Q]) = [N ][P ] + [N ][Q]. 2

Exemplo 7.1.1 Demonstremos a identidade matricial ([N ][P ])t = [P ]t [N ]t em que


[N ] = [v1 , v2 , ..., vn ] e [P ] = [w1 , w2 , ..., wr ] são matrizes m × n e n × r, respec-
tivamente. Inicialmente escrevamos [N ][P ] = [aji ] = [v j , wi ]. Por definição de
transposta, valem as relações
([N ][P ])t = [uji ] = [aij ] = [v i , wj ].
Por outro lado, calculando [P ]t [N ]t = [wj , v i ]. Donde segue a identidade. 2

105
CAPÍTULO 7. MATRIZES E DETERMINANTES

7.2 Matrizes quadradas


Uma matriz quadrada é uma matriz com o número de linhas igual ao número de
colunas. Simplificamos a notação indicando o espaço vetorial das matrizes n × n por
M (n, R). Tais espaços são mais ricos em propriedades algébricas do que os espaços
de matrizes não quadradas, a diferença fica por conta do produto de matrizes. Ao
efetuarmos um produto de dois elementos de M (n, R) obtendo uma outra matriz
neste mesmo espaço. Observamos que o produto de matrizes é não comutativo.
Além disso a forma quadrada permite destacar vários tipos especiais de matrizes,
como veremos na sequência.
A diagonal de uma matriz quadrada n × n [N ] é  1 
a subsequência formada pelas ii-ésimas entradas, v1 0 · 0
(v11 , v22 , ..., vnn ). Diremos que [N ] é uma matriz  0 v22 · 0 
[N ] =  ·
.
diagonal quando toda entrada não pertencente · · · 
à diagonal tem o valor zero. Esquematicamente 0 0 · vnn
uma matriz diagonal tem a forma ao lado.

Um tipo particular e importante de uma matriz diagonal é a matriz identidade


cujas colunas correspondem ao vetores da base canônica do Rn , [I] = [e1 , e2 , ..., en ].

Para enfatizar o tamanho n × n da matriz iden-  


1 0 · 0
tidade utilizamos uma indexação da forma [I]n .  0 1 · 0 
Um outro modo prático para indicar as entra- [I]n =  
 · · · · .
das da matriz identidade é com o uso do delta de
0 0 · 1
Kronecker, [I]n = [δij ].

Exemplo 7.2.1 A matriz identidade [I]n tem uma propriedade especial. Para
qualquer matriz quadrada n × n, N = [v1 , v2 , ..., vn ], valem as identidades matriciais
[N ][I] = [N ] = [I]n [N ]. A demonstração segue diretamente da definição de produto
de matrizes. Provaremos apenas a igualdade [N ][I] = [N ], a segunda igualdade é
feita de modo análogo. Escrevamos
[N ][I]n = [v j , ei ] = [vij ] = [N ]. 2

Definição 7.2.1 Uma matriz n × n, [N ] é invertı́vel ou não singular, se existir


uma matriz n × n, [P ] tal que [P ][N ] = [I] = [N ][P ]. Quando existe, a matriz [P ]
é chamada de inversa de [N ] e denotada por [N ]−1 . 2

Exercı́cio 7.2.1 Mostre as seguintes afirmações sobre matrizes invertı́veis.

a) Quando uma matriz quadrada tem inversa, a inversa é única.

106
7.3. DETERMINANTES

b) [N ] e [P ] invertı́veis implica que [N ][P ] é invertı́vel e ([N ][P ])−1 = [P ]−1 [N ]−1 .
c) [N ][P ] = [I] ⇔ [I] = [P ][N ]. 2

As afirmações sobre determinantes contidas nesse parágrafo estão demonstradas


na próxima seção.

Proposição 7.2.1 Uma matriz [N ] é invertı́vel se, e somente se, det[N ]


= 0.

Definição 7.2.2 Sejam [N ] e [P ] duas matrizes n×n. Diremos que [N ] é conjugada


à [P ] quando existe uma matriz n × n invertı́vel [R] tal que [P ] = [R][N ][R]−1 .

Definição 7.2.3 Diz-se que [N ], uma matriz n × n, é simétrica quando [N ]t = [N ].

7.3 Determinantes
O restante desse capı́tulo é dedicado à construção do determinante. A demonstração
da existência do determinante é indutiva e a apresentação escolhida está baseada
num elegante tratamento dado por Artin [02]. Não nos ocuparemos da unicidade.

Definição 7.3.1 Uma aplicação D : M (n, R) → R será chamada de determinante


se satisfaz as seguintes condições:

1. D[e1 , e2 , ..., en ] = 1;
2. D[v1 , ..., vi , vi+1 , ..., vn ] = 0 se vi = vi+1 para algum i;
3. D[v1 , ..., vi + λw, ..., vn ] = D[v1 , ..., vi , ..., vn ] + λD[v1 , ..., w, ...vn ].
para qualquer w ∈ Rn e qualquer λ ∈ R.

Posteriormente demonstraremos que para cada espaço M (n, R) existe uma única
aplicação satisfazendo essas três condições. Antes vejamos algumas propriedades
conhecidadas sobre o cálculo de determinantes que são consequências da definição.

Proposição 7.3.1 Suponha uma aplicação D : M (n, R) → R satisfaz as condições


da Definição determinante. Seja [N ] = [v1 , v2 , ..., vn ]. Então valem as afirmações.

1. Se algum vetor coluna é o vetor nulo então D[N ] = 0.


2. O valor D[N ] troca de sinal quando duas colunas adjacentes são permutadas.
3. Quando duas colunas de [N ] são iguais, o seu determinante é nulo.

107
CAPÍTULO 7. MATRIZES E DETERMINANTES

4. Se [P ] é uma matriz obtida somando-se a uma coluna de [N ] uma combinação


linear de outras colunas, então D[P ] = D[N ].
5. Se uma coluna de N é combinação linear de outras colunas então D(N ) = 0.

Prova 1. Se o vetor coluna é vi = o, seguem da propriedade 3 as igualdades,


D[v1 , ..., o, ..., vn ] = D[v1 , ..., o + o, ..., vn ] = 2D[v1 , ..., o, ..., vn ].
De onde obtemos que D[N ] = 0.
2. Observamos que D[v1 , ..., vi + vj , ..., vj + vi , ..., vn ] = 0 pois duas colunas são
iguais. Utilizando-se da propriedade 2 e 3, ao desenvolvermos esse determinante
obtemos apenas duas parcelas, pois as outras duas são iguais a zero,
0 = D[v1 , ..., vi , ..., vj , ..., vn ] + D[v1 , ..., vj , ..., vi , ..., vn ] = 0.
demonstrando a afirmação 2.
3. Suponha que os vetores colunas vi e vj da matriz [N ] são iguais. Com uma
sequência de transposição de colunas é possı́vel colocar essas duas colunas iguais
em posições adjacentes. Pelo item anterior, o determinante da matriz [P ] obtida
no final das transposições difere do determinante de [N ] possivelmente por sinal.
Como D[P ] = 0, então D[N ] = 0.
4. Fixemos o vetor coluna vi . Consideremos a matriz obtido ao somarmos ao vi
uma combinação linear dos outros vetores colunas com ceficientes cujos coeficientes
são a1 , ..., ai−1 , ai+1 , ..., an ∈ R,

[P ] = [v1 , ..., vi + k=i (vi + ak vk ), ..., vn ].
Avaliemos o determinante de [P ], levando-se em consideração a linearidade,

D[P ] = D[N ] + k=i ak D[v1 , ..., vk , ..., vn ].
Examinemos as parcelas do somatório. Como o vetor coluna vk que está na coluna i
é igual a uma outro vetor coluna, pelo item anterior, concluı́mos que o determinante
de cada parcela do somatório é zero, portanto, D[P ] = D[N ].
5. Vamos assumir queo vetor coluna vi da matriz [N ] é uma combinação linear
de outras colunas, vi = k=i ak vk . Para anular a i-ésima coluna basta somar uma
combinação linear conveniente das outras colunas, obtendo uma matriz [P ] cujo
determinante é igual ao determinante de [N ] e tem uma como i-ésimo vetor coluna
o vetor nulo. Logo, o determinante é zero. 2

7.4 Existência
Para construir um determinante det : M (n, R) → R necessitaremos de algumas
notações. Indicaremos por [N ]ij a matriz (n − 1) × (n − 1) obtida de [N ] = [vij ]

108
7.4. EXISTÊNCIA

 de ij-ésima
por supressão da j-ésima linha e da i-ésima coluna. Chamaremos [N ]ji
matriz reduzida de N . Reveja a definição de determinante de uma matriz 2 × 2 e
3 × 3 no capı́tulo 1.

Proposição 7.4.1 Para cada inteiro n > 0 existe uma aplicação determinante.

Prova A existência de um determinante para cada inteiro positivo n é indutiva. Já


sabemos que existem determinantes em M (2, R) e M (3, R) (veja capı́tulo 1). Vamos
supor por indução que já tenhamos mostrado a existência de um determinante em
cada espaço M (r, R), 2 ≤ r ≤ n − 1. Defina uma aplicação det : M (n, R) → R pela
regra conhecida como desenvolvimento de Laplace pela primeira coluna,
det[N ] = (−1)1+1 v11 det N 2+1 v 2 det N + · · · + (−1)n+1 v n det N .
11 + (−1) 1 
21 1 
n1
Mostremos que essa aplicação é um determinante.
1. Se [I]n = [δij ] é a matriz identidade é evidente que [I]
11 é a matriz identidade
(n − 1) × (n − 1) (δji é o delta de Kronecker). Portanto,

det[I]n = (−1)1+1 δ11 det[I] 12 + · · · + (−1)


1+2 1+n
11 + (−1) δ12 det[I] δ1n det[I]1n
.

Como δ11 = 1 e todos os outros deltas são iguais a zero, o determinante da


matriz [I]n reduz-se á det[I]n = det[I]n−1 . Logo, det In = 1, desde que por hipótese
de indução vale det In−1 = 1.
2. Suponha que dois vetores coluna da matriz [N ] sejam iguais, digamos vi =
vi+1 . Sendo assim, se k
= i as jk-ésimas matrizes reduzidas de N possuem duas
colunas iguais, implicando por hipótese de indução que

det[N ] = (−1)1+1 v11 det[N ] 12 + · · · + (−1)


1+2 1 1+n 1
11 + (−1) v2 det[N ] vn det[N ]1n

= (−1)1+i vi1 det[N ]1i + (−1)1+i+1 vi+1
1
det[N ]1(i+1)
.

A igualdade entre os vetores colunas vi = vi+1 implica na igualdade entre as entradas


vi1 = vi+1
1 e na igualdade das matrizes reduzidas [N ]1i
 = [N ]1(i+1)
 . Examinando os
sinais de (−1)1+i e (−1)1+i+1 concluı́mos que det[N ] = 0.
3. Mostremos a multilinearidade da aplicação. Dados um escalar λ ∈ R, uma
matriz quadrada [N ] = [v1 , v2 , ..., vn ] e a w ∈ Rn calculemos o determinante de
[Q] = [uji ] = [v1 , v2 , ..., vi + λw, ..., vn ].
Para isto, identifiquemos as parcelas das matrizes reduzidas de [Q]. Seja [P ] =
[o, o, ..., w, ..., o], onde o é o vetor nulo. Sendo assim, temos as matrizes
 = [N ]1k
[Q]1k  se k
= i,
 + λ[P ]1k
Q]1i
 = [N ]1i
.

109
CAPÍTULO 7. MATRIZES E DETERMINANTES

A hipótese de indução sobre a multilinearidade do determinante para matrizes (n −


1) × (n − 1) justifica as igualdades

det[Q] = (−1)1+k u1k det[Q]1k

k=1,n
 
  
1+k 1
= (−1) vk det [N ]1k  + λ[P ]1k
 + (−1)1+i (vi1 + λw1 ) det[N ]1i

 
k=i
 
 
= (−1)1+k vk1 det[N ]1k
 + λ det[v1 , ..., wi , ..., vn ]
 
k=1,n
= det[N ] + λ det[v1 , ..., vi , ..., vn ]. 2

Proposição 7.4.2 (Unicidade) Para cada inteiro n ≥ 1 só existe uma aplicação
no espaço das matrizes n × n satisfazendo as condições listadas na Definição 6.4.1.

Exemplo 7.4.1 Na demonstração da proposição de existência, definimos indutiva-


mente o determinante em cada espaço de matizes utilizando o algoritmo chamado
desenvolvimento de Laplace pela primeira linha. Mas também poderı́amos ter defi-
nido o determinante indutivamente pelo desenvolvimento de Laplace pela primeira
coluna,
det[N ] = (−1)1+1 v11 det[N ] 2+1 v 2 det[N ] +· · ·+(−1)n+1 v n det N ,
11 +(−1) 1 
21 1 
n1
pela unicidade do determinante, a aplicação é a mesma. Também poderı́amos ter
escolhido para a demonstração o desenvolvimento de Laplace pela j-ésima linha ou
i-ésima coluna. 2

7.5 Propriedades e matriz inversa


Provaremos nessa seção algumas propriedades de determinantes bastante conheci-
das e utilizadas anteriormente ao longo do texto, inclusive em demonstrações de
proposições. Iniciaremos mostrando que
Proposição 7.5.1 O determinante da transposta de uma matriz é igual
ao determinante da matriz, isto é, det[N ] = det[N ]t .

Prova A demonstração é indutiva. Verifica-se facilmente que vale a firmação para


n = 1, 2. Supondo verdadeiro para n − 1. Seja [N ] uma matriz n × n. Observe
que [N ]tij = [N ]ij , portanto, seus determinantes são iguais. Agora, calculando o
determinante de [N ]t pelo desenvolvimento de Laplace pela primeira coluna é o

110
7.5. PROPRIEDADES E MATRIZ INVERSA

mesmo que fazer o desenvolvimento de Laplace de [N ] pela primeira linha. Isso é a


demonstração da proposição. 2
Novamente, na demonstração da proposição a seguir utilizamos os mesmos ar-
gumentos, desenvolvimento de Laplace e identificação das parcelas envolvidas.
Proposição 7.5.2 O determinante do produto de matrizes é igual ao pro-
duto do determinantes, isto é, det[N ][P ] = det[N ] det[P ].

Indicamos por [N ]ji a ji -ésima matriz reduzida de [N ], isto significa que a


 é a matriz (n − 1) × (n − 1) obtida de [N ] por supressão da j−ésima
matriz [N ]ji
linha e da i-ésima coluna.
O ji-ésimo cofator da matriz quadrada N = [v1 , v2 , ..., vn ] é o número real
definido como
cji = (−1)j+i det[N ]ji
.

Tais números são as entradas de uma outra matriz, chamada de adjunta clássica de
[N ], que por definição é a matriz transposta da matriz formada pelos cofatores,
adj[N ] = [cji ]t .

Exercı́cio 7.5.1 Verifique que (adj[N ])t = adj([N ]t ). Sugestão: Observe que
[N ]tji
 = [N ]ij
. 2

A proposição a seguir descreve relações matriciais envolvendo uma matriz, sua


adjunta clássica e seu determinante, com várias e importantes consequências.

Proposição 7.5.3 adj[N ] · [N ] = (det[N ]) · [I]n = [N ] · adj[N ].

Prova Escrevamos a ki-ésima entrada do produto adj[N ] · [N ] = [dki ], onde [N ] =


[v1 , v2 , ..., vn ] e adj[N ] = [cki ]t ,

dki = ck , vi 
= (−1)1+k vi1 [N ]1k  + · · · + (−1)
2+k 2 n+k n
 + (−1) vi [N ]2k vi [N ]nk
.

Daı́ concluı́mos que se k = i, temos o valor dii = det[N ] pois o última membro é o
desenvolvimento de Laplace do determinante de [N ] pela i-ésima coluna.
Vejamos o caso k
= i. Fixemos a coluna k. Denote por
[P ] = [v1 , ..., vk−1 , vi , vk+1 , ..., vi , ..., vn ],
isto é, [P ] é a matriz obtida de [N ] substituindo-se a coluna vk pela coluna vi .
Sendo assim, valem as igualdades, det[P ] = 0 e [P ] jk
= Njk
para todo 1 ≤ j ≤ n.

111
CAPÍTULO 7. MATRIZES E DETERMINANTES

Calculemos o determinante de [P ] com o desenvolvimento pela k−ésima coluna,


recordando que vk = vi ,

0 = det[P ]
= (−1)1+k vk1 det N1k  + · · · + (−1)
2+k 2 n+k n
 + (−1) vk det N2k vk det Nnk


= (−1)1+k vi1 det N1k  + · · · + (−1)


2+k 2 n+k n
 + (−1) vi det N2k vi det Nnk

= ck , vi 
= dki .

Isso mostra que adj[N ] · [N ] é uma matriz diagonal e todas as entradas da diagonal
são iguais a det[N ], como desejávamos demonstrar.
Para provar a igualdade (det[N ]) · [I]n = [N ] · adj[N ], utilizamos o mesmo tipo
de argumento. 2

Corolário 7.5.1 Uma matriz quadrada [N ] é invertı́vel ⇔ det[N ]


= 0. Mais ainda,
se [N ] é invertı́vel então
1.) [N ]−1 = 1
det[N ] adj[N ]; 2.) det([N ]−1 ) = (det[N ])−1 .

7.6 Regra de Cramer


Coloquemos o seguinte problema: dados os vetores v1 , v2 , ...vn , w ∈ Rn , determinar
n escalares a1 , a2 , ..., an tais que
a1 v1 + a2 v2 + · · · + an vn = w.
Se escrevemos vi = (vi1 , v 2 , vi , ..., vin ) e w = (w1 , w2 , ..., wn ), a pergunta acima nos
leva a um sistema de n equações e n incógnitas (os ai ’s).
 1  1    

 v1 a1 + v21 a2 + · · · + vn1 an = w1 v1 v21 · · · vn1 a1 w1
 2  v12
v1 a1 + v22 a2 + · · · + vn2 an = w2 v22 · · · vn2   a2   w2 
, 


 ·
= 
  · .

 ··· ···
 n
v1 a1 + v2n a2 + · · · + vnn an = wn v1n v2n · · · vnn an wn
Em resumo, escrevemos [N ][a] = [w], onde [N ] = [v1 , v2 , ..., vn ] e a = (a1 , a2 , ..., an ).

Proposição 7.6.1 (Regra de Cramer) Suponha que [N ][a] = [w] é um sistema


linear n × n em R, onde [N ] = [v1 , v2 , ..., vn ]. Se det[N ]
= 0 então o sistema admite
uma única solução (a1 , a2 , ..., an ) e

det[v1 , ..., vi−1 , w, vi+1 , ...vn ]


ai = .
det[v1 , ..., vi−1 , vi , vi+1 , ..., vn ]

112
7.6. REGRA DE CRAMER

Prova Que o sistema tem solução é facil, pois o determinante sendo diferente de
zero, a matriz dos coeficientes é invertı́vel, seguindo que a solução é [a] = [N ]−1 [w].
O cálculo dos coeficientes ai ’s segue como na demonstração da regra de Cramer
feita no primeiro capı́tulo. 2

113
Índice Remissivo

A Im(A) 46
Abscissa 2 Imagem transf. linear 46 L
Ângulo entre dois vetores 36 Lei do paralelogramo 35 M
Aplicação Matriz
conceito 1 adjunta clássica 58, 61
identidade 44 canônica associada à A 48
Área de um paralelogramo 8 de uma transf. linear 48
Autoespaço 66 dos cofatores 61
Autovalor 66 invertı́veis 56
Autovetor 66 B quadrada 78
Base simétrica 71
canônica do Rn 27 transposta 70 N
ordenada 27 Norma
orotonormal 37 associada 35
positiva 30 C de um vetor 33
Combinação linear 11 N uc(A) 46
Comprimento de um seg. orientado 33 Núcleo transf. linear 46 O
Coeficientes da combinação linear 11 Operador linear
Composição 55 linear 47
Conjunto ordenado de geradores 15 simétrico 71
Conjunto simétrico negativo 73
linearmente independente 21 simético positivo 73
ortonormal 37 D transposto 70
Delta de Kronecker 37 Ordenada 2P
Desenvolv. de Laplace 88 Plano, conceito 2
Desigualdade de Cauchy-Schwarz 34 E Ponto, conceito 2
Escalar 4 Polinômio caracterı́stico 67
Espaço Produto
conceito 2 escalar 32
vetorial 4F interno 32
Fórmula de Lagrange 41 vetorial 38
Função 1H vetorial duplo 43 R
Homotetia 45 I Rn 1
Identidade Representação de um vetor 5
cı́clica 43 Reta, conceito 2S
de Apolonius 35 Segmento orientado 5
de Lagrange 43 Segunda desigualdade triangular 35
de polarização 35 Soma de transformações lineares 54
ij-ésima matriz reduzida 60 Subespaço

114
ÍNDICE REMISSIVO

trivial 10
vetorial 9
vetorial próprio 10 bf T
Transformação linear 44
identicamente nula 45
injetora 46
inversa 56
invertı́vel 56
sobrejetora 46
Teorema
espectral 71, 73
do núcleo e da imagem 52
Trac co de uma matriz 68 V
Vetor
conceito 4
normal a um subespaço 37
nulo 4
unitário 34
Vetores
ortogonais 36
perpendicluares 36
Volume de um paralelepı́pedo 9

115
Referências Bibliográficas

[01] Andrade, Plácido; Um curso de Álgebra Linear; pré-print UFC (2002).

[02] Artin, Emil; Galois theory; Notre Dame Math. Lectures n 2, (1953).

[03] Boldrini, Costa, Figueiredo & Wetzler; Álgebra Linear; (4a Ed.), Ed. Habra.

[04] Cullen, C.; Matrices and Linear Transformations; Add-Wesley Comp. (1966).

[05] dos Santos, N. M.; Vetores e Matrizes; Ao Livro Técnico S/A.

[06] Garcia, A. & Lequain, Y.; Álgebra um curso de introdução; Projeto Euclides.

[07] Halmos; Espaços vetoriais de dimensão finita; Trad. laPenha; Ed. Campos, RJ.

[08] Hoffman, K. & Kunze, R.; Linear Algebra; Prentice-Hall (1967).

[09] Lang, S.; Linear algebra; Addison-Wesley Publish. Comp. (1966).

[10] Lima, Elon Lages; Álgebra Linear (2a Ed.) IMPA; 1996.

[11] Lima, Elon Lages; A Matemática do Ensino Médio vol I, II, III. (5a Ed.) Coleção
Professor de Matemática, Sociedade Brasileira de Matemática. (2003)

[12] Serfati, M.; Exercices de Matheématiques, vol 1; Belin (1980).

[13] Steinbruch, A.& Winterle,P.; Álgebra Linear; McGraw-Hill (1987).

116

Das könnte Ihnen auch gefallen