Sie sind auf Seite 1von 73

Prontuario de

Algebra Linear e Geometria Analtica


R. Albuquerque
14 de Fevereiro de 2013
Prontuario de

Algebra Linear e Geometria Analtica


Segunda versao
Rui Albuquerque
rpa@uevora.pt
Departamento de Matematica da Universidade de

Evora
Rua Romao Ramalho, 59, 7000-671

Evora, Portugal
Introducao
Estes apontamentos serviram de guia `a disciplina

Algebra Linear e Geometria
Analtica das licenciaturas em areas da Engenharia e da Fsica da Universidade de

Evora do ano lectivo 2008/09. A materia segue a das aulas teoricas, complementada
com exemplos e problemas novos.
Percorrem-se diversos temas da algebra ligados `a geometria dos espacos vec-
toriais e das aplicacoes lineares, estruturas fundamentais da Fsica-Matematica-
Engenharia.
2
Desejamos cumprir objectivos praticos e concretos de transmissao do conheci-
mento. Todavia, queremos que estas notas contrariem, ou mesmo nao permitam, a
redu cao da materia a um punhado de receitas e a desvaloriza cao do saber teorico.
E por duas razoes: nem o conhecimento pratico sera sempre util, nem o saber
teorico ocupa assim tanto lugar, parafraseando o celebre adagio popular.
O conhecimento teorico devera ser alias o esteio de toda a formacao cientco-
tecnica de base.
Vemos a necessidade, como em qualquer outra disciplina nuclear da Matematica,
de demonstrar os teoremas e proposicoes que vamos escrevendo. Estas demon-
stracoes apoiam-se em deni coes e, naturalmente, em teoremas e proposi coes anteri-
ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeirssima
parte, como a dos conjuntos, da logica, da geometria euclidiana ou dos n umeros
naturais.
Explicada a extensao aparente do conte udo, deve o leitor acompanhar-se de uma
folha de papel e lapis para resolver algumas armacoes nao provadas aquelas
que sao apenas auxiliares de objectivos maiores ou que julgamos serao exerccios
interessantes.
Vejamos um resumo dos captulos.
Comecamos com a algebra abstracta, que tem algumas denicoes essenciais para
a parte linear da materia. Sao particularmente importantes a nocao de funcao e
a nocao de grupo, que desde cedo devem ser assimiladas. Outras denicoes neste
primeiro captulo servem apenas para ilustrar problemas com que os matematicos se
debatem, esperando que este contacto traga mais luz que permita ao leitor superar
alguns dos purismos que a teoria exige.
Segue-se o estudo das matrizes e dos sistemas de equacoes lineares, onde reina o
espa co vectorial R
n
posto que nos limitamos a coecientes reais. Para os sistemas,
invocamos princpios classicos de equivalencia ou indepedencia de equa coes. Para
levar `a compreensao da nocao de caracterstica de uma matriz e `a de indepedencia
linear de um sistema de vectores.
Neste contexto segue o captulo dos determinantes para matrizes quadradas de
coecientes em R. Apoia-se em elementos da teoria dos grupos de permutacoes.
Depois vemos as propriedades multilineares da funcao determinante, a linguagem
que permitira o aluno interessado prosseguir em Geometria-Fsica modernas.
O cerne da

Algebra Linear encontra-se no captulo quatro, com a introducao e
manuseio dos conceitos de espaco vectorial e aplicacao linear.
Mesmo em dimensao nita, em que escolhida uma base poderemos fazer a iden-
ticacao de um dado espaco vectorial com R
n
, os conceitos abstractos sao os mais
valiosos. Sao as bases e a dimensao do espa co, a partir da nocao fundamental de
sistema de vectores linearmente indepedente, sao os exemplos em dimensao innita,
e o retorno `as matrizes com o importante conceito de representacao e sao, nal-
Albuquerque, Prontu ario de

Algebra Linear e Geometria Analtica 3
mente, as transformacoes lineares entre espacos vectoriais e a procura de vectores
pr oprios, como direc coes singulares que sao, de um endomorsmo linear.
No captulo cinco mostramos aplicacoes na geometria do espaco euclidiano R
n
,
com o seu produto interno canonico: o mais elementar produto interno decorre da
generalizacao do teorema de Pitagoras.

E de notar que nesse modelo se verica o
axioma das paralelas para hiperplanos ans. Temos por isso tambem uma geometria
euclidiana no sentido axiomatico.
Apresentamos uma classicacao dos solidos platonicos, exemplo da geometria
analtica e combinatoria nao usual no contexto de cursos como este. Por muitos
considerada uma autentica maravilha da matematica, aqueles solidos poliedricos,
infelizmente, ainda sao pouco conhecidos dos estudantes. A nossa necessidade de
referir os poliedros vem de uma seccao nal, em que se dene volume como area
da base vezes altura, a qual tem m ultiplas aplicacoes e literalmente nos permite
fechar o crculo, retornando `as matrizes e aos determinantes de captulos iniciais.
Na elaboracao deste prontuario zemos uso dos manuais dos nossos mestres,
[Agu83], [Mac90] e [Mon89], e de outras gratas referencias para nos como a de
[Aud03].
Tambem beneciamos da consulta `a enciclopedia [Wik] e assim podera e devera
acontecer, acautele-se a falta de demonstra coes, com o leitor avido de mais con-
hecimento.
Conte udo
1 6
1.1 Topicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6
1.1.1 Primeiras nocoes . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Relacoes de equivalencia . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Funcoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Topicos de Estruturas Algebricas . . . . . . . . . . . . . . . . . . . 9
1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Aneis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 14
2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Primeiras denicoes . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sistemas de Equacoes Lineares . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Metodo de resolucao pela adicao ordenada . . . . . . . . . . 18
2.2.2 Condensacao de uma matriz . . . . . . . . . . . . . . . . . . 19
2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Espaco Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 O espa co vectorial R
n
ou espaco euclidiano . . . . . . . . . . 21
2.3.2 Independencia linear . . . . . . . . . . . . . . . . . . . . . . 22
2.4 A caracterstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23
2.4.1 Caracterstica de linha vs caracterstica de coluna . . . . . . 23
2.4.2 Calculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25
3 27
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Grupos de permutacoes . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Denicao de determinante . . . . . . . . . . . . . . . . . . . 29
3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29
3.1.4 Calculo de determinantes . . . . . . . . . . . . . . . . . . . . 31
3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
4
Albuquerque, Prontu ario de

Algebra Linear e Geometria Analtica 5
3.2 Regra de Laplace e aplicacoes . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Regra de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 A matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 37
4 39
4.1 Espacos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Denicoes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Bases e dimensao . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42
4.2 Aplicacoes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Denicoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Representa cao matricial . . . . . . . . . . . . . . . . . . . . 44
4.2.3 Composi cao vs produto . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Valores e vectores proprios . . . . . . . . . . . . . . . . . . . 48
4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50
5 52
5.1 Geometria do Espaco Euclidiano . . . . . . . . . . . . . . . . . . . . 52
5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52
5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.3 Subespacos ans . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Problemas metricos em subespacos ans . . . . . . . . . . . 57
5.2 Geometria de R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Equa coes de rectas e planos . . . . . . . . . . . . . . . . . . 59
5.2.2 Algumas formulas de distancias . . . . . . . . . . . . . . . . 60
5.2.3 Polgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61
5.2.4 Comprimentos, areas e volumes . . . . . . . . . . . . . . . . 65
Captulo 1
1.1 Topicos elementares da Teoria dos Conjuntos
1.1.1 Primeiras nocoes
Ami ude necessitamos de referir aquilo que se conhece como conjuntos e descrever
as suas rela coes, que se entendem como relacoes que os elementos desses conjuntos,
e de outros, satisfazem entre si.
Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x A, quere-
mos dizer que x pertence a A ou, o que e o mesmo, x e elemento de A.
Novas relacoes/nota coes: chamamos interseccao e reuniao, respectivamente,
aos conjuntos
A B = x : x A e x B, A B = x : x A ou x B. (1.1)
Ao dizermos A e subconjunto de B, em smbolos, A B, signicamos que x
A, x B.
O conjunto B A e o conjunto x : x B e x / A. Sabendo, de antemao,
o universo a que todos os elementos pertencem, podemos escrever e designar por
complementar de B o conjunto B
c
= x : x / B.
Poder-se-a pensar tambem no conjunto vazio como o complementar do uni-
verso.

E o conjunto sem elementos.
Da logica bivalente (logica natural construda ao longo da evolucao humana de
milhoes de anos), resultam as seguintes leis de Morgan:
A
c
B
c
= (A B)
c
A
c
B
c
= (A B)
c
. (1.2)
Claro que (A
c
)
c
= A, donde a segunda lei tambem resulta da primeira.
Outras construcoes importantes de conjuntos sao, por exemplo, o produto
cartesiano de A e B:
A B = (a, b) : a A, b B. (1.3)
Os novos elementos (a, b) chamam-se pares ordenados.
6
Albuquerque, Prontu ario de

Algebra Linear e Geometria Analtica 7
Note-se que nem todos os subconjuntos de A B podem ser escritos, de novo,
como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal e o caso da
diagonal de um conjunto A, ou seja, (A) = (a, a) A A : a A, a qual e
distinta de A A se A tem mais do que um elemento.
Claro que (A B) C = A C B C. E analogamente para no lugar de
.
1.1.2 Relacoes de equivalencia
Algum tipo de rela coes entre elementos de um ou varios conjuntos e particular-
mente util na conceptualizacao de novas propriedades e distincoes. Por exemplo,
a rela cao de ordem total em R esta intrnsecamente ligada aos fundamentos da
Analise Matematica.
Tratamos, neste momento, das relacoes de equivalencia, as quais decompoem
um dado conjunto X em classes de equivalencia. Lembremos que uma relacao
consiste numa determinada escolha de pares ordenados. Dizemos que uma relacao
em X e uma relacao de equivalencia se:
x X, x x (reexividade),
x X, x y y x (simetria),
x, y, z X, x y & y z x z (transitividade).
(1.4)
Claro que as tais classes de equivalencia sao dadas por um representante: C
x
=
y : y X e x y. Note-se que o papel de x e mesmo e apenas o de representante
da sua classe.

E facil ver que:
C
x
C
x
1
,= x x
1
. (1.5)
Com efeito, se y : x y e x
1
y, entao pela simetria e transitividade vem x x
1
.
E recprocamente.
Assim, neste tipo de rela coes, as classes ou nao se tocam, ou sao as mesmas.
Mais ainda, qualquer decomposicao de um dado conjunto Z como uniao de
subconjuntos nao vazios e disjuntos dois-a-dois,
Z =
_

, tal que Z

= , ,=

, (1.6)
da origem a uma unica relacao de equivalencia em Z, a saber:
x y : x, y Z

. (1.7)
O conjunto dos s, isto e, formado como o conjunto das classes de equivalencia,
denota-se por Z/ .
Albuquerque, Prontu ario de

Algebra Linear e Geometria Analtica 8
1.1.3 Funcoes
Conceito fundamental em matematica e o de fun cao, um dispositivo que estabelece
uma correspondencia entre um dado conjunto X, chamado de partida, e outro
conjunto Y , dito de chegada. Tambem se chama a uma funcao uma aplicacao.
Denota-se por
f : X Y, x X y = f(x) Y. (1.8)
Uma tal correspondencia so e uma funcao quando a cada x X, um objecto, se
atribui um, e um so, valor ou imagem y = f(x) Y .
A funcao diz-se injectiva se, para xs distintos em X, f atribui valores f(x)s
tambem distintos. Formalmente,
x
1
, x
2
X, x
1
,= x
2
=f(x
1
) ,= f(x
2
). (1.9)
Logicamente, esta armacao e equivalente a
x
1
, x
2
X, f(x
1
) = f(x
2
) =x
1
= x
2
. (1.10)
A funcao e sobrejectiva se todo o y e imagem de algum x por meio de f:
y Y, x X : y = f(x). (1.11)
A funcao e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se denir
uma funcao chamada de inversa, a saber, a funcao f
1
: Y X dada por
y Y, o valor de f
1
(y) e o unico x : f(x) = y. (1.12)
Necessitamos, com frequencia, de outras formas de obter novas funcoes.
Podemos compor duas funcoes dadas f : X Y e g : Z W, por certa ordem,
desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a
funcao composta g f : X

W denida por (g f)(x) = g(f(x)) e onde X

e o
domnio onde faz sentido essa mesma expressao, isto e,
X

= x X : f(x) Z. (1.13)
Dado um conjunto X chamamos funcao identidade a 1
X
: X X, 1
X
(x) = x.
Uma funcao f : X Y tem uma inversa `a esquerda, isto e, g : Y X tal
que g f = 1
X
se, e so se
1
, f for injectiva.
Uma fun cao f : X Y tem uma inversa `a direita, isto e, h : Y X tal
que f h = 1
Y
sse f for sobrejectiva.
As duas armacoes anteriores sao exerccios para o leitor. Delas se conclui, no
caso em que f e bijectiva, h = g = f
1
.
1
Daqui em diante, como abreviatura de se, e so se, tomamos sse. Signica o mesmo que
equivalente.
Albuquerque, Prontu ario de

Algebra Linear e Geometria Analtica 9
Uma relacao bem estabelecida entre um par de conjuntos
2
e a seguinte, denotada
:
A B sse existe fun cao bijectiva entre A e B. (1.14)
Trata-se de uma rela cao de equivalencia, como e facil provar.
Outras identicacoes se podem naturalmente estabelecer. Por exemplo, para
tres conjuntos dados, tem-se A (B C) = (A B) C.
1.2 Topicos de Estruturas Algebricas
1.2.1 Grupos
A nocao algebrica simultaneamente mais elementar e necessaria e a de grupo.
Um conjunto G munido de uma operacao binaria
GG G, (a, b) ab, (1.15)
que satisfaz
- associatividade : a, b, c G, (ab)c = a(bc),
- existe elemento neutro : e G : a G, ae = ea = a,
- todos os elementos tem inverso : a G, b G : ab = ba = e,
(1.16)
chama-se um grupo.
Prova-se facilmente que o elemento neutro e unico e que o inverso de cada
elemento tambem e unico. O truque esta, em ambos os casos, em comecar por
supor que existem dois elementos e acabar por chegar a um absurdo.
Usamos acima a notacao multiplicativa. Por vezes usa-se a aditivia. Na primeira
nota cao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na
primeira notacao, o inverso de a denota-se por a
1
, e na segunda denota-se por a
e chama-se oposto ou simetrico de a.
Exemplos:
1. (R, +) e um grupo com a operacao de adicao + usual.
2. (R 0, ) e um grupo com a operacao de multiplicacao usual.
3. Seja dado um conjunto X e seja
G := A(X) = f : X X[ f e bijectiva (1.17)
o conjunto das funcoes bijectivas de X para X. Entao G e um grupo se
tomarmos como operacao a composi cao de fun coes. Com efeito, se f, g G,
2
Evitemos desde ja o paradoxo que consiste em tomar o conjunto de todos os conjuntos.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 10
entao fg tambem esta emGporque tambeme uma funcao bijectiva. Vejamos
a associatividade: duas funcoes com o mesmo espaco de partida e de chegada
sao iguais se, a cada objecto, fazem corresponder a mesma imagem. Entao,
por denicao, tomando um terceiro elemento h G e qualquer x X,
(g f) h(x) = (g f)(h(x)) = g(f(h(x))) = g (f h) (x).
Donde (gf)h = g(f h), como queramos. Agora, o elemento neutro de G
e naturalmente a fun cao identidade 1
X
. E o inverso de f coincide exactamente
com a funcao inversa, como se esperava.
Nos grupos dos exemplos 1 e 2 acima, as operacoes, bem conhecidas, sao comu-
tativas.
Um grupo G qualquer diz-se comutativo ou abeliano se
ab = ba, a, b G. (1.18)
O exemplo 3 de ha pouco nao e comutativo em geral. Repare-se no grupo de
permutacoes de n N elementos, ou grupo simetrico S
n
, o qual consiste no
grupo A(X) com X = 1, 2, 3, . . . , n.

E simples concluir que A(X) = S
n
tem n!
elementos.
Se n 3, entao aquele grupo nao e comutativo. Basta pensar nas seguintes
funcoes (em cima estao os objectos, em baixo as respectivas imagens):
f =
_
1 2 3
1 3 2
_
, g =
_
1 2 3
2 1 3
_
, (1.19)
admitindo ainda que f, g xam todos os i 4. Resulta entao
f g =
_
1 2 3
3 1 2
_
, g f =
_
1 2 3
2 3 1
_
(1.20)
onde se rende explcita a falta de comutatividade.
Ha muitos mais grupos nao comutativos que comutativos.
Ha exemplos, como o de grupo de permuta coes, que explicam muito. Veja-se o
seguinte teorema celebre.
Teorema 1 (Cayley). Todo o grupo G e subgrupo de um grupo de permutacoes.
A nocao de subgrupo e a de um subconjunto que herda a estrutura do grupo
em que esta contido. Portanto, um subconjunto fechado para a operacao do grupo
e para a passagem ao inverso.
Vejamos a demonstracao do teorema de Cayley.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 11
Demonstracao. Com efeito, a cada g G associamos a seguinte permutacao L
g
do
pr oprio grupo G: L
g
: G G, L
g
(h) = gh. Vem entao que
L
g
1
g
2
(h) = g
1
g
2
h = L
g
1
(L
g
2
(h)) = L
g
1
L
g
2
(h), g
1
, g
2
, h G (1.21)
pelo que a estrutura da imagem de L como subgrupo de A(G),
L : G A(G), g L
g
, (1.22)
e a mesma estrutura de G, pois que L e injectiva como se podera vericar.
Note-se que a aplicacao L esta subjacente no enunciado do teorema de Cayley.
Raramente, claro, a aplicacao L e sobrejectiva.
1.2.2 Aneis e Corpos
A nocao que se segue e muito rica, ainda que dispensavel num curso de

Algebra
Linear.
Seja A um conjunto munido de duas operacoes, + e vezes , tais que
- (A, +) e grupo comutativo
- a opera cao e associativa
- dao-se as propriedades distribuitivas:
a(b + c) = ab + ac, (a + b)c = ac + bc, a, b, c A.
(1.23)
Dizemos entao que A e um anel. Se e comutativa, o anel A diz-se comutativo
ou abeliano. Se existe elemento neutro 1 da multiplicacao, o anel diz-se unitario.
(Z, +, ) e o exemplo primario. Nao menos o sao o anel dos n umeros pares,
2Z, ou os m ultiplos de 3, ou 4, etc... Os aneis kZ = kn : n Z sao todos
comutativos, mas so Z e unitario.
Outro exemplo menos trivial e o anel de funcoes R
X
, onde X e um espaco xado
de incio.
R
X
= f : X R (1.24)
tem soma e produto de funcoes bem denidos: f
1
, f
2
R
X
, f
1
+f
2
e f
1
f
2
denem-
se obviamente por
(f
1
+ f
2
)(x) = f
1
(x) + f
2
(x), (f
1
f
2
)(x) = f
1
(x)f
2
(x). (1.25)
R
X
e um anel e provara a sua utilidade mais `a frente.
Nos aneis unitarios poe-se a questao de saber quais sao os elementos invertveis
para a multiplica cao. Mais ainda, um tal anel A contem um grupo U A consti-
tudo pelos elementos invertveis. Por exemplo, o anel Z tem U = 1, 1. Ja o
anel Q tem U = Q 0.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 12

E claro que 0 nunca sera invertvel: prova-se que 0 a = 0, a A.


Um anel K comutativo, unitario e com U = K 0 chama-se um corpo.
Sao exemplos de corpos: Q, R, C.
Nos corpos vale a lei do anulamento do produto:
ab = 0 = a = 0 ou b = 0. (1.26)
Tambem so nos corpos podemos invocar em geral a lei do corte:
ax = b x = a
1
b. (1.27)
Estas leis demonstram-se com grande facilidade. Veremos em seguida que ha corpos
nitos.
Um famoso teorema de Euclides garante que, se tivermos dois n umeros inteiros
m, n, entao existem dois n umeros inteiros unicos q e r (chamados quociente e
resto) tais que
0 r n 1 e m = qn + r. (1.28)
Dizemos que r e o resto de m mod n. Se somarmos ou multiplicarmos dois m
1
, m
2

Z, temos
m
1
+ m
2
= (q
1
n + r
1
) + (q
2
n + r
2
) = (q
1
+ q
2
)n + (r
1
+ r
2
),
m
1
m
2
= (q
1
q
2
n + r
1
q
2
+ q
2
r
1
)n + r
1
r
2
(1.29)
Entao vemos que o resto da soma e do produto modn e o mesmo que o resto modn
da soma e do produto dos restos, respectivamente.

E trivial vericar agora que as operacoes de + e vezes habituais, mas com


ns fora, vericam todas as propriedades de anel, pois elas provem das respectivas
propriedades do anel dos inteiros. Assim, prova-se o
Teorema 2. O conjunto dos restos Z
n
= 0, 1, . . . , n 1 e um anel com a soma
e o produto acima.
Da-se a Z
n
o nome de anel dos restos modn.
Por exemplo, o anel Z
5
tem as seguintes tabelas de operacoes:
+ 0 1 2 3 4
0 0 1 2 3 4
1 1 2 3 4 0
2 2 3 4 0 1
3 3 4 0 1 2
4 4 0 1 2 3
0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
(1.30)
Curiosamente, ve-se que x
2
= 3 nao tem solu coes mod 5, ou seja em Z
5
. Ha entao
lugar para um estudo de novo tipo de equacoes algebricas.
Um resultado importante nesta teoria naliza o nosso captulo.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 13
Teorema 3. Z
n
e corpo sse n e n umero primo.
Demonstracao. Suponhamos que Z
n
e corpo e que ab = n, com 1 < a, b < n. Mas
isto e o mesmo que ab = 0 mod n e entao, valendo a lei do corte, resulta a = 0 ou
b = 0, o que e absurdo. Assim, n nao tem divisores proprios, ie. e primo.
Suponhamos recprocamente que n e primo. Entao para cada a Z0 ha sempre
solucoes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo
de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n).
Obviamente, em Z
n
temos ax + ny = ax = 1 modn, pelo que todos os elementos
a Z
n
0 tem inverso. E estao vericadas as condicoes para termos um corpo.
Captulo 2
2.1 Matrizes
2.1.1 Primeiras denicoes
Damos o nome de matriz a uma tabela A = [a
ij
]
i=1,...,p
j=1,...,q
com entradas ou coe-
cientes
1
a
ij
R.
O ndice p e o n umero de linhas e q o de colunas. Denotamos
A =
_

_
a
11
a
12
a
1q
a
21
a
22
a
2q
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pq
_

_
. (2.1)
p e q sao as dimensoes da matriz A. Faz jeito chamar
/
p,q
= A : A e uma matriz de p linhas e q colunas. (2.2)
O interesse das matrizes esta, como veremos mais tarde, na representacao das
aplicacoes lineares que elas possibilitam.
A estrutura de grupo de (R, +) passa automaticamente para /
pq
. Dadas quais-
quer matrizes A, B /
pq
, sendo A = [a
ij
] e B = [b
ij
], i = 1, . . . , p, j = 1, . . . , q,
temos por denicao
A + B = [a
ij
+ b
ij
], (2.3)
permanecendo em /
pq
.
Se R, entao denotamos por A a matriz [a
ij
], com as mesmas dimensoes.
Em seguida denimos a multiplicacao de duas matrizes. Tambem aqui ha
uma condi cao nos ndices. Esta operacao tem uma ordem. Logo pomos uma matriz
`a esquerda e outra `a direita, como um par ordenado, e a condicao e que, para as
multiplicarmos, a da esquerda deve ter n umero de colunas igual ao n umero de linhas
da da direita.
1
Poderamos deixar estes a
ij
pertencerem a um corpo K ou mesmo um anel qualquer previa-
mente xado, mas aqui prosseguimos apenas com matrizes reais.
14
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 15
Assim
/
pq
/
ql
/
pl
(A, B) AB.
(2.4)
Atente-se bem no espaco de chegada, aquele onde aparece o resultado. O produto
M = AB dene-se entao como segue: pondo M = [
ij
]
i=1,...,p
j=1,...,l
, temos

ij
= a
i1
b
1j
+ + a
iq
b
qj
=
q

k=1
a
ik
b
kj
. (2.5)
Prova-se facilmente que esta multiplicacao e associativa: se A, B sao como acima
e C M
lr
, entao estamos habilitados a fazer tanto (AB)C como A(BC). Com
alguma surpresa, tem-se entao
(AB)C = A(BC). (2.6)
Com efeito, sendo M = AB = [
st
]
s=1,...,p
t=1,...,l
e BC = [
uv
]
u=1,...,l
v=1,...,r
, o elemento generico
de ndice (s, v) do produto do lado esquerdo de (2.6) e igual a
l

t=1

st
c
tv
=
l

t=1
q

k=1
(a
sk
b
kt
)c
tv
=
q

k=1
l

t=1
a
sk
(b
kt
c
tv
) =
q

k=1
a
sk

kv
. (2.7)
Usamos a associatividade e distributividade dos n umeros reais para reagrupar as
parcelas. O resultado a que se chegou representa o elemento generico de ndice
(s, v) do produto do lado direito de (2.6), ou seja A(BC).
Outra propriedade valida e a distributividade `a esquerda e `a direita: se A, B
/
pq
e C, D /
ql
, entao
A(C + D) = AC + AD
(A + B)C = AC + BC.
(2.8)
Note que as igualdades fazem sentido no computo das dimensoes das matrizes. A
demonstracao daquelas igualdades e trivial.
Exemplos:
_
2 3 1
2 0 1
_
_

_
4 5 3
1 2 5
2 4 0
_

_
=
_
13 20 21
6 6 6
_
, (2.9)
_
2 3 4
_
_

_
2
3
1
_

_
= 9,
_

_
2
3
1
_

_
_
2 3 4
_
=
_

_
4 6 8
6 9 12
2 3 4
_

_
. (2.10)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 16
Como se ve, as matrizes nao permutam no produto. Dizemos que duas matrizes
dadas A e B permutam ou comutam se AB = BA. Isso nao acontece em geral,
mesmo se forem quadradas.

E importante notar que /


pp
, chamado o espaco das matrizes quadradas, e
uma anel com a soma e produto introduzidos, pois tal espaco e fechado para o
produto. O ndice de linhas p igual ao ndice de colunas tambem se diz a ordem
de cada matriz quadrada.
Repare-se agora que, para qualquer matriz A /
pq
,
_

_
1 0 0
0 1 0
.
.
.
0
0 0 1
_

_
_

_
a
11
a
1q
.
.
.
a
p1
a
pq
_

_
=
_

_
a
11
a
1q
.
.
.
a
p1
a
pq
_

_
, (2.11)
_

_
a
11
a
1q
.
.
.
a
p1
a
pq
_

_
_

_
1 0 0
0 1 0
.
.
.
0
0 0 1
_

_
=
_

_
a
11
a
1q
.
.
.
a
p1
a
pq
_

_
. (2.12)
Uma matriz quadrada D = [d
ij
] de ordem p diz-se diagonal se d
ij
= 0, i ,= j.
Chamamos matriz identidade, e denotamo-la por 1
p
, `a matriz diagonal que tem
d
ii
= 1, i = 1, . . . , p.
As formulas (2.11,2.12) reescrevem-se portanto como
1
p
A = A e A1
q
= A. (2.13)
No caso das matrizes quadradas temos, em particular, um elemento neutro da
multiplicacao. Destaca-se assim o
Teorema 4. O espa co das matrizes quadradas /
pp
e um anel unitario.
Neste espaco nem sequer se da a lei do anulamento do produto. Veja-se o caso:
_
0 1
0 0
__
1 0
0 0
_
=
_
0 0
0 0
_
. (2.14)
2.1.2 Matrizes especiais

E claro que o espaco das matrizes /


m,n
, como tabelas de n umeros reais, se identica
com R
mn
. O leitor podera identicar neste grande espaco mais do que um simples
produto cartesiano. Ha uma estrutura de espaco vectorial o que sera trivial de
vericar quando explicarmos do que tal se trata.
Uma matriz A /
mn
diz-se invertvel `a esquerda se existe B /
nm
tal
que BA = 1
n
.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 17
Uma matriz A /
mn
diz-se invertvel `a direita se existe C /
nm
tal que
AC = 1
m
.
Uma matriz diz-se invertvel se o for `a esquerda e `a direita. Neste caso prova-se
facilmente que B = C e que a matriz A tem de ser quadrada
2
, n = m. A matriz
unica B = C denota-se por A
1
:
AA
1
= A
1
A = 1
n
. (2.15)
Com efeito, o inverso, quando existe, e unico. Aqui poderamos falar do grupo das
matrizes invertveis.
Em particular tem-se a regra de inversao do produto:
A, B /
nn
invertveis = (AB)
1
= B
1
A
1
. (2.16)
Outro tipo de matrizes especiais sao as triangulares superiores:
T = [t
ij
]
i=1,...,m
j=1,...,n
, com t
ij
= 0, j < i. (2.17)
Ou seja, T /
mn
tem as entradas todas nulas abaixo da diagonal principal (a
diagonal principal de uma matriz P = [p
ij
] designa os n umeros p
ii
).
Tambem se denem matrizes triangulares inferiores: t
ij
= 0, i < j.
2.1.3 Transposta
Dada uma matriz A /
mn
, denimos a transposta de A = [a
ij
]
i=1,...,m
j=1,...,n
como a
matriz A
T
/
nm
dada por A
T
= [a
T
ji
]
j=1,...,n
i=1,...,m
onde
a
T
ji
= a
ij
. (2.18)
Prova-se com facilidade que a passagem `a transposta do produto verica:
A /
mn
, B /
np
= (AB)
T
= B
T
A
T
. (2.19)
Claro que (A
T
)
T
= A para qualquer matriz A.
Se A e invertvel, entao prova-se facilmente que (A
1
)
T
= (A
T
)
1
.
Agora, uma matriz diz-se simetrica se A = A
T
. Uma matriz diz-se anti-
simetrica se A = A
T
.
O primeiro contributo destas nocoes esta na possibilidade de escrever qualquer
matriz quadrada C /
mm
como a soma de uma matriz simetrica e de uma anti-
simetrica. Essa decomposicao de C esta em
C =
1
2
_
C + C
T
_
+
1
2
_
C C
T
_
, (2.20)
como o leitor vericara.
2
Para ver que n = m, sendo AB = 1
m
e BA = 1
n
, atente-se a m =

i,j
a
i,j
b
i,j
= n, o calculo
do traco.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 18
2.2 Sistemas de Equacoes Lineares
2.2.1 Metodo de resolucao pela adicao ordenada
Vamos agora estudar os sistemas de m equacoes lineares, isto e, do 1
o
grau, a n
incognitas. Comecemos com um exemplo (m, n) = (2, 3) e sua resolucao.
_
2x + 3y z = 0
x + 4y = 2z
(2.21)
e um sistema possvel indeterminado, o qual se resolve pelo metodo de substituicao
como
_
2x + 3y = z
x + 4y = 4x 6y
_
5x = 10y
_
z = y
x = 2y
(2.22)
donde, para cada y R, ha uma solucao (x, y, z) = (2y, y, y).
Outro metodo, chamado de adicao ordenada, permite resolver o sistema de
forma mais rapida.
Utilizando os princpios elementares de equivalencia de equa coes, percebemos
que se obtem um sistema equivalente a (2.21) se multiplicarmos a segunda equacao,
em ambos os termos, por 2. E o mesmo acontece se adicionarmos ordenadamente
esse resultado `a 1
a
equacao. Estamos, por hipotese, a adicionar a mesma quantidade
a ambos os termos, pelo que o novo sistema permanece equivalente.
Conseguimos anular os 2x na 1
a
equacao.
Fazendo ao mesmo tempo o mesmo para a equacao de baixo, usando a de cima
multiplicada por 2 para anular o z, obtem-se:
_
2x + 3y z = 0
x + 4y + 2z = 0
_
5y 5z = 0
5x + 10y = 0
_
z = y
x = 2y
. (2.23)
Claro que as operacoes escolhidas foram as que mais rapidamente permitiram anular
alguma variavel. Este metodo tem por isso as suas vantagens sobre o primeiro
3
.
Vejamos outro exemplo:
_

_
4x + y + z = 0
8x + z = 0
4x y = 0
_

_
4x + y + z = 0
2y z = 0
2y z = 0
_

_
4x + y + z = 0
2y z = 0
0 = 0
, (2.24)
e um sistema possvel e indeterminado. E outro exemplo:
_
4x + y = ...
4x y = ...
_
8x = ...
2y = ...
. (2.25)
3
Nao e proposito de um curso de ALGA a procura do melhor algoritmo de resolucao de sistemas.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 19
Neste caso, quaisquer que sejam os valores nas reticencias iniciais, o sistema e
sempre possvel e determinado. Mas nem sempre e assim. Considere-se o sistema
em x, y:
_
4x + y = c
8x + 2y = d
_
4x + y = c
0 = d 2c
(2.26)
Aqui ha claramente duas hipoteses: o sistema e possvel indeterminado se d = 2c,
e impossvel no caso contrario. De qualquer forma o estudo das equacoes indepen-
dentes parte dos coecientes do lado esquerdo.
2.2.2 Condensacao de uma matriz
Em geral, um sistema de m equacoes a n incognitas aparece como
_

_
a
11
x
1
+ + a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+ + a
mn
x
n
= b
m
. (2.27)
Claramente podemos escrever (2.27) em termos matriciais:
_

_
a
11
a
1n
.
.
.
a
m1
a
mn
_

_
_

_
x
1
.
.
.
x
n
_

_
=
_

_
b
1
.
.
.
b
m
_

_
(2.28)
e logo sucintamente como
AX = B (2.29)
onde A, X, B tem correspondencia obvia com as matrizes anteriores.
Nunca esquecendo a posicao de cada incognita x
i
, i = 1, . . . , n, podemos fazer as
adicoes ordenadas sobre as linhas da matriz ampliada [A[B], de um dado sistema,
para o resolver.
Suponhamos, por exemplo, que nos sao dadas as equacoes
_

_
x y + z = 0,
x + 3y = 1,
z = 3x + 1 +y
. (2.30)
Entao a matriz ampliada, seguida da multiplicacao e adicao ordenada, resulta em
_

_
1 1 1 [ 0
1 3 0 [ 1
3 1 1 [ 1
_

_
L
2
L
1
, L
3
3L
1

_
1 1 1 [ 0
0 4 1 [ 1
0 2 2 [ 1
_

_
L
2
2L
3
, L
2
L
3

_
1 1 1 [ 0
0 2 2 [ 1
0 0 3 [ 1
_

_
L
1
+
1
2
L
2
, 3L
2
+2L
3

_
1 0 0 [
1
2
0 6 0 [ 1
0 0 3 [ 1
_

_
.
(2.31)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 20
O sistema esta resolvido, x =
1
2
, y =
1
6
, z =
1
3
. Neste caso, a matriz Ae quadrada,
pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solucao
X = A
1
B.
Ao metodo anteriormente descrito de resolu cao de um sistema da-se o nome de
metodo de Gauss.
Os exemplos acima mostram o uso da condensacao sobre linhas (ou colunas)
de uma matriz, ou seja a adicao e multiplicacao por escalar das linhas (ou colunas)
de uma matriz.
A condensacao sobre as linhas consiste em:
troca de linhas (para obter elementos nao nulos na diagonal principal ou
simplesmente para simplicar calculos)
multiplicacao de uma linha por um escalar nao nulo
substituicao de uma linha por si propria adicionada de um m ultiplo nao nulo
de outra linha
desenvolver este processo de forma ordenada com vista a encontrar uma matriz
triangular superior.
Tambem se podem escrever as mesmas regras para a condensacao sobre as col-
unas (a qual nao pode ser feita na resolucao de sistemas, pois estaramos a juntar
coecientes de incognitas diferentes).
2.2.3 Estudo dos sistemas
Dado o sistema (2.29), e imediato concluir que chegamos sempre a um sistema
equivalente do tipo:
_

11

12

1r

1n
[
1
0
22
[
0 0
.
.
.
[
0 0
rr

rn
[
r
.
.
.
0
.
.
.
0 [
.
.
.
0 0 0 0 [
m
_

_
(2.32)
com r m, n e os
ii
,= 0, i = 1, . . . , r.
Os s resultam da condensacao sobre linhas de A e os s resultam das corre-
spondentes transformacoes sobre B.
O ndice r e o n umero de equacoes independentes. Chama-se caracterstica
de linha de A. Se para algum i > r, tivermos
i
,= 0, entao ha mais equacoes
independentes na matriz ampliada A[B que em A e o sistema e impossvel. Recp-
rocamente, de qualquer sistema impossvel se retira a mesma condicao.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 21
Agora, das primeiras r linhas, ve-se bem que o sistema e possvel determinado
sse r = n; ou seja, indeterminado sse r < n. A n r da-se o nome de grau de
indeterminacao do sistema (este grau e tambem a dimensao do espaco de solucoes
do sistema
4
).
Em resumo, pondo r(A) =n umero de linhas independentes, temos o seguinte
quadro.
r(A) = r(A[B) r(A) < r(A[B)
sistema possvel s. impossvel
determinado indeterminado
r(A) = n r(A) < n
sem solucoes
(2.33)
2.3 Espaco Euclidiano
2.3.1 O espaco vectorial R
n
ou espaco euclidiano
Temos vindo a considerar as linhas de uma dada matriz e a falar da dependencia
linear de um conjunto de linhas. Convem entao considerar o espaco /
1,n
de tais
linhas (com n colunas) e dar-lhe o destaque que merece.
Damos o nome de espaco euclidiano ao produto cartesiano R
n
= R R
(com n factores). Tambem se diz por vezes o espaco cartesiano R
n
. Os seus
elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c
1
, . . . , c
n
),
portanto com c
i
R.
A adicao de vectores e a multiplicacao de um vector por um escalar devolvem-nos
um novo vector (essas operacoes sao as mesmas do espa co de matrizes acima):
(c
1
, . . . , c
n
) + (d
1
, . . . , d
n
) = (c
1
+ d
1
, . . . , c
n
+ d
n
),
(c
1
, . . . , c
n
) = (c
1
, . . . , c
n
)
(2.34)
c
i
, d
i
, R, i = 1, . . . , n.
Repare-se agora que uma matriz A /
mn
induz uma funcao ou aplicacao
A : R
n
R
m
, X AX (2.35)
Esta aplicacao tem a propriedade de ser linear
5
:
A(X + Y ) = AX + AY, X, Y R
n
, , R. (2.36)
Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a
estas questoes mais tarde.
4
Isto fara sentido apos a verica cao de que o conjunto de solucoes forma um subespaco am.
5
As fun coes lineares tomam o nome de aplicacoes lineares.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 22
2.3.2 Independencia linear
Vimos no estudo dos sitemas de equacoes lineares a necessidade de fazer anular
linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade da lugar a
um conceito em R
n
.
Dizemos que um conjunto (ou um sistema) de m vectores do espaco euclidiano
R
n
, ou seja, L
1
, . . . , L
m
R
n
, e um conjunto de vectores linearmente depen-
dentes se podemos escrever um deles como combinacao linear dos restantes, isto
e, se existe um ndice i
0
e existem escalares
1
, . . . ,
i
0
1
,
i
0
+1
, . . . ,
m
R tais
que
L
i
0
=
1
L
1
+ +
i
0
1
L
i
0
1
+
i
0
+1
L
i
0
+1
+ +
m
L
m
. (2.37)
Repare-se que passando L
i
0
para o lado direito de (2.37) obtemos o vector nulo
0 escrito como combinacao linear nao nula de todos os L
1
, . . . , L
m
.
Uma forma mais simples de dizer o que e a dependencia linear sera pela negativa:
dizemos que m vectores dados L
1
, . . . , L
m
sao linearmente independentes se se
verica a condicao:

1
L
1
+ +
m
L
m
= 0 =
1
= =
m
= 0. (2.38)

E um simples problema logico provar que um conjunto de vectores e linearmente


independente sse nao e linearmente dependente.
Exemplos:
1. Um vector L
1
isolado e linearmente independente sse L
1
,= 0. Com efeito, so
nesse caso garantimos que
1
L
1
= 0 implica
1
= 0.
2. Os vectores (2, 3), (3, 4) sao linearmente independentes. Com efeito,

1
(2, 3) +
2
(3, 4) = 0
_
2
1
+ 3
2
= 0
3
1
+ 4
2
= 0

_

1
= 0

2
= 0
. (2.39)
3. Se o vector nulo esta entre os vectores L
1
, . . . , L
m
, entao este conjunto e
linearmente dependente. De facto, podemos escrever 0 como combina cao
linear dos restantes vectores. Basta fazer a combinacao linear com os escalares
nulos.
4. Num dado subconjunto de R
n
, o n umero maximo de vectores linearmente
independentes que ele podera conter e n.
O exemplo 4 e muito elucidativo. Dito de outra forma: emR
n
quaisquer vectores
L
1
, . . . , L
n
, L
n+1
sao linearmente dependentes.
Com efeito, procurando escrever 0 como combinacao linear daqueles, ou seja,

1
L
1
+ +
n
L
n
+
n+1
L
n+1
= 0, (2.40)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 23
escrevemos o sistema
_

1
l
11
+ +
n
l
n1
+
n+1
l
n+1,1
= 0
.
.
.

1
l
1n
+ +
n
l
nn
+
n+1
l
n+1,n
= 0
(2.41)
onde L
i
= (l
i1
, . . . , l
in
). Como sabemos, tal sistema e sempre possvel indetermi-
nado. Existem entao solucoes
1
, . . . ,
n+1
nao nulas, como queramos.
2.4 A caracterstica e a inversa de novo
2.4.1 Caracterstica de linha vs caracterstica de coluna
Seja M /
mn
uma matriz qualquer. Chamamos caracterstica de linha de
M, denotada r
l
, ao n umero maximo de linhas linearmente independentes que M
contem. Ja nos referimos a esta denicao em seccao anterior.
Chamamos caracterstica de coluna de M, denotada r
c
, ao n umero maximo
de colunas linearmente independentes que M contem.
Dissemos anteriormente como obter r
l
: efectuando uma condensacao da matriz
de modo a fazer aparecer a matriz de aspecto simples (2.32) evidentemente,
aqui, sem a parte ampliada. Mas e claro que ha muitos caminhos desde a matriz
inicial M ate aquela forma canonica (2.32), pelo que se poderia perguntar se r
l
nao
depende da escolha do caminho.
Vemos que tal deni cao e intrnseca, independente da condensacao sobre linhas,
tal como se exprimiu acima: se M tem linhas L
1
, . . . , L
m
e fazemos uma troca de
L
i
por L
i
+ L
j
, R, vemos que

1
L
1
+ +
i
L
i
+ +
j
L
j
+ +
m
L
m
= 0 (2.42)
tem solucoes nao nulas sse

1
L
1
+ +

i
(L
i
+ L
j
) + +

j
L
j
+ +

m
L
m
= 0 (2.43)
tem solucoes nao nulas. So temos de fazer a transformacao
j
=

i
+

j
.
6
O proximo teorema arma que a caracterstica de linha e igual `a caracterstica
de coluna. A primeira parte da demonstracao assenta na prova de que nao se altera
r
l
a cada passo para achar r
c
.
Teorema 5. Em qualquer matriz, r
l
= r
c
.
6
Como dissemos em 2.2.3, os sistemas de equacoes lineares (independentes ou nao), apos con-
densacao, mantem-se equivalentes (em particular, com o mesmo n umero de equacoes indepen-
dentes). Poderamos passar a falar em sistemas de vectores.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 24
Demonstracao. Suponha-se
M =
_

_
L
1
.
.
.
L
m
_

_
=
_

_
l
11
l
1n
.
.
.
l
m1
l
mn
_

_
=
_
C
1
C
n
_
. (2.44)
A dependencia das linhas estuda-se pelo sistema em s,

1
l
1j
+ + +
m
l
mj
= 0, j

= 1, . . . n. (2.45)
Agora, o passo mais geral da condensacao sobre colunas sera a troca C
i
C
j
seguida de C
i
C
i
+ C
j
, para certos i, j e R, levando-nos para a matriz
M =
_

_
l
11
l
1j
l
1i
+ l
1j
l
1n
.
.
.
.
.
.
l
m1
l
mj
l
mi
+ l
mj
l
mn
_

_
. (2.46)
O respectivo sistema de equacoes sera o mesmo que o anterior excepto para j

= j, i:
_

1
l
1j
+ +
m
l
mj
= 0

1
(l
1i
+ l
1j
) + +
m
(l
mi
+ l
mj
) = 0

(2.47)
Mas e evidente, rearrumando os termos e pondo em evidencia, que este sistema
e equivalente a (2.45).
Agora, tal como em 2.2.3, fazendo uma condensa cao por colunas de forma or-
denada, chegaremos a uma matriz de aspecto
_

11
0 0 0 0

21

22
0 0
.
.
.
0
.
.
.
.
.
.

r
c
r
c
0 0
.
.
.
.
.
.
.
.
.

m1

mr
c
0 0
_

_
(2.48)
com os
kk
,= 0, 1 k r
c
. Como nunca se alterou r
l
desde M e agora ja e facil
descobrir a caracterstica de linha, fazendo por anular tudo o que esta abaixo da
diagonal principal de (2.48), deduz-se entao que r
c
= r
l
, como queramos demon-
strar.
Exemplo:
_

_
1 0 3
2 1 2
2 0 6
_

_
L
3
2L
1
, C
1
2C
2

_
1 0 3
0 1 2
0 0 0
_

_
C
3
3C
1
2C
2

_
1 0 0
0 1 0
0 0 0
_

_
(2.49)
e a caracterstica r = r
c
= r
l
neste caso e 2.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 25
2.4.2 Calculo da inversa
Vamos agora estabelecer um metodo para encontrar a inversa de uma matriz quadrada
A /
n,n
, supondo que existe.
Repare-se que escrevendo o vector-coluna
V
i
0
=
_
0 0 1 0 0
_
T
(2.50)
(1 no lugar i
0
e 0 em todas as outras entradas), vem
BV
i
0
=
_

_
b
1i
0
.
.
.
b
ni
0
_

_
(2.51)
para qualquer matriz quadrada B = [b
st
].
Para encontrar A
1
temos de encontrar os n vectores-coluna X
i
tais que AX
i
=
V
i
. Pois da vira
A
_
X
1
X
n
_
=
_
V
1
V
n
_
= 1
n
. (2.52)
Note-se em particular que A : R
n
R
n
induz, no sentido de (2.35), uma
aplicacao bijectiva (tem uma inversa
7
) sse a matriz A e invertvel. Por sua vez,
cada sistema AX = V
i
e possvel e determinado sse r(A) = n. Esta entao provado
o
Teorema 6. Uma matriz quadrada A /
n
e invertvel sse r(A) = n.
Agora, os X
i
, 1 i n, encontrados acima serao as colunas de A
1
. Pelo
metodo de condensa cao sobre linhas, aplicado simultaneamente na resolucao dos n
sistemas de n equacoes a n incognitas, podemos dar como certo o seguinte algoritmo
para determinar a matriz inversa de A:
_
A [ 1
n
_
(condensa cao)
_
1
n
[ A
1
_
. (2.53)
Exemplo:
1. Para encontrar a inversa de
_
0 5
5 3
_
fazemos
_
0 5 [ 1 0
5 3 [ 0 1
_

_
5 3 [ 0 1
0 5 [ 1 0
_

_
1
3
5
[ 0
1
5
0 1 [
1
5
0
_

_
1 0 [
3
25

1
5
0 1 [
1
5
0
_
.
(2.54)
7
Convem aqui notar que a inversa de uma aplicac ao linear bijectiva e ainda uma aplicacao
linear.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 26
A vericacao e imediata:
_
0 5
5 3
__
3
25

1
5
1
5
0
_
=
_
1 0
0 1
_
. (2.55)
Captulo 3
3.1 Determinantes
3.1.1 Grupos de permutacoes
Consideremos de novo o grupo de permutacoes S
n
de n objectos, recorde-se, um
grupo com n! elementos.
Um tipo particular de permutacoes sao os ciclos. Um ciclo S
n
e uma
permutacao denotada (a
1
a
2
a
k
), com os a
i
1, . . . , n todos diferentes, que
obedece a
a
1
a
2
a
3
a
k
a
1
(3.1)
e que deixa todos os outros elementos, nao referidos, no mesmo lugar.
O natural k e a ordem do ciclo.
Como exemplos, em S
4
, temos
(143) = (431) = (314) =
_
1 2 3 4
4 2 1 3
_
,
(123) (341) = (234) = (34)(24).
(3.2)
Note-se que a funcao composta se le da direita para a esquerda e que, como e usual,
deixamos car o sinal .
`
A funcao composta tambem se chama produto.
A permuta cao inversa de um ciclo escreve-se facilmente. Em particular, as
chamadas transposicoes (ij), ou seja ciclos de ordem 2, vericam (ij)
1
= (ij) =
(ji).
Agora, cada permutacao e um produto de ciclos. Para o vermos comecamos
por construir o ciclo (1 (1) ((1))
k
1
1
(1)). Concerteza que havera um m,
de tal forma que (
k
1
1
(1)) = 1, pois nao se repete nunca e n e nito. A
seguir procuramos o primeiro elemento i
0
1, . . . , n que nao esta entre os
i
(1) e
construimos o ciclo (i
0
(i
0
) ((i
0
))
k
2
1
(i
0
)). Pelas razoes anteriores, o ciclo e
nito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos
de parar porque se esgotam os n umeros. Obtemos nalmente a permutacao dada
27
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 28
como um produto de ciclos, que ate comutam entre si pois nao tem elementos
comuns.

E quase tao convincente ver um exemplo:


=
_
1 2 3 4 5 6 7 8
6 5 2 1 3 7 4 8
_
= (1674)(253). (3.3)
Mais ainda, cada permutacao e produto de transposicoes, pois cada ciclo o e:
(a
1
a
2
a
k
) = (a
k
a
k1
)(a
k
a
k2
) (a
k
a
2
)(a
k
a
1
). (3.4)
Fazemos agora a seguinte arma cao: a permutacao identidade e sempre o pro-
duto de um n umero par de transposicoes: (1) = (ij)(ij). A demonstracao deste
facto, so aparentemente obvio, e um problema de ordem e combinatoria que deix-
amos ao leitor para sua pesquisa, [Gro83].
Agora se uma mesma permutacao se decompoe, uma vez, num n umero l
1
de
transposicoes e, noutra vez, num n umero l
2
de transposicoes, entao l
1
+ l
2
e par.
Equivale a passar, nessa igualdade de decomposicoes, todas as transposicoes para
um lado, cando a identidade no outro. Em particular, l
1
e par sse l
2
e par. Com
efeito, apenas dois pares, ou dois mpares, somam um par. Em resumo, temos o
Teorema 7. Toda a permutacao S
n
e produto de transposicoes.
A paridade do n umero de transposicoes de qualquer decomposicao de num
produto de transposicoes e um invariante de .
Este teorema permite-nos denir rigorosamente o sinal de uma permutacao .
Trata-se do valor +1 ou 1, conforme o invariante indicado acima. Ou seja,
sg() = (1)

(3.5)
onde
= n umero de transposicoes numa decomposicao de . (3.6)
A conhecida regra dos sinais prova de imediato o seguinte
Teorema 8 (Bezout). Para quaisquer permutacoes , S
n
,
sg() = sg()sg(). (3.7)
Em particular, sg() = sg(
1
).
Para aplica coes futuras, com argumentos de tipo indutivo, convem reparar que
podemos escrever a uniao de subconjuntos disjuntos
S
n
= S

1
S

2
S

n
(3.8)
onde
S

i
= : (1) = i. (3.9)
Cada um destes subconjuntos, grosso modo, identica-se com S
n1
. Para deduzir
tal identicacao, so temos de xar nova numera cao dos objectos, suprimindo o 1 no
espa co de partida e o i no espa co de chegada.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 29
3.1.2 Denicao de determinante
Voltemos agora `as matrizes. Dene-se determinante de uma matriz quadrada
A = [a
ij
] /
n,n
como sendo o n umero real
det A =

S
n
sg()a
1
1
a
2
2
a
n
n
. (3.10)
A nota cao refere
i
= (i).
Vemos que aquele e um somatorio com n! parcelas. De cada linha i apenas se
escolhe um a
i
i
, em cada parcela.
A notacao [A[ = det A e tambem usual.
Por exemplo, para n = 2, temos

a b
c d

= ad cb. (3.11)
A deducao da chamada regra de Sarrus e da respectiva regra mnemonica para
o determinante de ordem 3 e um bom exerccio para o leitor:

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+ a
31
a
12
a
23
+ a
13
a
21
a
32
a
13
a
22
a
31
a
11
a
23
a
32
a
12
a
21
a
33
.
(3.12)
3.1.3 Propriedades do determinante
Suponhamos que e dada a matriz A tal como acima.
Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo
ndice de coluna, que sg() = sg(
1
) e que o somatorio sobre os S
n
e o mesmo
que o somatorio sobre os seus inversos, resulta
det A =

S
n
sg()a

1
1
1
a

1
2
2
a

1
n
n
=

1
=S
n
sg()a

1
1
a

2
2
a

n
n
=

S
n
sg()a
T
1
1
a
T
2
2
a
T
n
n
= det A
T
.
(3.13)
Provamos o
Teorema 9. Para qualquer matriz A, tem-se det A = det A
T
.
Esta e a primeira das principais propriedades do determinante. Em sua virtude,
daqui em diante tudo o que se diga sobre as linhas tera um equivalente sobre as
colunas.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 30
Agora, uma pequena alteracao nas linhas de A podemos cometer sem muito
perturbar o seu determinante.
Sejam 1 i ,= j n. Se trocarmos as linhas i e j de A uma pela outra,
aparece-nos a matriz

A, e da decorrem as seguintes igualdades:
det

A =

S
n
sg()a
1
1
a
j
i
a
i
j
a
n
n
=

S
n
sg((ij))a
1
1
a
j
j
a
i
i
a
n
n
= sg((ij))

S
n
sg()a
1
1
a
n
n
= det A.
(3.14)
Em particular, se as linhas i e j forem iguais, ou seja A =

A, entao
det A = 0. (3.15)
Escrevendo agora
A =
_

_
a
11
a
1n
.
.
.
a
n1
a
nn
_

_
=
_

_
L
1
L
2
.
.
.
L
n
_

_
(3.16)
e logo
det A = det (L
1
, . . . , L
n
), (3.17)
tem-se que o determinante e uma aplicacao multilinear nas linhas (e nas colunas).
Com efeito, para qualquer ndice i, det e linear na linha i quando se xam as outras
variaveis todas, ou seja, para quaisquer linhas L
j
, j = 1, . . . , n, e

L e quaisquer
, R, det verica
det (L
1
, . . . , L
i
+

L, . . . , L
n
) =
det (L
1
, . . . , L
i
, . . . , L
n
) + det (L
1
, . . . ,

L, . . . , L
n
).
(3.18)
Compare-se esta linearidade
1
com aquela descrita em (2.36).
Demostremos (3.18). Suponhamos que a linha

L = ( a
1
, . . . , a
n
). Como a linha
i da matriz do lado esquerdo e igual a (a
i1
+ a
1
, . . . , a
in
+ a
n
), no calculo do
determinante vem

S
n
sg()a
1
1
(a
i
i
+ a

i
) a
n
n
=

S
n
sg()a
1
1
a
i
i
a
n
n
+

S
n
sg()a
1
1
a

i
a
n
n
.
(3.19)
1
O conceito de aplica cao linear ou de aplicacao multilinear sera formalizado no captulo 4.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 31
Usamos apenas as propriedades de distributividade e comutatividade de R. A
expressao a que se chegou e claramente aquela do lado direito de (3.18), como
queramos.
Vejamos um exemplo de aplicacao (como na teoria dos polinomios em varias
variaveis):

x
2
1
x
1
x
2
0
x
1
x
3
x
2
2
x
3
x
3
x
4
x
1
x
4
x
2
2
0

= x
2
1
x
2
x
3

1 1 0
1 x
2
x
4
x
4
x
2
0

=
= x
2
1
x
2
x
3

1 0 0
1 x
2
x
4
x
4
x
2
0

+ x
2
1
x
2
x
3

0 1 0
1 x
2
x
4
x
4
x
2
0

=
= x
2
1
x
2
x
3
(x
2
x
4
+ x
2
4
) = x
2
1
x
2
x
3
x
4
(x
4
x
2
).
(3.20)
Para nalizar, reescrevendo (3.14) na notacao anterior, vericou-se que o deter-
minante e uma aplicacao multilinear alternada ou anti-simetrica:
det (L
1
, . . . , L
i
, . . . , L
j
, . . . , L
n
) =
= det (L
1
, . . . , L
j
, . . . , L
i
, . . . , L
n
).
(3.21)
Tambem se pode escrever (3.18) em dois passos. O respeito pela multiplicacao de
uma linha por um escalar:
det (L
1
, . . . , L
i
, . . . , L
n
) = det (L
1
, . . . , L
i
, . . . , L
n
) (3.22)
e o respeito pela soma de duas linhas
det (L
1
, . . . , L
i
+

L, . . . , L
n
) =
det (L
1
, . . . , L
i
, . . . , L
n
) + det (L
1
, . . . ,

L, . . . , L
n
)
(3.23)
L
i
,

L R
n
, R.
3.1.4 Calculo de determinantes
Pela denicao, e trivial provar que

t
11
t
12
t
13
t
1n
0 t
22
t
23
t
2n
0 0 t
33
t
3n
0 0
.
.
.
0 0 0 t
nn

= t
11
t
22
t
nn
. (3.24)
E se a matriz dada for triangular inferior, o resultado e analogo.
Agora, o processo de condensa cao de uma qualquer matriz A /
nn
conduz-nos
a uma matriz triangular. Observamos entao que ha uma forma pratica de calcular
determinantes, tendo em conta as regras:
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 32
se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de
sinal
se substituirmos uma linha por ela mesma adicionada de um m ultiplo de outra
linha, o determinante nao se altera
se substituirmos uma coluna por ela mesma adicionada de um m ultiplo de
outra coluna, o determinante nao se altera.
Por exemplo,

1 2 3 4
0 1 3 5
1 3 1 7
3 2 5 4

1 2 3 4
0 1 3 5
0 5 2 11
0 4 4 8

= 4

1 3 5
5 2 11
1 1 2

=
= 4

1 3 5
0 17 14
0 4 3

= 4

3 14
1 3

= 20.
(3.25)
A segunda igualdade resulta de apenas valerem S
4
tais que (1) = 1. Na quarta
acontece o mesmo.
Teorema 10. Uma qualquer matriz A e invertvel sse det A ,= 0.
De podermos usar a condensacao sobre uma dada matriz para a levar a outra na
forma triangular, sem alterar o seu determinante ou caracterstica, resulta que se
pode supor desde ja que A e triangular. Ora, algum dos a
jj
, j = 1, . . . , n da matriz
triangular (3.24) e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6,
ve-se que dele decorre o teorema anterior.
3.1.5 Regra do produto
Vericaremos primeiro que aplicacoes multilineares
2
alternadas
f : R
n
R
n
R
(v
1
, . . . , v
n
) f(v
1
, . . . , v
n
),
(3.26)
tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen-
cialmente uma.
Para prova-lo necessitamos da base canonica de R
n
, isto e, o conjunto de n
vectores
e
i
= (0, . . . , 0, 1, 0, . . . , 0) (3.27)
2
Recordamos que este conceito pode ser visto no captulo 4.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 33
com 1 na i-esima entrada (cf. (2.50)).
Dizendo de outra forma,
1
n
=
_

_
1 0 0
0 1 0
.
.
.
0
0 0 1
_

_
=
_

_
e
1
.
.
.
e
n
_

_
. (3.28)

E evidente que qualquer vector de R


n
(o mesmo que uma matriz-linha) satisfaz
(x
1
, x
2
, . . . , x
n
) = x
1
e
1
+ x
2
e
2
+ + x
n
e
n
=
n

j=1
x
j
e
j
. (3.29)
Eis o resultado que referamos.
Teorema 11. Qualquer aplicacao multilinear alternada f sobre n vectores de R
n
verica
f(A) = det (A) f(1
n
). (3.30)
Demonstracao. Com efeito, por multilinearidade e por (3.29)
f(A) = f(L
1
, . . . , L
n
)
= f
_
n

j
1
=1
a
1j
1
e
j
1
,
n

j
2
=1
a
2j
2
e
j
2
, . . . ,
n

j
n
=1
a
nj
n
e
j
n
_
=
n

j
1
,j
2
,...,j
n
=1
a
1j
1
a
nj
n
f(e
j
1
, . . . , e
j
n
).
(3.31)
Note-se que, por hipotese de f ser alternada, tal como em (3.15), resulta
f(e
j
1
, . . . , e
j
n
) = 0 (3.32)
no caso em que ha dois j
l
iguais, l = 1, . . . , n, e resulta
f(e
j
1
, . . . , e
j
n
) = sg(

1 n
j
1
j
n

) f(e
1
, . . . , e
n
) (3.33)
no caso em que todos os j
l
sao diferentes.
Continuamos agora o calculo inicial. Aparece a entao apenas o somatorio sobre
as permutacoes de 1, . . . , n, ou seja
f(A) =

S
n
a
1
1
a
n
n
sg() f(e
1
, . . . , e
n
) = det Af(1
n
) (3.34)
visto que f(e
1
, . . . , e
n
) = f(1
n
). Chegamos a (3.30), como queramos demonstrar.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 34
Agora podemos provar um valioso teorema com a regra do produto para os
determinantes.
Teorema 12. Para quaisquer A, B /
nn
, vem
det (AB) = det (A) det (B). (3.35)
Em particular, det (A
1
) = (det A)
1
.
Demonstracao. Fixemos B e consideremos a funcao sobre as matrizes A (R
n
)
n
=
/
nn
f(A) = det (AB) = [AB[ (3.36)
com valores reais.

E trivial vericar que
f(A) = f(L
1
, . . . , L
n
) =

L
1
B
.
.
.
L
n
B

(3.37)
e, logo, que f e multilinear e alternada: lembrar que (L
i
+

L)B = L
i
B+

LB, para
cada i e para quaisquer , L
i
,

L, e que a propria funcao determinante tem aquelas
propriedades.
Entao f esta nas condicoes da hipotese do teorema 11, donde f(A) = [A[ f(1
n
).
Como f(1
n
) = [1
n
B[ = [B[, a formula anterior le-se [AB[ = [A[[B[, como queramos
demonstrar.
Por outras palavras, o determinante do produto de duas quaisquer matrizes e o
produto dos determinantes.
Por exemplo,

_
a b c
0 d e
0 0 f
_

_
_

_
x 0 0
y z 0
w s t
_

= adfxzt, (3.38)
o que se tornou muito facil de ver.
3.2 Regra de Laplace e aplicacoes
3.2.1 Regra de Laplace
Suponhamos que e dada uma matriz A /
nn
da qual queremos calcular o deter-
minante.
Repare-se agora na decomposicao (3.8) e restringa-se o somatorio sobre S
n
na
denicao (3.10) de determinante apenas ao subconjunto S

j
= S
n
:
1
= j,
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 35
com j 1, . . . , n previamente escolhido. Uma vez que
1
= j esta xo, obtemos

j
sg()a
1
1
a
n
n
=
= (1)
j1
a
1j

j
sg(
1 j n

2
j
n
)a
2
2
a
n
n
= (1)
j1
a
1j
[A
(1,j)
[.
(3.39)
Com efeito, o sinal da permuta cao S

j
, multiplicado por (1)
j1
, e o da mesma
permutacao composta com j 1 trocas de j com
2
,
3
, etc, ate
j
, ou seja, j levado
de 1 ate `a posicao j. Depois e imediato constatar que aparece o determinante da
matriz A
(1,j)
, como se escreveu, a matriz sem linha 1 nem coluna j.
Em geral, dene-se
A
(i,j)
=
_

_
a
11
a
1,j1
a
1,j+1
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1,1
a
i1,j1
a
i1,j+1
a
i1,n
a
i+1,1
a
i+1,j1
a
i+1,j+1
a
i+1,n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n,j1
a
n,j+1
a
nn
_

_
. (3.40)
Passando o resultado anterior para um somatorio sobre S
n
=
n
j=1
S

j
, vem

S
n
=

1
+ +

n
(3.41)
e logo a regra de Laplace na primeira linha
[A[ = a
11
[A
(1,1)
[ a
12
[A
(1,2)
[+
+ a
13
[A
(1,3)
[ + (1)
n1
a
1n
[A
(1,n)
[.
(3.42)
Dito de outra forma, [A[ =

j
(1)
j1
a
1j
[A
(1,j)
[.
Se quisermos fazer o mesmo calculo mas a partir de outra linha, so temos de
puxar essa linha para o 1
o
lugar de tal forma que tudo o resto permaneca na mesma
ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i1, depois,
esta, com a linha i 2, etc, ate ao primeiro lugar.

E o mesmo que considerar as
matrizes A
(i,j)
e a alternancia do sinal em (1)
i1
, o que acrescentado ao sinal das
parcelas acima vai dar (1)
i1
(1)
j1
= (1)
i+j
.
Assim cou provado o
Teorema 13 (regra de Laplace). Para qualquer ndice de linha i, tem-se
[A[ =
n

j=1
(1)
i+j
a
ij
[A
(i,j)
[. (3.43)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 36
Esta regra e muito pratica; permite calcular determinantes recursivamente sobre
a ordem n das matrizes.
Note-se que tambem existe uma regra de Laplace sobre as colunas.

E simples:
na formula (3.43) fazemos o somatorio em i em vez de j.
3.2.2 A matriz adjunta
Se na matriz A da seccao anterior, uma matriz n por n qualquer, substituirmos a
linha i pela linha k ,= i, entao ja sabemos que o determinante e nulo (tem duas
linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos entao
0 =
n

j=1
(1)
i+j
a
kj
[A
(i,j)
[. (3.44)
Como veremos, o n umero (1)
i+j
[A
(i,j)
[ tem grande importancia; designa-se por
complemento algebrico de a
ij
.
`
A matriz adj A que tem entradas (j, i) iguais ao complemento algebrico de a
ij
,
ou seja, a matriz transposta da matriz formada pelos complementos algebricos, ou
seja, ainda,
(adj A)
ji
= (1)
i+j
[A
(i,j)
[, (3.45)
da-se o nome de matriz adjunta de A.
Ja vimos que:
n

j=1
a
ij
(adj A)
ji
= [A[,
n

j=1
a
kj
(adj A)
ji
= 0 (3.46)
para k ,= i. Ora isto e equivalente a
Aadj A = [A[ 1
n
. (3.47)
Em particular, se A e invertvel, entao
A
1
=
1
[A[
adj A. (3.48)
Eis uma nova solucao para o problema de calcular a inversa de uma matriz.
Exemplos:
1. A formula (3.48) permite demonstrar esse facto belssimo que e o de uma
matriz de coecientes inteiros e determinante 1 ter inversa tambem com coe-
cientes inteiros.
_
7 5
11 8
_
1
=
_
8 5
11 7
_
(3.49)
e um exemplo, calculado pela dita formula.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 37
2. Outro exemplo, com a matriz dada de determinante 56,
_

_
5 2 3
0 1 3
2 4 2
_

_
1
=
1
56
_

1 3
4 2

2 3
4 2

2 3
1 3

0 3
2 2

5 3
2 2

5 3
0 3

0 1
2 4

5 2
2 4

5 2
0 1

_
=
1
56
_

_
10 8 3
6 16 15
2 24 5
_

_
(3.50)
3.2.3 Regra de Cramer
Suponhamos que temos um sistema de n equacoes lineares, independentes, a n
incognitas,
AX = B. (3.51)
Ou seja, de caracterstica n. Logo com A invertvel e logo com uma unica solucao.
Pelo exposto na seccao 3.2.2,
X = A
1
B =
1
[A[
(adj A)B =
1
[A[
_

j
(1)
i+j
[A
(j,i)
[b
j
_
(3.52)
ou seja
x
i
=

a
11
b
1
a
1n
.
.
.
.
.
.
a
n1
b
n
a
nn

[A[
(3.53)
com B tomando o lugar da coluna i de A.
Esta e a chamada regra de Cramer para a resolucao de sistemas possveis
determinados.
Por exemplo: sendo
_

_
x + y + z = 2v
3x y z = 2 + v
x + y = 3
, (3.54)
a matriz ampliada do sistema em x, y, z vem a ser
_

_
1 1 1 [ 2v
3 1 1 [ 2 + v
1 1 0 [ 3
_

_
. (3.55)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 38
Aplicando a regra de Cramer encontramos as solu coes
x =
1
4

2v 1 1
2 + v 1 1
3 1 0

=
1
4

2v 1 1
2 + 3v 0 0
3 1 0

=
3v + 2
4
, (3.56)
y =
1
4

1 2v 1
3 2 + v 1
1 3 0

=
3v + 10
4
, (3.57)
z =
1
4

1 1 2v
3 1 2 +v
1 1 3

=
1
4

0 0 2v 3
3 1 2 + v
1 1 3

=
8v 12
4
. (3.58)
Captulo 4
4.1 Espacos vectoriais
4.1.1 Denicoes e exemplos
Por espaco vectorial sobre o corpo R entende-se um grupo abeliano (V, +)
no qual estao denidas, adicionalmente, operacoes de multiplicacao por escalar
para cada real R,
: V V, v v, (4.1)
de tal modo que
(v
1
+ v
2
) = v
1
+ v
2
1v = v
(
1
+
2
)v =
1
v +
2
v ()v = (v)
(4.2)
v, v
1
, v
2
V, ,
1
,
2
, R.
Aos n umeros reais chamamos escalares e aos elementos de V vectores. Repare-
se que estamos
1
a generalizar os conceitos aprendidos em 2.3.1 a proposito do espaco
euclidiano R
n
.
Exemplos:
1. R
n
ou /
nm
sao espacos vectoriais sobre R ja bem conhecidos
2
.
2. Para qualquer conjunto X e espaco vectorial V temos um novo espaco vec-
torial V
X
= f : X V . Este exemplo generaliza outro, referido como
exemplo de um anel em 1.2.2. Os vectores sao as funcoes e a sua soma e
produto por escalar denem-se trivialmente.
1
Devamos ir mais longe e falar de espa cos vectoriais sobre um corpo qualquer. Signicaria
que no lugar e no papel dos escalares reais teramos os elementos de um outro corpo unitario (cf.
seccao 1.2.2). As aplica coes sao in umeras. Porem, note-se que ocorrem logo fenomenos peculiares
se a chamada caracterstica ou torsao do corpo for nao nula.
2
Observe-se a nocao de espa co vectorial ser tao simples, por nao requerer a multiplicacao de
dois vectores `a semelhan ca do espaco das matrizes.
39
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 40
3. Recordemos C

C
k+1
C
k
C
0
R
I
onde C
k
e o espaco de
funcoes do intervalo I em R, k vezes diferenciaveis e com derivada de ordem
k contnua. Todos estes sao espacos vectoriais sobre R. Sao muito grandes...
4. Um subconjunto U de um espaco vectorial V tal que
u
1
, u
2
U, R = u
1
+ u
2
U (4.3)
diz-se um subespaco vectorial de V . Claro que, neste caso, U herda uma
estrutura de espaco vectorial sobre R.
Conceito central na teoria dos espa cos vectoriais e o seguinte. Dizemos que
v V e combinacao linear de vectores u
1
, . . . , u
m
se existem escalares
1
, . . . ,
m
tais que v =

i
u
i
. Note-se que so falamos de somas nitas.
Dado um subconjunto S V , chamamos espaco vectorial gerado por S a
S =
_
combinacoes lineares de vectores de S
_
. (4.4)
S e um subespa co vectorial de V .
Apresentemos agora a nocao de sistema de vectores linearmente independentes
(sli). Um conjunto, ou sistema, de vectores B = u

I
diz-se linearmente
independente se qualquer parte nita u
1
, . . . , u
k
B for linearmente indepen-
dente no sentido que ja conhecamos de (2.38), ou seja, no sentido em que nenhum
u
i
, i = 1, . . . , k, e combinacao linear dos restantes, ou seja, ainda, se, supondo que
existem
i
R,

1
u
1
+ +
k
u
k
= 0 =
1
= =
k
= 0. (4.5)
Em presenca de um sli u

I
, nao ha duas formas de escrever a mesma com-
binacao linear. Essencialmente, isto vale por v =

i
u
i
=

i

i
u
i
implicar

i
(
i

i
)u
i
= 0. E logo
i

i
= 0. Ou seja
i
=
i
, i.
Diz-se, no caso acima, que e uma escrita de forma unica.
4.1.2 Bases e dimensao
Suponhamos que e dado um espaco vectorial V sobre R.
Um sli (sistema linearmente independente) B

diz-se menor (_) que o sli B se


u B

, u e combina cao linear de vectores de B. (4.6)


Um sli B diz-se maximal se for maior que todos os outros: B

, B

_ B. A
um sli maximal chamamos uma base de V .
Dizemos que V tem dimensao nita se V admite uma base nita.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 41
Teorema 14. Se V tem dimensao nita, entao todas as bases de V sao nitas e
tem o mesmo n umero de vectores.
Demonstracao. Seja B = u
1
, . . . , u
n
a base nita e B
1
outra base qualquer. Ora,
qualquer vector u na segunda base e combina cao linear de vectores da primeira,
porque B
1
_ B. Portanto existem sempre escalares
1
, . . . ,
n
com os quais es-
crever u =

j

j
u
j
escrita de forma unica. Os vectores de B
1
estao assim em
correspondencia bi univoca com vectores (
1
, . . . ,
n
) de R
n
. Estes tem de ser linear-
mente independentes, porque os u B
1
o sao. Mas nao ha mais do que n vectores
linearmente independentes em R
n
(cf. exemplo 4 da seccao 2.3.2).
Chamamos dimensao de um espaco vectorial de dimensao nita V , denotada
dimV , ao n umero comum de vectores de qualquer base de V .
Dada uma base B V de um espaco de dimensao qualquer, tem-se B = V ,
pois no caso contrario entraramos em contradi cao.
Assim, uma base de V e o mesmo que um sistema de vectores linearmente
independente que gera o espaco todo.
Muito importante e observar que, escolhida uma base, cada vector v V se
escreve de forma unica como combinacao linear dos vectores da base.
Exemplos:
1. Os seguintes conjuntos sao subespacos vectoriais dos espacos onde estao con-
tidos:
i) U
a
= (x, y, z) R
3
: a
2
(x + y) + z = 0, 3x + y = 0 verica (4.3), tem
dimensao 1 e uma base (1, 3, 2a
2
).
ii) W = A /
nn
: a
11
+ 3a
1n
+ a
n1,1
a
nn
= 0 tem dimensao n
2
1.
Trata-se do espa co de todas as matrizes n por n, sujeitas a uma unica equa cao
linear.
iii) O subespaco vectorial de /
n,n
das matrizes simetricas de ordem n tem
dimensao igual a n(n+1)/2 (pense-se na area do triangulo pois so contam as
entradas de um lado triangular da matriz).
2. O conjunto R
n
[x] = polinomios em x de grau n e um subespaco vecto-
rial real, de dimensao n + 1, do espaco de todos os polinomios. Este ultimo
tem dimensao e e por sua vez subespa co de C

R
. Uma base de R
n
[x] e
1, x, x
2
, . . . , x
n
.
3. Um sistema AX = 0 como em (2.27), portanto um sistema homogeneo, com
A /
mn
e X R
n
, da origem a um subespaco vectorial: Nuc A = X R
n
:
AX = 0 e subespaco vectorial devido `a formula (2.36). A sua dimensao e
nr(A) por que o sistema resolve a equacao de dependencia linear das colunas
de A e a caracterstica de linha e igual `a caracterstica de coluna.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 42
Repare-se que B

_ B implica B

B, donde se diz tambem que uma base


e um conjunto minimal de geradores de V .
Sob certas condicoes da teoria dos conjuntos, pode-se provar que todo o espaco
vectorial admite uma base. Mesmo os de dimensao .
4.1.3 Soma cartesiana e soma directa
Partindo de W, Z dois quaisquer espacos vectoriais, falamos de espaco vectorial
produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano
W Z e nele tomamos, para estrutura de espaco vectorial, a adicao
(w
1
, z
1
) + (w
2
, z
2
) = (w
1
+ w
2
, z
1
+ z
2
) (4.7)
e multiplicacao por escalar
(w, z) = (w, z) (4.8)
w, w
1
, w
2
W, z, z
1
, z
2
Z, R.

E facil perceber que sao satisfeitas as
condicoes (4.2).
Se W, Z tem dimensao nita, a dimensao do espaco vectorial produto e sempre
a soma das dimensoes.
Exemplo:
1. R
n
= R R R.
Sejam agora dados dois subespa cos vectoriais U, V de um mesmo espaco vectorial
W.
Chamamos soma de U e V ao subespaco
U + V =
_
u + v : u U, v V
_
. (4.9)
Trata-se de facto de um subespa co vectorial, como e facil provar. Mais ainda
U, V U + V .

E evidente, pois u = u + 0, u U.
Outra forma de obter um subespaco vectorial e pela interseccao
U V (4.10)
dos subespacos dados. Com efeito, e claro que a soma de vectores e produto por
escalar de u, v U V esta tanto em U como em V , ou seja, em U V .

E claro que um subespaco vectorial U de um espaco de dim nita W tem ele


pr oprio dim nita. Basta comecar num vector ,= 0 e ir procurando sli cada vez
maiores dentro do subespaco U ate obter um sli maximal. O processo e nito por
estar majorado pela dimensao do espaco W.
Teorema 15. Se U, V tem dimensao nita, entao
dim(U + V ) = dimU + dimV dim(U V ). (4.11)
Em particular, U + V tem dimensao nita.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 43
Demonstracao. Comecemos com uma base u
1
, . . . , u
p
de UV , que prolongamos,
como acima, a uma base u
1
, . . . , u
p
, u
p+1
, . . . , u
n
de U. Seja v
1
, . . . , v
m
uma
base de V . Entao o conjunto u
p+1
, . . . , u
n
, v
1
, . . . , v
m
e um sistema de vectores
linearmente independentes, pois se fosse

p+1
u
p+1
+ +
n
u
n
+
1
v
1
+ +
m
v
m
= 0

p+1
u
p+1
+ +
n
u
n
=
1
v
1

m
v
m
entao este ultimo vector estaria em U V , pelo que seria combinacao linear dos
u
1
. . . , u
p
. Mas sendo escrito so com os u
i
, com i > p, tem de ser 0. Entao todos os

i
,
j
sao 0, como queramos.

E tambem facil vericar que qualquer outro vector de U+V e combina cao linear
daqueles. Entao esta provado que u
p+1
, . . . , u
n
, v
1
, . . . , v
m
e uma base. O n umero
de vectores de tal base e n p + m.
Finalmente, chamamos soma directa a U +V quando os dois subespacos ver-
icam U V = 0. Denota-se por U V . A dimensao desta e a soma das
dimensoes.
4.2 Aplicacoes lineares
4.2.1 Denicoes
Finalmente formalizamos o conceito ja utilizado em duas ocasioes: em 2.3.1 como
caso particular e em (3.15) a proposito da propriedade do determinante de matrizes
ser uma aplicacao multilinear.
Sao dados dois espa cos vectoriais V e W.
Uma funcao f : V W diz-se uma aplicacao linear se
f(v + u) = f(v) + f(u) e f(u) = f(u) (4.12)
u, v V, R.
Assim, uma aplicacao linear e uma aplicacao que preserva as estruturas dos
espa cos vectoriais em causa. Em particular, tem-se o facto trivial: f(0) = f(0+0) =
0.

E trivial vericar que a imagem de uma aplicacao linear


Imf = f(V ) =
_
f(v) : v V
_
(4.13)
e um subespaco vectorial de W. Com efeito, f(u) + f(v) = f(u + v) tambem
esta na imagem de f, quaisquer que sejam u, v, .
Tambem, dado um qualquer subespaco U W, o conjunto imagem recproca
f

U =
_
v V : f(v) U
_
(4.14)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 44
e um subespaco vectorial de V .
Em particular f

0, denotado
Nuc f =
_
v V : f(v) = 0
_
, (4.15)
e um subespaco vectorial de V chamado n ucleo de f.
Deixamos a demonstra cao do proximo resultado como um exerccio.
Teorema 16. Seja f : V W uma aplicacao linear entre espacos vectoriais.
Entao:
i) f e injectiva sse Nuc f = 0.
ii) f e injectiva sse f transforma vectores linearmente independentes em vectores
linearmente independentes.
iii) f e sobrejectiva sse o espaco gerado por f(B) e igual a W, ou seja f(B) = W,
para qualquer base B de V .
iv) f e bijectiva sse transforma uma base de V numa base de W.
Ha nomes proprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos
entao que f e, respectivamente, um monomorsmo, um epimorsmo ou um
isomorsmo.
Se V = W, entao f : V V diz-se um endomorsmo. Um isomorsmo
endomorsmo diz-se um automorsmo.
Prove-se, `a parte, que a inversa de uma aplica cao linear bijectiva e uma aplicacao
linear.
O conjunto das aplicacoes lineares de V para W denota-se por L(V, W).

E trivial mostrar que a soma ou a composi cao de duas aplicacoes lineares e uma
aplicacao linear e que o mesmo acontece com o produto de uma aplicacao linear
por um escalar. Enm, prova-se sem diculdade o
Teorema 17. L(V, W) e um espaco vectorial sobre R. O espaco End (V ) :=
L(V, V ) dos endomorsmos de V e um anel e o subconjunto dos automorsmos
Aut(V ) = isomorsmos de V para V e um grupo.
Contudo, o resultado nao e surpreendente: em dim nita ha correspondencia
entre aqueles espacos e, respectivamente, o espaco vectorial das matrizes /
nm
, o
anel das matrizes quadradas /
nn
e o grupo das matrizes invertveis.
4.2.2 Representacao matricial
Sejam V, W espacos vectoriais reais de dimensao nita n, m, respectivamente. Se-
jam B = v
1
, . . . , v
n
,

B = w
1
, . . . , w
m
bases xadas em V, W, respectivamente.
Sejam
X =
_

_
x
1
.
.
.
x
n
_

_
, B =
_

_
b
1
.
.
.
b
n
_

_
(4.16)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 45
a matriz dos coecientes de um qualquer vector v V e, respectivamente, a matriz
dos coecientes de um vector w
0
W. Ou seja,
v =
n

i=1
x
i
v
i
=
_
v
1
v
n
_
_

_
x
1
.
.
.
x
n
_

_
, w
0
=
m

j=1
b
j
w
j
=

B B (4.17)
Seja agora f : V W uma aplica cao linear. Denotamos entao
A = M(f, B,

B) (4.18)
a matriz denida da seguinte forma: como para cada 1 i n, o vector f(v
i
) se
escreve de forma unica `a custa dos vectores w
j
, 1 j m, existem escalares a
ji
tais que
f(v
i
) =
m

j=1
a
ji
w
j
. (4.19)

E obvio que A = [a
ji
] /
mn
. A esta matriz damos o nome de matriz da
aplicacao linear f nas bases v
i
, w
j
.
Note-se bem que esta representa cao depende das bases.
Recprocamente, xadas as bases, a cada matriz A /
mn
corresponde uma
unica aplica cao linear f. A linearidade, como condi cao, determina unvocamente f
de tal forma que a sua representacao em matriz e a matriz dada.
Exemplo:
1. Seja f : R
2
R
2
[] denida por
f(x, y) = 2x
2
+ 3(x + y) + 4x y. (4.20)
Trata-se com efeito de uma aplicacao linear entre espacos vectorias (cf. ex-
emplo 2 da secc ao 4.1.2). Considerando as bases canonicas daqueles espacos,
de um lado B = (1, 0), (0, 1), do outro

B =
2
, , 1, temos
f(1, 0) = 2
2
+ 3 + 4, f(0, 1) = 3 1. (4.21)
Donde
M(f, B,

B) =
_

_
2 0
3 3
4 1
_

_
(4.22)
e a matriz de f nas bases escolhidas.
2. Consideremos a aplicacao identidade 1
V
: V V . Podemos tomar a mesma
base no espaco de chegada alias e quase sempre assim que fazemos quando
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 46
tratamos de endomorsmos de um dado espa co. Tem-se logo 1
V
(v
i
) = v
i
,
1 i n, pelo que a representa cao matricial e
M(1
V
, B, B) = 1
n
(4.23)
como era de esperar.
Prova-se naturalmente, sem diculdade, que a uma equacao linear f(v) = w
0
em v corresponde um e um so sistema linear AX = B:
f(v) = w
0

n

i=1
x
i
f(v
i
) =
m

j=1
b
j
w
j

j=1
n

i=1
x
i
a
ji
w
j
=
m

j=1
b
j
w
j

i=1
a
ji
x
i
= b
j
, j AX = B.
(4.24)
Prova-se ainda que o conjunto solucao C
w
0
= v : f(v) = w
0
e igual a
v
0
+Nuc f, onde v
0
e uma solucao particular, isto e, f(v
0
) = w
0
. De facto, v C
w
0
sse f(v v
0
) = w
0
w
0
= 0.
Como ja foi certamente observado no teorema 16, a dimensao da imagem de
f esta relacionada com o maior sli contido na imagem, em W, dos vectores de
uma base de V . Ou seja, e exactamente a caracterstica da matriz A. Mais ainda,
conclui-se que o grau de indeterminacao n r(A) do sistema acima e a dimensao
do n ucleo de f. Uma vez que n = n r(A) + r(A), esta provado o
Teorema 18. dimV = dimNuc f + dimImf.

E um resultado relevante pois nao depende da escolha das bases.


Nesta teoria acresce dizer que segue sem demonstra cao a identidade
M(f + g, B,

B) = M(f, B,

B) + M(g, B,

B) (4.25)
f, g L(V, W), R.
4.2.3 Composicao vs produto
Sejam V, W, U espacos vectoriais reais de dimensao nita n, m, p, respectivamente.
Sejam B = v
1
, . . . , v
n
,

B = w
1
, . . . , w
m
, B

= u
1
, . . . , u
p
bases xadas em
V, W, U, respectivamente.
Suponhamos que sao dadas aplicacoes lineares
V
f
W
g
U. (4.26)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 47
Uma vez que gf tambem e uma aplica cao linear, poe-se a questao de relacionar
as matrizes
A = M(f, B,

B), B = M(g,

B, B

) (4.27)
com a matriz C = M(g f, B, B

).
Por denicao, analogamente com (4.19), isto e, f(v
i
) =

m
j=1
a
ji
w
j
, tem-se
g(w
j
) =
p

k=1
b
kj
u
k
, g f (v
i
) =
p

k=1
c
ki
u
k
. (4.28)
Mas uma vez que
g f (v
i
) = g
_
m

j=1
a
ji
w
j
_
=
m

j=1
a
ji
g(w
j
) =
=
m

j=1
p

k=1
a
ji
b
kj
u
k
=
p

k=1
m

j=1
b
kj
a
ji
u
k
(4.29)
obtem-se anal
C = BA. (4.30)
Repare-se que A /
mn
, B /
pm
, pelo que o resultado C = BA /
pn
faz
pleno sentido.
Esta descoberta a natureza geometrica do produto de matrizes. Toda a teoria
estudada nos captulos anteriores passou a fazer parte de um todo coerente.
Recordemos agora a aplicacao identidade 1
V
: V V e representemo-la numa
dada base B = v
i
de V como a matriz M(1
V
, B, B) = 1
n
. Pela lei demonstrada da
composicao vs produto, deduz-se logo que a matriz da inversa de um isomorsmo
f : V W, nas mesmas bases acima, verica
M(f
1
,

B, B) = (M(f, B,

B))
1
. (4.31)
Repare-se que se mudarmos para a base B
1
do mesmo espaco V temos uma
matriz quadrada
P = M(1
V
, B, B
1
) = (M(1
V
, B
1
, B))
1
(4.32)
(a qual nao tem nada que ser a matriz identidade). Uma tal matriz P chama-se
uma matriz de mudanca de base.
Vejamos como se transforma em geral a matriz de uma aplica cao linear qualquer
como a f : V W inicial. Suponhamos que, alem da mudanca de bases em V ,
descrita por P, temos a mudanca de bases

B para

B
1
em W, descrita pela matriz
Q = M(1
W
,

B
1
,

B). Sendo A
1
= M(f, B
1
,

B
1
), resulta de se ter f = 1
W
f 1
V
, de
(4.27) e de (4.30) que
A = QA
1
P. (4.33)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 48
Em particular, se f : V V e um endomorsmo e usamos a mesma base dos
dois lados, uma mudanca de bases, de ambos os lados, descrita por P, produz o
efeito A = P
1
A
1
P.
Exemplos:
1. Consideremos o exemplo 1 da seccao 4.2.2 e, em W = R
2
[], mudemos da
base

B =
2
, , 1 para a base

B
1
= ( + 2)
2
, ( + 2), 1. Imediatamente
calculamos

2
= ( + 2)
2
4( + 2) + 4
= ( + 2) 2
1 = 1
(4.34)
pelo que
Q = M(1
W
,

B,

B
1
) =
_

_
1 0 0
4 1 0
4 2 1
_

_
. (4.35)
Logo
M(f, B,

B
1
) = Q
_

_
2 0
3 3
4 1
_

_
=
_

_
2 0
5 3
6 7
_

_
. (4.36)
Podemos usar este resultado para escrever
3
f na nova base:
f(x, y) = 2x( + 2)
2
+ (5x + 3y)( + 2) + 6x 7y. (4.37)
Lembrar que tambem as matrizes, xadas as bases, determinam unvocamente
as aplicacoes lineares.
2. Como exemplo de aplica cao, temos que se pode denir o determinante de
um endomorsmo f : V V . Basta escrever
det f = det (M(f, B, B)). (4.38)

E trivial provar, por (4.32) e (4.33), que (4.38) nao depende da escolha da
base. Por exemplo, se f(v) = v, entao det f =
n
.
4.2.4 Valores e vectores proprios
Suponhamos que e dado um endomorsmo f : V V de um espaco vectorial V
sobre R. Interessa-nos encontrar as direccoes em V , socorrendo-nos aqui de uma
3

E o desenvolvimento de Taylor do polinomio em em torno de 2.


Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 49
linguagem geometrica, sobre as quais a imagem de f se expande ou se contrai. Ou
seja, interessam as direccoes nao nulas u V tais que
f(u) =
0
u (4.39)
para algum
0
R. Um vector como u chama-se um vector proprio de f asso-
ciado ao valor proprio
0
.
Assumamos que V tem dimensao nita n e que uma sua base foi previamente
escolhida.

E claro que a equacao f(u) u = 0 tem solucoes em u, , u ,= 0, sse o
sistema homogeneo (A 1
n
)X = 0 e possvel indeterminado, quando representa-
mos por A a matriz de f (veja-se (4.24)).
Escrevendo o polinomio caracterstico de A,
p
A
() = det (A 1
n
), (4.40)
dizamos que o sistema tem solucao (u,
0
) sse
0
e uma raz de p
A
, ou seja,

0
e valor proprio de A p
A
(
0
) = 0. (4.41)
Com efeito, se aquele determinante e nulo, a matriz A
0
1
n
tem caracterstica
< n e logo o sistema tem solucoes u V nao nulas. E recprocamente.
Prova-se, reectindo um pouco sobre as denicoes, que p
A
e de facto um polinomio
em , que o seu grau e n, que o coeciente do termo
n
e (1)
n
e que o termo in-
dependente e [A[.
Exemplo:
1. Seja f(x, y) = (2x, 3x y) de R
2
para si mesmo. A sua matriz na base
canonica (1, 0), (0, 1) e o respectivo polinomio caracterstico sao
A =
_
2 0
3 1
_
, p
A
=

2 0
3 1

= ( 2)( + 1). (4.42)


Entao os valores proprios sao 2 e 1. Os vectores proprios associados resultam
de resolver, por exemplo, f(x, y) = 2(x, y). Isto e equivalente a (2x, 3xy)
2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U
2
= (y, y) :
y R = (1, 1) sao associados ao valor proprio 2. Fazendo o mesmo para
1, ve-se logo que o respectivo subespaco proprio e U
1
= (0, 1).
Dissemos bem no exemplo anterior. Prova-se sem diculdade que o subespaco
proprio de V associado ao valor proprio
0
de f,
U

0
=
_
u V : f(u) =
0
u
_
, (4.43)
e um subespaco vectorial. A sua dimensao e a multiplicidade geometrica de
0
.
Esta distingue-se da multiplicidade algebrica de
0
, que e a multiplicidade do
valor proprio
0
como raz de p
A
.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 50
Ha, no maximo, tantas direccoes proprias linearmente independentes dentro de
U

0
quanto a multiplicidade algebrica de
0
. Ou seja,
m.g.
0
m.a.
0
. (4.44)
O caso da matriz
_
3 3
0 3
_
mostra-nos o problema que esta em procurar uma
base de vectores proprios. No exemplo vertente, de valor proprio 3, 1 = m.g. 3
m.a. 3 = 2.
Seguramente para valores proprios distintos ha independencia linear, como diz
o
Teorema 19. Vectores proprios u
1
, . . . , u
k
V de uma aplicacao linear f associ-
ados a valores proprios distintos
1
, . . . ,
k
, respectivamente, formam um sistema
de vectores linearmente independente.
Demonstracao. Por inducao em k. Sendo o resultado claro para k = 1, admitamo-
lo como valido para k e provemo-lo para k + 1. Podemos ja supor
k+1
,= 0.
Suponhamos, por absurdo, que existem escalares
1
, . . . ,
k
tais que
u
k+1
=
1
u
1
+ +
k
u
k
.
Aplicando entao f de ambos os lados temos, por denicao e por linearidade,

k+1
u
k+1
=
1

1
u
1
+ +
k

k
u
k
.
Ou seja, igualando a u
k+1
, temos

1
u
1
+ +
k
u
k
=

1

k+1
u
1
+ +

k

k+1
u
k
.
Agora, para vectores linearmente independentes, ha unicidade da escrita de uma
combinacao linear. Usando a hipotese de inducao, so podemos ter entao

i

k+1
=
1, 1 i k. Mas isto contradiz o facto de os
i
serem todos distintos.
Outra forma de enunciar o teorema e simplesmente dizer que os diferentes sube-
spacos vectoriais proprios
U

1
U

k
(4.45)
estao em soma directa.
4.2.5 Matrizes semelhantes
Duas matrizes quadradas A, A
1
de ordem n dizem-se semelhantes se existe uma
matriz invertvel P de ordem n tal que
A
1
= PAP
1
. (4.46)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 51
Trata-se de uma rela cao de equivalencia entre matrizes, cf. 1.1.2. Por exemplo,
a propriedade de transitividade resulta de
A = PA
1
P
1
& A
1
= QA
2
Q
1
(4.47)
implicar
A = PQA
2
Q
1
P
1
= (PQ)A
2
(PQ)
1
. (4.48)
A reexividade e simetria sao ainda mais simples de ver.
Ja vimos que sao semelhantes as varias matrizes M(f, B, B) de um endomorsmo
f representadas nas diferentes bases B de um mesmo espaco vectorial.
Pela mesma razao de representarem endomorsmos e de os vectores proprios
destes serem independentes da base xada, o polinomio caracterstico de matrizes
semelhantes nao se altera:
p
A
() = p
A
1
(). (4.49)
Mas pode e deve-se vericar este facto directamente da denicao de p
A
1
.
Uma matriz diz-se diagonalizavel se for semelhante a uma matriz diagonal.
Podemos agora armar sinteticamente que um endomorsmo admite uma base
de vectores proprios sse a sua representacao matricial e diagonalizavel.
A melhor aproxima cao ao problema de diagonalizacao de uma matriz e dada,
grosso modo, pelo teorema da forma canonica de Jordan, que estudaremos mais
tarde.
Para nalizar, lembramos que ha invariantes numericos da classe de equivalencia
por semelhanca de cada matriz. O primeiro, ja visto no exemplo 2 de 4.2.3, e o
determinante.
O mesmo se passa com o traco de uma matriz. Chamamos traco de A `a soma
das entradas da diagonal principal.
Tr : /
n,n
R, Tr A =
n

i=1
a
ii
(4.50)
e uma aplica cao linear `a qual acresce a propriedade
Tr (AB) = Tr (BA) (4.51)
para quaisquer matrizes A, B /
n,n
.
Donde Tr A
1
= Tr (PAP
1
) = Tr (P
1
PA) = Tr A para matrizes semelhantes.
Captulo 5
5.1 Geometria do Espaco Euclidiano
5.1.1 Produto interno euclidiano
No espa co euclidiano R
n
, os problemas metricos, etimo de problemas de medicao, sao
entendidos como aqueles que envolvem questoes sobre o produto interno euclidiano.
Trata-se de um conceito matematico que joga o papel da regua e do compasso, ou
seja, dos instrumentos de medida de distancias e angulos. Assim sera tambem
em geral, como veremos mais tarde, em qualquer espaco vectorial munido de um
dispositivo em tudo semelhante e ainda designado de produto interno.
Comecemos pela presente situacao.
O produto interno euclidiano consiste na funcao
1
R
n
R
n
R, (u, v) u, v =
n

i=1
x
i
y
i
(5.1)
onde se admite u = (x
1
, . . . , x
n
), v = (y
1
, . . . , y
n
).

E imediato constatar que o produto interno e uma aplica cao bilinear, ou seja, lin-
ear em u quando se xa v e vice-versa. Basta alias verica-lo de um lado, porque tem
a propriedade adicional de ser simetrico. Assim, u, u
1
, u
2
, v, v
1
, v
2
R
n
, , R,
u
1
+ u
2
, v
1
+ v
2
= u
1
, v
1
+ v
2
+ u
2
, v
1
+ v
2
=
= u
1
, v
1
+ u
1
, v
2
+ u
2
, v
1
+ u
2
, v
2
,
u, v = v, u.
(5.2)
Verica-se tambem que u, u 0, com igualdade sse u = 0.
Posto isto, pode-se denir a norma de um vector, associada ao produto interno
euclidiano, como sendo
|u| =
_
u, u =
_
x
2
1
+ + x
2
n
. (5.3)
1
Roga-se ao leitor o cuidado de nao confundir os parenteses do p.i. com os de subespa co gerado.
52
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 53
O leitor, numa primeira abordagem, podera aqui reconhecer formalmente o teorema
de Pitagoras.
O produto interno euclidiano respeita mesmo a decomposicao de R
n
como soma
directa R
n
1
R
n
2
, onde n = n
1
+ n
2
, de espacos com produto interno.

E imediato
provar pela denicao, em sentido dos ndices facil de entender, que se tem
u, v
n
= u
1
, v
1

n
1
+u
2
, v
2

n
2
(5.4)
onde u = u
1
+u
2
e v = v
1
+v
2
representa a decomposicao, unica, na soma directa.
Daqui segue de facto o teorema de Pitagoras, mas ve-lo-emos adiante noutra forma,
mais geral.
Como exemplo a destacar, calculemos o produto interno de alguns pares de
vectores em R
n
. Seja e
i
= (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base canonica;
entao
e
i
, e
i
= 0
2
+ + 0
2
+ 1
2
+ 0
2
+ + 0
2
= 1
e
i
, e
j
= 0
2
+ + 0.1 + + 1.0 + + 0
2
= 0
(5.5)
para i ,= j.
A norma euclidiana obedece `a desigualdade de Cauchy
[u, v[ |u||v|, com igualdade sse u, v sao colineares. (5.6)
A demonstracao pode ser feita por inducao ou pela analise do binomio descriminante
da parabola u+v, u+v em , a qual como ja vimos esta sempre acima do eixo
dos s.
Repare-se agora nas propriedades, faceis de provar, para todos os vectores e
escalares,
|u| = [[|u|, |u + v| |u| +|v|. (5.7)
A segunda chama-se desigualdade triangular.
A desigualdade de Cauchy permite denir o angulo entre dois vectores
(u, v) = arccos
u, v
|u||v|
(5.8)
com a determinacao de arccos, e.g., entre 0 e .
5.1.2 Ortogonalidade
Seja U R
n
um subconjunto qualquer, nao vazio. Dene-se o ortogonal de U
como o subconjunto
U

=
_
v R
n
: u, v = 0, u U
_
. (5.9)
Tem-se que U

e sempre um subespa co vectorial.


Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 54
Por linearidade, e evidente que U

aparece como espa co solucao do sistema


homogeneo em v = (x
1
, . . . , x
n
) de, digamos, k equacoes lineares:
u
1
, v = 0, u
2
, v = 0, . . . , u
k
, v = 0 (5.10)
onde u
1
, . . . , u
k
e um sistema de vectores linearmente independente maximal dentro
de U, ou seja, uma base de U (subespaco gerado por U). Logo dimU

= n k.
Como U

U = 0, esta provado o
Teorema 20. Para qualquer subconjunto U do espaco euclidiano, temos a decom-
posicao em soma directa
R
n
= U

U. (5.11)
Em particular, dimU

= n dimU.
Seja V um subespa co vectorial; de modo que R
n
= V V

.
Podemos denir aplicacoes lineares : R
n
V e

: R
n
V

dadas pela
decomposicao unica, w R
n
, w = w
1
+ w
2
com w
1
V, w
2
V

: escrevemos
entao (w) = w
1
,

(w) = w
2
. Tem-se entao as rela coes:
1
R
n = +

= 0,

= 0,
=

, ker = V

ker

= V.
(5.12)
e

sao de facto lineares e chamam-se projeccoes ortogonais.


Repare-se que a sucessao de aplica coes lineares
0 V


R
n

V 0 (5.13)
com a aplicacao de inclusao, (w) = w, verica em cada espaco que a imagem da
aplicacao anterior e igual ao n ucleo da seguinte.

E claro que 0

= R
n
, R
n
= 0. Mais cuidado e preciso ter em vericar que
(U

= U. (5.14)
Em particular, para um subespaco vectorial V R
n
, tem-se (V

= V . (

E pela
deducao da dimensao, vista no teorema acima, que se arma a inclusao do ortogonal
do ortogonal em V .)
Por exemplo em R
2
, o ortogonal ao vector (a, b), suposto ,= 0, e a recta gerada
por (b, a).
Em R
3
, o ortogonal a (a, b, c), suposto ,= 0, e o plano (dim 2) gerado pelo
sistema de vectores linearmente dependente (b, a, 0), (c, 0, a), (0, c, b). Com
efeito, todos os tres vectores sao ortogonais a (a, b, c), como se ve por exemplo no
caso do primeiro, (b, a, 0), (a, b, c) = ba + ab + 0c = 0, e tem-se a combinacao
linear c(b, a, 0)+b(c, 0, a)+a(0, c, b) = 0, donde apenas dois em tres daqueles
vectores sao linearmente independentes.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 55
Escrevemos agora duas identidades cuja vericacao e um exerccio. Primeiro, a
do paralelogramo
|u + v|
2
+|u v|
2
= 2|u|
2
+ 2|v|
2
(5.15)
e, segundo, a identidade de Pitagoras generalizada: se u v, ou seja, u, v = 0,
entao
|u + v|
2
= |u|
2
+|v|
2
. (5.16)
Muitos problemas surgem em geometria euclidiana dos subespacos de R
n
para
os quais certas bases sao mais indicadas que outras.
Dizemos, para comecar, que um vector u e unitario ou normado se |u| = 1.
Dene-se base ortonormada como uma base u
1
, . . . , u
n
do espaco euclidiano
formada de vectores unitarios e ortogonais entre si. Ou seja,
u

, u

=
_
1 se =
0 se ,=
(5.17)
Os

sao chamados de smbolos de Kronecker e correspondem `as entradas


da matriz 1
n
.
Exemplos:
1. A celebre base canonica de R
n
e uma base ortonormada, cf. (5.5).
2. Seja U o subespaco vectorial de R
4
gerado por u
1
= (1, 2, 3, 0) e u
2
=
(2, 1, 4, 1). Portanto U =
1
u
1
+
2
u
2
:
1
,
2
R.

E facil ver que
os dois geradores sao linearmente independentes, ie. formam uma base de U.
A projeccao de u
2
sobre a recta ortogonal a u
1
dentro de U e u

2
= u
2
v
onde v = u
1
, u
2

u
1
u
1

2
. Com efeito,
u
1
, u

2
= u
1
, u
2
u
1
, u
2

u
1
, u
1

|u
1
|
2
= 0
e, por outro lado, u
2
= u

2
+ v com v sobre o eixo u
1
. Entao
u
1
=
u
1
|u
1
|
=
1

14
(1, 2, 3, 0) e u
2
=
u

2
|u

2
|
=
1

182
(6, 9, 4, 7) (5.18)
formam outra base de U, desta feita uma base ortonormada: u
i
, u
j
=
ij
,
i, j = 1, 2.
Agora, U

e dado pelos vectores (x, y, z, w) solu cao de


_
x + 2y + 3z = 0
2x + y + 4z w = 0
. (5.19)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 56
Uma base ortonormada de U

encontra-se pela mesma tecnica:


u
3
=
1

14
(2, 1, 0, 3), u
4
=
1

182
(9, 6, 7, 4). (5.20)
Claramente u
1
, u
2
, u
3
, u
4
forma uma base ortonormada de R
4
= U U

.
Antes de passar `as aplicacoes, vejamos ainda dois resultados teoricos sobre a
decomposicao ortogonal.
Primeiro, se U
1
U
2
R
n
sao subespacos vectoriais, entao e claro que U

2

U

1
.
Segundo, para quaisquer dois subespacos vectoriais U, V tem-se
(U + V )

= U

(U V )

= U

+ V

. (5.21)
Basta ver a primeira igualdade, ja que a segunda decorre desta tomando o ortogonal
do ortogonal. Essencialmente o resultado segue entao de U, V serem subespacos de
U + V R
n
.
5.1.3 Subespacos ans
Primeiro uma referencia ao conceito de espaco am, que nao denimos. A duali-
dade, mas nao ambiguidade, entre pontos e vectores devia-nos levar a pensar num
espa co de pontos mais abstracto que R
n
, onde sempre zesse sentido adicionar pon-
tos com vectores, obtendo novos pontos, e onde se vericassem as mais elementares
regras de adi cao. Onde a diferenca entre dois quaisquer pontos fosse um vector.
Um espaco am e pois entendido a partir daquela ideia, mas nao privilegiando
uma origem dos pontos nem um qualquer referencial escolhido, ou seja, e um espa co
abstracto onde sempre que tomamos quaisquer n+1 pontos em posicao geral estes
denem uma identicacao com R
n
e onde, ao mudarmos de um referencial para
outro, damos lugar a um isomorsmo (am) do espaco euclidiano.
Entenda-se por agora a questao da invariancia de referencial, sustentada pela
chamada geometria am, numa forma ideal como a da propria invariancia dos con-
ceitos fundamentais da geometria. Adiada essa questao, continuaremos a trabalhar
apenas com o espa co euclidiano.
Sabemos que os subespacos vectoriais de R
n
passam todos por (0, . . . , 0). Para
descrever subconjuntos paralelos a estes so temos de lhes adicionar um ponto.
Chamamos subespaco am a um subconjunto de R
n
do tipo
T = P
0
+ U, (5.22)
com P
0
um ponto qualquer de R
n
e U um subespaco vectorial de R
n
.
Note-se que o mesmo subespaco am T pode ser descrito por T = P

0
+U com
P

0
outro ponto. Basta que o vector P
0
P

0
pertenca a U.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 57
O subespaco vectorial U chama-se subespaco associado ao subespaco am T.
Tambem se diz de U ser a direccao do subespaco am. Referimo-nos `a dimensao
de T como sendo a dimensao de U.
Se dimU = 1, entao T diz-se uma recta; se dimU = 2, T diz-se um plano. E
se dimU = n 1, entao dizemos que T e um hiper-plano.
Sendo T
0
= P
0
+ U
0
, T
1
= P
1
+ U
1
dois subespacos ans de direccoes U
0
, U
1
, a
sua interseccao, se nao for vazia, e um subespa co am de direccao U
0
U
1
.
Diremos que T
0
e paralelo a T
1
, e escrevemos T
0
| T
1
, se U
0
U
1
. Note-se
que tal so depende dos subespacos vectoriais associados e nao dos pontos P
0
, P
1
.

E
claro que se o subespa co am T
0
e paralelo e intersecta T
1
, entao esta contido em
T
1
. E recprocamente.
Dois subespa cos ans dizem-se oblquos se os respectivos subespa cos vectoriais
associados tem interseccao trivial.
Sera util arranjar criterios para dizer quando dois subespacos ans se encontram.
Neste sentido temos o
Teorema 21. Sejam c, T
0
, T
1
tres subespacos ans associados, respectivamente,
aos subespacos vectoriais E, U
0
, U
1
. Suponhamos que T
0
, T
1
estao contidos em c e
que dim(U
0
+ U
1
) dimE. Entao existe pelo menos um ponto na interseccao, ou
seja,
T
0
T
1
,= . (5.23)
Demonstracao. Sejam P
i
T
i
, i = 0, 1, quaisquer. Entao P
1
P
0
E pois P
0
, P
1

c. Por U
0
, U
1
E e pela hipotese sobre a dimensao, resulta que U
0
+ U
1
= E.
existem u
0
U
0
, u
1
U
1
tais que P
1
P
0
= u
0
+u
1
; daqui vem P
1
u
1
= P
0
+u
0

T
0
T
1
como queramos demonstrar.
Dito de outro modo, se T
0
= P
0
+U
0
esta contido em T
1
+U
0
= P
1
+U
1
+U
0
,
entao T
0
T
1
,= .
Como ja se referiu acima, a dimensao da interseccao e dim U
0
U
1
.
5.1.4 Problemas metricos em subespacos ans
Voltemos agora aos problemas metricos.
Dado um subespa co am T = P
0
+U, poderemos referir um subespaco am or-
togonal ao subespaco am dado como um qualquer subespaco am cujo subespaco
vectorial associado e o ortogonal de U.
Por cada ponto do espaco passa um unico subespaco am ortogonal ao primeiro.
Agora, tendo em conta que U + U

= R
n
e que U U

= 0 (estao em soma
directa), dado um subespaco am T de direc cao U e dado um ponto P qualquer,
vemos pelo teorema 21 que P + U

intersecta T num unico ponto Q


0
.
A Q
0
da-se o nome de pe da perpendicular a T passando por P.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 58
P
P
Q
A
B
1
2
F
F
2
2
1
F
Figura 5.1: A ortogonal comum.
Chamamos distancia entre dois subconjuntos /, B de R
n
ao valor
dist(/, B) = inf
P

A, P

B
|P

| (5.24)
(repare-se que o nmo existe pelo nosso conhecimento dos n umeros reais e por a
norma ser sempre 0).
A distancia entre dois conjuntos e, assim, o nmo das distancias entre pares de
pontos, um de / outro de B.

E evidente que a distancia entre um ponto P R


n
e um subespa co am T tem
a seguinte expressao:
dist(P, T) = |P Q
0
|
com Q
0
um ponto em T tal que P Q
0
T.
(5.25)
Q
0
e precisamente o pe da perpendicular a T passando por P. A demonstracao
deste facto resulta da aplica cao do teorema de Pitagoras no triangulo P, Q
0
, Q onde
Q e outro ponto qualquer de T.
O seguinte teorema generaliza o resultado anterior.
Teorema 22. Para quaisquer dois subespacos ans T
1
, T
2
do espaco euclidiano,
existem sempre A T
1
e B T
2
tais que dist(T
1
, T
2
) = |A B|.
Se T
1
, T
2
sao oblquos, entao A e B sao unicos.
Demonstracao. (Ver gura 5.1) Sejam U
1
, U
2
subespacos vectoriais e P
1
, P
2
pontos
quaisquer, tais que T
i
= P
i
+ U
i
, i = 1, 2. Seja c = T
1
+ U
2
= P
1
+ (U
1
+ U
2
).
Encontremos Q =pe da perpendicular a c passando por P
2
. Seja T

2
= Q + U
2
.
Como Q c, temos c T
1
, T

2
. Seja entao A T
1
T

2
um ponto encontrado
pelo teorema 21. Finalmente chamemos B = A + P
2
Q. Verica-se facilmente
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 59
que B T
2
. E ainda A B = Q P
2
T
1
, T
2
, cf. (5.21). Agora se X
i
T
i
,
i = 1, 2, entao
|X
1
X
2
|
2
= |X
1
A + A B + B X
2
|
2
= |X
1
A|
2
+|A B|
2
+|B X
2
|
2
donde onmo destas normas ao quadrado e |AB|
2
. Uma vez que a raz quadrada
e uma funcao crescente, tem-se dist(T
1
, T
2
) = |A B|.
Vejamos agora a unicidade. Suponhamos U
1
U
2
= 0 e escolhamos P

2
qualquer em lugar de P
2
. Seja Q

o respectivo pe da perpendicular a c. Entao


QQ

U
2
e logo T

2
e unico. Entao A e unico e logo B tambem.
A distancia entre dois subespacos ans tais que o primeiro e paralelo ao segundo,
e a distancia entre um ponto qualquer do primeiro subespaco am e o segundo
subespaco am:
T
1
| T
2
= dist(T
1
, T
2
) = dist(A, T
2
) (5.26)
com algum A T
1
. Com efeito, se B e o pe da perpendicular a T
2
passando por
A e se A

T
1
e outro ponto qualquer, como A, entao o pe da perpendicular a T
2
passando por A

e o ponto B

= B + A

A. Por ser T
1
paralelo a T
2
, tem-se de
A

A no subespaco associado a T
2
.
5.2 Geometria de R
3
5.2.1 Equacoes de rectas e planos
Uma recta
2
r = P
0
+u de R
3
pode ser dada pela sua equacao vectorial
P r P = P
0
+ tu para algum t R. (5.27)
A recta tambem se pode escrever, resolvendo a equacao anterior em ordem a t,
como a interseccao de dois planos... Supondo P
0
= (
1
,
2
,
3
) e u = (a, b, c), entao
P = (x, y, z) estara na recta r sse
x =
1
+ at, y =
2
+ bt, z =
3
+ ct (5.28)
para algum t R. Donde em geral se podera escrever o sistema de equacoes
axiais da recta como:
_

_
bx ay + a
2
b
1
= 0
cx az + a
3
c
1
= 0
bz cy + c
2
b
3
= 0
. (5.29)
2
Em geometria euclidiana e usual denotar os planos por letras gregas min usculas, as rectas por
letras latinas min usculas e os pontos por letras latinas mai usculas.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 60
Este sistema tem caracterstica 2, como e facil provar. Sera mesmo 2 se a recta
nao degenera num ponto: com efeito, por exemplo, se for b ,= 0, entao L
2
=

a
b
L
3
+
c
b
L
1
.
Vejamos agora o caso de um plano.
Um plano em R
3
aparece sempre como o ortogonal a um vector v = (a, b, c),
adicionado de um outro ponto P
0
. Ou seja P
0
+ v

. A equacao vectorial
do plano e pois
P P P
0
v. (5.30)
Assim, denotando o real d = P
0
, v, a equacao axial do plano e
(x, y, z) ax + by + cz = d. (5.31)
Um resultado classico da geometria euclidiana garante que tres pontos denem
um e um so plano. Na geometria analtica encontramos problemas praticos como
esse e muitos outros, que admitimos o leitor deva saber reconhecer.
Exemplos:
1. Sendo dada a recta r pelo sistema de equacoes x = 0, y = 2z +3, procuremos
a sua equa cao vectorial. Os pontos P
0
= (0, 3, 0) e P
1
= (0, 1, 1) estao na
recta, logo r P
0
+u com u = P
1
P
0
= (0, 2, 1).
2. Dado o ponto P
0
= (2, 3, 1) e a recta r (1+3t, 4t, 12t), t R, sera que os
dois denem um unico plano que por eles passa? Qual a sua equacao axial?
Bom, P
0
nao satisfaz a equacao da recta r, a qual tem direc cao u = (3, 4, 2);
entao ha um so plano que os contem:
P P = P
0
+ s(P
1
P
0
) + tu, s, t R (5.32)
onde P
1
e um ponto qualquer na recta. Podemos tomar, por exemplo, P
1
=
(1, 0, 1), fazendo t = 0, e entao P
1
P
0
e linearmente independente de u. O
vector v = (a, b, c) que procuramos para a equacao axial do plano satisfaz a
condicao de ser ortogonal a P
1
P
0
= (1, 3, 0) e `a direccao da recta r:
_
P
1
P
0
, v = 0
u, v = 0

_
a 3b = 0
3a + 4b 2c = 0

_
a = 3b
2c = 5b
. (5.33)
Podemos entao tomar v = (6, 2, 5) e logo d = P
0
, v = 12 6 + 5 = 11;
donde, nalmente, 6x 2y + 5z = 11.
5.2.2 Algumas formulas de distancias
A distancia entre dois pontos P
0
, P
1
e claramente a norma de P
1
P
0
.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 61
A distancia entre um ponto P = (
1
,
2
,
3
) e um plano ax + by + cz = d e
dada pela formula
dist(P, ) =
[a
1
+ b
2
+ c
3
d[

a
2
+ b
2
+ c
2
. (5.34)
Com efeito, sendo Q
0
o pe da perpendicular a passando por P, temos de ter
P Q
0
= t(a, b, c) = tu, com t R a descobrir. Ora, P Q
0
, u = t|u|
2
. Entao
dist(P, ) = |P Q
0
| = [t[|u| =
1
u
[a
1
+ b
2
+ c
3
d[, como queramos.
Dependente da forma como aparecem as equacoes, assim se justicara a melhor
e mais expedita formula.
A distancia entre um ponto P e uma recta r P
0
+ tu, t R e dada por
dist(P, r) =

|P P
0
|
2
|u|
2
u, P P
0

|u|
2
. (5.35)
De novo, sendo Q
0
o pe da perpendicular a r que passa por P, temos Q
0
= P
0
+tu
para algum t e por denicao P Q
0
u. Desenvolvendo, obtem-se (5.35). Formula
v alida tambem em R
n
, note-se.
Exemplos:
1. A distancia entre o ponto P por exemplo de coordenadas (t, t
2
, t
3
), com t R
qualquer, e o plano de direccao gerada por (2, 3, 2), (1, 0, 1) e que passa
por (1,0,0), calcula-se do seguinte modo: a direc cao ortogonal a e gerada
por (3,-4,-3), como e facil de ver. Como d = (1, 0, 0), (3, 4, 3) = 3, resulta
que 3x 4y 3z = 3. Entao a distancia dist(P, ) =
|3t4t
2
3t
3
3|

34
.
2. Podemos falar em distancias entre rectas e planos em R
3
se estes forem par-
alelos, cf. (5.26). Por exemplo, entre a recta s dada pelo sistema de equacoes
4xy +z = 2, 2z 3y = 3 e o plano 4z 6y = 0. Primeiro, s e paralela
a porque esta contida no plano 2z 3y = 3, o qual claramente tem a mesma
direccao ortogonal que . Um ponto na recta e, por exemplo, P = (
1
4
, 1, 0);
ent ao
dist(s, ) = dist(P, ) =
6 3

16 + 24
=
3
2

10
. (5.36)
Tambem poderamos ser acometidos com problemas de determinacao de angulos
entre recta e plano, ou entre dois planos.
Sendo r P
0
+tu, t R e P P
1
v, denimos o angulo entre recta e
plano como (r, ) = (u, v). Se P P
2
w e outro plano, podemos denir
(, ) = (v, w) como o angulo entre dois planos.
5.2.3 Polgonos e poliedros
Um segmento de recta de extremidades P
0
, P
1
e entendido como o conjunto de
pontos (1 t)P
0
+tP
1
, com 0 t 1. Denota-se por P
0
P
1
. Aos extremos tambem
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 62
se da o nome de vertices. Se P
0
,= P
1
, entao ha uma unica recta que contem o
segmento de recta; e a recta suporte.
Um triangulo e uma uniao de tres segmentos descritos por apenas tres vertices
nao colineares. Denota-se por P
0
P
1
P
2
.
A partir de segmentos de recta P
i1
P
i
, i = 1, . . . , k, denominados arestas ou
lados, podemos construir os chamados polgonos ou linhas poligonais fechadas:
P
0
P
1
P
2
P
k
= P
0
P
1
P
1
P
2
P
k1
P
k
, (5.37)
sem outras repeticoes de vertices alem de P
k
= P
0
.
O comprimento de um segmento de recta P
0
P
1
e a quantidade real L(P
0
P
1
) =
|P
1
P
0
|.
Um quadrilatero e entendido como um polgono de quatro lados, fechado e
contido num plano. Um trapezio e um quadrilatero em que dois dos lados sao
paralelos.
Um paralelogramo e um quadrilatero em que os lados nao adjacentes sao
paralelos e tem o mesmo comprimento.
Um paralelogramo e pois descrito em R
n
por um vertice P
0
e dois vectores u, v
linearmente independentes, com os quais se constroem os outros vertices, a saber
P
0
+ u, P
0
+ v, P
0
+ u + v. Vamos denotar uma tal polgono por (P
0
, u, v).
Um polgono diz-se regular se for plano, se todos os lados tem o mesmo com-
primento e se todos os vertices formam o mesmo angulo. Por exemplo, o triangulo,
o quadrado, o pentagono, o hexagono, o heptagono, o octogono, etc sao polgonos
regulares. Estes existem sempre, qualquer que seja o n umero k de arestas, se k 3.
Sem preocupacoes de maior, avancemos agora para a teoria dos poliedros, gen-
eralizando a 3 dimensoes o conceito de polgono.
Diremos que os poliedros sao as unioes de varios polgonos planos pelas suas
arestas, as quais sao coincidentes em pares.
Cada um destes polgonos determina uma face; a geometria
3
dos poliedros pode
ser bem complicada. Um poliedro diz-se convexo se sempre que tomamos dois
pontos em faces diferentes o segmento de recta que os une nao toca nenhuma outra
face.
Teorema 23 (relacao de Euler). Para qualquer poliedro convexo, verica-se a
relacao, dita de Euler,
V A + F = 2 (5.38)
onde V =n umero de vertices, A =n umero de arestas e F =n umero de faces.
3
Na realidade, e a parte da geometria chamada de topologia do espaco euclidiano que nao cabe
nestas notas. Teramos de denir o interior do poliedro.

E tambem no domnio da topologia, a
topologia algebrica, que se demonstra cabalmente a rela cao de Euler.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 63
Faremos aqui um esboco, muito incompleto, da demonstracao. Argumentos mais
profundos encontram-se e.g. em [Aud03]. Mencionamos apenas um raciocnio de
construcao/por indu cao. Aceitemos entao que o poliedro, so porque e convexo(!), se
decompoe, como um lego, em tetraedros gura de 4 faces, 4 vertices e 6 arestas,
vericando 46+4 = 2. Agora suponhamos que a formula (5.38) e valida para um
dado poliedro e acrescentemos-lhe um tetraedro junto de uma qualquer face. Esta
face desaparece. Ao poliedro acresce entao um 1 vertice, 3 arestas e 2 faces. Como
1 3 + 2 = 0, a identidade de Euler nao se altera.
Posto isto, diremos que um poliedro e regular se todas as faces sao copias
do mesmo polgono regular e todos os vertices sao copia do mesmo vertice (copia
signica isometria, em sentido a precisar noutra seccao).
Um solido platonico e um poliedro regular convexo.
Teorema 24. Considere-se um poliedro convexo tal que cada face tem o mesmo
n umero s de arestas e de cada vertice emanam o mesmo n umero r de arestas.
Entao (s, r) esta entre os casos (3, 3), (3, 4), (4, 3), (3, 5) ou (5, 3).
Demonstracao. Seguindo a notacao anterior, tem-se Fs = 2A (cada aresta encontra
duas faces) e 2A = rV (cada aresta tem dois vertices). Da rela cao de Euler resulta
entao, substituindo,
2A
r
A +
2A
s
= 2. Entao
1
r
+
1
s
=
1
2
+
1
A
>
1
2
visto que A > 0. Uma vez que cada face tem pelo menos 3 arestas e cada vertice
encontra pelo menos 3 faces, vem r, s 3. Entao
1
r
>
1
2

1
s

1
2

1
3
=
1
6
donde r 5. Fazendo o mesmo para s, da-nos s 5. Ve-se bem da primeira
desigualdade que os casos simultaneamente r, s 4, 5 nao sao solucao.
Alem de unicos a menos da escala, os 5 casos descritos no teorema anterior sao
de facto possveis de construir como poliedros regulares. Pela ordem do enunci-
ado do teorema, tratam-se do tetraedro, do cubo (hexaedro), do octaedro, do
dodecaedro
4
e do icosaedro.
Como se ve pela demonstracao acima, os naturais r, s determinam V, A, F:
r s V A F
tetraedro 3 3 4 6 4
cubo 3 4 8 12 6
octaedro 4 3 6 12 8
dodecaedro 3 5 20 30 12
icosaedro 5 3 12 30 20
(5.39)
4
Do grego, dodeca=do+deca=2+10=12. Icosa=20.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 64
Figura 5.2: Os 5 solidos platonicos.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 65
Mais ainda, os pares (r, s) sao duais no sentido seguinte: dado um poliedro convexo,
construimos o seu dual unindo com segmentos de recta os centros das faces.
Como um polgono regular tem tantas arestas quantos vertices, o poliedro dual
do poliedro dual e o poliedro inicial.
Nao e difcil compreender que no caso dos poliedros regulares convexos, os val-
ores de r, s trocam entre si, na troca pelo dual. Assim, o tetraedro coincide com o
seu dual, o cubo e dual do octaedro e o dodecaedro e dual do icosaedro.
Tendo em conta o conhecimento comum dos tres primeiros solidos e a dualidade
do icosaedro, restar-nos-a demonstrar a possibilidade honesta de construcao do
dodecaedro; remetemos o leitor para [Aud03].
Terminamos aqui esta brevssima incursao pela geometria classica e combi-
natoria, esperando ter por esclarecida a classicacao dos solidos platonicos, tal
como podemos ver na gura 5.2.
5.2.4 Comprimentos, areas e volumes
Ja vimos em que consiste o comprimento de um segmento de recta. O compri-
mento de uma linha poligonal = P
0
P
1
P
2
P
k
e a quantidade real
L() =
k

i=1
|P
i
P
i1
|. (5.40)
L() tambem se diz permetro quando a linha e fechada: P
k
= P
0
.
Interessa-nos agora a nocao de area de um paralelogramo (P
0
, u, v), a qual se
dene como a quantidade real, independente de P
0
:
A(u, v) = |u||v| sen (u, v). (5.41)
De (5.3), (5.8) e da igualdade trigonometrica sen
2
+ cos
2
= 1 (que aqui dene a
propria funcao seno), resulta de imediato
A(u, v) =
_
u, uv, v u, v
2
. (5.42)
Supondo que estamos no espaco euclidiano R
2
e supondo que u = (a, b), v =
(c, d), designemos por L =
_
u
v
_
=
_
a b
c d
_
; entao daqui vira
LL
T
=
_
a
2
+ b
2
ac + bd
ac + bd c
2
+ d
2
_
=
_
u, u u, v
u, v v, v
_
. (5.43)
Como det(LL
T
) = det Ldet L
T
= (det L)
2
, aplicando a (5.42) descobrimos a for-
mula
A(u, v) =
_
det(LL
T
) = [ det L[ = [ det(u, v)[ = [ad bc[ (5.44)
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 66
ou seja
A = [ det [. (5.45)
Da soma de areas de paralelogramos resultam as areas de outras superfcies
seccionalmente planas. A fun cao area devera ser aditiva
5
. Em particular, a area de
um triangulo de arestas u, v tem de valer
1
2
[ det(u, v)[.
Voltemos a R
n
com n 3. Comecemos por generalizar a nocao de paralelo-
gramo.
Um paralelippedo e um poliedro de 6 faces tal que as faces sao paralelogramos
e copia umas das outras em planos paralelos, quando nao adjacentes.
Um paralelippedo e pois descrito emR
n
por um vertice P
0
e tres vectores u, v, w,
com os quais se constroem os outros vertices, a saber P
0
+ u, P
0
+ v, P
0
+ w, P
0
+
u +v, P
0
+ u + w, P
0
+ v + w, P
0
+ u + v + w. Vamos denotar um tal poliedro por
(P
0
, u, v, w).
Damos agora a nocao de volume de um paralelippedo (P
0
, u, v, w), o qual se
dene como a quantidade real, independente de P
0
:
V (u, v, w) = A(u, v)|w Q| (5.46)
onde Q e o pe da perpendicular passando pela extremidade de w ao plano gerado
por u, v.
Note-se que, tal como a area corresponde ao comprimento da base vezes a
altura, tambem o volume corresponde a area da base vezes altura.
Consideremos a matriz
G =
_

_
|u|
2
u, v u, w
u, v |v|
2
v, w
u, w v, w |w|
2
_

_
. (5.47)
Teorema 25. Dado um paralelippedo (P
0
, u, v, w) em R
n
, o seu volume e dado
por
V (u, v, w) =

det G. (5.48)
Demonstracao. Tem-se Q = u + v para certos , R. O sistema de equacoes
w Q u, v traduz-se como
_
w u v, u = 0
w u v, v = 0

_
|u|
2
+ v, u = w, u
|v|
2
+ v, u = w, v
.
Usamos uma notacao habitual E = |u|
2
, F = |v|
2
, G = u, v (nao se confunda
com o G do enunciado). Usamos tambem = w, u, = w, v, = |w|
2
e ainda
A
2
= EF G
2
. Continuando a resolver o sistema anterior, vem
_
E + G =
G + F =

_
=
EG
A
2
=
FG
A
2
.
5
Eis outra nocao que escapa ao ambito deste curso.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 67
Se fosse A = 0 o sistema u, v seria degenerado, ou seja, u, v seriam linearmente
dependentes; mas ve-se bem que neste caso o determinante do enunciado tambem
e nulo.
Por denicao, |Q|
2
= |u + v|
2
=
2
E + 2G +
2
F. Substituindo resulta
|Q|
2
A
4
= (G + F)
2
E + 2(E G)(F G)G + (E G)
2
F
=
2
G
2
E 2EFG +
2
F
2
E + 2EFG2
2
EG
2
2
2
FG
2
+ 2G
3
+
2
E
2
F 2EFG +
2
G
2
F
=
2
(E
2
F EG
2
) + 2(G
3
EFG) +
2
(F
2
E FG
2
)
=
2
EA
2
2GA
2
+
2
FA
2
.
Tem-se ainda |w Q|
2
= |w|
2
|Q|
2
, pelo teorema de Pitagoras com w na
hipotenusa ou lado maior. Donde
V
2
= |w Q|
2
A
2
= |w|
2
A
2
|Q|
2
A
2
=
2
A
2

2
E + 2G
2
F
=
2
A
2
(F G) + (GE) =

E G
G F

Esta ultima e ja a igualdade que se procurava.


A formula encontrada mostrara tambem que a nocao de volume e totalmente
simetrica em u, v, w, ou seja, tambem podemos dizer que
V (u, v, w) = V (u, w, v) = V (v, w, u) (5.49)
e outras simetrias obvias.
Vejamos agora a situacao em que n = 3.
O volume de um paralelippedo em dim 3 e dado pelo determinante dos tres
vectores u, v, w que o geram: sendo u = (a
11
, a
12
, a
13
), v = (a
21
, a
22
, a
23
), w =
(a
31
, a
32
, a
33
), vem
V (u, v, w) =

det
_

_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_

. (5.50)
Ou seja, V (u, v, w) = [ det(u, v, w)[.
A demonstracao desta formula e analoga ao caso da dim 2: pondo L = [a
ij
], de
novo se deduz (det L)
2
= det G.
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 68
Invocando a multilinearidade do determinante, percebemos que o volume e uma
funcao aditiva
6
. Em particular, como um cubo contem 6 tetraedros de iguais com-
primentos das arestas, podemos concluir que o volume do tetraedro gerado por
quaisquer u, v, w e
Volume(tetraedro(u, v, w)) =
1
6
V (u, v, w). (5.51)
Voltemos `a dimensao n qualquer. A expressao do volume como um determinante
generaliza-se a R
n
e mais geralmente a espa cos vectoriais orientados com produto
interno.
6
Tal como no caso da area, este aditiva seria bastante demorado de explicitar. Tem o sentido
e a consequencia de a funcao volume ser linear sobre a decomposicao dos poliedros em tetraedros,
para aqueles que a admitam.
Bibliograa
[Agu83] F. R. Dias Agudo. Introducao `a algebra linear e geometria analtica.
Livraria Escolar Editora, 1983.
[Aud03] M. Audin. Geometry. Universitext. Springer-Verlag Berlin Heidelberg
New York, 2003.
[Gro83] L. C. Grove. Algebra. Academic Press, 1983.
[Mac90] A. Machado. Topicos de

Algebra Linear e Multilinear. Textos e Notas 42.
Instituto Nacional de Investigacao Cientca, 1990.
[Mon89] A. J. A. Monteiro.

Algebra linear e geometria analtica. Associacao dos
Estudantes da Faculdade de Ciencias de Lisboa, 1989.
[Wik] Wikipedia. www.
69

Indice
area, 65
angulo
entre dois planos, 61
entre dois vectores, 53
entre recta e plano, 61
abeliano, 10, 11
alternada, 31
anel, 11
unitario, 11
anti-simetrica, 31
aplica cao, 8
linear, 43
aresta, 62
associativa, 9
automorsmo, 44
base, 40
canonica, 32
ortonormada, 55
caracterstica, 20
de coluna, 23
de linha, 23
Cauchy
desigualdade de , 53
ciclo, 27
classes de equivalencia, 7
coecientes, 14
coluna, 14
combina c ao linear, 40
complementar, 6
complemento algebrico, 36
composi cao, 8
composta, 8
comprimento, 62, 65
comutam, 16
comutativo, 10, 11
condensa cao, 20
conjunto
de chegada, 8
de partida, 8
corpo, 12
Cramer
regra de , 37
cubo, 63
desigualdade triangular, 53
determinante, 29
de um endomorsmo, 48
diagonal, 7
diagonal principal, 17
diagonalizavel, 51
dimensao, 14, 40, 41, 57
direc cao, 57
distancia, 58
dodecaedro, 63
elemento
neutro, 9
oposto, 9
simetrico, 9
endomorsmo, 44
entradas, 14
epimorsmo, 44
escalar, 39
espaco
am, 56
cartesiano, 21
euclidiano, 21
vectorial, 39
espaco vectorial
gerado, 40
produto, 42
70
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 71
soma cartesiana, 42
Euler
relacao de , 62
face, 62
fun cao, 8
bijectiva, 8
identidade, 8
injectiva, 8
inversa, 8
sobrejectiva, 8
Gauss
metodo de , 20
geometria am, 56
grau de indeterminacao, 21
grupo, 9
permuta coes, de, 10, 27
simetrico, 10, 27
sub, 10
hexaedro, 63
hiper-plano, 57
icosaedro, 63
identidade, 16
imagem, 8
imagem recproca, 43
independencia linear, 22
intersec cao, 6
inversa, 8
`a direita, 8
`a esquerda, 8
inverso, 9
invertvel, 17
`a direita, 17
`a esquerda, 16
isomorsmo, 44
Kronecker
smbolos de , 55
lado, 62
Laplace
regra de , 35
linearmente
dependentes, 22
independentes, 22, 40
linha, 14
linhas poligonais fechadas, 62
metodo de Gauss, 20
matriz, 14
adjunta, 36
ampliada, 19
anti-simetrica, 17
da aplicacao linear, 45
de mudanca de base, 47
diagonal, 16
diagonalizavel, 51
identidade, 16
invertvel, 17
ordem, 16
quadrada, 16
simetrica, 17
tra co de uma , 51
transposta, 17
triangular inferior, 17
triangular superior, 17
matrizes
semelhantes, 50
maximal, 40
menor, 40
monomorsmo, 44
multiplica cao
de matrizes, 14
por escalar, 39
multiplicidade
algebrica, 49
geometrica, 49
n ucleo, 44
norma, 52
normado, 55
objecto, 8
oblquos, 57
octaedro, 63
ordem, 16, 27
Albuquerque, Prontuario de

Algebra Linear e Geometria Analtica 72
ortogonal, 53, 57
pe da perpendicular, 57
paralelippedo, 66
paralelo, 57
paralelogramo, 55, 62
pares ordenados, 6
permetro, 65
permutacao, 27
sinal, 28
permutam, 16
pertence, 6
Pitagoras, 55
plano, 57
equacao axial, 60
equacao vectorial, 60
polgono, 62
regular, 62
poliedro, 62
convexo, 62
dual, 65
regular, 63
polinomio caracterstico, 49
produto cartesiano, 6
produto interno
euclidiano, 52
projec cao
ortogonal, 54
quadrilatero, 62
quociente, 12
recta, 57
equacao axial, 59
equacao vectorial, 59
segmento de , 61
suporte, 62
reexiva, 7
regra de
Cramer, 37
Laplace, 35
na 1
a
linha, 35
produto, 34
Sarrus, 29
regular
polgono , 62
rela cao, 7
de equivalencia, 7
de Euler, 62
resto, 12
reuniao, 6
solido platonico, 63
smbolos de Kronecker, 55
Sarrus
regra de , 29
segmento de recta, 61
simetrico, 10
simetria, 7
sinal, 28
sli, 40
soma directa, 43
subconjunto, 6
subespa co
am, 56
associado, 57
ortogonal, 53
proprio, 49
vectorial, 40
vectorial soma, 42
subgrupo, 10
tetraedro, 63
traco, 51
transitiva, 7
transposicao, 27
trapezio, 62
triangulo, 62
vertice, 62
valor, 8
valor proprio, 49
vazio, 6
vector, 21, 39
normado, 55
proprio, 49
unitario, 55
volume, 66

Das könnte Ihnen auch gefallen