Sie sind auf Seite 1von 90

Tópicos de Álgebra Linear

Isabel Maria Teixeira de Matos

Secção de Matemática
Departamento de Engenharia de Electrónica
e Telecomunicações e de Computadores (DEETC-ISEL)

3 de Fevereiro de 2008
Conteúdo

1 MATRIZES 1
1.1 Conceitos Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Álgebra das Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Operações elementares. Caracterı́stica de uma matriz . . . . . . . . . . . 10
1.4 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Inversa de uma Matriz Quadrada . . . . . . . . . . . . . . . . . . . . . . 17

2 DETERMINANTES 21
2.1 Conceitos Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Definição de Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Propriedades dos Determinantes . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 O Teorema de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Aplicações dos Determinantes . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.1 Cálculo da Inversa de uma Matriz . . . . . . . . . . . . . . . . . . 25
2.5.2 Resolução de Sistemas Lineares Possı́veis e Determinados . . . . . 26

3 ESPAÇOS VECTORIAIS 29
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Dependência e Independência Lineares . . . . . . . . . . . . . . . . . . . 31
3.2.1 Caracterı́stica de uma Matriz . . . . . . . . . . . . . . . . . . . . 35
3.3 Subespaços vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.1 Subespaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.5 Matriz de Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . 45

4 APLICAÇÕES LINEARES 49
4.1 Núcleo e Imagem. Classificação de um Morfismo . . . . . . . . . . . . . . 52

ii
4.2 Soma, Multiplicação por Escalar, Composta e Inversa de Aplicações Lineares 58
4.3 Matriz de uma Aplicação Linear . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.1 Relação entre as diferentes Matrizes de uma Aplicação Linear . . 66

5 VECTORES e VALORES PRÓPRIOS 71


5.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2 Subespaços Próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.3 Endomorfismos Diagonalizáveis . . . . . . . . . . . . . . . . . . . . . . . 80

iii
Capı́tulo 1

MATRIZES

1.1 Conceitos Gerais

Definição 1 Seja F um conjunto não vazio onde estão definidas duas operações
binárias1 : uma adição e uma multiplicação, denotadas por + e ×, respectivamente.
Diz-se que (F, +, ×) é um corpo se:
(A1) A adição é comutativa: ∀x, y ∈ F x + y = y + x;
(A2) A adição é associativa: ∀x, y, z ∈ F (x + y) + z = x + (y + z);
(A3) A adição tem elemento neutro 0: ∃0 ∈ F ∀x ∈ F x + 0 = 0 + x = x;
(A4) Todo o elemento x de F tem simétrico (−x) em F:
∀x ∈ F ∃(−x) ∈ F x + (−x) = (−x) + x = 0.
(M1) A multiplicação é comutativa: ∀x, y ∈ F x × y = y × x;
(M2) A multiplicação é associativa: ∀x, y, z ∈ F (x × y) × z = x × (y × z);
(M3) A multiplicação tem elemento neutro 1: ∃1 ∈ F ∀x ∈ F x × 1 = 1 × x = x;
(M4) Todo o elemento x de F \ {0} tem inverso x−1 em F \ {0}:
∀x ∈ F \ {0} ∃x−1 ∈ F \ {0} x × x−1 = x−1 × x = 1.
(D) A multiplicação é distributiva em relação à adição:
∀x, y, z ∈ F x × (y + z) = x × y + x × z.

Observações
1 — Identifica-se o corpo (F, +, ×) com o conjunto suporte F, sabendo que estão
sempre implı́citas as duas operações nele definidas.
2 — A adição e a multiplicação usuais de números reais verificam as propriedades
referidas na Definição 1, pelo que, R é um corpo – o corpo dos números reais.
1
Uma operação binária em F é uma aplicação que faz corresponder a cada par ordenado de elementos
de F um (e um só) elemento deste conjunto.

1
3 — A adição e a multiplicação usuais de números complexos satisfazem as pro-
priedades referidas na Definição 1, por isso, C é um corpo – o corpo dos números
complexos.
+ 0 1 × 0 1
4 — F = {0, 1} com as operações 0 0 1 e 0 0 0 é um corpo – o menor
1 1 0 1 0 1
dos corpos finitos. Designa-se por Z2 e é o corpo dos inteiros módulo 2.
5 — Neste capı́tulo, bem como em todos os que se seguem, trabalhar-se-á nos corpos
R e C (com as operações usuais). No entanto, toda a teoria apresentada desenvolve-se
da mesma maneira em qualquer corpo.

Definição 2 Sejam m e n dois números naturais. Uma matriz do tipo m × n


(com elementos num corpo) é um quadro de mn números (desse corpo) distribuidos em
m linhas e n colunas.
A cada um dos números que forma a matriz dá-se o nome de entrada.
Para referenciar (e localizar) uma entrada utilizam-se dois ı́ndices, por esta ordem:
o ı́ndice de linha e o ı́ndice de coluna.
Uma matriz real (resp.: complexa) é uma matriz cujas entradas são números reais
(resp.: complexos).

Exemplo
h i
A = 1 0 −1 2 é uma matriz do tipo 1 × 4 (matriz linha). A sua entrada (1, 3)
é (−1).
Mais geralmente, qualquer matriz do tipo 1 × n diz-se uma matriz linha.
 
3
B =  2  é uma matriz do tipo 3 × 1 (matriz coluna). A sua entrada (2, 1) é 2.
 

1
A qualquer matriz do tipo m × 1 chama-se matriz coluna.
" #
1 2 3
C= é uma matriz do tipo 2 × 3 e é uma matriz rectangular (2 6= 3).
4 5 6
Em geral, qualquer matriz do tipo m × n, com m 6= n, diz-se uma matriz rectan-
gular.
" #
1 −1
D= é uma matriz do tipo 2 × 2. Também se diz uma matriz quadrada
0 −4
de ordem 2.
Mais geralmente, qualquer matriz do tipo n × n denomina-se matriz quadrada de
ordem n.

2
Notação
Se A é uma matriz do tipo m × n escreve-se,
 
a11 a12 · · · a1n
 a21 a22 · · · a2n
 

A=  .. .. .. .. 
 . . . .


am1 am2 · · · amn

ou, abreviadamente, A = [aij ]m×n , onde i ∈ {1, · · · , m} é o ı́ndice de linha e


j ∈ {1, · · · , n} é o ı́ndice de coluna.
O conjunto das matrizes do tipo m × n com elementos em R (resp.: C) denota-se por
m×n
R (resp.: Cm×n ), Rm,n (resp.: Cm,n ) ou ainda por Mm×n (R) (resp.: Mm×n (C)).

Definição 3 Uma submatriz de uma matriz A, do tipo m × n, é uma matriz do


tipo p × q, com 1 ≤ p ≤ m, 1 ≤ q ≤ n, obtida por supressão de alguma(s) linha(s) e/ou
alguma(s) coluna(s)de A.

Notação
Se i1 < i2 < . . . < ip são elementos distintos de {1, 2, . . . , m} e j1 < j2 < . . . < jq
são elementos distintos de {1, 2, . . . , n} A[i1 , . . . , ip |j1 , . . . , jq ] representa a submatriz de
A formada pelos elementos que pertencem à intersecção das linhas i1 , i2 , . . . , ip e das
colunas j1 , j2 , . . . , jq de A; A(i1 , . . . , ip |j1 , . . . , jq ) representa a submatriz de A que se
obtém eliminando as linhas i1 , i2 , . . . , ip e as colunas j1 , j2 , . . . , jq de A.
Exemplo
 
1 2 3 4
Seja A =  5 6 7 8 .
 

9 10 11 12
" #
1 2 4 h i
Então A[1, 3|1, 2, 4] = = A(2|3) e A[2|1, 3] = 5 7 = A(1, 3|2, 4).
9 10 12

Definição 4 Seja A = [aij ]n×n uma matriz quadrada de ordem n.


Os elementos diagonais (ou principais) de A são os n elementos que têm ı́ndices
de linha e coluna iguais, ou seja, a11 , a22 , . . . , ann . Ao seu conjunto dá-se o nome de
diagonal principal de A. A sua soma constitui o traço de A, que se denota por
tr(A) (tr(A) = a11 + a22 + · · · + ann ).
A matriz diz-se:
• Triangular superior se ∀i > j aij = 0 (são nulas todas as entradas ”abaixo”da

3
diagonal principal);
• Triangular inferior se ∀i < j aij = 0 (são nulas todas as entradas ”acima”da
diagonal principal);
• Triangular se for triangular superior ou triangular inferior;
• Diagonal se ∀i 6= j aij = 0 (são nulas todas as entradas não diagonais);
• Escalar se ∀i 6= j aij = 0 (é Diagonal) e ∃c ∈ F ∀i aii = c (c constante);
• Identidade se ∀i 6= j aij = 0 e ∀i aii = 1 (é Escalar com elemento diagonal igual a
1). Denota-se por In e é também chamada Identidade de ordem n. Frequentemente,
escreve-se In = [δij ]n×n , onde δij = 1 se i = j e δij = 0 se i 6= j (δij é o chamado
sı́mbolo de Krönecker).
• Nula se ∀i∀j aij = 0 (é Escalar com elemento diagonal igual a 0). Denota-se por
0n e é também chamada matriz nula de ordem n. Observe-se que uma matriz do
tipo m × n com todas as entradas iguais a zero também se designa por matriz nula,
denotando-se por 0m×n .

Exemplo
 
1 −1 2
A =  0 0 1  é triangular superior.
 

0 0 3
 
1 0 0 0
 
 −1 2 0 0 
B=  −2 0 1 0  é triangular inferior.

 
3 2 1 1
 
1 0 0 0
 
 0 2 0 0 
C=   é diagonal.
 0 0 3 0 

0 0 0 4
 
5 0 0
D =  0 5 0  é escalar.
 

0 0 5

Definição 5 Seja A = [aij ] uma matriz do tipo m × n. A matriz transposta de A,


At , é a matriz do tipo n × m cuja entrada (j, i) é aij .

Exemplo
" #
1 h i
A= At = 1 −1 .
−1

4
 
2
 
h i
t
 2 
B= 2 2 2 2 B =  2 .

 
2
 
  1 5 9
1 2 3 4  
 2 6 10 
C= 5 6 7 8  Ct =  .
 
 3 7 11 
9 10 11 12
 
4 8 12
   
1 2 3 1 2 3
D= 2 3 4  Dt =  2 3 4 .
   

3 4 5 3 4 5
" # " #
0 −1 0 1
E= Et = .
1 0 −1 0

Propriedade
Resulta facilmente da definição que, para qualquer matriz A, (At )t = A.

1.2 Álgebra das Matrizes


• Igualdade
Sejam A = [aij ], B = [bij ] matrizes do mesmo tipo.
A = B se e só se ∀i, j aij = bij .

• Adição
Sejam A = [aij ], B = [bij ] matrizes do tipo m × n.
A matriz soma A + B é uma matriz do tipo m × n, A + B = [cij ], onde
∀i, j cij = aij + bij .

Propriedades
Sejam A, B, C matrizes do tipo m × n. Então:
(A1) A + B = B + A;
(A2) (A + B) + C = A + (B + C);
(A3) Sendo 0m×n a matriz nula (matriz com todas as entradas nulas) do tipo m × n,
A + 0 = 0 + A = A;
(A4) Se −A é a matriz do tipo m × n cujas entradas são simétricas das entradas de
A, −A = [−aij ], A + (−A) = (−A) + A = 0m×n ;

5
(At) (A + B)t = At + B t .
Definição de Subtracção A − B = A + (−B) = [sij ], onde
∀i, j sij = aij − bij .

• Multiplicação de uma matriz por um escalar


Sejam A uma matriz real (complexa) do tipo m × n, A = [aij ] e λ ∈ R (C). O produto
escalar de A por λ, λA, é uma matriz do tipo m × n, λA = [dij ], onde ∀i, j dij = λaij .

Propriedades
Sejam A, B matrizes do tipo m × n com entradas em R (C) e α, β ∈ R (C). Então:
(Pe1) α(A + B) = αA + αB;
(Pe2) (α + β)A = αA + βA;
(Pe3) (αβ)A = α(βA);
(Pe4) 1A = A;
(Pet) (αA)t = αAt .
Observação
• Se E é uma matriz escalar de ordem n com elemento diagonal a, então E = aIn .
P
• Uma expressão do tipo i λi Ai chama-se (como veremos no Capı́tulo 3) uma com-
binação linear das matrizes Ai .

Exemplo
   
1 2 −1 5
Sejam A =  −1 0  e B =  7 −1 . Calculemos 3A − 2B.
   

−3 4 3 −8
   
3 6 2 −10
3A =  −3 0 , −2B =  −14 2  e
   

−9 12 −6 16
 
5 −4
3A − 2B = 3A + (−2B) =  −17 2 .
 

−15 28

• Multiplicação de matrizes
Sejam A uma matriz do tipo m × n, A = [aij ] e B uma matriz do tipo n × p,
B = [bjk ]. O produto de A por B, AB, é a matriz do tipo m × p, AB = [pik ] onde,
∀i, k pik = ai1 b1k + ai2 b2k + · · · + ain bnk .

Observações
1 — O produto de duas matrizes só é possı́vel se o número de colunas do primeiro factor

6
for igual ao número de linhas do segundo factor.
2 — A matriz produto tem o número de linhas do primeiro factor e o número de colunas
do segundo factor.
3 — Cada entrada da matriz produto é soma de multiplicações de todos os elementos
de uma linha do primeiro factor pelos elementos convenientes (correspondentes) de toda
uma coluna do segundo factor.

Propriedades
. Sejam A, B, C matrizes reais (complexas) compatı́veis para a multiplicação (isto é,
tais que (AB)C existe) e λ um número real (complexo). Então:
(P1) (AB)C = A(BC);
(P2) λ(AB) = (λA)B = A(λB);
(P3) Am×n In = Im Am×n = A. Em particular, se A é uma matriz quadrada de ordem
n, AIn = In A = A;
(Pt) (AB)t = B t At .
. Sejam B e C matrizes do mesmo tipo e A uma matriz tal que os produtos que se
seguem são possı́veis. Então:
(PDe) A(B + C) = AB + AC;
(PDd) (B + C)A = BA + CA.

Exemplo
 
1 2 " #
−1 5 2
a) Sejam A =  −1 0  e B = . Calculemos AB e BA.
 
0 −1 1
−3 4
 
1 2 " #
−1 5 2
AB =  −1 0  =
 
0 −1 1
−3 4
   
1 × (−1) + 2 × 0 1 × 5 + 2 × (−1) 1×2+2×1 −1 3 4
=  (−1) × (−1) + 0 × 0 (−1) × 5 + 0 × (−1) (−1) × 2 + 0 × 1  =  1 −5 −2 
   

(−3) × (−1) + 4 × 0 (−3) × 5 + 4 × (−1) (−3) × 2 + 4 × 1 3 −19 −2


 
" # 1 2
−1 5 2 
e BA =  −1 0  =

0 −1 1
−3 4
" # " #
(−1) × 1 + 5 × (−1) + 2 × (−3) (−1) × 2 + 5 × 0 + 2 × 4 −12 6
= = .
0 × 1 + (−1) × (−1) + 1 × (−3) 0 × 2 + (−1) × 0 + 1 × 4 −2 4

7
" # " #
1 0 0 0
b) Sejam A = eB= . Calculemos AB e BA.
1 0 1 1
" #" # " #
1 0 0 0 0 0
AB = =
1 0 1 1 0 0
" #" # " #
0 0 1 0 0 0
e BA = = .
1 1 1 0 2 0

" # " #
1 0 1 0
c) Sejam A = eB= . Calculemos AB e BA.
1 0 −1 2
" #" # " #
1 0 1 0 1 0
AB = =
1 0 −1 2 1 0
" #" # " #
1 0 1 0 1 0
e BA = = .
−1 2 1 0 1 0

Observações
1 — Do exemplo anterior conclui-se que o produto de matrizes não é comutativo, isto é,
em geral, AB 6= BA.
Se A e B são matrizes quadradas de ordem n tais que AB = BA diz-se que A e B
são permutáveis. É o caso das matrizes em c).
2 — Também do exemplo anterior pode concluir-se que, na multiplicação de matrizes,
não é válida a lei do anulamento do produto. Com efeito, em b), as matrizes A e B
consideradas são ambas não nulas mas AB é a matriz nula.

Definição 6 Seja A uma matriz quadrada de ordem n. As potências de expoente


inteiro não negativo de A definem-se da seguinte forma:
(
A0 = In
.
Am+1 = Am A, ∀m ≥ 0

Definição 7 Seja A = [aij ] uma matriz quadrada. Diz-se que A é:


• simétrica se At = A, ou seja, se ∀i, j aji = aij ;
• anti-simétrica (ou hemi-simétrica) se At = −A, ou seja, se ∀i, j aji = −aij .

8
Observações
Resulta imediatamente da definição que:
. uma matriz simétrica tem elementos diagonais arbitrários e elementos opostos em
relação à diagonal principal (correspondem às entradas (i, j) e (j, i) da matriz) iguais;
2
. uma matriz real ou complexa anti-simétrica tem elementos diagonais nulos e
elementos opostos em relação à diagonal principal simétricos.

Exemplo
   
−1 2 3 0 2 3
A matriz A =  2 0 4  é simétrica e B =  −2 0 −4  é anti-simétrica
   

3 4 1 −3 4 0
como facilmente se comprova calculando as transpostas respectivas.

Definição 8 Seja A = [aij ] uma matriz complexa do tipo m × n.


• A matriz conjugada de A, A, é a matriz complexa do tipo m × n cujos elementos
são os complexos conjugados dos elementos de A : A = [aij ];
• a matriz transconjugada de A, A∗ , é a transposta da matriz conjugada de A (ou,
o que é o mesmo, a conjugada da transposta de A): A∗ = (A)t = At .

Definição 9 Seja A = [aij ] uma matriz complexa quadrada. Diz-se que A é:
• hermı́tica (hermitiana) se A∗ = A, ou seja, se ∀i, j aji = aij ;
• hemi-hermı́tica (hemi-hermitiana, anti-hermı́tica) se A∗ = −A, ou seja,
se ∀i, j aji = −aij .

Observações
Resulta da definição que:
. uma matriz hermı́tica tem elementos diagonais reais e elementos opostos em relação
à diagonal conjugados;
. uma matriz hemi-hermı́tica tem elementos diagonais nulos e/ou imaginários puros e
elementos opostos em relação à diagonal principal com mesma parte imaginária e partes
reais simétricas.

Exemplo
2
Isto não é válido em todos os corpos. Por exemplo, no corpo Z2 da observação 4 da página 2, tem-se
1 + 1 = 0, donde 1 = −1 e 1 6= 0

9
   
−1 2 + i 3i i 2+i 3i
A matriz A =  2 − i 0 4  é hermı́tica e B =  −2 + i −2i −4  é
   

−3i 4 1 3i 4 0
hemi-hermı́tica como facilmente se comprova calculando as transconjugadas respectivas.

Observações
A transconjugação goza de propriedades análogas às da transposição, excepto para a
transconjugação de uma multiplicação por escalar. Tem-se (admitindo que as matrizes
têm tipos adequados para efectuar as operações indicadas e que α ∈ C):
(A∗ )∗ = A;
(A ± B)∗ = A∗ ± B ∗ ;
(AB)∗ = B ∗ A∗ ;
(αA)∗ = αA∗ .

1.3 Operações elementares. Caracterı́stica de uma


matriz

Definição 10 São operações elementares sobre as linhas (colunas) de uma


matriz:
(OE1) Trocar duas linhas (colunas);
(OE2) Multiplicar uma linha (coluna) por um escalar diferente de zero;
(OE3) Somar a uma linha (coluna) outra multiplicada por um escalar qualquer.

Exemplo
 
2 −2 0 4
Seja A =  1 0 −1 3 .
 

1 0 0 0
 
1 0 0 0
Troca das linhas 1 e 3 : A −−−−→  1 0 −1 3 .
 
L1 ↔L3
2 −2 0 4
 
1 −1 0 2
Multiplicação da linha 1 por 12 : A −−−−1−→  1 0 −1 3 .
 
0
L1 = 2 L1
1 0 0 0
 
2 −2 0 4
Soma da linha 2, multiplicada por (−1), à linha 3 : A −− −−−−→  1 0 −1 3 .
 
0 L3 =L3 −L2
0 0 1 −3

10
Definição 11 Diz-se que uma matriz tem as linhas em escada se:
(i) As linhas nulas (caso existam) ocorrem depois das linhas não nulas;
(ii) O primeiro elemento não nulo de cada linha (pivot) situa-se numa coluna mais
à esquerda que todos os pivots das linhas seguintes (ou seja, o ı́ndice de coluna do pivot
de cada linha é menor que os ı́ndices de coluna dos pivots das linhas seguintes).

Exemplo
 
0 −1 3 0 −2 4  
  2 −1 1
 0 0 0 5 −2 1 
As matrizes A =  eB=
 0 1 2  têm as linhas em

 0 0 0 0 3 1 
0 0 −3

0 0 0 0 0 0
escada.

Definição 12 A caracterı́stica de uma matriz com as linhas em escada é igual ao


número de linhas não nulas da matriz.

Proposição 1.3.1 Seja A uma matriz qualquer. Então A pode ser transformada
numa matriz do mesmo tipo com as linhas em escada efectuando operações elementares
sobre as suas linhas.

Definição 13 Seja A uma matriz qualquer. A caracterı́stica de A, que se denota


por c(A) ou r(A), é igual à caracterı́stica da matriz com linhas em escada que se obtém
efectuando operações elementares sobre as linhas e/ou colunas de A.

Exemplo
   
2 −2 0 4 1 −1 0 2
 0 1 −1 3   0 1 −1 3 
   
   
 −−−−−→  1
A= 1 1 0 −3  L0 = 1 L  1 0 −
−3  −
0
−−−−→
 L3 =L3 −L1

 1 2 1 
 0 0 −1 2   0 0 −1 2 

0 0 2 1 0 0 2 1
   
1 −1 0 2 1 −1 0 2
 0 1 −1 3   0 1 −1 3 
   
    L05 =L5 −L3
−→  0 2 0 −5  −−−−−−−→  0
 L0 =L3 −2L2  0 2 −
−11  −−−−−−→
 L04 =L4 + 12 L3

 3
 0 0 −1 2   0 0 −1 2 
 

0 0 2 1 0 0 2 1

11
   
1 −1 0 2 1 −1 0 2
 0 1 −1 3   0 1 −1 3 
   
   
−→ 
 0 0 −
2 −11  −−−−2−→  0 0 2 −11  −−−−−−−→
 L0 =L5 −12L4
L04 =− 7 L4 

7  5
 0 0 0 −2   0 0 0 1 
 

0 0 0 12 0 0 0 12
 
1 −1 0 2
 0 1 −1 3 
 
 
−→ 
 0 0 2 −11 
, pelo que, c(A) = 4.
 0 0 0 1 
 

0 0 0 0
     
0 0 −2 −1 1 −1 −1 1 −1
B =  −1 −1  −−−−→  0
1 0 −2  −− −−−−→  0 0 −2  −− −−−−→
     
L1 ↔L2 0
L3 =L3 +L1 L03 =L3 +L2
1 −1 3 1 −1 3 0 0 2
 
−1 1 −1
−→  0 0 −2 , por isso, c(B) = 2.
 

0 0 0

Propriedades da Caracterı́stica de uma Matriz


Sejam A ∈ Fm×n e α ∈ F \ {0}. Então:
(C1) c(A) ≤ m e c(A) ≤ n;
(C2) c(αA) = c(A);
(C3) Se B ∈ Fn×p , c(AB) ≤ c(A) e c(AB) ≤ c(B);
(Ct) c(At ) = c(A).

1.4 Sistemas de Equações Lineares

Definição 14 Um sistema de m equações lineares a n incógnitas x1 , . . . , xn é da


forma (dita canónica)


 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. .. .. , (1.1)


 . . .

am1 x1 + am2 x2 + · · · + amn xn = bm

onde aij , bi ∈ R(C) i = 1, . . . , m , j = 1, . . . , n são, respectivamente, os coeficientes e


os termos independentes do sistema.

12
Definição 15 Associadas ao sistema (1.1) estão as seguintes matrizes:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n
 

A=  .. .. .. .. ,
 . . . .


am1 am2 · · · amn
que é a matriz simples ou matriz dos coeficientes do sistema;
 
x1
 x2 
 
X=  ..  ,

 . 
xn
que é matriz coluna das incógnitas;
 
b1
b2
 
 
B= .. ,
.
 
 
bm
que é matriz coluna dos termos independentes;
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2
 

[A|B] = 
 .. .. .. .. .. ,
 . . . . .


am1 am2 · · · amn bm
que é a matriz ampliada ou matriz completa do sistema.

Notação Matricial do Sistema (1.1):

AX = B. (1.2)

Definição 16 Chama-se solução do sistema (1.1) a uma lista de números reais


(complexos) (c1 , c2 , . . . , cn ) tal que, substituindo cada xi pelo respectivo valor ci (i =
1, . . . , n), as m equações do sistema transformam-se em proposições verdadeiras.

Definição 17 O sistema (1.1) diz-se possı́vel se tem, pelo menos, uma solução e
impossı́vel caso contrário.
Sendo possı́vel, (1.1) é determinado quando tem uma única solução e indetermi-
nado quando tem mais de uma solução (se o corpo considerado for infinito, como é o
caso do corpo dos reais e do corpo dos complexos, quando indeterminado, o sistema tem
uma infinidade de soluções).

13
Definição 18 Dois sistemas de equações lineares com o mesmo número de incógnitas
dizem-se equivalentes se têm as mesmas soluções.

Proposição 1.4.1 Dado o sistema (1.1), obtém-se um sistema equivalente quando


se efectuam operações elementares sobre as linhas da sua matriz completa
[A|B] e/ou troca de colunas na sua matriz simples A (desde que se efectue a
correspondente troca nas incógnitas respectivas).

Observação
De acordo com as Proposições 1.3.1 e 1.4.1, qualquer sistema de equações lineares é
equivalente a um sistema cuja matriz ampliada tem as linhas em escada.

Proposição 1.4.2 O sistema (1.2) é:


• impossı́vel sse c(A) 6= c([A|B]);
• possı́vel determinado sse c(A) = c([A|B]) = n;
• possı́vel indeterminado sse c(A) = c([A|B]) < n.

Definição 19 Se o sistema (1.2) é possı́vel, o número inteiro não negativo g = n − c(A)


chama-se grau de indeterminação do sistema.

Exemplo
1 — Consideremos o sistema


 x + y − z = −2
x − 2y + z = 5 .

−x + 2y + z = 3

Vamos efectuar operações do tipo referido na Proposição 1.4.1 na sua matriz ampliada
até a transformarmos numa matriz com linhas em escada (fazemos a condensação de
[A|B]).
     
1 1 −1 −2 1 1 −1 −2 1 1 −1 −2
 L03 =L3 +L1 
 1 −2 1 5  −− −−−−→  0 −3 2 7  −− −−−−→  0 −3 2 7 .
   
L02 =L2 −L1 L03 =L3 +L2
−1 2 1 3 0 3 0 1 0 0 2 8
Como c(A) = c([A|B]) = 3 o sistema é possı́vel e determinado (SPD). Dado que a
matriz com linhas em escada obtida é a matriz ampliada de um sistema equivalente ao
dado, só temos que resolver agora

 x + y − z = −2

−3y + 2z = 7 .

2z = 8

14
   5
 x + y − z = −2
  x + y = −2 + 4
  x = 3

−3y + 2z = 7 ⇔ −3y = 7 − 8 ⇔ y = 13 .
  
2z = 8 z = 4 z = 4
  


 x + 2y + 3z
 = 0
2 — Consideremos o sistema x+y+z = 10 . Então

y + 2z = 0

     
1 2 3 0 1 2 3 0 1 2 3 0
[A|B] =  1 1 1 10  −− −−−−→  0 −1 −2 10  −− −−−−→  0 −1 −2 10 .
     
0 L2 =L2 −L1 0
L3 =L3 +L2
0 1 2 0 0 1 2 0 0 0 0 10

Como c(A) = 2 6= 3 = c([A|B]) o sistema é impossı́vel (SI).




 x + 2y + z + w = 4
3 — Consideremos o sistema 2x + 4y − z + 2w = 11 . Então

x + y + 2z + 3w = 11

   
1 2 1 1 4 1 2 1 1 4
 L03 =L3 −L1 
[A|B] =  2 4 −1 2 11  −−0 −−−−−→  0 0 −3 0 3  −−−−→
 
L2 =L2 −2L1 L2 ↔L3
1 1 2 3 11 0 −1 1 2 7
 
1 2 1 1 4
−→  0 −1 1 2 7 .
 

0 0 −3 0 3

Como c(A) = c([A|B]) = 3 < 4 o sistema é possı́vel e indeterminado


 (SPI) de grau 1.
   x = 21 − 5w
x + 2y + z + w = 4 x + 2y + w = 5



 
 
 y = −8 + 2w
−y + z + 2w = 7 ⇔ −y + 2w = 8 ⇔ , w ∈ R.
   z = −1
−3z = 3 z = −1
  


 w = w


 x+y+z = 1

4 — Consideremos o sistema x − y + 2z = a . Vamos discuti-lo em função dos

2x + bz = 2

parâmetros reais a e b.
   
1 1 1 1 1 1 1 1
 L0 =L3 −2L1 
[A|B] =  1 −1 2 a  −−30−−−−−→  0 −2 1 a − 1  −− −−−−→
 
L2 =L2 −L1 0 L3 =L3 −L2
2 0 b 2 0 −2 b − 2 0
 
1 1 1 1
−→  0 −2 1 a − 1 .
 

0 0 b−3 1−a

15
Discussão:
• Se b 6= 3, c(A) = c([A|B]) = 3, ∀a ∈ R, logo, SPD;
• b = 3 e a = 1, c(A) = c([A|B]) = 2 < 3, donde, SPI (de grau 1);
• b = 3 e a 6= 1, c(A) = 2 6= 3 = c([A|B]). Por isso, SI.

Definição 20 Um sistema de equações lineares diz-se homogéneo se são nulos


todos os seus termos independentes, isto é, se quando escrito matricialmente é da
forma AX = 0.
A todo o sistema de equações lineares AX = B está associado o sistema homogéneo
AX = 0.

Exemplo


 x + 2y + z + w = 4
O sistema homogéneo associado a 2x + 4y − z + 2w = 11 é

x + y + 2z + 3w = 11



 x + 2y + z + w = 0
2x + 4y − z + 2w = 0 .

x + y + 2z + 3w = 0

Observação
Um sistema homogéneo é sempre possı́vel pois admite sempre a solução nula. Se é
determinado (basta que a caracterı́stica da matriz simples coincida com o número n de
incógnitas) essa é a sua única solução. Se é indeterminado (a caracterı́stica da matriz
simples é menor que o número de incógnitas), para além da solução nula (que existe
sempre), admite soluções não nulas (recorde-se que o produto de duas matrizes não
nulas pode ser nulo).

Proposição 1.4.3 Seja Xp uma solução particular do sistema de equações lineares


AX = B. Então, X0 é solução do sistema se e só se existe uma solução Xh do sistema
homogéneo associado, AX = 0, tal que X0 = Xp + Xh .

Demonstração
Por hipótese, AXp = B (uma vez que Xp é uma solução particular de AX = B)
(⇒) Supondo que X0 é (também) solução de AX = B, isto é, que AX0 = B, provamos
que X0 − Xp é solução do sistema homogéneo associado. Tem-se,

A(X0 − Xp ) = AX0 − AXp = B − B = 0,

16
logo, Xh = X0 − Xp é solução de AX = 0.
(⇐) Suponhamos que Xh é uma solução do sistema homogéneo associado ao dado,
AX = 0. Mostramos que X0 = Xp + Xh é solução de AX = B. Temos,

AX0 = A(Xp + Xh ) = AXp + AXh = B + 0 = B,

como queriamos.

Observação
Resulta da proposição anterior que, a solução geral de um sistema de equações linea-
res pode ser obtida somando a uma sua solução particular a solução geral do sistema
homogéneo associado.

1.5 Inversa de uma Matriz Quadrada

Definição 21 Seja A uma matriz quadrada de ordem n. Diz-se que A é invertı́vel


(ou que A tem inversa) se existe uma matriz quadrada de ordem n, B, tal que
AB = BA = In .

Proposição 1.5.1 A inversa de uma matriz quadrada A, quando existe, é única.

Demonstração Suponhamos que B e C são inversas de A, ou seja, que


AB = BA = In e AC = CA = In .
Tem-se B = BIn = B(AC) = (BA)C = In C = C , logo, B = C.

Definição 22 Se A é invertı́vel, a matriz B referida na Definição 3.1 chama-se


inversa de A e representa-se por A−1 . Assim, AA−1 = A−1 A = In .

Definição 23 Seja A uma matriz quadrada de ordem n. Diz-se que A é não sin-
gular (regular) se c(A) = n.

Proposição 1.5.2 Se A é uma matriz quadrada de ordem n então A é invertı́vel se


e só se é regular.

Observação
Dada uma matriz A, quadrada de ordem n, tal que c(A) = n (logo, invertı́vel), a
inversa de A é a solução da equação matricial AX = In . Podemos, por isso, calcular

17
facilmente A−1 . Basta considerar a matriz [A|In ] e efectuar operações elementares (só)
sobre linhas até a transformar na matriz [In |A−1 ].

Exemplo
 
3 1 0
1 — Consideremos a matriz A =  2 1 1 , de caracterı́stica 3. Calculamos A−1
 

0 1 1
pelo método descrito (condensação, operando só sobre linhas).
   
3 1 0 1 0 0 1 0 −1 1 −1 0
[A|I3 ] =  2 1 1 0 1 0  −− −−−−→  2 1 1 0 1 0  −−0 −−−−−→
   
0 L1 =L1 −L2 L2 =L2 −2L1
0 1 1 0 0 1 0 1 1 0 0 1
   
1 0 −1 1 −1 0 1 0 −1 1 −1 0
−→  0 1 3 −2 3 0  −− −−−−→  0 1 3 −2 3 0  −−0−−−1−→
   
L03 =L3 −L2 L3 =− 2 L3
0 1 1 0 0 1 0 0 −2 2 −3 1
   1 1

1 0 −1 1 −1 0 1 0 0 0 2
− 2
 L01 =L1 +L3 
−→  0 1 3 −2 3 0  −−0 −−−−−→  0 1 0 1 − 23 32 .
 
L2 =L2 −3L3
3
0 0 1 −1 2
− 12 0 0 1 −1 3
2
− 12
 1

0 2
− 21
A−1 =  1 − 32 3 
.

2 
−1 32 − 21
(O resultado obtido pode ser confirmado usando a definição de inversa. Basta verificar
que AA−1 = In .)
   
1
3 0 0 0 3
0 0 0
   
 0 −1 0 0
, é muito fácil concluir que B =  0 −1 0 0
 −1
 
2 — Se B = 
 0 0 2 0   0 0 1 0
.

   2 
0 0 0 −4 0 0 0 − 41

Propriedades
Se A e B são matrizes reais (complexas) quadradas de ordem n, invertı́veis e
α ∈ R \ {0}(C \ {0}) então:
(I1) A−1 é invertı́vel e (A−1 )−1 = A;
(I2) αA é invertı́vel e (αA)−1 = α−1 A−1 ;
(I3) ∀m ∈ N, Am é invertı́vel e (Am )−1 = (A−1 )m ;
(I4) At é invertı́vel e (At )−1 = (A−1 )t ;
(I5) (A)−1 = A−1 ;
(I6) (A∗ )−1 = (A−1 )∗ ;

18
(I7) AB é invertı́vel e (AB)−1 = B −1 A−1 .

Justificação
(I1) Da igualdade A−1 A = AA−1 = In , da definição e da unicidade da inversa resulta
que A−1 é a matriz inversa de A e A é a matriz inversa de A−1 .
(I2) (αA)(α−1 A−1 ) = (αα−1 )(AA−1 ) = In e (α−1 A−1 )(αA) = (α−1 α)(A−1 A) = In .
(I3) A prova rigorosa faz-se por indução em m.
(I4) At (A−1 )t = (A−1 A)t = Int = In e (A−1 )t At = (AA−1 )t = Int = In .
(I5) A A−1 = AA−1 = In = In e A−1 A = A−1 A = In = In .
(I6) A∗ (A−1 )∗ = (A−1 A)∗ = In∗ = In e (A−1 )∗ A∗ = (AA−1 )∗ = In∗ = In .
(I7) (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In e
(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In .

19
Capı́tulo 2

DETERMINANTES

2.1 Conceitos Gerais

Definição 24 Dados os números naturais 1, 2, . . . , n, uma sua permutação é uma


lista desses n números apresentados por uma qualquer ordem.

Por exemplo, n, n − 1, n − 2, . . . , 3, 2, 1 é uma permutação dos números 1, 2, . . . , n.

Notação
O conjunto de todas as permutações de 1, 2, . . . , n denota-se por Sn .

Oservação
Existem n! permutações de 1, 2, . . . , n.

Definição 25 Seja i1 , i2 , . . . , in uma permutação dos números 1, 2, . . . , n. Diz-se que


um par (ik , ij ) faz uma inversão se k < j e ik > ij , ou seja, ik e ij aparecem na
permutação por ordem decrescente.

Definição 26 Uma permutação i1 , i2 , . . . , in é par (resp.: ı́mpar) quando o número


total de inversões que nela ocorrem é par (resp.: ı́mpar).

Exemplos

1) n = 2
Permutação Total de Inversões Paridade
1,2 0 par
2,1 1 ı́mpar

21
2) n = 3
Permutação Total de Inversões Paridade
1,2,3 0 par
2,3,1 2 par
3,1,2 2 par
3,2,1 3 ı́mpar
2,1,3 1 ı́mpar
1,3,2 1 ı́mpar

2.2 Definição de Determinante

Definição 27 Seja A = [aij ] uma matriz quadrada de ordem n com elementos


em R (C). O determinante de A, que se denota por det(A) ou |A|, é o número real
(complexo):

X
det(A) = (−1)σ a1i1 a2i2 · · · anin ,
i1 ,...,in ∈Sn

onde σ = 0, se i1 , i2 , . . . , in é par e σ = 1, se i1 , i2 , . . . , in é ı́mpar.

Observe-se que o somatório anterior tem n! parcelas.


Resulta imediatamente da definição que:

• det[a11 ] = a11 ;
" #
a11 a12
• det = a11 a22 − a12 a21 ;
a21 a22
 
a11 a12 a13
• det  a21 a22 a23  = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 −
 

a31 a32 a33


a11 a23 a32 .

2.3 Propriedades dos Determinantes


Seja A = [aij ] uma matriz quadrada de ordem n.

22
(P1) Se A tem uma linha (resp.: coluna) de zeros, então det(A) = 0.

(P2) Se A tem duas linhas (resp.: colunas) iguais ou proporcionais, então det(A) = 0.

(P3) Se trocarmos entre si duas linhas (resp.: colunas) de A, o valor do determinante


de A muda de sinal. (Operação elementar do tipo 1)

(P4) Se A é triangular então det(A) = a11 a22 · · · ann .



a
11 a12 · · · a1n 11 a12 · · · a1n
a

. .. .. . .. ..
.. ..

. . . .

(P5) αai1 αai2 · · · αain = α ai1 ai2 · · · ain . (Operação elementar do

. .. .. . .. ..
. .
. . . . . .



an1 an2 · · · ann an1 an2 · · · ann
tipo 2)

(P6) det(αA) = αn det(A).

(P7) det(A) = det(At ).

(P8) Se A é complexa, det(A∗ ) = det(A) = det(A).



a
11 a 12 · · · a1n
a
11 a12 · · · a1n
a11 a12 · · · a1n

.
.. .
.. .
..
.
.. .. .. .. .. ..

. .
. . .

(P9) ai1 + bi1 ai2 + bi2 · · · ain + bin = ai1 ai2 · · · ain + bi1 bi2 ··· bin .

.. .. .. .
. .. .. .. .. ..
. . . . . . . . .



an1 an2 ··· ann an1 an2 · · · ann an1 an2 · · · ann

(P10) Se a uma linha (resp.: coluna) de A somarmos um múltiplo qualquer de outra


linha (resp.: coluna), o valor do determinante de A não se altera. (Operação elementar
do tipo 3)

(P11) Não se altera o valor do determinante de A se a uma linha (resp.: coluna) de


A adicionarmos uma soma de múltiplos quaisquer de outras linhas (resp.: colunas). (uso
repetido de (P9))

(P12) Se B é uma matriz quadrada de ordem n, det(AB) = det(A)det(B).


Em particular, ∀n ∈ N det(An ) = (det(A))n .

(P13) A é invertı́vel se e só se det(A) 6= 0.

(P14) Se A é invertı́vel então det(A−1 ) = 1


det(A)
.

23
Exemplo

Sejam A e B matrizes reais quadradas de ordem 3 tais que det(A) = −2 e det(B) = 14 .


Então:

• det(3A) = 33 det(A) = 27(−2) = −54;

• det(AB −1 At ) = det(A)det(B −1 )det(At ) = det(A) det(B)


1
det(A) = (−2)2 × 4 = 16;

• det(−B) = det((−1)B) = (−1)3 det(B) = − 41 ;

• det(B −1 A4 B) = det(B −1 )det(A4 )det(B) = 1


det(B)
(det(A))4 det(B) = (−2)4 = 16;

• det(− 21 (B t )−1 ) = (− 12 )3 det((B t )−1 ) = (− 81 ) det(B


1 1 1 1 1
t ) = (− 8 ) det(B) = (− 8 ) × 4 = − 2 .

2.4 O Teorema de Laplace

Definição 28 Seja A = [aij ] uma matriz quadrada de ordem n. Recorde-se que


A(i|j) denota a submatriz de A que se obtém desta matriz por supressão da linha i e
da coluna j. Chama-se complemento algébrico (ou cofactor) de aij ao número
Aij = (−1)i+j det(A(i|j)).

Teorema 2.4.1 (Teorema de Laplace)


Seja A = [aij ] uma matriz quadrada de ordem n. Então:

n
X n
X
det(A) = aij Aij = ars Ars , ∀i, s ∈ {1, 2, . . . , n}.
j=1 r=1

Exemplo

2 4 6 8 1 2 3 4 1 2 3 4









0 −4 −3
3 6 5 9 1 3 6 5 9 2 0 0 −4 −3 3
2

= 2 = 2 = 2×1×(−1) −3 −2 −1

0 −3 −2 −1
2 1 4 7 2 1 4 7


0 −1 −2
1 2 2 2 1 2 2 2 0 0 −1 −2

−4 −3
=4 2 × (−3) × (−1)3 = 6((−4)(−2) − (−1)(−3)) = 6 × 5 = 30.

−1 −2

1
Pela Propriedade (P5)aplicada à linha 1
2
Efectuando as operações elementares L02 = L2 − 3L1 ; L03 = L3 − 2L1 ; L04 = L4 − L1
3
Teorema de Laplace na coluna 1
4
Teorema de Laplace na coluna 1

24
2.5 Aplicações dos Determinantes

2.5.1 Cálculo da Inversa de uma Matriz

Definição 29 Seja A = [aij ] uma matriz quadrada de ordem n. A matriz comple-


mentar de A, que se denota por Â, é a matriz quadrada de ordem n cujos elementos
são os complementos algébricos dos elementos de A, isto é, Â = [Aij ].

Definição 30 Seja A = [aij ] uma matriz quadrada de ordem n. A matriz adjunta


de A, que se denota por adj(A), é a transposta da matriz complementar: adj(A) = Ât .

Do Teorema de Laplace resulta que, para qualquer matriz quadrada A de ordem n,

A adj(A) = adj(A) A = det(A)In .

Donde, se A é invertı́vel (det(A) 6= 0),

1
A−1 = adj(A).
det(A)

Exemplo
" #
1 2
Seja A = .
3 4

|A| = 1 × 4 − 2 × 3 = −2 6= 0, pelo que, A tem inversa. Calculamos A−1 a partir da


matriz adj(A).

A11 = (−1)2 × 4 = 4; A12 = (−1)3 × 3 = −3; A21 = (−1)3 × 2 = −2; A22 = (−1)4 × 1 = 1.
" # " #
A11 A12 4 −3
 = =
A21 A22 −2 1
" #
4 −2
adj(A) = Ât =
−3 1
" # " #
4 −2 −2 1
A−1 = 1
det(A)
adj(A) = − 12 = 3
.
−3 1 2
− 21

25
2.5.2 Resolução de Sistemas Lineares Possı́veis e Determinados

Regra de Cramer
Dado o sistema de n equações lineares a n incógnitas


 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. .. .. ,


 . . .

an1 x1 + an2 x2 + · · · + ann xn = bn

seja A a sua matriz simples, B a matriz coluna dos termos independentes e Ci a


matriz que se obtém de A substituindo a sua coluna número i por B.
Se det(A) 6= 0, então

det(Ci )
∀i ∈ {1, 2, · · · , n}, xi = .
det(A)

Exemplo
Consideremos o sistema


 x + y − z = −2
x − 2y + z = 5 .

−x + 2y + z = 3

   
1 1 −1 −2
A= 1 −2 1  e B =  5 .
   

−1 2 1 3

1
1 −1 1 1 −1


1 1


|A| = 1 −2 1 = 1 −2 1 = 2 = 2(−2 − 1) = −6.

1 −2
−1 2 1 0 0 2

−2 1 −1 1 −2 −1




5 −2 1 1 5 1





3 2 1

−10 5

−1 3 1

−2 1
x= |A|
= −6
= 3
;y= |A|
= −6
= 3

26

1 1 −2




1 −2 5





−1 2 3

−24
z= |A|
= −6
= 4.

27
Capı́tulo 3

ESPAÇOS VECTORIAIS

3.1 Definição e Exemplos

Definição 31 Um espaço vectorial (ou espaço linear) sobre um corpo F é uma




estrutura algébrica formada por um conjunto não vazio E = {→

a , b ,...,→

u ,→

v ,→

w , . . .},
com uma operação binária designada por adição, e denotada por + e, para cada elemento
α ∈ F, uma aplicação de E para E (designada por multiplicação por escalar) que
a cada →

x ∈ E faz corresponder o elemento α→ −
x ∈ E (multiplicação de α por → −
x ), de

− →
− →

tal modo que são satisfeitas as seguintes propriedades, para quaisquer u , v , w ∈ E e
quaisquer α, β ∈ F:
(A1) →−
u +→ −v =→ −
v +→

u (comutatividade da adição)
(A2) ( u + v ) + w = u + (→

− →
− →
− →
− −
v +→ −
w ) (associatividade da adição)

− →
− →
− →

(A3) ∃ 0 ∈ E : u + 0 = u (existência de elemento neutro)

− →
− →
− →

(A4) ∃(− u ) ∈ E : u + (− u ) = 0 (existência de simétricos)

− →
− →

(M1) (α + β) u = α u + β u (distributividade)
(M2) α(→

u +→ −
v ) = α→
−u + α→−
v (distributividade)

− →

(M3) α(β u ) = (αβ) u (associatividade)
(M4) 1→

u =→

u

Definição 32 Se E é um espaço vectorial sobre F, os elementos de E designam-se


vectores e os de F escalares.


O elemento neutro da adição em E toma o nome de vector nulo e denota-se por 0


ou 0 E .
Quando F = R (resp.: F = C) o espaço vectorial diz-se real (resp.: complexo).

29
Exemplos
1– São espaços vectoriais reais:
a) E = R2 , com as operações:

(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) e α(x1 , x2 ) = (αx1 , αx2 );




0 R2 = (0, 0) e − (x1 , x2 ) = (−x1 , −x2 )

b) E = Rn (n ∈ N), com as operações:

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) e

α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn );




0 Rn = (0, 0, . . . , 0) e − (x1 , x2 , . . . , xn ) = (−x1 , −x2 , . . . , −xn )

c) E = Rm×n (m, n ∈ N), com as operações de adição de matrizes e de multiplicação


de uma matriz por um escalar definidas no Capı́tulo 1.


0 Rm×n = 0m×n e − [aij ]m×n = [−aij ]m×n

2– São espaços vectoriais complexos:


a) E = C2 , com as operações:

(z1 , z2 ) + (z10 , z20 ) = (z1 + z10 , z2 + z20 ) e α(z1 , z2 ) = (αz1 , αz2 );




0 C2 = (0, 0) e − (z1 , z2 ) = (−z1 , −z2 )

b) E = Cn (n ∈ N), com as operações:

(z1 , z2 , . . . , zn ) + (z10 , z20 , . . . , zn0 ) = (z1 + z10 , z2 + z20 , . . . , zn + zn0 ) e

α(z1 , z2 , . . . , zn ) = (αz1 , αz2 , . . . , αzn );




0 Cn = (0, 0, . . . , 0) e − (z1 , z2 . . . , zn ) = (−z1 , −z2 . . . , −zn )

c) E = Cm×n (m, n ∈ N), com as operações de adição de matrizes e de multiplicação


de uma matriz por um escalar definidas no Capı́tulo 1.


0 Cm×n = 0m×n e − [zij ]m×n = [−zij ]m×n

30
Proposição 3.1.1 Seja E um espaço vectorial sobre F. Então, para quaisquer vec-
tores e quaisquer escalares, tem-se:


a) 0→
−u = 0

− →

b) α 0 = 0

− →

c) α→
−u = 0 ⇒ α = 0 ou → −u = 0
d) (−α)→−
u = −(α→ −u ) = α(−→−u)
e) α(→−u −→−
v ) = α→
−u − α→
−v
f ) (α − β)→

u = α→−u − β→
−u.

Demonstração de algumas afirmações


a) 0 + 0 = 0 ⇒ (0 + 0)→

u = 0→

u ⇒ 0→

u + 0→−u = 0→

u ⇒

− →

(0→

u + 0→

u ) + (−0→

u ) = 0→

u + (−0→

u ) ⇒ 0→

u + (0→

u + (−0→

u )) = 0 ⇒ 0→

u = 0

b) tem prova idêntica a a)




c) Suponhamos que α→−u = 0 . Se α = 0 nada mais há a provar. Se α 6= 0 vamos


mostrar que →

u = 0.

− →
− →
− →

α→−u = 0 ⇒ α−1 (α→

u ) = α−1 0 ⇒ α−1 (α→

u ) = 0 (por b)) ⇒ →

u = 0

d) (−α)→

u = −(α→−
u ) porque


(−α)→−
u + α→

u = (−α + α)→−u = 0→

u = 0 (por a)).

3.2 Dependência e Independência Lineares

Definição 33 Seja E um espaço vectorial sobre F.


Diz-se que um vector →
−v ∈ E é combinação linear dos vectores →

u 1, →

u 2, . . . , →

uk ∈ E
se existem escalares α1 , α2 , . . . , αk ∈ F tais que


v = α1 →

u 1 + α2 →

u 2 + . . . + αk →

u k.

Exemplos
1) Em R3 , o vector (−2, 2, 5) é combinação linear de (1, 1, 1), (1, 1, 0) e (1, 0, 1) se
existem números reais α1 , α2 e α3 tais que

(−2, 2, 5) = α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 1),

31
ou seja, se o sistema 
 −2 = α1 + α2 + α3

2 = α1 + α2

5 = α1 + α3

é possı́vel. Na forma matricial,


     
1 1 1 −2 1 1 1 −2 1 1 1 −2
 L02 =L2 −L1 
 1 1 0 2  −− −−−−→  0 0 −1 4  −−−−→  0 −1 0 7 
   
0 L3 =L3 −L1 L2 ↔L3
1 0 1 5 0 −1 0 7 0 0 −1 4

é um sistema possı́vel (e determinado), logo, (−2, 2, 5) é combinação linear de (1, 1, 1),


(1, 1, 0) e (1, 0, 1). Podemos calcular os escalares α1 , α2 , α3 resolvendo-o:
     
1 1 1 −2 1 0 0 9 1 0 0 9
 L02 =−L2 
 0 −1 0 7  −−0−−−−−−−−→  0 −1 0 7  −−0−−−→  0 1 0 −7  ,
   
L1 =L1 +(L2 +L3 ) L3 =−L3
0 0 −1 4 0 0 −1 4 0 0 1 −4

logo, 
 α1 = 9

α2 = −7 ,

α3 = −4

donde,
(−2, 2, 5) = 9(1, 1, 1) + (−7)(1, 1, 0) + (−4)(1, 0, 1).

2) Em R3 , o vector (−2, 2, 5) não é combinação linear de (1, 1, 0), (0, 0, 1), já que o
sistema cuja matriz ampliada é
   
1 0 −2 1 0 −2
 1 0 2  −− −−−−→  0 0 4 
   
0
L2 =L2 −L1
0 1 5 0 1 5

é impossı́vel.

Observação


O vector nulo de E, 0 , é sempre combinação linear de quaisquer vectores →

u 1, →

u 2, . . . , →

uk ∈
E. Com efeito,


0→

u 1 + 0→

u 2 + . . . + 0→

uk = 0.

A esta combinação linear nula (isto é, cujo resultado é o vector nulo) dá-se o nome de
combinação linear nula trivial.

32
Definição 34 Seja E um espaço vectorial sobre F.
Diz-se que os vectores →

u ,→

u ,...,→
1 2
−u ∈ E são:
k

(i) linearmente independentes se




α1 →

u 1 + α2 →

u 2 + . . . + αk →

u k = 0 ⇒ α1 = α2 = . . . = αk = 0.

Ou seja, a única combinação linear nula possı́vel dos vectores →



u 1, →

u 2, . . . , →

u k é a trivial
(a que tem os escalares todos nulos).
(ii) linearmente dependentes se
∃β1 , β2 , . . . , βk ∈ F não todos nulos (isto é, com pelo menos um diferente de zero) tais
que


β1 →

u 1 + β2 →

u 2 + . . . + βk →

uk = 0.

Ou seja, para além da combinação linear nula trivial (que existe sempre), existem out-
ras combinações lineares nulas (com, pelo menos, um escalar não nulo) dos vectores

−u 1, →

u 2, . . . , →

u k.

Exemplos
1) Em R3 , verificamos se os vectores (1, 1, 1), (1, 1, 0) e (1, 0, 1) são linearmente de-
pendentes ou independentes:

α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 1) = (0, 0, 0),

equivale a resolver o sistema homogéneo (sempre possı́vel),



 α1 + α2 + α3 = 0

α1 + α2 = 0 .

α1 + α3 = 0

Se o sistema for determinado os vectores são linearmente independentes, se for in-


determinado os vectores serão linearmente dependentes. Na forma matricial,
     
1 1 1 1 1 1 1 1 1
 L02 =L2 −L1 
 1 1 0  −− −−−−→  0 0 −1  −−−−→  0 −1 0  ,
   
0
L3 =L3 −L1 L2 ↔L3
1 0 1 0 −1 0 0 0 −1

donde, os vectores são linearmente independentes (a caracterı́stica da matriz é igual ao


número de vectores, logo, de escalares a determinar).

2) Em R4 , estudamos os vectores (1, 2, 2, 0), (1, 1, 3, 1) e (0, 2, −2, −2) quanto à de-
pendência/independência linear. Para tal, condensamos a matriz simples do sistema de

33
equações 


 α1 + α2 = 0

 2α + α + 2α
1 2 3 = 0
.


 2α1 + 3α2 − 2α3 = 0

 α − 2α
2 3 = 0
     
1 1 0 1 1 0 1 1 0
     
 2 1 2  L02 =L2 −2L1  0 −1 2  L04 =L4 +L2  0 −1 2 
 2 3 −2  −
 −−−−−−→ 
 0 1 −2  −
 −−−−−→ 
 0 0 0 ,
 
L0 =L −2L L 0 =L +L
  3 3 1   3 3 2  
0 1 −2 0 1 −2 0 0 0
donde, os vectores são linearmente dependentes (a caracterı́stica da matriz é menor que
o número de vectores, logo, de escalares a determinar).

Proposição 3.2.1 Seja E um espaço vectorial sobre F. Então:




(i) O vector nulo, 0 , é linearmente dependente.


(ii) Se →

v ∈ E, →−
v é linearmente independente se e só se →

v 6= 0 .
(iii) Os vectores →

v 1, →

v 2, . . . , →

v k (k ≥ 2) são linearmente dependentes se e só se
algum deles é combinação linear dos restantes.
Em particular, 2 vectores → −
v 1, →

v 2 são linearmente dependentes se e só se um deles
é combinação linear do outro (e, consequentemente, são linearmente independentes se e
só se nenhum deles é combinação linear do outro).
(iv) Se os vectores →

v 1, →

v 2, . . . , →

v n são linearmente independentes então →

v 1, →

v 2, . . . , →

v n, →

x
são linearmente dependentes se e só se → −x é combinação linear de →

v ,→

v ,...,→ −
v .
1 2 n

(v) Se os vectores do conjunto {→



v 1, →

v 2, . . . , →

v n } são linearmente independentes
então os vectores de qualquer seu subconjunto são linearmente independentes.
(vi) Se os vectores da sequência s = (→

v ,→
−v ,...,→ −
v ) são linearmente dependentes
1 2 n

então os vectores de qualquer sequência que contenha s são linearmente dependentes.


(vii) Os vectores →
−v ,→
−v ,...,→
1

v ,...,→
2
−v são linearmente independentes se e só se
i n

∀α 6= 0 → −
v 1, →

v 2 , . . . , α→−
v i, . . . , →

v n são linearmente independentes.
(viii) Os vectores → − v 1, →

v 2, . . . , →

v i, . . . , →

v j, . . . , →

v n são linearmente independentes se
e só se →
−v ,→

1v ,...,→
2
− v ,...,→
i
−v +→
i j

v ,...,→ −v são linearmente independentes.
n

Demonstração de algumas das afirmações



− →
− →

(i) 1 6= 0 e 1 0 = 0 , o que prova que 0 é linearmente dependente.

− −
(ii) Seja →

v ∈ E. Atendendo a (i), tudo o que há a mostrar é que se →
− 6 0, →
v = v é
linearmente independente.

34

− − →

Suponhamos que →−v 6= 0 , α→
v = 0 e que, com vista a um absurdo, α 6= 0. Então

− →
− →

α−1 (α→

v ) = α−1 0 ⇔ (α−1 α)→

v = 0 ⇔→ −
v = 0 , o que contradiz a hipótese.

(iii) (⇒) Suponhamos que →



v 1, →

v 2, . . . , →

v k (k ≥ 2) são linearmente dependentes. Por
definição, ∃β1 , β2 , . . . , βk ∈ F não todos nulos tais que


β1 →

v 1 + β2 →

v 2 + . . . + βk →

vk = 0.

Sem perda de generalidade, suponhamos que β1 6= 0. Então,

β1 →

v 1 = −β2 →

v 2 − . . . − βk →

vk⇔→

v 1 = −β2 β1−1 →

v 2 − . . . − βk β1−1 →

v k,

donde, →

v 1 é combinação linear dos restantes vectores.
(⇐) Por hipótese, um dos vectores dados é combinação linear dos restantes. Sem


perda de generalidade, →

v 1 = α2 →

v 2 + . . . + αk →

v k ⇔ 1→

v 1 − α2 →

v 2 − . . . − αk →

vk = 0,
ou seja, os vectores são linearmente dependentes.



(vii) (⇒) α1 →

v 1 + α2 → −
v 2 + . . . + αi (α→

v i ) + . . . + αn →

vn= 0 ⇒


α1 →

v 1 + α2 →

v 2 + . . . + (αi α)→

v i + . . . + αn →

v n = 0 ⇒ (→ −
v 1, . . . , →

v i, . . . , →

v n l.i.)
α1 = α2 = · · · = ααi = · · · = αn = 0 ⇒ (α 6= 0) α1 = α2 = · · · = αi = · · · = αn = 0.


(⇐) α1 →
−v 1 + α2 →−v 2 + . . . + αi →

v i + . . . + αn →−vn= 0 ⇒


α1 →

v 1 + α2 →

v 2 + . . . + αi (α−1 α)→ −
v i + . . . + αn → −
vn= 0 ⇒


α1 →

v 1 + α2 →

v 2 + . . . + (αi α−1 )(α→− v i ) + . . . + αn →

v n = 0 ⇒ (→

v 1 , . . . , α→

v i, . . . , →

v n l.i.)
α1 = α2 = · · · = αi α−1 = · · · = αn = 0 ⇒ (α−1 6= 0) α1 = α2 = · · · = αi = · · · = αn = 0.

3.2.1 Caracterı́stica de uma Matriz

Seja A uma matriz do tipo m×n com entradas num corpo F. Cada uma das m linhas
de A identifica-se com um vector de Fn e cada uma das n colunas de A identifica-se com
um vector de Fm .  
1 2 3 4
Por exemplo, dada a matriz real  2 3 4 5 , as suas linhas identificam-se com
 

3 4 5 6
os vectores (1, 2, 3, 4), (2, 3, 4, 5), (3, 4, 5, 6) de R4 e as suas colunas com os vectores
(1, 2, 3), (2, 3, 4), (3, 4, 5), (4, 5, 6) de R3 .
Todos os resultados enunciados àcerca da dependência e independência lineares de
vectores são, por isso, aplicáveis às linhas e às colunas de A.

35
Atendendo à Proposição 3.2.1, efectuar operações elementares sobre as linhas (resp.:
colunas) de A não altera a dependência/independência linear das linhas (resp.: colunas)
da matriz.
Tendo em conta que:
(i) A pode ser transformada numa matriz com linhas em escada, U , efectuando
operações elementares sobre as suas linhas (como foi visto no Captulo 1),
(ii) são linearmente independentes as linhas de A correspondentes às linhas não nulas
de U ,
(iii) são linearmente independentes as colunas de A correspondentes às colunas com
pivots de U ,
a caracterı́stica de A, número de linhas não nulas de U , coincide com o número
máximo de linhas linearmente independentes de A e com o número máximo de colunas
linearmente independentes de A.

3.3 Subespaços vectoriais

Definição 35 Sejam E um espaço vectorial sobre F e E1 um subconjunto não vazio


de E. Diz-se que E1 é um subespaço vectorial de E, e escreve-se E1 ≤ E, se E1 é um
espaço vectorial sobre F com as operações de adição e multiplicação por escalar definidas
em E.

Proposição 3.3.1 (Critério de Subespaço) Sejam E um espaço vectorial sobre


F e E1 um subconjunto de E. E1 é um subespaço vectorial de E se e só se:
(i) E1 6= ∅
(ii) ∀→
−x ,→

y ∈ E1 , →

x +→ −y ∈ E1
(iii) ∀α ∈ F, ∀ x ∈ E1 , α→

− −x ∈ E1 .

Proposição 3.3.2 Sejam E um espaço vectorial sobre F e E1 um subespaço vectorial


de E. Então:


a) 0 ∈ E1
b) →

x ∈ E ⇒ −→

x ∈E
1 1

c) →

x ,→

y ∈ E1 ⇒ →

x −→

y ∈ E1 .

36
Demonstração
Como E1 6= ∅, seja → −
x ∈ E1 . Dado que F é um corpo, 0 ∈ F e −1 ∈ F, logo, pela


condição (iii) do Critério de Subespaço, 0→

x = 0 ∈ E e (−1)→
1

x = −→−x ∈E . 1

Por último, se →

x ,→

y ∈ E1 , por b), −→

y ∈ E1 e, pela condição (ii) do Critério de

− →
− →
− →

Subespaço, x + (− y ) = x − y ∈ E . 1

Observação
Atendendo à proposição anterior, a condição (i) do Critério de Subespaço pode ser


substituida pela condição (i’): 0 ∈ E1 .

Proposição 3.3.3 Sejam E um espaço vectorial sobre F e E1 um subconjunto de E.


E1 é um subespaço vectorial de E se e só se:


(i) 0 ∈ E1
(ii) ∀α, β ∈ F, ∀→
−x ,→

y ∈ E1 , α→−
x + β→ −y ∈ E1 .

Exemplos


1 — Se E é um espaço vectorial, E1 = { 0 } e E1 = E são subespaços vectoriais de E,
designados por subespaços triviais.

2 — Em R2 , E1 = {(0, 0)} e E1 = R2 são os subespaços triviais. É um subespaço não


trivial qualquer recta que passe na origem. Com efeito, se
a) E1 é uma recta não vertical que passa na origem então
E1 = {(x, y) ∈ R2 : y = mx} = {(x, mx) : x ∈ R}.
Usamos o Critério de Subespaço, enunciado na proposição 3.3.1, para mostrar que
E1 é um subespaço vectorial de R2 .
(i) Como x é livre, tomando x = 0, y = mx = m0 = 0, logo, (0, 0) ∈ E1 ;
(ii) Sejam (x1 , mx1 ), (x2 , mx2 ) ∈ E1
(x1 , mx1 ) + (x2 , mx2 ) = (x1 + x2 , mx1 + mx2 ) = (x1 + x2 , m(x1 + x2 )) ∈ E1 ;
(iii) Sejam (x, mx) ∈ E1 e α ∈ R
α(x, mx) = (αx, α(mx)) = (αx, m(αx)) ∈ E1 .
b) E1 é a (única) recta vertical que passa na origem então
E1 = {(x, y) ∈ R2 : x = 0} = {(0, y) : y ∈ R}.
(i) Como y é livre, tomando y = 0, conclui-se que (0, 0) ∈ E1 ;
(ii) Sejam (0, y1 ), (0, y2 ) ∈ E1
(0, y1 ) + (0, y2 ) = (0, y1 + y2 ) ∈ E1 ;

37
(iii) Sejam (0, y) ∈ E1 e α ∈ R
α(0, y) = (α0, αy) = (0, αy) ∈ E1 .

3 — Em R3 , E1 = {(0, 0, 0)} e E1 = R3 são os subespaços triviais. Os subespaços não


triviais são qualquer recta que passe na origem e qualquer plano que passe na origem,
isto é, qualquer subconjunto da forma
E1 = {(x, y, z) ∈ R3 : a1 x + b1 y + c1 z = 0 ∧ a2 x + b2 y + c2 z = 0} (recta que passa na
origem)
ou
E1 = {(x, y, z) ∈ R3 : ax + by + cz = 0} (plano que passa na origem).
Verificamos que E1 = {(x, y, z) ∈ R3 : ax + by + cz = 0} é um subespaço vectorial de
R3 , quaisquer que sejam a, b, c ∈ R.
(i) (0, 0, 0) ∈ E1 pois a0 + b0 + c0 = 0;
(ii) Sejam (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ E1 ⇒ ax1 + by1 + cz1 = 0 e ax2 + by2 + cz2 = 0
(x1 , y1 , z1 )+(x2 , y2 , z2 ) = (x1 +x2 , y1 +y2 , z1 +z2 ) e a(x1 +x2 )+b(y1 +y2 )+c(z1 +z2 ) =
(ax1 + ax2 ) + (by1 + by2 ) + (cz1 + cz2 ) = (ax1 + by1 + cz1 ) + (ax2 + by2 + cz2 ) = 0 + 0 = 0
⇒ (x1 , y1 , z1 ) + (x2 , y2 , z2 ) ∈ E1 ;
(iii) Sejam (x, y, z) ∈ E1 e α ∈ R ⇒ ax + by + cz = 0
α(x, y, z) = (αx, αy, αz) e a(αx) + b(αy) + c(αz) = α(ax + by + cz) = α0 = 0, logo,
α(x, y, z) ∈ E1 .

4 — Já os subconjuntos de R3
a) H1 = {(x, y, z) ∈ R3 : y = 1},
b) H2 = {(x, y, z) ∈ R3 : x ∈ Q},
c) H3 = {(x, y, z) ∈ R3 : |z| ≤ 1},
d) H4 = {(x, y, z) ∈ R3 : x ≥ y},
e) H5 = {(x, y, z) ∈ R3 : y = 0 ou z = 0},
não são subespaços vectoriais de R3 .
Com efeito,
a) (0, 0, 0) ∈
/ H1 (ver Prop. 3.3.2),
√ √ √
b) α = 2 ∈ R, (1, 0, 0) ∈ H2 e 2(1, 0, 0) = ( 2, 0, 0) ∈
/ H2 (falha condição (iii) da
Prop.3.3.1),
c) α = 7 ∈ R, (1, 1, 1) ∈ H3 e 7(1, 1, 1) = (7, 7, 7) ∈
/ H3 (falha condição (iii) da
Prop.3.3.1. Observe-se que também falha a condição (ii)),
d) α = −1 ∈ R, (2, 1, 0) ∈ H4 e (−1)(2, 1, 0) = (−2, −1, 0) ∈
/ H4 (falha condição (iii)
da Prop.3.3.1),

38
e) (0, 0, 1) ∈ H5 , (0, 1, 0) ∈ H5 e (0, 0, 1) + (0, 1, 0) = (0, 1, 1) ∈
/ H5 (falha condição
(ii) da Prop.3.3.1).

Proposição 3.3.4 Sejam E um espaço vectorial sobre F e E1 , E2 subespaços vecto-


riais de E. Então:
a) E1 ∩ E2 é um subespaço vectorial de E;

− − → −
b) E1 + E2 = { f + →g : f ∈ E1 , →−
g ∈ E2 } é um subespaço vectorial de E;
c) E1 ∪ E2 é um subespaço vectorial de E se e só se E1 ⊆ E2 ou E2 ⊆ E1 .

Demonstração
a) (Usamos a Proposição 3.3.3)

− →
− →

(i) 0 ∈ E1 e 0 ∈ E2 , donde, 0 ∈ E1 ∩ E2 ;
(ii) Sejam →

x ,→

y ∈ E ∩ E e α, β ∈ F.
1 2

Por definição de intersecção, →



x ,→

y ∈ E1 e →

x ,→

y ∈ E2 .
Logo, α x + β y ∈ E1 e α x + β y ∈ E2 ⇒ α x + β →

− →
− →
− →
− →
− −
y ∈ E1 ∩ E2 .
b) Fica ao cuidado do leitor efectuar a prova (muito simples), usando a Prop. 3.3.1
ou a Prop. 3.3.3.
c) (⇐) Trivial, já que, se E1 ⊆ E2 , E1 ∪ E2 = E2 e se E2 ⊆ E1 , E1 ∪ E2 = E1 .
(⇒) Suponhamos que E1 ∪ E2 é um subespaço vectorial de E e que (com vista a um
absurdo) E1 * E2 e E2 * E1 .
Então, ∃→

e 1 ∈ E1 tal que → −
e1∈ / E2 e ∃→

e 2 ∈ E2 tal que →

e2∈
/ E1 .
Como E1 ⊆ E1 ∪E2 e E2 ⊆ E1 ∪E2 , e 1 , e 2 ∈ E1 ∪E2 ⇒(E1 ∪E2 ≤ E) →

− →
− −
e 1 +→

e 2 ∈ E1 ∪E2

− →
− →
− →

⇒ (por definição de união de conjuntos) e + e ∈ E ou e + e ∈ E .
1 2 1 1 2 2

Se →

e1+→

e 2 ∈ E1 , como →

e 1 ∈ E1 , −→

e 1 ∈ E1 , donde, (−→

e 1 ) + (→

e1+→

e 2) = →

e 2 ∈ E1 ,
o que contradiz a hipótese.
Se →

e1+→ −
e 2 ∈ E2 conclui-se, de forma análoga, que →

e 1 ∈ E2 , ou seja, um absurdo.

3.3.1 Subespaço gerado

Proposição 3.3.5 Sejam E um espaço vectorial sobre F e → −v 1, →


−v 2, . . . , →
−v n vectores

− →
− →

de E. Então o conjunto G = {λ1 v 1 + λ2 v 2 + . . . + λn v n : λ1 , λ2 , . . . , λn ∈ F} é um
subespaço vectorial de E, designado por subespaço gerado por → −
v ,→ 1
−v ,...,→
2

v .
n

Demonstração (Usamos a Prop. 3.3.3)

39


(i) Pondo λ1 = λ2 = . . . = λn = 0, tem-se 0→

v 1 + 0→

v 2 + . . . + 0→

v n = 0 ∈ G;
(ii) Sejam →

x ,→

y ∈ G e α, β ∈ F.
Então, ∃λ1 , λ2 , . . . , λn , γ1 , γ2 , . . . , γn ∈ F tais que →

x = λ1 →

v 1 + λ2 →

v 2 + . . . + λn →

vne


y = γ1 →

v 1 + γ2 →
−v 2 + . . . + γn → −v n.
Tem-se, α→−x +β → −y = α(λ → 1

v +λ →
1 2 2
−v +. . .+λ →
n
−v )+β(γ →
n 1
−v +γ →
1 2
−v +. . .+γ →
2 n

v )=
n

(αλ1 + βγ1 )→

v 1 + (αλ2 + βγ2 )→

v 2 + . . . + (αλn + βγn )→

v n ∈ G.

Notação
O subespaço gerado por →

v 1, →

v 2, . . . , →

v n denota-se por < →

v 1, →

v 2, . . . , →

v n > ou
L(→

v ,→
−v ,...,→
1 2

v ). n

Exemplos
1 — Em R3 , determinamos o subespaço gerado por (1, 1, 1), (1, 0, 1).
(x, y, z) ∈< (1, 1, 1), (1, 0, 1) > sse (x, y, z) = α1 (1, 1, 1) + α2 (1, 0, 1) sse
 
1 1 x
 1 0 y 
 

1 1 z
é a matriz ampliada de um sistema linear possı́vel.
   
1 1 x 1 1 x
 L02 =L2 −L1 
 1 0 y  −− −−−−→  0 −1 y − x 
 
L03 =L3 −L1
1 1 z 0 0 z−x
O sistema é possı́vel sse z − x = 0, pelo que,

< (1, 1, 1), (1, 0, 1) >= {(x, y, z) ∈ R3 : z = x} (um plano de R3 ).

2 — Em R4 , determinamos o subespaço gerado por (1, −1, 0, 2), (0, 1, 2, 3).


(x, y, z, w) ∈< (1, −1, 0, 2), (0, 1, 2, 3) > sse (x, y, z, w) = α1 (1, −1, 0, 2) + α2 (0, 1, 2, 3)
sse  
1 0 x
 
 −1 1 y 
 
 0 2 z 
 
2 3 w
é a matriz ampliada de um sistema linear possı́vel.
     
1 0 x 1 0 x 1 0 x
     
 −1 1 y  L02 =L2 +L1  0 1 y + x  L03 =L3 −L2  0 1 y+x 
 0 2 z −
  −−−−−−→   −−−−−−−→  
  L0 =L −2L
4 4 1
 0 2
 z  L0 =L4 −3L2 
 4  0 0 z − 2x − 2y 

2 3 w 0 3 w − 2x 0 0 (w − 2x) + (−3x − 3y)

40
O sistema é possı́vel sse z − 2x − 2y = 0 e w − 5x − 3y = 0, pelo que,

< (1, −1, 0, 2), (0, 1, 2, 3) >= {(x, y, z, w) ∈ R4 : z = 2x + 2y e w = 5x + 3y}.

3 — Em R3 , determinamos o subespaço gerado por (1, 1, 1), (1, 0, 1), (1, 2, 0).
(x, y, z) ∈< (1, 1, 1), (1, 0, 1), (1, 2, 0) > sse (x, y, z) = α1 (1, 1, 1)+α2 (1, 0, 1)+α3 (1, 2, 0)
sse  
1 1 1 x
 1 0 2 y 
 

1 1 0 z
é a matriz ampliada de um sistema linear possı́vel.
   
1 1 1 x 1 1 1 x
 L02 =L2 −L1 
 1 0 2 y  −− −−−−→  0 −1 1 y−x 
 
0 L3 =L3 −L1
1 1 0 z 0 0 −1 z − x

O sistema é sempre possı́vel, quaisquer que sejam os valores reais de x, y, z. Logo,

< (1, 1, 1), (1, 0, 1), (1, 2, 0) >= R3 .

3.4 Base e dimensão

Definição 36 Seja E um espaço vectorial sobre F. Diz-se que os vectores → −u 1, →


−u 2, . . . , →

up ∈
E geram o (são geradores do) espaço, e escreve-se E =< → −u 1, →

u 2, . . . , →

u p >, se
qualquer vector de E se pode escrever como combinação linear de u , u , . . . , →

− →
− −u . 1 2 p

Definição 37 Um espaço vectorial E diz-se finitamente gerado se existe um número


finito de vectores →

u ,→

u ,...,→
1
−u ∈ E tais que E =< →
2 p

u ,→

u ,...,→
−u >. 1 2 p

Exemplo
Do que vimos no exemplo anterior, R3 é finitamente gerado, já que

R3 =< (1, 1, 1), (1, 0, 1), (1, 2, 0) > .

Mais geralmente, para qualquer n ∈ N,

Rn =< (1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, 0, . . . , 1) >,

pelo que Rn é finitamente gerado.

41
Definição 38 Seja E um espaço vectorial finitamente gerado.
Diz-se o conjunto B = {→

e 1, →

e 2, . . . , →

e n } ⊆ E é uma base de E se:
(i) B é um conjunto de vectores linearmente independentes;
(ii) B é um conjunto de geradores de E, ou seja, E =< →

e 1, →

e 2, . . . , →

e n >.

Proposição 3.4.1 Todo o espaço vectorial finitamente gerado tem uma base.

Observações

− →
− →

1 — O espaço nulo, E = { 0 }, é finitamente gerado, uma vez que { 0 } =< 0 >,
mas não possui vectores linearmente independentes. Por isso, convenciona-se que a sua
base é o conjunto vazio, ∅.
2 — Se se atribuir uma certa ordem aos vectores da base B, diz-se que B é uma base
ordenada de E, e escreve-se B = (→−e ,→

e ,...,→
1
−e ).
2 n

3 — Qualquer subespaço vectorial de um espaço finitamente gerado é um espaço


finitamente gerado, logo, tem uma base.

Proposição 3.4.2 Duas quaisquer bases de um mesmo espaço vectorial têm o mesmo
número de vectores.

Definição 39 Chama-se dimensão de um espaço vectorial E, e denota-se por dim(E),


ao número de vectores de uma base qualquer de E.
Um espaço finitamente gerado diz-se de dimensão finita, enquanto que um espaço
que não seja finitamente gerado tem dimensão infinita.

Proposição 3.4.3 Sejam E um espaço vectorial sobre F de dimensão n e B =


( e 1, →

− −
e 2, . . . , →

e n ) uma base de E. Então, qualquer vector →

x ∈ E escreve-se de forma
única como combinação linear dos vectores de B, ou seja, existem escalares únicos
a1 , a2 , . . . , an ∈ F tais que →

x = a1 →

e 1 + a2 →

e 2 + . . . + an →

e n.

Demonstração
Suponhamos que → −x = a1 → −
e 1 +a2 →−
e 2 +. . .+an →

e n e que → −
x = b1 →

e 1 +b2 →

e 2 +. . .+bn →

e n.
Então, a1 →

e 1 + a2 →

e 2 + . . . + an →

e n = b1 →−
e 1 + b2 →
−e 2 + . . . + bn →

en ⇒

− →
− →
− →

⇒ (a1 − b1 ) e 1 + (a2 − b2 ) e 2 + . . . + (an − bn ) e n = 0 ⇒
(os vectores de B são linearmente independentes)
a1 − b1 = a2 − b2 = . . . = an − bn = 0 ⇒ a1 = b1 , a2 = b2 , . . . , an = bn .

Definição 40 Sejam E um espaço vectorial sobre F de dimensão n, → −x ∈Ee



− →
− →

B = ( e 1 , e 2 , . . . , e n ) uma base (ordenada) de E. Os escalares únicos a1 , a2 , . . . , an ∈ F

42
tais que →

x = a1 →

e 1 + a2 →

e 2 + . . . + an →

e n designam-se por coordenadas de →

x na base


B e escreve-se x = (a , a , . . . , a ) para o traduzir.
1 2 n B

Exemplo
Em R3 , já vimos que os vectores (1, 1, 1), (1, 0, 1), (1, 2, 0) geram o espaço. E são
linearmente independentes porque
   
1 1 1 1 1 1
 L02 =L2 −L1 
 1 0 2  −− −−−−→  0 −1 1  ,
 
0
L3 =L3 −L1
1 1 0 0 0 −1

tem caracterı́stica 3.
Por isso, B = ((1, 1, 1), (1, 0, 1), (1, 2, 0)) é uma base de R3 .
Tem-se (1, 1, 1) = (1, 0, 0)B , (1, 0, 1) = (0, 1, 0)B , (1, 2, 0) = (0, 0, 1)B ,
(3, 3, 2) = (1, 1, 1)B , (x, y, z) = (−2x + y + 2z, 2x − y − z, x − z)B .

Proposição 3.4.4 Seja E um espaço vectorial de dimensão n. Então:


(I) Quaisquer n vectores linearmente independentes de E formam uma base de E.
(II) Quaisquer n geradores de E formam uma base de E.
(III) Qualquer sistema com mais de n vectores é sempre linearmente dependente.
(IV) Se E1 ≤ E, 0 ≤ dim(E1 ) ≤ n, tendo-se:


dim(E1 ) = 0 ⇔ E1 = { 0 } e dim(E1 ) = n ⇔ E1 = E.

Observação
Num espaço vectorial de dimensão n, n é o número máximo de vectores linearmente
independentes e o número mı́nimo de geradores do espaço.
Exemplos de bases
Prova-se facilmente que:
a) Bc = ((1, 0), (0, 1)) é uma base de R2 — a base canónica de R2 . Logo, dim(R2 ) = 2.
Tendo em conta que (x, y) = x(1, 0) + y(0, 1), (x, y) = (x, y)Bc .
b) Seja n ∈ N. Bc = ((1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)) é uma base de Rn —
a base canónica de Rn . Logo, dim(Rn ) = n.
Tendo em conta que (x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0)+x2 (0, 1, . . . , 0)+. . .+xn (0, 0, . . . , 1),
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn )Bc .
c1) Bc = ((1, 0), (0, 1)) é uma base de C2 como espaço vectorial complexo — a base
canónica de C2 sobre C. Logo, dim(C2C ) = 2.
Tendo em conta que (z1 , z2 ) = z1 (1, 0) + z2 (0, 1), (z1 , z2 ) = (z1 , z2 )Bc .

43
c2) Bc = ((1, 0), (i, 0), (0, 1), (0, i)) é uma base de C2 como espaço vectorial real — a
base canónica de C2 sobre R. Logo, dim(C2R ) = 4.
Tendo em conta que (z1 , z2 ) = z1 (1, 0) + z2 (0, 1) = (a1 + b1 i)(1, 0) + (a2 + b2 i)(0, 1) =
a1 (1, 0) + b1 (i, 0) + a2 (0, 1) + b2 (0, i), (z1 , z2 ) = (a1 + b1 i, a2 + b2 i) = (a1 , b1 , a2 , b2 )Bc .
d1) Seja n ∈ N. Bc = ((1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)) é uma base de Cn
como espaço vectorial complexo — a base canónica de Cn sobre C. Logo, dim(CnC ) = n.
Tendo em conta que (z1 , z2 , . . . , zn ) = z1 (1, 0, . . . , 0)+z2 (0, 1, . . . , 0)+. . .+zn (0, 0, . . . , 1),
(z1 , z2 , . . . , zn ) = (z1 , z2 , . . . , zn )Bc .
d2) Seja n ∈ N.
Bc = ((1, 0, . . . , 0), (i, 0, . . . , 0), (0, 1, . . . , 0), (0, i, . . . , 0), . . . , (0, 0, . . . , 1), (0, 0, . . . , i)) é uma
base de Cn como espaço vectorial real — a base canónica de Cn sobre R. Logo,
dim(CnR ) = 2n.
Tendo em conta que (z1 , z2 , . . . , zn ) = z1 (1, 0, . . . , 0)+z2 (0, 1, . . . , 0)+. . .+zn (0, 0, . . . , 1) =
(a1 +b1 i)(1, 0, . . . , 0)+(a2 +b2 i)(0, 1, . . . , 0)+. . .+(an +bn i)(0, 0, . . . , 1) = a1 (1, 0, . . . , 0)+
b1 (i, 0, . . . , 0) + a2 (0, 1, . . . , 0) + b2 (0, i, . . . , 0) + . . . + an (0, 0, . . . , 1) + bn (0, 0, . . . , i),
(z1 , z2 , . . . , zn ) = (a1 + b1 i, a2 + b2 i, . . . , an + bn i) = (a1 , b1 , a2 , b2 , . . . , an , bn )Bc .
" # " # " # " #
1 0 0 1 0 0 0 0
e) Sendo E11 = , E12 = , E21 = , E22 = ,
0 0 0 0 1 0 0 1
Bc = (E11 , E12 , E21 , E22 ) é uma base de R2×2 — a base canónica de R2×2 . Logo,
dim(R2×2 ) = 4.
" # " # " # " # " #
a b 1 0 0 1 0 0 0 0
Tendo em conta que =a +b +c +d =
c d 0 0 0 0 1 0 0 1
" #
a b
aE11 + bE12 + cE21 + dE22 , = (a, b, c, d)Bc .
c d
f) Em R2 , consideremos o subespaço vectorial

G = {(x, y) : y = mx} = {(x, mx) : x ∈ R}.

Como (x, mx) = x(1, m) e x é arbitrário, G =< (1, m) >.


O vector (1, m) é não nulo, logo, linearmente independente. Por isso, B = ((1, m)) é uma
base de G e dim(G) = 1.

g) Em R3 , consideremos o subespaço vectorial

E1 = {(x, y, z) : x + y + z = 0}.

x + y + z = 0 ⇔ z = −x − y, pelo que os vectores de E1 são da forma

(x, y, −x − y) = (x, 0, −x) + (0, y, −y) = x(1, 0, −1) + y(0, 1, −1).

44
Logo, E1 =< (1, 0, −1), (0, 1, −1) >. Os vectores (1, 0, −1), (0, 1, −1) são linearmente in-
dependentes (nenhum é combinação linear do outro). Por isso, B = ((1, 0, −1), (0, 1, −1))
é uma base de E1 e dim(E1 ) = 2.

h) Em R4 , consideremos o subespaço vectorial

H = {(x, y, z, w) : x − y + 2z = 0, w − x − z = 0}.

( (
x − y + 2z = 0 y = x + 2z
⇔ ,
w−x−z = 0 w = x+z
pelo que os vectores de H são da forma

(x, x + 2z, z, x + z) = (x, x, 0, x) + (0, 2z, z, z) = x(1, 1, 0, 1) + z(0, 2, 1, 1).

Logo, H =< (1, 1, 0, 1), (0, 2, 1, 1) >. Os vectores (1, 1, 0, 1), (0, 2, 1, 1) são linearmente in-
dependentes (nenhum é combinação linear do outro). Por isso, B = ((1, 1, 0, 1), (0, 2, 1, 1))
é uma base de H e dim(H) = 2.

3.5 Matriz de Mudança de Base

Definição 41 Sejam E um espaço vectorial e B1 = (→ −e 1, →



e 2, . . . , →

e n) e

− →
− →

B2 = ( u 1 , u 2 , . . . , u n ) duas bases de E. Chama-se matriz de mudança da base B1
para a base B2 à matriz quadrada de ordem n
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
M(B1 , B2 ) =  .
 .. . . ,
.. 
 .. . . . 
an1 an2 . . . ann

onde



e 1 = a11 →

u 1 + a21 →

u 2 + . . . + an1 →

un


e 2 = a12 →

u 1 + a22 →

u 2 + . . . + an2 →

un
.. . (3.1)
.


e = a → −
u +a → −
u + ... + a → −u
n 1n 1 2n 2 nn n

45
Uma matriz de mudança de base permite relacionar as coordenadas de um qualquer
vector de E nas duas bases envolvidas. Pondo P = M(B1 , B2 ), podemos usar notação
matricial para traduzir as relações (3.1). Tem-se
h i h i

−e1 → −e 2 ... → −
en = → −
u1 →

u 2 ... →

u n P. (3.2)

Se →

x = x1 →

e 1 + x2 →

e 2 + . . . + xn →−e n = x01 →

u 1 + x02 →

u 2 + . . . + x0n →

u n , então
   
x1 x01
i x2  h →  x02 
h  i 

− →
− →
− − →
− →

e 1 e 2 ... e n   ..  = u 1 u 2 . . . u n  ..  .
  
 .   . 
xn x0n
   
x1 x01
 0 
 x2   x 
 
Pondo X =  .  e X =  .2 , vem
0
 .   . 
 .   . 
xn x0n
h i h i


e1 → −
e 2 ... → −en X = → −
u1 → −u 2 ... → −
u n X0 ⇒
h i h i

− →
− →
− →

(por (3.2)) ( u 1 u 2 . . . u n P )X = u 1 u 2 . . . u n X 0 ⇒→
− →

h i h i

− →

u 1 u 2 ... u n →
− (P X) = →
− →
− →

u 1 u 2 . . . u n X 0 ⇒ P X = X 0.

Observação
Se Q = M(B2 , B1 ) conclui-se, analogamente, que X = QX 0 . Como P X = X 0 ⇔
⇔ X = P −1 X 0 (as n colunas de P , correspondentes às coordenadas de cada vector da
base B1 relativamente à base B2 , são linearmente independentes. Por isso, c(P ) = n,
donde, P é invertı́vel), tem-se QX 0 = P −1 X 0 . A arbitrariedade de X 0 permite concluir
que Q = P −1 .

Exemplo
Em R3 , consideremos as bases B1 e B2 tais que B1 é a base canónica e
B2 = ((1, 1, 1), (1, 1, 0), (1, 0, 0)). De

(1, 0, 0) = 0(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0)


(0, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + (−1)(1, 0, 0) ,
(0, 0, 1) = 1(1, 1, 1) + (−1)(1, 1, 0) + 0(1, 0, 0)
vem  
0 0 1
M(B1 , B2 ) =  0 1−1  .
 

1 −1 0

46
Dado o vector (3, 2, 1) = (3, 2, 1)B1 , determinamos as suas coordenadas na base B2
usando a matriz de mudança de base:
    
0 0 1 3 1
 0 1 −1   2  =  1  ,
    

1 −1 0 1 1

pelo que, (3, 2, 1) = (1, 1, 1)B2 , ou seja, (3, 2, 1) = 1(1, 1, 1) + 1(1, 1, 0) + 1(1, 0, 0).
Como
(1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1)
(1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1) ,
(1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1)
temos  
1 1 1
M(B2 , B1 ) =  1 1 0  .
 

1 0 0
   −1
1 1 1 0 0 1
(Note-se que  1 1 0  =  0 1 −1  , uma vez que
   

1 0 0 1 −1 0
    
1 1 1 0 0 1 1 0 0
 1 1 0   0 1 −1  =  0 1 0  .)
    

1 0 0 1 −1 0 0 0 1

Se →

x = (1, 2, 3)B2 ,
    
1 1 1 1 6
 1 1 0  2  =  3 ,
    

1 0 0 3 1
donde, →

x = (6, 3, 1)B1 = (6, 3, 1).

47
Capı́tulo 4

APLICAÇÕES LINEARES

Definição 42 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F. Uma


aplicação f : E → E0 diz-se linear se:
i) ∀ →−
x ,→
−y ∈ E f (→−x +→ −y ) = f (→

x ) + f (→

y)
ii) ∀ α ∈ F, ∀ →

x ∈E f (α→

x ) = αf (→

x ).

Exemplos
1 — Se E e E0 são espaços vectoriais sobre um mesmo corpo F, a aplicação f : E → E0


definida por f (→

x ) = 0 E0 é linear (a aplicação linear nula), uma vez que:

− →
− →

i) f (→

x +→
−y ) = 0 E0 = 0 E0 + 0 E0 = f (→ −x ) + f (→
−y)
e

− →

ii) f (α→

x ) = 0 E0 = α 0 E0 = αf (→

x ).

2 — Se E é um espaço vectorial sobre F, a aplicação f : E → E definida por f (→



x)=→

x
é linear (a aplicação linear identidade, frequentemente denotada por 1E ):
i) f (→

x +→−y)=→ −x +→ −y = f (→

x ) + f (→

y)
ii) f (α→

x ) = α→

x = αf (→

x ).

3 — A aplicação f : R3 → R2 tal que f (x, y, z) = (x + y + z, 2x − y) é linear, uma


vez que:
i) f ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = f (x1 + x2 , y1 + y2 , z1 + z2 ) =
= ((x1 + x2 ) + (y1 + y2 ) + (z1 + z2 ), 2(x1 + x2 ) − (y1 + y2 )) =
= ((x1 + y1 + z1 ) + (x2 + y2 + z2 ), (2x1 − y1 ) + (2x2 − y2 )) =
= (x1 + y1 + z1 , 2x1 − y1 ) + (x2 + y2 + z2 , 2x2 − y2 ) =
= f (x1 , y1 , z1 ) + f (x2 , y2 , z2 )
ii) f (α(x, y, z)) = f (αx, αy, αz) = (αx + αy + αz, 2αx − αy) =
= (α(x + y + z), α(2x − y)) = α(x + y + z, 2x − y) = αf (x, y, z).

49
4 — Já as funções que se seguem não são lineares:
a) f : R2 → R2 definida por f (x, y) = (xy, x + y)
b) f : R2 → R3 definida por f (x, y) = (2x + y, 1, x − y)
 
a
3×1
c) f : R → R definida por f ( b ) = (a2 , b + c − 2)
2  

c
Com efeito,
a) f (2, 3) = (2 × 3, 2 + 3) = (6, 5), f ((−1)(2, 3)) = f (−2, −3) = (6, −5) e
(−1)f (2, 3) = (−6, −5) 6= (6, −5) = f ((−1)(2, 3)). Por isso, falha a condição ii) da
Definição 42.
b) f (1, 1) = (2 + 1, 1, 1 − 1) = (3, 1, 0), f (−1, −1) = (−2 − 1, 1, −1 + 1) = (−3, 1, 0),
f ((1, 1) + (−1, −1)) = f (0, 0) = (0, 1, 0) 6= (0, 2, 0) = f (1, 1) + f (−1, −1). Assim, a
condição i) da Definição 42 não se verifica.
     
1 1 2
2
c) f ( 0 ) = (1 , 0 + 2 − 2) = (1, 0) e f (2  0 ) = f ( 0 ) = (22 , 0 + 4 − 2) =
     

2 2 4
 
1
(4, 2) 6= 2f ( 0 ) = 2(1, 0) = (2, 0), não se verificando a condição ii) da Definição 42.
 

Proposição 4.0.1 Se f : E → E0 é uma aplicação linear então:



− →

a) f ( 0 E ) = 0 E0
b) f (−→−x ) = −f (→−
x)
c) f (→

x −→

y ) = f (→

x ) − f (→

y ).

Demonstração

− →
− →
− →
− →
− →

a) 0 E + 0 E = 0 E ⇒ f ( 0 E + 0 E ) = f ( 0 E ) ⇒

− →
− →
− →
− →
− →
− →
− →

(f linear) f ( 0 E ) + f ( 0 E ) = f ( 0 E ) ⇒ f ( 0 E ) + f ( 0 E ) − f ( 0 E ) = f ( 0 E ) − f ( 0 E ) ⇒

− →

⇒ f ( 0 E ) = 0 E0

− →

b) f (→

x )+f (−→

x ) = f (→

x +(−→

x )) = f ( 0 E ) = 0 E0 (por (a)), logo, f (−→

x ) = −f (→

x)

c) f (→

x −→

y ) = f (→

x + (−→

y )) = f (→

x ) + f (−→

y ) = f (→

x ) − f (→

y ) (por (b)).

Proposição 4.0.2 Se E e E0 são espaços vectoriais sobre um mesmo corpo F, uma


aplicação f : E → E0 é linear se e só se

∀ α, β ∈ F, ∀ →

x ,→

y ∈ E f (α→

x + β→

y ) = αf (→

x ) + βf (→

y ).

50
(A demonstração fica ao cuidado do leitor)

Proposição 4.0.3 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F, E


com dimensão finita, B = (→

e 1, →

e 2, . . . , →

e n ) uma base de E e →

u 1, →

u 2, . . . , →

u n vectores
arbitrários de E0 . Então existe uma e uma só aplicação linear f : E → E0 tal que

∀i ∈ {1, 2, . . . , n} f (→

e i) = →

u i.

Mais ainda,

se →

x = a1 →

e 1 + a2 →

e 2 + · · · + an →

e n então f (→

x ) = a1 →

u 1 + a2 →

u 2 + · · · + an →

u n.

Demonstração
Seja f : E → E0 definida por

f (a1 →

e 1 + a2 →

e 2 + · · · + an →

e n ) = a1 →

u 1 + a2 →

u 2 + · · · + an →

un

Provamos que
(a) f é linear
(i) f ((a1 →

e 1 + a2 →

e 2 + · · · + an →

e n ) + (b1 →

e 1 + b2 →

e 2 + · · · + bn →

e n )) =

− →

= f ((a + b ) e + (a + b ) e + · · · + (a + b ) e ) = →

1 1 1 2 2 2 n n n

= (a1 + b1 )→

u 1 + (a2 + b2 )→−u 2 + · · · + (an + bn )→

un =

− →
− →
− →
− →

= (a1 u 1 + a2 u 2 + · · · + an u n ) + (b1 u 1 + b2 u 2 + · · · + bn →

u n) =
= f (a →
−e +a →
1

e + ··· + a →
1

2e ) + f (b →
2
−e +b → −
e + ··· + b →
n n
−e ) 1 1 2 2 n n

(ii) f (α(a1 →

e 1 + a2 →

e 2 + · · · + an →

e n )) = f ((αa1 )→

e 1 + (αa2 )→

e 2 + · · · + (αan )→

e n) =

− →
− →
− →
− →

= (αa ) u + (αa ) u + · · · + (αa ) u = α(a u + a u + · · · + a u ) = →

1 1 2 2 n n 1 1 2 2 n n

= αf (a1 →

e 1 + a2 →

e 2 + · · · + an →

e n)

(b) ∀i ∈ {1, 2, . . . , n} f (→ −e i) = →−ui


f (→

e i ) = f (0→

e 1 +0→ −
e 2 +· · ·+1→−e i +· · ·+0→

e n ) = 0→

u 1 +0→

u 2 +· · ·+1→

u i +· · ·+0→

un =


= u i

(c) f é única
Se g : E → E0 é uma aplicação linear tal que

∀i ∈ {1, 2, . . . , n} g(→

e i) = →

u i,

então, dado →−
x ∈ E arbitrário, tem-se:
g(→
−x ) = 1 g(a1 →

e 1 + a2 →
−e 2 + · · · + an →

e n ) = a1 g(→

e 1 ) + a2 g(→

e 2 ) + · · · + an g(→

e n) = 2
= a f (→
1
−e ) + a f (→

1e ) + · · · + a f (→
2

e ) = f (a →
2

e +a → −e +···+a →
n n
−e ) = f (→
1

x ), logo,
1 2 2 n n

f = g.
1→

x = a1 → −
e 1 + a2 →

e 2 + · · · + an →

e n , para certos escalares a1 , a2 , . . . , an , dado que B é uma base de E
2 →− →
− →

g( e i ) = u i = f ( e i )

51
Observação
Traduz a Proposição 4.0.3 que uma aplicação linear cujo domı́nio é um espaço vecto-
rial de dimensão finita fica perfeitamente definida quando se conhecem as imagens dos
vectores de uma qualquer base desse mesmo domı́nio.

Exemplos
1 — Consideremos a aplicação linear ϕ : R2 → R3 tal que

ϕ(1, 1) = (1, 0, −1) e ϕ(1, 0) = (0, 2, 1).

Determinamos a expressão geral de ϕ.


(x, y) = y(1, 1) + (x − y)(1, 0) ⇒ ϕ(x, y) = ϕ(y(1, 1) + (x − y)(1, 0)) =
= yϕ(1, 1)+(x−y)ϕ(1, 0) = y(1, 0, −1)+(x−y)(0, 2, 1) = (y, 0, −y)+(0, 2x−2y, x−y) =
= (y, 2x − 2y, x − 2y).

2 — Determinamos uma aplicação linear g : R3 → R3 tal que

g(1, 2, 3) = (0, 0, 0) e (1, 2, 3) ∈ g(R3 ).

É fácil mostrar que os vectores (1, 2, 3), (0, 1, 0), (0, 0, 1) constituem uma base de R3
(cf. com o Capı́tulo 3). Então, a aplicação linear g : R3 → R3 tal que

g(1, 2, 3) = (0, 0, 0), g(0, 1, 0) = (1, 2, 3)g(0, 0, 1) = (0, 0, 1),

e (x, y, z) = x(1, 2, 3) + (y − 2x)(0, 1, 0) + (z − 3x)(0, 0, 1) ⇒


⇒ g(x, y, z) = x(0, 0, 0)+(y−2x)(1, 2, 3)+(z−3x)(0, 0, 1) = (y−2x, 2y−4x, −9x+3y+z)
satisfaz as duas condições requeridas.

3 — A aplicação linear f : R2 → R2 tal que f (1, 0) = (0, 1), f (0, 1) = (1, 0) é a


simetria do plano em relação à recta y = x. Com efeito, ∀(x, y) ∈ R2 ,
f (x, y) = f (x(1, 0) + y(0, 1)) = xf (1, 0) + yf (0, 1) = x(0, 1) + y(1, 0) = (y, x).

4 — A aplicação linear h : R2 → R2 tal que h(1, 0) = (0, 1), h(0, 1) = (−1, 0) é a


rotação do plano em torno da origem, no sentido directo, de um ângulo de amplitude π2 .
Com efeito, ∀(x, y) ∈ R2 ,
h(x, y) = h(x(1, 0) + y(0, 1)) = xh(1, 0) + yh(0, 1) = x(0, 1) + y(−1, 0) = (−y, x).

4.1 Núcleo e Imagem. Classificação de um Morfismo

Definição 43 Seja f : E → E0 uma aplicação linear. Chama-se:

52
a) Núcleo de f , e denota-se por N uc(f ) ou por Ker(f ), ao subconjunto de E
formado por todos os vectores cuja imagem por f é o vector nulo de E0 , ou seja,


N uc(f ) = {→

x ∈ E : f (→

x ) = 0 E0 }.

b) Imagem de f , e denota-se por Im(f ), ao contradomı́nio de f , isto é,

Im(f ) = {f (→

x):→

x ∈ E} = f (E).

Proposição 4.1.1 Nas condições da definição anterior, tem-se que:


a) N uc(f ) ≤ E
b) Im(f ) ≤ E0 .

Demonstração

− →
− →

a) (i) f ( 0 E ) = 0 E0 ⇒ 0 E ∈ N uc(f )


(ii) Sejam →−x ,→−
y ∈ N uc(f ) e α, β ∈ F quaisquer. Por definição, f (→

x ) = f (→

y ) = 0 E0 .
Tem-se,

− →
− →
− →
− →

f (α→

x +β →

y ) = αf (→

x )+βf (→

y ) = α 0 E0 +β 0 E0 = 0 E0 + 0 E0 = 0 E0 ⇒ α→

x +β →

y ∈ N uc(f ).

− →
− →

b) (i) f ( 0 E ) = 0 E0 ⇒ 0 E0 ∈ Im(f )


(ii) Sejam → −
u ,→−v ∈ Im(f ) e α, β ∈ F quaisquer. Então, ∃→

a , b ∈ E tais que


f (→

a)=→ −u e f( b ) = →−v . Tem-se,

− →

α→

u + β→

v = αf (→

a ) + βf ( b ) = f (α→

a + β b ) ⇒ α→

u + β→

v ∈ Im(f ).

Proposição 4.1.2 Sejam E um espaço vectorial de dimensão finita, B = (→



e 1, →

e 2 , . . . {, →

e n)
uma base de E e f : E → E0 uma aplicação linear. Então

Im(f ) =< f (→

e 1 ), f (→

e 2 ), . . . , f (→

e n) > .

Demonstração
Vamos mostrar que qualquer vector de Im(f ) pode escrever-se como combinação
linear dos vectores f (→

e ), f (→
1

e ), . . . , f (→
2

e ).
n

Seja → −y ∈ Im(f ). Então, ∃→ −


x ∈ E tal que →−
y = f (→ −x ). Como B é uma base do espaço,
∃a1 , a2 , . . . , an ∈ F tais que x = a1 e 1 + a2 e 2 + · · · + an →

− →
− →
− −
e n . Donde,


y = f (→

x ) = f (a1 →

e 1 + a2 →

e 2 + · · · + an →

e n ) = a1 f (→

e 1 ) + a2 f (→

e 2 ) + · · · + an f (→

e n) ⇒

⇒→

y ∈< f (→

e 1 ), f (→

e 2 ), . . . , f (→

e n) > .

53
Observação
Se E é um espaço vectorial de dimensão finita e f : E → E0 é uma aplicação linear,
resulta imediatamente da proposição 4.1.2 que Im(f ) também tem dimensão finita. Mais
ainda, dim(Im(f )) ≤ dim(E).
Por outro lado, como N uc(f ) ≤ E, também N uc(f ) tem dimensão finita e
dim(N uc(f )) ≤ dim(E).
Veremos adiante como se relacionam as dimensões de N uc(f ), Im(f ) e E.

Definição 44 Se E é um espaço vectorial de dimensão finita e f : E → E0 é uma


aplicação linear, à dimensão de N uc(f ) chama-se nulidade de f , denotando-se por nf
e à dimensão de Im(f ) chama-se caracterı́stica de f , e denota-se por cf .

Exemplos
1 — Consideremos a aplicação linear f : R3 → R2 definida por
f (x, y, z) = (x+y +z, 2x−y). Determinamos N uc(f ), Im(f ) e as dimensões respectivas.

N uc(f ) = {(x, y, z) ∈ R3 : f (x, y, z) = (0, 0)} = {(x, y, z) ∈ R3 : (x+y+z, 2x−y) = (0, 0)}
( ( (
x+y+z = 0 x + 2x + z = 0 z = −3x
⇒ ⇒ ,
2x − y = 0 y = 2x y = 2x
donde,

N uc(f ) = {(x, 2x, −3x) : x ∈ R} = {x(1, 2, −3) : x ∈ R} =< (1, 2, −3) >

(1, 2, −3) 6= (0, 0, 0), pelo que, o gerador de N uc(f ) é linearmente independente e, por
isso, B = ((1, 2, −3)) é uma base de N uc(f ) e nf = 1.

Im(f ) = {f (x, y, z) : (x, y, z) ∈ R3 } = {(x + y + z, 2x − y) : x, y, z ∈ R}

(x + y + z, 2x − y) = (x, 2x) + (y, −y) + (z, 0) = x(1, 2) + y(1, −1) + z(1, 0) ⇒


⇒ Im(f ) =< (1, 2), (1, −1), (1, 0) > ⇒ Im(f ) = R2 e cf = 2
(porque, em R2 , três vectores são sempre linearmente dependentes mas quaisquer dois
geradores dos indicados para Im(f ) são linearmente independentes).
Alternativamente, podemos usar a proposição 4.1.2 para determinar Im(f ):
atendendo a que ((1, 0, 0), (0, 1, 0), (0, 0, 1)) é uma base de R3 , tem-se

Im(f ) =< f (1, 0, 0), f (0, 1, 0), f (0, 0, 1) >=< (1, 2), (1, −1), (1, 0) >= R2 .

2 — Seja g : R3 → R4 a aplicação linear tal que g(x, y, z) = (x−z, 0, y +2z, x−y +z).
Determinamos N uc(g), Im(g), ng e cg .

N uc(g) = {(x, y, z) ∈ R3 : g(x, y, z) = (0, 0, 0, 0)} =

54
= {(x, y, z) ∈ R3 : (x − z, 0, y + 2z, x − y + z) = (0, 0, 0, 0)}.

 x−z = 0  
x = z
 x = 0


  
 0 = 0 
⇒ y = −2z ⇒ y = 0 ,
 y + 2z = 0  
z + 2z + z = 0 z = 0

  

 x−y+z = 0
donde,
N uc(g) = {(0, 0, 0)} e ng = 0.

Im(g) =< g(1, 0, 0), g(0, 1, 0), g(0, 0, 1) >=< (1, 0, 0, 1), (0, 0, 1, −1), (−1, 0, 2, 1) >
   
1 0 −1 x 1 0 −1 x
   
 0 0 0 y   1 −1 1 w 
  −−−−→   −−−−−−→
 0 1 0
 2 z   L2 ↔L4  0 1
 2 z   L2 =L2 −L1
1 −1 1 w 0 0 0 y
   
1 0 −1 x 1 0 −1 x
   
 0 −1 2 w − x   0 −1 2 w−x 
−− −−−−→   −− −−−−→  ,
L02 =L2 −L1 
 0 1 2 z  3  L0 =L +L
3 2  0 0 4 z+w−x  
0 0 0 y 0 0 0 y
logo,

Im(g) = {(x, y, z, w) ∈ R4 : y = 0} e, atendendo a que a caracterı́stica da matriz é 3 , cg = 3.

Alternativamente,

Im(g) = {g(x, y, z) : (x, y, z) ∈ R3 } = {(x − z, 0, y + 2z, x − y + z) : x, y, z ∈ R} =

= {(x, 0, 0, x) + (0, 0, y, −y) + (−z, 0, 2z, z) : x, y, z ∈ R} =

= {x(1, 0, 0, 1) + y(0, 0, 1, −1) + z(−1, 0, 2, 1) : x, y, z ∈ R} ⇒

⇒ Im(g) =< (1, 0, 0, 1), (0, 0, 1, −1), (−1, 0, 2, 1) > .

A utilização do resultado que enunciaremos de seguida teria evitado alguns dos


cálculos efectuados nestes dois exemplos.

Proposição 4.1.3 (Teorema da Dimensão) Sejam E um espaço vectorial de di-


mensão finita e f : E → E0 uma aplicação linear. Então,

dim(E) = dim(N uc(f )) + dim(Im(f ))

ou, abreviadamente,
dim(E) = nf + cf .

55
Demonstração
Sejam B1 = (→ −u 1, →

u 2, . . . , →

u p ) (0 ≤ p ≤ dim(E)) uma base de N uc(f ) e
B = ( u 1 , u 2 , . . . , u p , e p+1 , →

− →
− →
− →
− −e p+2 , . . . , →
−e n ) uma base de E que contém B1 . Vamos
provar que B = (f ( e →
− →

), f ( e ), . . . , f (→
−e )) é uma base de Im(f ), de onde resultará
2 p+1 p+2 n

imediatamente a tese.
Seja →

y ∈ Im(f ). Então, ∃→

x ∈ E tal que →

y = f (→

x ).
Como B é uma base de E, ∃a1 , a2 , . . . , ap , bp+1 , bp+2 , . . . , bn ∈ F tais que


x = a1 →

u 1 + a2 →

u 2 + · · · + ap →

u p + bp+1 →

e p+1 + bp+2 →

e p+2 + · · · + bn →

e n.

Donde,


y = f (→

x ) = f (a1 →

u 1 + a2 →

u 2 + · · · + ap →

u p + bp+1 →

e p+1 + bp+2 →

e p+2 + · · · + bn →

e n) =

= a1 f (→

u 1 ) + a2 f (→

u 2 ) + · · · + ap f (→
−u p ) + bp+1 f (→

e p+1 ) + bp+2 f (→
−e p+2 ) + · · · + bn f (→

e n) = 3

− →
− →

= a1 0 E0 + a2 0 E0 + · · · + ap 0 E0 + bp+1 f (→ −e p+1 ) + bp+2 f (→
−e p+2 ) + · · · + bn f (→−e n) =

− →
− →

= 0 E0 + 0 E0 + · · · + 0 E0 + bp+1 f (→ −
e p+1 ) + bp+2 f (→−
e p+2 ) + · · · + bn f (→−e n) =
= b f (→ p+1

e p+1) + b f (→
p+2

e ) + · · · + b f (→
p+2 n
−e )⇒
n

⇒ Im(f ) =< f (→

e p+1 ), f (→

e p+2 ), . . . , f (→

e n) > .


Suponhamos agora que α1 f (→
−e p+1 ) + α2 f (→
−e p+2 ) + · · · + αn−p f (→

e n ) = 0 E0 . Então,


f (α1 →

e p+1 + α2 →

e p+2 + · · · + αn−p → −
e n ) = 0 E0 ⇒

⇒ α1 →
−e p+1 + α2 →

e p+2 + · · · + αn−p →

e n ∈ N uc(f ) ⇒ 4
⇒ ∃β1 , β2 , . . . , βp ∈ F : α1 →

e p+1 +α2 →
−e p+2 +· · ·+αn−p →
−e n = β1 →
−u 1 +β2 →

u 2 +· · ·+βp →

up ⇒


⇒β → −u +β →
1 1

u + ··· + β →
2 2

u −α →
p p
−e 1 −α →
p+1

e − ··· − α →
2 p+2

e = 0 ⇒5
n−p n E

⇒ β1 = β2 = . . . = βp = α1 = α2 = . . . = αn−p = 0,
como querı́amos.

Definição 45 Uma aplicação linear f : E → E0 diz-se um:


(i) monomorfismo se é injectiva;
(ii) epimorfismo se é sobrejectiva;
(iii) isomorfismo se é bijectiva;
(iv) endomorfismo se E0 = E;
(v) automorfismo se é um endomorfismo bijectivo.
3
Os vectores →

u 1, . . . , →
−u p pertencem a N uc(f ), logo, têm imagem nula
4 →
− →

Os vectores u 1 , . . . , u p geram N uc(f )
5
Por B ser uma base de E, os vectores de B são linearmente independentes

56
Proposição 4.1.4 Uma aplicação linear f : E → E0 é um monomorfismo se e só se


N uc(f ) = { 0 E }.

Demonstração


(⇒) Seja →

x ∈ N uc(f ). Supondo f injectiva, mostramos que →

x = 0 E.


− →
− →
− →

x ∈ N uc(f ) ⇒ f (→

x ) = 0 E0 = 6 f ( 0 E ) ⇒ 7 →

x = 0 E.

(⇐) Suponhamos que f (→



x ) = f (→

y ). Provamos que →

x = →

y , usando a hipótese


(N uc(f ) = { 0 E }).


− →

f (→

x ) = f (→
−y ) ⇒ f (→

x ) − f (→

y ) = 0 E0 ⇒ f (→

x −→

y ) = 0 E0 ⇒

− →

⇒→ −x −→ −y ∈ N uc(f ) = { 0 E } ⇒ →
−x −→−y = 0E⇒→ −x =→−
y.

Observação
Se f : E → E0 é linear e E tem dimensão finita então:
(i) f é um monomorfismo sse nf = 0;
(ii) f é um epimorfismo (Im(f ) = E0 ) sse cf = dim(E0 );
(iii) f é um isomorfismo sse nf = 0 e cf = dim(E0 ) = dim(E).

Proposição 4.1.5 Sejam E e E0 espaços vectoriais com a mesma dimensão (finita)


e
f : E → E0 uma aplicação linear. Então, f é um monomorfismo se e só se é um
epimorfismo.

Demonstração
Seja n = dim(E) = dim(E0 ). Pelo Teorema da Dimensão (Proposição 4.1.3),

n = n f + cf .

f monomorfismo ⇔ nf = 0 ⇔ n = cf ⇔ f epimorfismo.

Observação
1 — Resulta da Proposição anterior que, para que uma aplicação linear entre espaços
vectoriais com a mesma dimensão seja bijectiva, basta que seja injectiva ou sobrejec-
tiva.
6
Pela Proposição 4.0.1
7
f é injectiva

57
2 — Só podem existir isomorfismos entre espaços vectoriais com a mesma dimensão.
Com efeito, de acordo com a Proposição 4.1.3, se:
a) dim(E) < dim(E0 ), f nunca é sobrejectiva
(cf = dim(E) − nf ≤ dim(E) < dim(E0 ));
b) dim(E) > dim(E0 ), f nunca é injectiva
(cf ≤ dim(E0 ) < dim(E) = cf + nf ⇒ nf > 0).

Proposição 4.1.6 Seja f : E → E0 uma aplicação linear. Então f transforma


vectores linearmente independentes em vectores linearmente independentes se e só se f
é um monomorfismo.

Demonstração
(⇒) Por hipótese, f transforma vectores linearmente independentes em vectores li-


nearmente independentes. Mostramos que N uc(f ) = { 0 E } (ou seja, que f é injectiva).

− →

x ∈ N uc(f ) ⇒ f (→

x ) = 0 E0 ⇒ f (→

x ) linearmente dependente ⇒


⇒ (hipótese) x linearmente dependente ⇒ →

− −x = 0 E.


(⇐) Suponhamos que N uc(f ) = { 0 E } e sejam →
−e 1, → −e 2, . . . , →

e p vectores linearmente

− →
− →

independentes de E. Provamos que f ( e ), f ( e ), . . . , f ( e ) são vectores linearmente
1 2 p
0
independentes de E .

− →

α1 f (→
−e 1 ) + α2 f (→

e 2 ) + · · · + αp f (→

e p ) = 0 E0 ⇒ f (α1 →

e 1 + α2 →

e 2 + · · · + αp →

e p ) = 0 E0 ⇒

− →

α1 →
−e 1 + α2 →−e 2 + · · · + αp →
− e p ∈ N uc(f ) = { 0 E } ⇒ α1 →−
e 1 + α2 →

e 2 + · · · + αp →
−ep= 0E⇒
(→
−e ,...,→
1

e linearmente independentes) α = α = . . . = α = 0.
p 1 2 p

Observação
Das Proposições 4.1.2 e 4.1.6 conclui-se que, se E é um espaço vectorial de dimensão
finita, B = (→−e 1, →

e 2, . . . , →

e n ) uma base de E e f : E → E0 um monomorfismo, então
B 0 = (f (→

e ), f (→
1

e ), . . . , f (→
2
−e )) é uma base de Im(f ), pelo que dim(Im(f )) = dim(E.
n

4.2 Soma, Multiplicação por Escalar, Composta e


Inversa de Aplicações Lineares

Proposição 4.2.1 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F, λ ∈ F,


f : E → E0 e g : E → E0 aplicações lineares. Então as aplicações,

58
a) (f + g) : E → E0 definida por (f + g)(→−
x ) = f (→
−x ) + g(→

x ), ∀→

x ∈E
b) (λf ) : E → E0 definida por (λf )(→

x ) = λf (→

x ), ∀→
−x ∈E
são lineares.

Demonstração
a) (f + g)(α→

x + β→

y ) = f (α→

x + β→

y ) + g(α→

x + β→

y)=8
= (αf (→

x ) + βf (→

y )) + (αg(→

x ) + βg(→

y )) = α(f (→

x ) + g(→

x )) + β(f (→

y ) + g(→

y )) =
= α(f + g)(→−
x ) + β(f + g)(→
−y)
b) tem prova análoga a a)

Proposição 4.2.2 Sejam E, E0 e E00 espaços vectoriais sobre um mesmo corpo F,


g : E → E0 e f : E0 → E00 aplicações lineares. Então (f ◦ g) : E → E00 definida por
(f ◦ g)(→

x ) = f (g(→

x )), ∀→

x ∈ E é uma aplicação linear.

Demonstração
(f ◦ g)(α→
−x + β→−y ) = f (g(α→
−x + β→−y )) = 9 f (αg(→

x ) + βg(→

y )) = 10
= αf (g(→−
x )) + βf (g(→
−y )) = α(f ◦ g)(→−
x ) + β(f ◦ g)(→
−y ).

Proposição 4.2.3 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F e


f : E → E0 um isomorfismo. Então f −1 : E0 → E ainda é um isomorfismo.

Demonstração
A inversa de uma bijecção é ainda uma bijecção. Por outro lado,

− →

f −1 (α→

x + β→ −y ) = 11 f −1 (αf (→
−a ) + βf ( b )) = f −1 (f (α→

a + β b )) =

− →

= (f −1 ◦ f )(α→−
a + β b ) = α→ −a + β b = αf −1 (→ −x ) + βf −1 (→

y ).
Donde, f −1 é um isomorfismo.

Observação
De acordo com os dois resultados anteriores, podemos afirmar que a composta de duas
aplicações lineares ainda é linear e que a inversa de um isomorfismo é um isomorfismo.

8
f e g são lineares
9
g é linear
10
f é linear

− →

11
f é, em particular, sobrejectiva. Por isso, existem →

a , b ∈ E tais que →

x = f (→

a ), →

y = f( b ) ⇒


(por f ser injectiva) f −1 (→

x)=→−a , f −1 (→

y)= b

59
4.3 Matriz de uma Aplicação Linear
No que se segue, todos os espaços vectoriais mencionados têm dimenso finita.

Definição 46 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F, de di-


mensões n e p respectivamente, B1 = (→ −e 1, →

e 2, . . . , →

e n ) uma base (ordenada) de E,

−0 → −0 →
−0
B2 = ( e 1 , e 2 , . . . , e p ) uma base (ordenada) de E0 e f : E → E0 uma aplicação linear.
Então, a matriz de f em relação às bases B1 e B2 , M(f ; B1 , B2 ) , é
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
M(f ; B1 , B2 ) = 
 .. .. . . ..  ,
 . . . .  
ap1 ap2 . . . apn
onde,  → →
− →
− →

 f (−
e 1 ) = a11 e0 1 + a21 e0 2 + · · · + ap1 e0 p

− →
− →


 f (→


e 2 ) = a12 e0 1 + a22 e0 2 + · · · + ap2 e0 p

.. . (4.1)

 .

− →
− →


 →
f (−

e n ) = a1n e0 1 + a2n e0 2 + · · · + apn e0 p
Observações
1 — As relações (4.1) podem ser traduzidas matricialmente da seguinte forma:

h i h →
−0 →− →
− i
f (→

e 1 ) f (→

e 2 ) . . . f (→

e n) = e 1 e0 2 . . . e0 p A,
onde A = M(f ; B1 , B2 ).
2 — Tendo em conta a definição de caracterı́stica de uma matriz, a Proposição 4.1.2
e a forma como se constrói a matriz de uma aplicação linear, é fácil concluir que, se f é
linear e A é a matriz de f em relação a certas bases, dim(Im(f )) = cf = c(A).

Exemplos
1 — Sejam f : R2 → R3 a aplicação linear definida por f (x, y) = (2x, x − y, 3y),
B1 = ((1, 0), (0, 1)), B2 = ((1, 1), (−1, 2)) bases de R2 e B 0 1 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)),
B 0 2 = ((1, 1, 1), (1, 1, 0), (1, 0, 0)) bases de R3 . Escrevemos:
a) M(f ; B1 , B 0 1 )
f (1, 0) = (2, 1, 0) = 2(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1)
f (0, 1) = (0, −1, 3) = 0(1, 0, 0) + (−1)(0, 1, 0) + 3(0, 0, 1), logo,
 
2 0
M(f ; B1 , B 0 1 ) =  1 −1  .
 

0 3

60
b) M(f ; B2 , B 0 2 )
f (1, 1) = (2, 0, 3) = 3(1, 1, 1) + (−3)(1, 1, 0) + 2(1, 0, 0)
f (−1, 2) = (−2, −3, 6) = 6(1, 1, 1) + (−9)(1, 1, 0) + 1(1, 0, 0), logo,
 
3 6
M(f ; B2 , B 0 2 ) =  −3 −9  .
 

2 1

2 — Consideremos o endomorfismo g de R3 tal que

g(1, 0, 0) = (1, −1, 0) , g(0, 1, 0) = (−1, 1, 2) , g(0, 0, 1) = (0, 0, −1).

De acordo com a Proposição 4.0.3, g está perfeitamente definido e, tendo em conta os


dados, é muito fácil escrever a matriz de g em relação à base canónica de R3 . Com efeito,
g(1, 0, 0) = (1, −1, 0) = 1(1, 0, 0) + (−1)(0, 1, 0) + 0(0, 0, 1)
g(0, 1, 0) = (−1, 1, 2) = (−1)(1, 0, 0) + 1(0, 1, 0) + 2(0, 0, 1)
g(0, 0, 1) = (0, 0, −1) = 0(1, 0, 0) + 0(0, 1, 0) + (−1)(0, 0, 1), donde,

 
1 −1 0
A = M(g; ((1, 0, 0), (0, 1, 0), (0, 0, 1)), ((1, 0, 0), (0, 1, 0), (0, 0, 1))) =  −1 1 0 .
 

0 2 −1

Vamos agora determinar a expressão geral de g:


(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) ⇒
⇒ g(x, y, z) = x g(1, 0, 0) + y g(0, 1, 0) + z g(0, 0, 1) ⇒
⇒ g(x, y, z) = x(1, −1, 0) + y(−1, 1, 2) + z(0, 0, −1) ⇒
⇒ g(x, y, z) = (x − y, −x + y, 2y − z), ou, matricialmente,

            
1 −1 0 1 −1 0 x x x−y
x  −1 +y  1 +z  0  =  −1 1 0   y  = A  y  =  −x + y  ,
            

0 2 −1 0 2 −1 z z 2y + z

que é a coluna de coordenadas de g(x, y, z) relativamente à base canónica de R3 .


Com a expressão geral de g, é muito simples escrever a matriz de g em relação a
qualquer ou quaisquer bases fixadas no domı́nio e no espaço de chegada (que, no caso de
g, coincidem). Mostraremos adiante que tal pode também ser feito efectuando o produto
de matrizes convenientes (uma matriz qualquer de g e matrizes de mudança de base
adequadas, multiplicadas por certa ordem).

61
Como já vimos, uma aplicação linear fica perfeitamente definida quando se conhece
a sua expressão geral ou as imagens dos vectores de uma base do domı́nio. Outra forma
de a definir é a partir da sua matriz em relação a bases previamente fixadas no domı́nio
e no espaço de chegada. Concretamente,

Proposição 4.3.1 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F,



− → − →

B1 = (→

e 1, →

e 2, . . . , →

e n ) uma base (ordenada) de E, B2 = ( e0 1 , e0 2 , . . . , e0 p ) uma base
(ordenada) de E0 , f : E → E0 uma aplicação linear e A = M(f ; B1 , B2 ). Se X é a coluna
de coordenadas de → −x ∈ E relativamente à base B1 então AX é a coluna de coordenadas

− 0
de f ( x ) ∈ E relativamente à base B . 2

Demonstração


h i
x = → −e1 →−
e 2 ... →
−en X ⇒
h →
−0 →−0 →
−0 i
⇒ f (→

h i
x ) = f (→− →
− →

e 1) f ( e 2) . . . f ( e n) X = e 1 e 2 . . . e p AX.

Exemplo
Seja f : R2 → R3 a aplicação linear cuja matriz em relação às bases B1 = ((1, 1), (−1, 2))
 
3 6
de R2 e B2 = ((1, 1, 1), (1, 1, 0), (1, 0, 0)) de R3 é A =  −3 −9  . Calculamos f (1, 0)
 

2 1
e f (x, y), recorrendo a A.
(1, 0) = 32 (1, 1) + (− 31 )(−1, 2), e
   
"
2
# 3 6 "
2
# 0
3 3
A =  −3 −9  =  1 ,
   
− 13 − 13
2 1 1

logo,
f (1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + 1(1, 0, 0) = (2, 1, 0).

Analogamente,
y+2x y−x
(x, y) = 3
(1, 1) + 3
(−1, 2), e
   
"
y+2x
# 3 6 "
y+2x
# 3y
3 3
A =  −3 −9  =  x − 4y  ,
   
y−x y−x
3 3
2 1 x+y

logo,

f (1, 0) = 3y(1, 1, 1) + (x − 4y)(1, 1, 0) + (x + y)(1, 0, 0) = (2x, x − y, 3y).

62
Proposição 4.3.2 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F, λ ∈ F,
f : E → E0 e g : E → E0 aplicações lineares, B1 uma base de E, B2 uma base de E0 .
Se A = M(f ; B1 , B2 ) e B = M(g; B1 , B2 ) então

A + B = M(f + g; B1 , B2 ) e λA = M(λf ; B1 , B2 ).

Proposição 4.3.3 Sejam E, E0 e E00 espaços vectoriais sobre um mesmo corpo F,


f : E → E0 e g : E0 → E00 aplicações lineares, B1 uma base de E, B2 uma base de E0 , B3
uma base de E00 .
Se A = M(f ; B1 , B2 ) e B = M(g; B2 , B3 ) então

BA = M(g ◦ f ; B1 , B3 ).

Proposição 4.3.4 Sejam E e E0 espaços vectoriais sobre um mesmo corpo F,


f : E → E0 um isomorfismo, B1 uma base de E, B2 uma base de E0 .
Se A = M(f ; B1 , B2 ) então

A−1 = M(f −1 ; B2 , B1 ).

Exemplo
Sejam f1 : R2 → R3 , f2 : R2 → R3 , g : R3 → R3 as aplicações lineares definidas por
f1 (x, y) = (2x, x − y, 3y) , f2 (x, y) = (x + 2y, −y, 0) , g(x, y, z) = (x + y, y − z, x − z),
B1 = ((1, 0), (0, 1)) a base canónica de R2 e B2 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) a base
canónica de R3 .  
2 0
f1 (1, 0) = (2, 1, 0), f1 (0, 1) = (0, −1, 3) ⇒ A1 = M(f1 ; B1 , B2 ) =  1 −1  ,
 

0 3
 
1 2
f2 (1, 0) = (1, 0, 0), f2 (0, 1) = (2, −1, 0) ⇒ A2 = M(f2 ; B1 , B2 ) =  0 −1  ,
 

0 0
g(1, 0, 0) = (1, 0, 1), g(0, 1, 0) = (1, 1, 0), g(0, 0, 1) = (0, −1, −1) ⇒
 
1 1 0
⇒ B = M(g; B2 , B2 ) =  0 1 −1  . Então:
 

1 0 −1
 
3 2
M(f1 + f2 ; B1 , B2 ) = A1 + A2 =  1 −2  ,
 

0 3
e

63
 
" # 3x + 2y
x
(A1 + A2 ) =  x − 2y  ⇒ (f1 + f2 )(x, y) = (3x + 2y, x − 2y, 3y)12 .
 
y
3y
 
10 0
M(5f1 ; B1 , B2 ) = 5A1 =  5 −5  ,
 

0 15
e
 
" # 10x
x
(5A1 ) =  5x − 5y  ⇒ (5f1 )(x, y) = (10x, 5x − 5y, 15y).
 
y
15y
 
3 −1
M(g ◦ f1 ; B1 , B2 ) = BA1 =  1 −4  ,
 

2 −3
e

 
" # 3x − y
x
(BA1 ) =  x − 4y  ⇒ (g ◦ f1 )(x, y) = (3x − y, x − 4y, 2x − 3y).
 
y
2x − 3y

Vamos agora obter estes mesmos resultados usando as expressões gerais das funções
dadas:

(f1 +f2 )(x, y) = f1 (x, y)+f2 (x, y) = (2x, x−y, 3y)+(x+2y, −y, 0) = (3x+2y, x−2y, 3y),

(5f1 )(x, y) = 5f1 (x, y) = 5(2x, x − y, 3y) = (10x, 5x − 5y, 15y),

(g◦f1 )(x, y) = g(f1 (x, y)) = g(2x, x−y, 3y) = (2x+x−y, x−y−3y, 2x−3y) = (3x−y, x−4y, 2x−3y).

Finalmente, verificamos se g é um automorfismo de R3 . Tendo em conta que cg = c(B)


e c(B) = 3 (confirmar), g é um epimorfismo, logo, um isomorfismo.
12
Uma vez que a base fixada no espaço de chegada é a canónica

64
 1

2
− 12 1
2
M(g −1 ; B2 , B2 ) = B −1 =  1 1
− 21  , e
 
2 2
1
2
− 12 − 21
   1

x 2
x − 21 y + 12 z
1 1 1 1 1 1 1 1 1
B −1  y  =  1
x + 12 y − 12 z  ⇒ g −1 (x, y, z) = ( x− y+ z, x+ y− z, x− y− z),
   
2 2 2 2 2 2 2 2 2 2
1
z 2
x − 21 y − 21 z
ou, com escrita mais simplificada,
 
1 −1 1
M(g −1 ; B2 , B2 ) = B −1 = 21  1 1 −1  , e
 

1 −1 −1
   
x x−y+z
  1 1
B −1  y  =  x + y − z  ⇒ g −1 (x, y, z) = (x − y + z, x + y − z, x − y − z).

2 2
z x−y−z
Invertemos g a partir da sua expressão geral:

 x+y = u

g(x, y, z) = (u, v, w) ⇒ (x + y, y − z, x − z) = (u, v, w) ⇒ y−z = v

x−z = w

   
1 1 0 u 1 1 0 u
 0 1 −1 v  −− −−−−→  0 1 −1 v  −− −−−−→
   
0 L3 =L3 −L1 0 L3 =L3 +L2
1 0 −1 w 0 −1 −1 w − u
   
1 1 0 u 1 1 0 u
 0 1 −1 v  −−0−−1−→  0 1 −1 v  −− −−−−→
   
0L2 =L2 +L3
L3 = 2 L3
0 0 −2 w − u + v 0 0 1 12 (u − v − w)
   
1 1 0 u 1 0 0 12 (u − v + w)
 0 1 0 12 (u + v − w)  −− −−−−→  0 1 0 12 (u + v − w) , donde,
   
0
L1 =L1 −L2
0 0 1 12 (u − v − w) 0 0 1 12 (u − v − w)
 1
 x = 2 (u − v + w)

y = 12 (u + v − w) .

z = 12 (u − v − w)

Assim,

1 1 1
g −1 (u, v, w) = ( (u − v + w), (u + v − w), (u − v − w)) ⇒
2 2 2

1
⇒ g −1 (x, y, z) = (x − y + z, x + y − z, x − y − z).
2

65
4.3.1 Relação entre as diferentes Matrizes de uma Aplicação
Linear

Sejam f : E → E0 uma aplicação linear, B1 , B2 bases de E, B 0 1 , B 0 2 bases de E0 ,


A = M(f ; B1 , B 0 1 ) e B = M(f ; B2 , B 0 2 ). Vamos estabelecer a relação entre as matrizes
A e B. Façamos um diagrama para melhor a entender.

A
E −
→ E0
f
(B1 ) (B 0 1 )
Q ↑ 1E 1E0 ↓ P
f
E −
→ E0
B
(B2 ) (B 0 2 )
Como,
f = 1E0 ◦ f ◦ 1E ,

M(f ; B2 , B 0 2 ) = M(1E0 ; B 0 1 , B 0 2 )M(f ; B1 , B 0 1 )M(1E ; B2 , B1 ),

ou seja,
B = P AQ.

Observe-se que, como ∀→



e ∈ E 1E (→

e)=→

e,

M(1E ; B2 , B1 ) = M(B2 , B1 ).

Analogamente,
M(1E0 ; B 0 1 , B 0 2 ) = M(B 0 1 , B 0 2 ).

Mais geralmente, em qualquer espaço vectorial de dimensão finita V, a matriz da


aplicação linear 1V em relação a duas bases B e B 0 , M(1V ; B, B 0 ), é exactamente a matriz
de mudança da base B para a base B 0 , M(B, B 0 ).
Assim, as matrizes P e Q referidas atrás são matrizes de mudança de base, logo,
invertı́veis.

Definição 47 Sejam A e B matrizes do tipo m × n com entradas num corpo F. Diz-


se que A e B são equivalentes se existem matrizes regulares P ∈ Fm×m , Q ∈ Fn×n ,
tais que B = P AQ.

Matrizes de uma mesma aplicação linear são, por isso, equivalentes.

66
Exemplo
Vimos num exemplo anterior que, dadas a aplicação linear f : R2 → R3 definida
por f (x, y) = (2x, x − y, 3y), B1 = ((1, 0), (0, 1)), B2 = ((1, 1), (−1, 2)) bases de R2 e
B 0 1 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)), B 0 2 = ((1, 1, 1), (1, 1, 0), (1, 0, 0)) bases de R3 ,
   
2 0 3 6
A = M(f ; B1 , B 0 1 ) =  1 −1  , B = M(f ; B2 , B 0 2 ) =  −3 −9  .
   

0 3 2 1
Vamos obter B, a partir de A e de matrizes de mudança de base convenientes. Tem-se,
A
R2 −
→ R3
f
(B1 ) (B 0 1 )
Q ↑ 1R2 1R3 ↓ P
f
R2 −
→ R3
B
(B2 ) (B 0 2 )
" #
1 −1
Q = M(B2 , B1 ) = ,
1 2
P = M(B 0 1 , B 0 2 )
e,
(1, 0, 0) = 0(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0)
(0, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + (−1)(1, 0, 0) ,
(0, 0, 1) = 1(1, 1, 1) + (−1)(1, 1, 0) + 0(1, 0, 0)
donde,  
0 0 1
−1  .
P = 0 1
 

1 −1 0
      
0 0 1 2 0 " # 0 3 " # 3 6
 1 −1  1 −1
B = P AQ =  0 1 −1   1 −1  =  1 −4  =  −3 −9  .
    
1 2 1 2
1 −1 0 0 3 1 1 2 1

Caso Particular
Sejam f : E → E um endomorfismo de E, B1 , B2 duas bases de E, A = M(f ; B1 , B1 )
e B = M(f ; B2 , B2 ). Então B = P −1 AP porque, se P = M(B2 , B1 ), P −1 = M(B1 , B2 )
(cf. com o Capı́tulo 3).

Definição 48 Sejam A e B matrizes do tipo n × n com entradas num corpo F.


Diz-se que A e B são semelhantes se existe uma matriz invertı́vel P ∈ Fn×n tal que
B = P −1 AP .

67
Do que foi dito antes e da definição resulta que, se A é a matriz de um endomorfismo
em relação a uma base B e B é a matriz do mesmo endomorfismo em relação a uma base
B 0 , então A e B são semelhantes.

Exemplo
Seja g o endomorfismo de R3 cuja matriz A, em relação à base canónica de R3 , que
designaremos por B, é:  
1 0 −1
A= 0 1 1 .
 

−1 0 1
Determinamos a matriz de B, de g, em relação à base B 0 = ((1, 0, 1), (0, 1, 1), (0, 0, 1)),
usando matrizes de mudança de base.
   
1 0 0 1 0 0
B = P −1 AP onde, P = M(B 0 , B) =  0 1 0  e P −1 = M(B, B 0 ) =  0 1 0 .
   

1 1 1 −1 −1 1
Logo,    
1 0 0 1 0 −1 1 0 0
B= 0 1 0  0 1 1  0 1 0  =
   

−1 −1 1 −1 0 1 1 1 1
    
1 0 −1 1 0 0 0 −1 −1
= 0 1 1  0 1 0  =  1 2 1 .
    

−2 −1 1 1 1 1 −1 0 1
Vamos confirmar o resultado, calculando a expressão geral de g e depois as imagens
dos vectores da base B 0 .   
h i 1 0 −1 x
g(x, y, z) = (1, 0, 0) (0, 1, 0) (0, 0, 1)  0 1 1  y  =
  

−1 0 1 z
 
h i x−z
= (1, 0, 0) (0, 1, 0) (0, 0, 1)  y + z  = (x − z, y + z, −x + z).
 

−x + z
g(1, 0, 1) = (0, 1, 0) = 0(1, 0, 1) + 1(0, 1, 1) + (−1)(0, 0, 1),
g(0, 1, 1) = (−1, 2, 1) = (−1)(1, 0, 1) + 2(0, 1, 1) + 0(0, 0, 1),
g(0, 0, 1) = (−1, 1, 1) = (−1)(1, 0, 1) + 1(0, 1, 1) + 1(0, 0, 1), logo,
 
0 −1 −1
B = M(g; B 0 , B 0 ) =  1 2 1 .
 

−1 0 1

Terminamos este Capı́tulo com uma

68
Observação
Se E e E0 são espaços vectoriais sobre o corpo F, o conjunto de todas as aplicações
lineares de E para E0 , que se denota por L(E, E0 ), é um espaço vectorial sobre F, para
as operações de adição e de multiplicação por um escalar definidas na secção 2 deste
Capı́tulo.
Se E e E0 têm dimensão finita, digamos dim(E) = n e dim(E0 ) = m, e fixando uma
base B em E e uma base B 0 em E0 , existe um isomorfismo natural entre L(E, E0 ) e Fm×n :
a função (linear) que a cada aplicação linear de E em E0 faz corresponder a sua matriz
em relação às bases B e B 0 .

69
Capı́tulo 5

VECTORES e VALORES
PRÓPRIOS

5.1 Definição e Exemplos

Definição 49 Sejam E um espaço vectorial sobre o corpo F e f : E → E um endo-


morfismo de E. Um vector →

v ∈ E diz-se um vector próprio de f , associado ao valor
próprio λ ∈ F, quando:


i) →

v 6= 0
ii) f (→

v ) = λ→

v.

Definição 50 Sejam E um espaço vectorial sobre o corpo F e f : E → E um endo-


morfismo de E. Ao conjunto de todos os valores próprios de f dá-se o nome de espectro
de f .

Exemplos
1 — Seja f o endomorfismo de R2 definido por

f (x, y) = (−x, y).

Determinamos os vectores próprios de f e os (


valores próprios associados.
(
−x = λx x(λ + 1) = 0
f (x, y) = λ(x, y) ⇒ (−x, y) = (λx, λy) ⇒ ⇒
y = λy y(λ − 1) = 0
Se x = y = 0, (x, y) = (0, 0) não é vector próprio de f .
Se x = 0, y 6= 0, λ = 1, pelo que (0, y) é vector próprio de f associado ao valor próprio
1, para qualquer y ∈ R \ {0}.

71
Se x 6= 0, y = 0, λ = −1, pelo que (x, 0) é vector próprio de f associado ao valor
próprio (−1), para qualquer x ∈ R \ {0}.
Se x 6= 0, y 6= 0 então λ = 1 e λ = −1, o que é impossı́vel.
O espectro de f é {−1, 1}.

2 — Seja g o endomorfismo de R2 definido por

g(a, b) = (b, a).

Determinamos os vectores próprios de g e (os valores próprios


( associados.
b = λa b = λa
g(a, b) = λ(a, b) ⇒ (b, a) = (λa, λb) ⇒ ⇒ ⇒
a = λb a = λ2 a
(
b = λa

a(λ2 − 1) = 0
Se a = 0 então b = 0 e (a, b) = (0, 0) não é vector próprio de g.
Se a 6= 0 então λ2 = 1 ⇒ λ = −1 ou λ = 1.
Quando λ = −1, b = −a pelo que, (a, −a) é vector próprio de g associado ao valor
próprio (−1), para qualquer a ∈ R \ {0}.
Quando λ = 1, b = a pelo que, (a, a) é vector próprio de g associado ao valor próprio
−1, para qualquer a ∈ R \ {0}.
O espectro de g é {−1, 1}.

Observação
Um endomorfismo de R2 pode ser interpretado geometricamente como uma trans-
formação do plano. As direcções dos vectores próprios respectivos são as direcções
principais da transformação.
Relativamente aos dois exemplos anteriores, f é a simetria em relação à recta x = 0
(o eixo dos yy) e as suas direcções principais são os eixos coordenados e g é a simetria
em relação à recta y = x, sendo as rectas y = x e y = −x as suas direcções principais.

De seguida, enunciamos um resultado muito útil, que permite determinar facilmente


os vectores e os valores próprios de um endomorfismo de um espaço vectorial de dimensão
finita.

Proposição 5.1.1 Sejam E um espaço vectorial sobre F de dimensão finita n, B


uma sua base, f um endomorfismo de E e A = M(f ; B, B). Então:
1) λ é valor próprio de f se e só se det(A − λIn ) = 0.
2) Se λ0 é um valor próprio de f , os vectores próprios de f associados a λ0 são os
vectores cujas coordenadas, em relação à base B, são as soluções não nulas do sistema
homogéneo (indeterminado) (A − λ0 In )X = 0.

72
Demonstração


1) λ é valor próprio de f ⇔ ∃→

x 0 ∈ E \ { 0 } tal que f (→

x 0 ) = λ→

x0 ⇔
⇔1 ∃X0 ∈ Fn×1 \ {0} tal que AX0 = λX0 ⇔
⇔ ∃X0 ∈ Fn×1 \ {0} tal que AX0 − λX0 = 0 ⇔
⇔ ∃X0 ∈ Fn×1 \ {0} tal que (A − λIn )X0 = 0 ⇔
⇔ o sistema homogéneo (A − λIn )X = 0 é indeterminado (tem solução não nula) ⇔
⇔ det(A − λIn ) = 0.
2) Se λ0 é valor próprio de f e X0 é uma solução não nula do sistema (A−λ0 In )X = 0
então (A − λ0 In )X0 = 0, ou seja, AX0 = λ0 X0 .
Seja →−
x 0 ∈ E o vector cuja coluna de coordenadas em relação à base B é X0 . Como


X0 6= 0, →
−x 0 6= 0 e AX0 = λ0 X0 ⇔ f (→−x 0 ) = λ→
−x 0 , donde, →

x 0 é um vector próprio de f
associado a λ0 .

Definição 51 Nas condições da Proposição 5.1.1, o polinómio p(λ) = det(A − λIn )


chama-se polinómio caracterı́stico de A e a equação det(A − λIn ) = 0 é a equação
caracterı́stica de A. As soluções da equação caracterı́stica que pertençam ao corpo F
(ou seja, as raı́zes do polinómio caracterı́stico em F) são os valores próprios de f e da
matriz A. Os vectores coluna correspondentes às coordenadas, em relação à base B, dos
vectores próprios de f são os vectores próprios de A.

Observação
Atendendo a que o polinómio caracterı́stico de A, p(λ) = det(A−λIn ), é um polinómio
de grau n e que um polinómio de grau n tem, no máximo, n raı́zes, conclui-se que f tem,
no máximo, n valores próprios.

Proposição 5.1.2 Sejam E um espaço vectorial de dimensão finita n, B e B 0 duas


bases de E, f um endomorfismo de E, A = M(f ; B, B) e A0 = M(f ; B 0 , B 0 ). Então o
polinómio caracterı́stico de A coincide com o de A0 e designa-se por polinómio carac-
terı́stico de f .

Demonstração
Tendo em conta a relação entre duas matrizes de um endomorfismo (cf. com o
Capı́tulo 4), A0 = P −1 AP para certa matriz regular P (matriz de mudança de base).
Tem-se:

det(A0 − λIn ) = det(P −1 AP − λIn ) = det(P −1 AP − λP −1 In P ) =


1
X0 é a coluna de coordenadas de →

x 0 na base B

73
= det(P −1 AP − P −1 (λIn )P ) = det(P −1 (A − λIn )P ) = det(P −1 )det(A − λIn )det(P ) =
1
= det(A − λIn )det(P −1 )det(P ) = det(A − λIn ) det(P ) = det(A − λIn ).
det(P )

Observação
Resulta desta proposição que, matrizes semelhantes têm os mesmos valores próprios.

Definição 52 Seja p(λ) o polinómio caracterı́stico de um endomorfismo f de um


espaço vectorial de dimensão finita. Seja λ0 ∈ F uma raı́z de p(λ) (isto é, um valor
próprio de f ). A multiplicidade algébrica de λ0 , que se denota por ma (λ0 ), é a
multiplicidade de λ0 enquanto raı́z de p(λ).
Mais precisamente, se p(λ) = (λ − λ0 )k q(λ), onde q(λ) é um polinómio que não
admite a raı́z λ0 , ma (λ0 ) = k.

Exemplos
1 — Seja f o endomorfismo de R3 definido por

f (x, y, z) = (−3x + y − z, −7x + 5y − z, −6x + 6y − 2z).

Determinamos os valores próprios de f e os vectores próprios associados.


Primeiramente, escrevemos a matriz A, de f , em relação à base canónica de R3 .
f (1, 0, 0) = (−3, −7, −6), f (0, 1, 0) = (1, 5, 6), f (0, 0, 1) = (−1, −1, −2), logo,
 
−3 1 −1
A =  −7 5 −1  .
 

−6 6 −2
 
−3 − λ 1 −1
A − λI3 =  −7 5−λ −1 ⇒
 

−6 6 −2 − λ

−3 − λ 1 −1

⇒ p(λ) = |A − λI3 | = −7 5−λ −1 =


−6 6 −2 − λ

= (−3 − λ)(5 − λ)(−2 − λ) + 42 + 6 − (6(5 − λ) − 6(−3 − λ) − 7(−2 − λ)) =

= (3 + λ)(5 − λ)(2 + λ) + 48 − (30 − 6λ + 18 + 6λ + 14 + 7λ) =

= (3 + λ)(5 − λ)(2 + λ) + 48 − (48 + 7(2 + λ)) = (3 + λ)(5 − λ)(2 + λ) − 7(2 + λ) =

74
= (2+λ)((3+λ)(5−λ)−7) = (2+λ)(−λ2 +2λ+8) = (2+λ)(2+λ)(4−λ) = (2+λ)2 (4−λ).

Os valores próprios de f são −2 e 4, sendo ma (−2) = 2 e ma (4) = 1.


Vectores próprios associados a λ = −2 (resolvemos o sistema (A − (−2)I3 )X = 0):
   
−1 1 −1 −1 1 −1
 L0 =L2 −7L1 
A − (−2)I3 =  −7 7 −1  −−20 −−−−−→  0 0 6  −− −−−−→
 
0
L3 =L3 −6L1 L3 =L3 −L2
−6 6 0 0 0 6
     
−1 1 −1 −1 1 −1 −1 1 0
−− −−−−→  0 0 6  −−0−−1−→  0 0 1  −− −−−−→  0 0 1 
     
0 L3 =L3 −L2 0
L1 =L1 +L2
L2 = 6 L2
0 0 0 0 0 0 0 0 0
( (
−x + y = 0 y = x
⇒ ,
z = 0 z = 0
logo, os vectores próprios associados a λ = −2 são os vectores da forma (x, x, 0), com
x 6= 0.
Vectores próprios associados a λ = 4 (resolvemos o sistema (A − 4I3 )X = 0):
   
−7 1 −1 −7 1 −1
 L03 = 61 L3 
A − 4I3 =  −7 1 −1  −− −−−−→  0 0 0  −−−−→
 
0 L2 =L2 −L1 L3 ↔L1
−6 6 −6 −1 1 −1
   
−1 1 −1 −1 1 −1
−−−−→  0 0  −−0 −−−−−→ 
0 0 0  −−0−−1−→
0
   
L3 ↔L1 L3 =L3 −7L1 L3 = 6 L3
−7 1 −1 0 −6 6
     
−1 1 −1 −1 1 −1 −1 0 0
−−−−1−→  0 0 0  −−−−→  0 −1 1  −− −−−−→  0 −1 1 
     
L3 ↔L2 0
L03 = 6 L3 L1 =L1 +L2
0 −1 1 0 0 0 0 0 0
( (
−x = 0 x = 0
⇒ ,
−y + z = 0 z = y
logo, os vectores próprios associados a λ = 4 são os vectores da forma (0, y, y), com
y 6= 0.

2 — Seja g o endomorfismo de R3 cuja matriz, em relação à base


B = ((1, 1, 1), (1, 1, 0), (1, 0, 0)), é
 
1 −1 0
A =  −1 2 1 .
 

0 1 1

75
Calculamos os valores próprios de g e os vectores próprios associados.
 
1 − λ −1 0
A − λI3 =  −1 2 − λ 1 ⇒
 

0 1 1−λ

1 − λ −1 0

⇒ p(λ) = |A − λI3 | = −1 2 − λ 1 =


0 1 1−λ

= (1 − λ)(2 − λ)(1 − λ) − ((1 − λ) + (1 − λ)) = (1 − λ)2 (2 − λ) − 2(1 − λ) =


= (1 − λ)[(2 − λ)(1 − λ) − 2)] = (1 − λ)(λ2 − 3λ + 2 − 2) = (1 − λ)λ(λ − 3).

Os valores próprios de g são 0, 1 e 3, sendo ma (0) = ma (1) = ma (3) = 1.


Para λ = 0:
     
1 −1 0 1 −1 0 1 −1 0
A − 0I3 = A =  −1 2 1  −− −−−−→  0 1 1  −− −−−−→  0 1 1 
     
L02 =L2 +L1 L03 =L3 −L2
0 1 1 0 1 1 0 0 0
( (
x−y = 0 x = y
⇒ ,
y+z = 0 z = −y
logo, os vectores próprios associados a λ = 0 são os vectores da forma
y(1, 1, 1) + y(1, 1, 0) + (−y)(1, 0, 0) = (y, 2y, y), com y 6= 0.
Para λ = 1:
     
0 −1 0 −1 1 1 −1 1 1
A − 1I3 =  −1 1 −1 0  −−
1  −−−−→  0 −−−−→  0 −1 0 
     
L1 ↔L2 L03 =L3 +L2
0 1 0 1 0 0 0 0 0
( (
−x + y + z = 0 z = x
⇒ ,
−y = 0 y = 0
logo, os vectores próprios associados a λ = 1 são os vectores da forma
x(1, 1, 1) + 0(1, 1, 0) + x(1, 0, 0) = (2x, x, x), com x 6= 0.
Para λ = 3:
   
−2 −1 0 −1 −1 1
A − 3I3 =  −1 −1 1  −−−−→  −2 −1 0  −−0 −−−−−→
   
L1 ↔L2 L2 =L2 −2L1
0 1 −2 0 1 −2
   
−1 −1 1 −1 −1 1
−−0 −−−−−→  0 1 −2  −− −−−−→  0 1 −2 
   
L2 =L2 −2L1 0
L3 =L3 −L2
0 1 −2 0 0 0

76
( (
−x − y + z = 0 x = −z
⇒ ,
y − 2z = 0 y = 2z
logo, os vectores próprios associados a λ = 3 são os vectores da forma
(−z)(1, 1, 1) + 2z(1, 1, 0) + z(1, 0, 0) = (2z, z, −z), com z 6= 0.

3— " Seja h# o "endomorfismo


# " de #R2×2
" cuja #matriz, em relação à base canónica
1 0 0 1 0 0 0 0
Bc = ( , , , ), é
0 0 0 0 1 0 0 1
 
1 2 0 −1
 
 0 −1 1 0 
A=  .
 0 0 1 −2 

0 0 0 2
Calculamos os valores próprios de h e os vectores próprios associados.
 
1−λ 2 0 −1
 
 0 −1 − λ 1 0 
A − λI4 =  ⇒
 0
 0 1 − λ −2 

0 0 0 2−λ

1−λ 2 0 −1


0 −1 − λ 1 0
⇒ p(λ) = |A − λI4 | = =
0 0 1 − λ −2

0 0 0 2−λ
= (1 − λ)(−1 − λ)(1 − λ)(2 − λ).

Os valores próprios de h são −1, 1 e 2, sendo ma (−1) = ma (2) = 1 e ma (1) = 2.


Para λ = −1:
     
2 2 0 −1 2 2 0 −1 2 2 0 −1
     
 0 0 1 0 
 −−−−−−−→  0 0 1 0  −−−−−−−→  0 0 1 0 
   
A−(−1)I4 = 
 0
  L3 =L3 −2L2  0 0 0 −2  L04 =L4 + 2 L3  0 0 0 −2 
0 2 −2  0   3  
0 0 0 3 0 0 0 3 0 0 0 0
 

 2x + 2y − w = 0  y = −x

z = 0 ⇒ z = 0 ,
 
−2w = 0 w = 0
 

logo, os vectores próprios associados a λ = −1 são os vectores da forma


" # " # " #
1 0 0 1 x −x
x + (−x) = , com x 6= 0.
0 0 0 0 0 0

77
Para λ = 1:
     
0 2 0 −1 0 2 0 −1 0 2 0 −1
     
 0 −2 1 0  L03 =− 12 L3  0 0 1 −1 
 −−−−−−→  0 0 1 −1 
 
A − 1I4 = 

−
 − −−−−→ 
 0 0 0 −2  L0 =L +L
2 2

1  0 0 0 1  0
 L4 =L4 −L3  0 0 0 1 
 
0 0 0 1 0 0 0 1 0 0 0 0
 

 2y − w = 0  y = 0

z−w = 0 ⇒ z = 0 ,
 
w = 0 w = 0
 

logo, os vectores próprios associados a λ = 1 são os vectores da forma


" # " #
1 0 x 0
x = , com x 6= 0.
0 0 0 0

Para λ = 2:  
−1 2 0 −1
 
 0 −3 1 0 
A − 2I4 = 
 
 0 0 −1 −2  
0 0 0 0
   7

 −x + 2y − w = 0  x = 2y − w
  x = −3w

−3y + z = 0 ⇒ y = 31 z ⇒ y = − 23 w ,
  
−z − 2w = 0 z = −2w z = −2w
  

logo, os vectores próprios associados a λ = 2 são os vectores da forma

" # " # " # " # " #


7 1 0 2 0 1 0 0 0 0 − 73 w − 23 w
(− w) + (− w) + (−2w) +w = ,
3 0 0 3 0 0 1 0 0 1 −2w w

com w 6= 0.

5.2 Subespaços Próprios

Proposição 5.2.1 Sejam E um espaço vectorial sobre o corpo F, f : E → E um


endomorfismo de E e λ ∈ F. Então o conjunto

Eλ = {→

x ∈ E : f (→

x ) = λ→

x}

é um subespaço vectorial de E.

78
Demonstração

− →
− →
− →

(i) f ( 0 ) = 0 = λ 0 ⇒ 0 ∈ Eλ
(ii) Sejam α, β ∈ F e →

x ,→

y ∈ Eλ . Provamos que α→

x + β→

y ∈ Eλ

f (α→

x + β→

y ) = αf (→

x ) + βf (→

y ) = 2 α(λ→

x ) + β(λ→

y ) = λ(α→

x + β→

y)⇒

⇒ α→

x + β→

y ∈ Eλ .

Observação


Eλ 6= { 0 } se e só se λ é um valor próprio de f .

Definição 53 Nas condições da Proposição 5.2.1, se λ0 é um valor próprio de f o


subespaço Eλ0 , formado pelo vector nulo e por todos os vectores próprios associados a
λ0 , chama-se subespaço próprio associado ao valor próprio λ0 .
Se E tem dimensão finita, a dimensão de Eλ0 designa-se por multiplicidade geomé-
trica do valor próprio λ0 e denota-se por mg (λ0 ).

Proposição 5.2.2 Sejam E um espaço vectorial de dimensão finita sobre o corpo F,


f : E → E um endomorfismo de E e λ0 ∈ F um valor próprio de f . Então

1 ≤ mg (λ0 ) ≤ ma (λ0 ).

Demonstração
Seja λ0 ∈ F um valor próprio de f , n = dim(E), k = dim(Eλ0 ) = mg (λ0 ) e
Bλ0 = (→

u 1, . . . , →

u k ) uma base de Eλ0 .
Seja B = ( u , . . . , →


1

u ,→−
e
k ,...,→
k+1
− e ) uma base de E que contém a base B
n λ0 de Eλ0 .
Então,  
λ0 0 ... 0
 
 0 λ0 . . . 0 

.. .. . . .. A1,2 
.
 

 . . . 

 0 0 . . . λ0 
A = M(f ; B, B) =  ,
 

 0 0 ... 0 


 0 0 ... 0 

 .. .. . . .. A2,2 

 . . . . 

0 0 ... 0
2
por hipótese, f (→

x ) = λ→

x , f (→

y ) = λ→

y

79
para certas matrizes A1,2 ∈ Fk×(n−k) , A2,2 ∈ F(n−k)×(n−k) e

λ − λ0 0 ... 0

0 λ − λ0 . . . 0


p(λ) = |A−λIn | = .. .. .. |A2,2 −λIn−k | = (λ−λ0 )k |A2,2 −λIn−k | ⇒
..
. . . .



0 0 . . . λ − λ0

⇒ ma (λ0 ) ≥ k = mg (λ0 ).

Observação
Resulta da proposição anterior que, se ma (λ0 ) = 1 (isto é, se λ0 é uma raı́z simples
do polinómio caracterı́stico) então mg (λ0 ) = 1.

5.3 Endomorfismos Diagonalizáveis

Proposição 5.3.1 Sejam E um espaço vectorial sobre F, f : E → E um endo-


morfismo de E e λ1 , λ2 , . . . , λk ∈ F valores próprios de f , distintos dois a dois. Se


u 1, →

u 2, . . . , →

u k são vectores próprios de f associados a λ1 , λ2 , . . . , λk , respectivamente,
então u , u , . . . , →


1


2

u são linearmente independentes.
k

Demonstração
A prova é feita por indução em k.
Se k = 1, →−u 1 é linearmente independente uma vez que é não nulo (um vector próprio


é, por definição, diferente de 0 ).
Suponhamos, por hipótese de indução, que k − 1 vectores próprios associados a k − 1
valores próprios distintos são linearmente independentes.
Sejam → −u 1, →

u 2, . . . , →

u k vectores próprios de f associados aos valores próprios
λ1 , λ2 , . . . , λk , respectivamente, onde λi 6= λj para quaisquer i, j ∈ {1, 2, . . . , k}, i 6= j.
Suponhamos que


α1 →

u 1 + α2 →

u 2 + · · · + αk →

uk = 0 (5.1)

Então,


f (α1 →

u 1 + α2 →−
u 2 + · · · + αk →−u k) = f ( 0 ) ⇒


⇒ α1 f (→

u 1 ) + α2 f (→

u 2 ) + · · · + αk f (→

u k) = 0 ⇒ 3
3
f (→

u i ) = λi →

ui

80


⇒ α1 (λ1 →

u 1 ) + α2 (λ2 →

u 2 ) + · · · + αk (λk →

u k) = 0 (5.2)

Multiplicando ambos os membros de (5.1) por λ1 obtemos,




α1 λ1 →

u 1 + α2 λ1 →

u 2 + · · · + α k λ1 →

uk = 0 (5.3)

Subtraindo, membro a membro, (5.2) e (5.3), resulta que




α2 (λ2 − λ1 )→

u 2 + · · · + αk (λk − λ1 )→

uk = 0 ⇒4

⇒ α2 (λ2 − λ1 ) = . . . = αk (λk − λ1 ) = 0

Como ∀i ∈ {2, . . . , n}, λi 6= λ1 ,

α2 = . . . = αk = 0.

Substituindo, em (5.1), α2 , . . . , αk por 0 vem




α1 →

u 1 = 0 ⇒ 5 α1 = 0.

Definição 54 Sejam E um espaço vectorial de dimensão finita e f um endomorfismo


de E. Diz-se que f é diagonalizável se existe uma base de E em relação à qual a matriz
de f é diagonal.

Proposição 5.3.2 Sejam E um espaço vectorial de dimensão finita n e f um endo-


morfismo de E. Então são equivalentes:
(i) f é diagonalizável
(ii) existe uma base de E formado por vectores próprios de f
(iii) a soma das multiplicidades geométricas dos valores próprios de f é igual a n.

A prova deste resultado é muito simples e fica ao cuidado do leitor.

Exemplos
Averiguamos se os endomorfismos seguintes são diagonalizáveis e, em caso afirmativo,
escrevemos a matriz diagonal que os representa, relativamente a uma certa base do espaço
(formada por vectores próprios desses mesmos endomorfismos).
1 — f : R2 → R2 tal que f (x, y) = (x + y, 3x − y)
4
por hipótese de indução, →

u 2, . . . , →

u k são linearmente independentes, pois são k −1 vectores próprios
associados a k − 1 valores próprios distintos
5→
− →

u 1 6= 0

81
f (1, 0) = (1, 3) e f (0, 1) = (1, −1),
logo, " # " #
1 1 1−λ 1
A = M(f ; Bc , Bc ) = ⇒ A − λI2 =
3 −1 3 −1 − λ


1−λ 1
|A−λI2 | = = (1−λ)(−1−λ)−3 = λ2 −1−3 = λ2 −4 = (λ+2)(λ−2)

3 −1 − λ

f tem dois valores próprios: λ = −2 e λ = 2. Tem-se:

ma (−2) = ma (2) = 1 ⇒ mg (−2) = mg (2) = 1 ⇒ mg (−2) + mg (2) = 2 = dim(R2 ),

donde, f é diagonalizável.
Determinamos uma base para cada subespaço próprio de f :
Para λ = 2: " # " #
−1 1 −1 1
A − 2I2 = −−0 −−−−−→
3 −3 L2 =L2 +3L1 0 0
−x + y = 0 ⇒ y = x,
logo,
E2 = {(x, x) : x ∈ R} = {x(1, 1) : x ∈ R} =< (1, 1) >
Para λ = −2: " # " #
3 1 3 1
A − (−2)I2 = −−
0
−−−−→
3 1 L2 =L2 −L1 0 0
3x + y = 0 ⇒ y = −3x,
donde,
E−2 = {(x, −3x) : x ∈ R} = {x(1, −3) : x ∈ R} =< (1, −3) >
Como vectores próprios de f associados a valores próprios distintos são linearmente
independentes, os vectores (1, 1) e (1, −3) formam uma base de R2 , Bvp = ((1, 1), (1, −3)).
Tem-se,

f (1, 1) = 2(1, 1) = 2(1, 1) + 0(1, −3) e f (1, −3) = (−2)(1, −3) = 0(1, 1) + (−2)(1, −3),

logo, " #
2 0
D = M(f ; Bvp , Bvp ) = .
0 −2
Observe-se que, de acordo com o Capı́tulo 4, D = P −1 AP onde,

P = M(Bvp , Bc ) e P −1 = M(Bc , Bvp ).

82
Vamos confirmá-lo.
" # " #
3 1
1 1
P = M(Bvp , Bc ) = , P −1 = M(Bc , Bvp ) = 4
1
4
1 −3 4
− 14
e
" #" #" # " #" # " #
3 1 3 1
1 1 1 1 2 −2 2 0
P −1 AP = 4
1
4
= 4 4
= = D.
4
− 14 3 −1 1 −3 1
4
− 41 2 6 0 −2

2 — g : R2 → R2 tal que g(x, y) = (x, 2x + y)

g(1, 0) = (1, 2) e g(0, 1) = (0, 1),


logo, " # " #
1 0 1−λ 0
A = M(g; Bc , Bc ) = ⇒ A − λI2 =
2 1 2 1−λ

1−λ 0
|A − λI2 | = = (1 − λ)(1 − λ) = (1 − λ)2 ,

2 1−λ
pelo que, g tem um único valor próprio: λ = 1, com multiplicidade algébrica igual a 2.
Então, mg (1) = 1 ou mg (1) = 2. Se for mg (1) = 2, g é diagonalizável, se for mg (1) = 1
não o é. " # " #
0 0 2 0
A − 1I2 = −−−−→ ⇒ 2x = 0 ⇒ x = 0,
2 0 L2 ↔L1 0 0
pelo que,

E1 = {(0, y) : y ∈ R} = {y(0, 1) : y ∈ R} =< (0, 1) >⇒ mg (1) = 1

e g não é diagonalizável.

3 — h : R3 → R3 tal que h(x, y, z) = (x − 3y + 3z, 3x − 5y + 3z, 6x − 6y + 4z)

h(1, 0, 0) = (1, 3, 6) , h(0, 1, 0) = (−3, −5, −6) e h(0, 0, 1) = (3, 3, 4),


logo,
   
1 −3 3 1−λ −3 3
A = M(h; Bc , Bc ) =  3 −5 3  ⇒ A − λI3 =  3 −5 − λ 3
   

6 −6 4 6 −6 4−λ

1−λ −3 3

|A − λI3 | = 3 −5 − λ 3 =


6 −6 4−λ

83
= (1 − λ)(−5 − λ)(4 − λ) − 54 − 54 − (18(−5 − λ) − 18(1 − λ) − 9(4 − λ)) =
= (1−λ)(−5−λ)(4−λ)−108+90+18λ+18−18λ+9(4−λ) = (1−λ)(−5−λ)(4−λ)+9(4−λ) =
= (4 − λ)[(1 − λ)(−5 − λ) + 9] = (4 − λ)(λ2 + 4λ + 4) = (4 − λ)(λ + 2)2
h tem dois valores próprios: λ = −2 e λ = 4, tendo-se:

ma (−2) = 2 e ma (4) = 1 ⇒ mg (4) = 1 e (mg (−2) = 1 ou mg (−2) = 2);

h é diagonalizável sse mg (−2) = 2.


Determinamos uma base para cada subespaço próprio de h.
Para λ = 4:
   
−3 −3 3 −3 −3 3
 L03 =L3 +2L1 
A − 4I3 =  3 −9 3  −−0−−−−−→  0 −12 6  −− −−−−→
 
L2 =L2 +L1 L03 =L3 −L2
6 −6 0 0 −12 6
   
−3 −3 3 −1 −1 1
 L01 = 31 L1 
−− −−−−→  0 −12 6  −−0−−1−→  0 −2 1 
 
0
L3 =L3 −L2 L2 = 6 L2
0 0 0 0 0 0
( (
−x − y + z = 0 x = y
⇒ ,
−2y + z = 0 z = 2y
donde,
E4 = {(y, y, 2y) : y ∈ R} = {y(1, 1, 2) : y ∈ R} =< (1, 1, 2) >
Para λ = −2:
     
3 −3 3 3 −3 3 1 −1 1
 L0 =L3 −2L1 
A − (−2)I3 =  3 −3 3  −−30−−−−−→  0 0 0  −−0−−1−→  0 0 0 ⇒
   
L2 =L2 −L1 L1 = 3 L1
6 −6 6 0 0 0 0 0 0
⇒ x − y + z = 0 ⇒ x = y − z,
donde,

E−2 = {(y−z, y, z) : y, z ∈ R} = {y(1, 1, 0)+z(−1, 0, 1) : y, z ∈ R} =< (1, 1, 0), (−1, 0, 1) >

e h é diagonalizável.
Como vectores próprios de h associados a valores próprios distintos são linearmente
independentes, Bvp = ((1, 1, 2), (1, 1, 0), (−1, 0, 1)) é uma base de R3 formada por vectores
próprios de h.  
4 0 0
D = M(h; Bvp , Bvp ) =  0 −2 0 
 

0 0 −2

84
Tal como no Exemplo 1, D = P −1 AP onde,
 
1 1 −1
P = M(Bvp , Bc ) =  1 1 0 
 

2 0 1
e  
1
2
− 12 1
2
P −1 = M(Bc , Bvp ) =  − 12 3
− 12  .
 
2
−1 1 0

" #
0 1
4 — f : R2 → R2 tal que A = M(f ; Bc , Bc ) =
−1 0
" #
−λ 1 −λ 1
A − λI2 = ⇒ p(λ) = |A − λI2 | = = λ2 + 1,

−1 −λ −1 −λ

logo, f não tem qualquer valor próprio (uma vez que o polinómio caracterı́stico de f não
raı́zes reais).
Se, no entanto, fe for o endomorfismo do espaço vectorial complexo C2 , cuja matriz
em relação à base canónica de C2 é
" #
0 1
A= ,
−1 0

então fe tem dois valores próprios: λ = i e λ = −i que, por serem raı́zes simples de p(λ),
permitem imediatamente concluir que fe é diagonalizável.
Determinamos uma base para cada subespaço próprio de fe.
Para λ = i:
" # " #
−i 1 −i 1
A − iI2 = −−0−−−−−→ ⇒ −ix + y = 0 ⇒ y = ix,
−1 −i L2 =L2 +iL1 0 0

pelo que,
Ei = {(x, ix) : x ∈ C} = {x(1, i) : x ∈ C} =< (1, i) >

Para λ = −i:
" # " #
i 1 i 1
A + iI2 = −−0−−−−−→ ⇒ ix + y = 0 ⇒ y = −ix,
−1 i L2 =L2 −iL1 0 0

pelo que,
E−i = {(x, −ix) : x ∈ C} = {x(1, −i) : x ∈ C} =< (1, −i) >

85
Os vectores (1, i) e (1, −i) formam uma base de C2 , Bvp = ((1, i), (1, −i)). Tem-se,

fe(1, i) = i(1, i) = i(1, i) + 0(1, −i) e fe(1, −i) = −i(1, −i) = 0(1, i) + (−i)(1, −i),

logo, " #
i 0
D = M(fe; Bvp , Bvp ) = .
0 −i

Observação
1 — Se f é um endomorfismo de um espaço vectorial E, de dimensão n, com n valores
próprios distintos então f é diagonalizável.
Com efeito, como a multiplicidade algébrica de cada valor próprio é 1, a multiplicidade
geométrica respectiva também é 1. Por isso, a soma das multiplicidades geométricas dos
n valores próprios de f é igual a n, ou seja, existe uma base de E formada por vectores
próprios de f .

2 — Como C é um corpo algebricamente fechado (o que significa que, todo o polinómio


de grau n ≥ 1 com coeficientes complexos tem, exactamente, n raı́zes (iguais ou distintas)
em C), todas as raı́zes do polinómio caracterı́stico de um endomorfismo de um espaço
vectorial complexo são valores próprios desse endomorfismo (o que já não acontece com
endomorfismos de espaços vectoriais reais ou racionais).

Definição 55 Uma matriz A, quadrada de ordem n, diz-se diagonalizável se for


semelhante a uma matriz diagonal, isto é, se existem matrizes P e D, quadradas de
ordem n, com P invertı́vel e D diagonal, tais que D = P −1 AP .
Se P é uma matriz tal que P −1 AP é diagonal, diz-se que P é uma diagonalizadora
de A.

Observação
Do que foi visto anteriormente para endomorfismos conclui-se que, se A é uma matriz
quadrada de ordem n, A é diagonalizável se e só se tem n vectores próprios linearmente
independentes. Uma matriz P , diagonalizadora de A, tem por colunas as coordenadas
dos vectores próprios de A linearmente independentes. Se P é uma matriz diagonali-
zadora de A e D = P −1 AP , os elementos diagonais de D são os valores próprios de A
correspondentes às colunas de P .

86

Das könnte Ihnen auch gefallen