Sie sind auf Seite 1von 113

MATEMÁTICA II

ÁLGEBRA LINEAR

Manuela Aguiar
Susana Furtado
José Manuel Oliveira
Helena Reis

Template Relatório

2017
2

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


Índice

1 Matrizes 5
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Adição de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Multiplicação de uma Matriz por um Escalar . . . . . . . . . . . . . . . . . . 8
1.4 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Matrizes Quadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Determinantes 21
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Cálculo de Determinantes de Ordem 2 . . . . . . . . . . . . . . . . . . . . . 23
2.3 Cálculo de Determinantes de Ordem 3 . . . . . . . . . . . . . . . . . . . . . 24
2.4 Propriedades dos Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Caracterı́stica de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 Sistemas de Equações Lineares 39


3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2 Discussão e Resolução de Sistemas de Equações Lineares . . . . . . . . . . . 41
3.3 Método Alternativo de Inversão de uma Matriz . . . . . . . . . . . . . . . . 45

4 O Espaço Vetorial Real Rn 49


4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Dependência e Independência Linear de Vetores . . . . . . . . . . . . . . . . 50
4.3 Subespaços Vetoriais de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4 Geradores de um Subespaço Vetorial de Rn . . . . . . . . . . . . . . . . . . . 57
4.5 Dimensão e Base de um Subespaço Vetorial . . . . . . . . . . . . . . . . . . 60
4.6 Coordenadas de um Vetor numa Base . . . . . . . . . . . . . . . . . . . . . . 63
4.7 Subespaços Vetoriais associados a uma Matriz . . . . . . . . . . . . . . . . . 68

5 Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadra-


das 73
5.1 Valores Próprios e Vetores Próprios . . . . . . . . . . . . . . . . . . . . . . . 73

3
4 Índice

5.2 Diagonalização de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

6 Transformações Lineares de Rn em Rm 85
6.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Valores Próprios e Vetores Próprios de um Endomorfismo . . . . . . . . . . . 90

7 Formas Quadráticas 95
7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.2 Classificação de Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . 98
7.2.1 Classificação de Formas Quadráticas recorrendo a Valores Próprios . 98
7.2.2 Classificação de Formas Quadráticas recorrendo a Menores Principais 100

8 Aplicações ao Estudo de Extremos de Funções 103


8.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.2 Extremos de Funções e a Matriz Hesseana . . . . . . . . . . . . . . . . . . . 104
8.3 Estudo de Extremos de Funções recorrendo a Valores Próprios . . . . . . . . 106
8.4 Estudo de Extremos de Funções recorrendo a Menores Principais . . . . . . . 110
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

Bibliografia 113

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1

Matrizes

O conceito de matriz, que vamos estudar de seguida, tem aplicação na resolução de diversos
problemas em diferentes áreas do conhecimento, nomeadamente, em economia e gestão.

1.1 Introdução
Definição 1.1.1

Uma matriz (real) de ordem m × n, ou (m, n), é uma tabela com m linhas e n colunas
formada por mn números reais.
Denotamos o conjunto das matrizes de ordem m × n por Mm×n .

Seja A uma matriz de ordem m × n. Representa-se por aij ou (A)ij o elemento da matriz
A correspondente à linha i e à coluna j, i = 1, . . . , m, j = 1, . . . , n. Escreve-se

A = [aij ]

ou  
a11 · · · a1n
A =  ... .. ..  .

. . 
am1 · · · amn

Definição 1.1.2
Se m = 1, a matriz diz-se matriz linha ou vetor linha. Se n = 1, a matriz diz-se
matriz coluna ou vetor coluna. Se m = n, a matriz diz-se quadrada de ordem n.

5
6 1. Matrizes

Exemplo 1.1.3
A matriz  √ 
2 −1 2
A=
0 π 3
é de ordem 2 × 3. O elemento a12 é −1.

Exemplo 1.1.4
A matriz  
A= 2 −1 3
é uma matriz (vetor) linha enquanto que a matriz
 
2
A=
0

é uma matriz (vetor) coluna.

Definição 1.1.5

Duas matrizes A = [aij ] e B = [bij ] da mesma ordem m × n dizem-se iguais se aij = bij
para i = 1, . . . , m, j = 1, . . . , n. Neste caso escreve-se A = B.

Definição 1.1.6
Diz-se que B é uma submatriz de uma matriz A se B se obtém de A eliminando linhas
e/ou colunas de A.

Exemplo 1.1.7
A matriz quadrada  
4 0
B=
−1 −4
é uma submatriz da matriz  
4 1 0
 2 1 1 
A=
 −1

5 −4 
3 4 −1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.2. Adição de Matrizes 7

dado que B é obtida de A eliminando as linhas 2 e 4 e a coluna 2.

Definição 1.1.8
Se aij = 0 para todo o i = 1, . . . , m e para todo o j = 1, . . . , n, a matriz diz-se matriz
nula de ordem m × n e representa-se por 0m×n ou, simplesmente, por 0, se não houver
ambiguidade relativamente à ordem.

1.2 Adição de Matrizes


Definição 1.2.1

Sejam A = [aij ] e B = [bij ] duas matrizes de ordem m × n. A soma das matrizes A e B


é a matriz C = [cij ] de ordem m × n tal que

cij = aij + bij , i = 1, . . . , m , j = 1, . . . , n .

Representamos a soma de A e B por A + B.

Exemplo 1.2.2
Temos      
−1 −2 0 4 −4 0 3 −6 0
+ = .
−6 −10 −2 −1 −5 −4 −7 −15 −6

Se A = [aij ] é uma matriz de ordem m × n, representamos por −A a matriz [bij ], da


mesma ordem que A, tal que bij = −aij .

Propriedades
A adição de matrizes em Mm×n goza das seguintes propriedades:
(1) A + B ∈ M m×n , ∀A, B ∈ M m×n (+ é fechada em Mm×n )
(2) A + B = B + A , ∀A, B ∈ M m×n (+ é comutativa em Mm×n )
(3)(A + B) + C = A + (B + C) , ∀A, B, C ∈ M m×n (+ é associativa em Mm×n )
(4) A + 0m×n = 0m×n +A = A , ∀A ∈ M m×n (0m×n é elemento neutro para + em Mm×n )
(5) A + (−A) = (−A) + A = 0m×n , ∀A ∈ M m×n (−A é simétrico de A em Mm×n )

Observemos que o elemento neutro da adição de matrizes, +, é único, isto é,


A + N = N + A = A ⇒ N = 0m×n .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


8 1. Matrizes

De facto, para A = [aij ] e N = [nij ], vem

A+N =A
⇔ aij + nij = aij , i = 1, . . . , m , j = 1, . . . , n
⇔ nij = 0 , i = 1, . . . , m , j = 1, . . . , n
⇔ N = 0.

Deixamos como exercı́cio mostrar que também o simétrico de A ∈ Mm×n é único, isto é,

A0 + A = A + A0 = 0m×n ⇒ A0 = −A .

Por simplificação de notação, representamos a matriz A + (−B) por A − B.

1.3 Multiplicação de uma Matriz por um Escalar


Definição 1.3.1

Seja A = [aij ] uma matriz de ordem m × n e λ ∈ R. A multiplicação (ou o produto)


da matriz A pelo escalar λ é a matriz C = [cij ], de ordem m × n, com

cij = λaij , i = 1, . . . , m , j = 1, . . . , n .

Representamos o produto da matriz A pelo escalar λ por λA.

Exemplo 1.3.2
Temos    
−1 −2 0 −2 −4 0
2 = .
−6 −10 −2 −12 −20 −4

Propriedades
A multiplicação de uma matriz em Mm×n por um escalar goza das seguintes propriedades:

• λA ∈ Mm×n , ∀A ∈ Mm×n , ∀λ ∈ R

• (λ1 + λ2 )A = λ1 A + λ2 A , ∀A ∈ Mm×n , ∀λ1 , λ2 ∈ R

• λ (A + B) = λA + λB , ∀A, B ∈ Mm×n , ∀λ ∈ R

• λ1 (λ2 A) = (λ1 λ2 )A, ∀A ∈ Mm×n , ∀λ1 , λ2 ∈ R

• 1A = A , ∀A ∈ Mm×n

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.4. Multiplicação de Matrizes 9

Demonstração. Vamos provar apenas a segunda propriedade. As restantes mostram-se de


forma análoga. Sejam A = [aij ], B = (λ1 + λ2 )A = [bij ], C = λ1 A = [cij ] e D = λ2 A = [dij ].
Temos

bij = (λ1 + λ2 )aij = λ1 aij + λ2 aij


= cij + dij , i = 1, . . . , m , j = 1, . . . , n.

1.4 Multiplicação de Matrizes


Definição 1.4.1

Sejam A = [aij ] e B = [bjk ] duas matrizes de ordens m × n e n × p, respetivamente. A


multiplicação (ou o produto) da matriz A pela matriz B é a matriz C = [cik ], de
ordem m × p, onde

cik = ai1 b1k + ai2 b2k + · · · + ain bnk


Xn
= aij bjk , i = 1, . . . , m , k = 1, . . . , p .
j=1

Representamos o produto de A por B por AB.

Pela definição de produto de matrizes, o elemento cik da matriz C = AB é a soma dos


produtos dos elementos da linha i de A pelos elementos correspondentes da coluna k de B.
Tanto a linha i de A, Ai , como a coluna k de B, Bk , podem ser associados a vetores de Rn ,
pelo que o elemento cik pode ser visto como o produto interno Ai .Bk (ver Figura 1.1).

B1 B3

A1 a11 a12 a13 b11 b12 b13 c11 c12 c13 A1∙B1 c12 A1∙B3
= = =
a21 a22 a23 b21 b22 b23 c21 c22 c23 c21 c22 c23
b31 b32 b33

a11 b11+ a12 b21+ a13 b31 c12 a11 b13+ a12 b23+ a13 b33
=
c21 c22 c23

Figura 1.1: Produto de matrizes - exemplo para matrizes A2×3 e B3×3 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


10 1. Matrizes

Observação 1.4.2
Dadas duas matrizes A e B, o produto AB só está definido se o número de colunas de
A for igual ao número de linhas de B. No caso do produto AB estar definido, o número
de linhas da matriz AB é o número de linhas de A enquanto que o número de colunas
de AB é o número de colunas de B.

Exemplo 1.4.3
Temos
    
1 −1 1 1 1 1 × 1 + (−1) × 2 1 × 1 + (−1) × 3 1 × 1 + (−1) × 1
=
2 −4 2 3 1 2 × 1 + (−4) × 2 2 × 1 + (−4) × 3 2 × 1 + (−4) × 1
 
−1 −2 0
= .
−6 −10 −2

Observemos que o produto de matrizes quadradas de ordem n está sempre definido e


é ainda uma matriz quadrada de ordem n. Em particular, se A é uma matriz quadrada,
· · A}, por Ak .
| ·{z
representamos o produto A
k vezes

Exemplo 1.4.4
Temos     
1 −1 1 3 0 5
= .
2 2 1 −2 4 2

Observação 1.4.5
O produto de duas matrizes, em que uma delas é uma matriz nula, é a matriz nula da
ordem apropriada. No entanto, o produto de duas matrizes pode ser a matriz nula sem
que nenhuma das matrizes fator o seja. Por outras palavras, não é possı́vel estender a
lei do anulamento do produto de números reais ao caso do produto de matrizes.

Exemplo 1.4.6
Temos     
1 −1 1 3 1 0 0 0
= .
2 −2 1 3 1 0 0 0

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.4. Multiplicação de Matrizes 11

Observação 1.4.7
A multiplicação de matrizes não é em geral comutativa.

Definição 1.4.8
Diz-se que duas matrizes A e B quadradas de ordem n comutam se AB = BA.

Sejam A e B matrizes de ordem m × n e l × p, respetivamente. Para ser possı́vel efetuar


o produto AB temos que ter n = l. Para ser possı́vel efetuar o produto BA temos que
ter m = p. Assumindo n = l e m = p, as matrizes AB e BA têm ordem m × m e n × n,
respetivamente. Para termos AB = BA é necessário ainda que as matrizes AB e BA tenham
a mesma ordem. Temos então que ter n = l = m = p, ou seja, as matrizes A e B têm que ser
ambas quadradas e da mesma ordem n. Mesmo nestas condições, podemos ter AB 6= BA,
como mostra o exemplo seguinte.

Exemplo 1.4.9
Sejam    
1 −1 1 3
A= e B=
2 −2 1 3
matrizes quadradas de ordem 2.
Temos     
1 −1 1 3 0 0
AB = =
2 −2 1 3 0 0
e     
1 3 1 −1 7 −7
BA = = .
1 3 2 −2 7 −7
Como A e B são matrizes quadradas da mesma ordem, é possı́vel efetuar os produtos
AB e BA. No entanto, temos AB 6= BA.

Exemplo 1.4.10
As matrizes    
1 1 1 2
A= e B=
0 0 0 −1
comutam pois  
1 1
AB = BA = .
0 0

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


12 1. Matrizes

Propriedades
A multiplicação de matrizes goza das seguintes propriedades:

• Sejam λ ∈ R e A e B matrizes de ordens m × n e n × p, respetivamente. Então


A(λB) = (λA)B = λ(AB).

• associatividade: Sejam A, B e C matrizes de ordens m×n, n×p e p×q, respetivamente.


Então temos
(AB)C = A(BC) .

• distributividade (à esquerda e à direita) em relação à adição: Sejam A e B matrizes


de ordem m × n e C uma matriz de ordem p × m. Temos

C(A + B) = CA + CB .

Também, se D é uma matriz de ordem n × p, temos

(A + B)D = AD + BD .

1.5 Matriz Transposta


Definição 1.5.1

A matriz transposta de uma matriz A = [aij ] de ordem m × n é a matriz C = [cij ] de


ordem n × m tal que
cij = aji .
Representamos a matriz transposta de A por AT .

Notemos que a matriz transposta da matriz A é a matriz obtida de A transformando as


linhas em colunas (ou, analogamente, as colunas em linhas).

Exemplo 1.5.2
Temos  T
1 2  
 3 1  = 1 3 −4
.
2 1 5
−4 5

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.6. Matrizes Quadradas 13

Exemplo 1.5.3
Temos  T  
1 2 1 1 4 −3
 4 0 −1  =  2 0 3 .
−3 3 2 1 −1 2

Propriedades
A transposição de matrizes goza das seguintes propriedades:
T
1) AT = A, ∀A ∈ Mm×n .

2) (A + B)T = AT + B T , ∀A, B ∈ Mm×n .

3) (λA)T = λAT , ∀A ∈ Mm×n .

4) (AB)T = B T AT , ∀A ∈ Mm×p , ∀B ∈ Mp×n .

Demonstração.
  
T T

1) A = AT ji = (A)ij , i = 1, . . . , m, j = 1, . . . , n.
ij
 
(A + B)T
 
2) = (A + B)ji = (A)ji + (B)ji = AT ij
+ BT ij
, i = 1, . . . , m, j =
ij

1, . . . , n.

3) Exercı́cio.
 Pn Pn
4) (AB)T ij = (AB)ji = k=1 (A)jk (B)ki = T T T T
k=1 (B )ik (A )kj = (B A )ij , i =
1, . . . , m, j = 1, . . . , n.

1.6 Matrizes Quadradas


Nesta secção vamos introduzir alguns conceitos e resultados relativos a matrizes quadradas.
Nas definições seguintes consideramos A = [aij ] como sendo uma matriz quadrada de
ordem n.

Definição 1.6.1

Chama-se diagonal principal de A à sequência (a11 , . . . , ann ).

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


14 1. Matrizes

Exemplo 1.6.2
Se  
1 2 1
A =  3 −1 0  ,
−4 5 2
a diagonal principal de A é (1, −1, 2).

Definição 1.6.3
A matriz A diz-se triangular superior se aij = 0 para todo i > j. Se aij = 0 para
todo i < j a matriz A diz-se triangular inferior. A matriz A diz-se triangular se for
triangular inferior ou triangular superior.

Exemplo 1.6.4
As matrizes    
1 2 1 −1 0 0
A= 0 0 0  e B= 2 1 0 
0 0 2 1 0 2
são triangulares, sendo A triangular superior e B triangular inferior.

Definição 1.6.5
A matriz A diz-se diagonal se aij = 0 para todo i 6= j.

Exemplo 1.6.6
A matriz  
5 0 0
 0 2 0 
0 0 4
é diagonal.

Definição 1.6.7
A matriz A de ordem n diz-se matriz identidade de ordem n se A é diagonal com

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.6. Matrizes Quadradas 15

todos os elementos da diagonal principal iguais a 1. A matriz identidade de ordem n


representa-se por In .

Exemplo 1.6.8
A matriz identidade de ordem 3 é
 
1 0 0
I3 =  0 1 0  .
0 0 1

Observação 1.6.9

Se B é uma matriz de ordem m × n, temos Im B = BIn = B (basta atender à definição


de multiplicação de matrizes).

Definição 1.6.10

A matriz A diz-se simétrica se AT = A, isto é, aij = aji , i, j = 1, . . . , n. Ou seja, uma


matriz quadrada diz-se simétrica se é simétrica em relação à sua diagonal principal.

Exemplo 1.6.11
A matriz  
1 2 −1
 2 0 3 
−1 3 1
é simétrica.

Definição 1.6.12
O traço de uma matriz quadrada A de ordem n é a soma dos elementos da diagonal
principal de A. Representa-se o traço de A por tr(A). Se A = [aij ] tem-se
n
X
tr(A) = aii .
i=1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


16 1. Matrizes

Exemplo 1.6.13
Se  
−1 2 −1
A =  2 8 3 ,
−1 3 4
temos tr(A) = −1 + 8 + 4 = 11.

Propriedades
O traço de uma matriz goza das seguintes propriedades:

1) tr(A) = tr(AT ) , ∀A ∈ Mn×n

2) tr (A + B) = tr(A) + tr(B) , ∀A, B ∈ Mn×n

3) tr(λA) = λtr(A) , ∀λ ∈ R, ∀A ∈ Mn×n

4) tr(AB) = tr(BA) , ∀A ∈ Mm×n , ∀B ∈ Mn×m

Demonstração.

1) Basta ter em conta que A e AT têm a mesma diagonal principal;

2) Exercı́cio;

3) Exercı́cio;

4) Sejam A = [aij ] e B = [bji ]. Temos


n
X m
X
(AB)ii = aij bji e (BA)jj = bji aij .
j=1 i=1

Logo
m m n
!
X X X
tr(AB) = (AB)ii = aij bji
i=1 i=1 j=1
n m
! n
X X X
= bji aij = (BA)jj = tr(BA) .
j=1 i=1 j=1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.7. Matriz Inversa 17

1.7 Matriz Inversa


No caso dos números reais, o inverso de x 6= 0 é o número real y que multiplicado por x
dá 1 (elemento neutro para o produto de números reais). Nesta secção apresentamos uma
definição correspondente para o caso de matrizes quadradas de ordem n.
Notemos que a matriz identidade de ordem n, In , é o elemento neutro do produto de
matrizes quadradas de ordem n, isto é, temos AIn = In A = A para toda a matriz quadrada
A de ordem n.

Definição 1.7.1
Uma matriz quadrada A de ordem n diz-se invertı́vel se existir uma matriz B de ordem
n tal que
AB = BA = In . (1.1)

Teorema 1.7.2
Seja A uma matriz quadrada de ordem n. Se A é invertı́vel, então a matriz inversa de A
é única.

Demonstração. Com efeito, suponhamos que AB = BA = In e AC = CA = In . Então,


em particular,
BA = In e AC = In . (1.2)
Multiplicando à esquerda ambos os membros da segunda igualdade em (1.2) por B e apli-
cando a propriedade associativa do produto, vem (BA)C = B. Recorrendo à primeira
igualdade em (1.2), vem In C = B, isto é, C = B.

Definição 1.7.3

Se A é invertı́vel, então a (única) matriz B satisfazendo (1.1) diz-se a inversa de A e


representa-se por A−1 .

Notemos que a Definição 1.7.1 não faz sentido se A não for uma matriz quadrada uma
vez que, neste caso, para qualquer matriz B ou pelo menos um dos produtos AB, BA não
está definido ou os dois produtos não têm a mesma ordem.

Exemplo 1.7.4
Vamos verificar que a matriz  
1 −1
A=
0 2

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


18 1. Matrizes

é invertı́vel. Seja B uma matriz genérica de ordem 2, ou seja,


 
b11 b12
B= .
b21 b22

Se B é a inversa de A, então temos que ter BA = I2 , ou seja,


 
b11 −b11 + 2b12
= I2 .
b21 −b21 + 2b22

Resolvendo o sistema associado à igualdade anterior vem que

1 12
 
B= .
0 12

Uma vez que também se verifica AB = I2 , concluimos que a matriz A é invertı́vel e B é


a inversa de A, isto é, B = A−1 .

Ao contrário do que acontece com os números reais, em que todo o elemento não nulo
é invertı́vel, existem matrizes não nulas que não são invertı́veis, conforme ilustra o exemplo
seguinte.

Exemplo 1.7.5
Consideremos a matriz  
1 2
A= .
2 4
Vamos verificar, pela definição, que a matriz A não é invertı́vel. Seja
 
b11 b12
B=
b21 b22

uma matriz genérica de ordem 2. Se B é a inversa de A, então temos que ter BA = I2 ,


isto é    
b11 + 2b12 2b11 + 4b12 1 0
= .
b21 + 2b22 2b21 + 4b22 0 1
Esta igualdade conduz a um sistema de 4 equações. É fácil verificar que este sistema
não tem solução (exercı́cio).

Propriedades da matriz inversa


Sejam A e B matrizes invertı́veis de ordem n e λ ∈ R\{0}.

1) A matriz AB é invertı́vel e
(AB)−1 = B −1 A−1 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


1.7. Matriz Inversa 19

2) A matriz λA é invertı́vel e
1 −1
(λA)−1 = A .
λ
3) A matriz A−1 é invertı́vel e
−1
A−1 = A.

4) A matriz AT é invertı́vel e
(AT )−1 = (A−1 )T .

Demonstração.

1) Temos (AB) (B −1 A−1 ) = (B −1 A−1 ) (AB) = In , logo como a inversa é única, B −1 A−1
é a inversa de AB.

2) Temos λ1 A−1 (λA) = ( λ1 λ)(A−1 A) = In e (λA) λ1 A−1 = (λ λ1 )(AA−1 ) = In , logo


 
1 −1
λ
A é a inversa de λA.

3) Temos A−1 A = AA−1 = In , logo A é a inversa de A−1 .

4) Temos (A−1 )T AT = (AA−1 )T = InT = In e AT (A−1 )T = (A−1 A)T = In , logo (A−1 )T é


a inversa de AT .

Da propriedade 4) resulta que é indiferente a ordem pela qual se aplicam as operações


de inversão e transposição a uma matriz.

Observação 1.7.6

Representamos a matriz (AT )−1 , que é igual à matriz (A−1 )T , por A−T .

Observação 1.7.7
Dadas duas matrizes A e B de ordem n invertı́veis, em geral, não se verifica

(A + B)−1 = A−1 + B −1 .

Exemplo 1.7.8
Sejam    
1 −1 0 1
A= e B= .
0 1 1 1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


20 1. Matrizes

Temos    
−1 1 1 −1 −1 1
A = , B =
0 1 1 0
e  
−1 −1 0 2
A +B = .
1 1
No entanto,  
−1 1 0
(A + B) = 6= A−1 + B −1 .
−1/2 1/2

Exercı́cio 1.7.9

Seja A uma matriz invertı́vel. Mostre que se A é simétrica então A−1 também é simétrica.

Definição 1.7.10

Uma matriz A diz-se ortogonal se AAT = AT A = In . Neste caso, A é invertı́vel e


A−1 = AT .

Exemplo 1.7.11
A matriz  
senθ cos θ
A=
cos θ −senθ
é ortogonal uma vez que AAT = AT A = I2 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2

Determinantes

2.1 Introdução
Vamos agora definir determinante de uma matriz quadrada. A definição é apresentada de
forma recursiva, ou seja, começamos por definir o determinante de uma matriz de ordem
1 e, em seguida, definimos o determinante de uma matriz de ordem n à custa de n > 1
determinantes de matrizes de ordem n − 1.

Definição 2.1.1

Seja A = [aij ] uma matriz de ordem n. Se n = 1 chamamos determinante de A ao


número real a11 . Se n > 1, chamamos determinante de A ao número real
n
X
(−1)i+k aik Mik , (2.1)
k=1

onde i é um número fixo qualquer pertencente ao conjunto {1, . . . , n} e Mik é o deter-


minante da matriz de ordem n − 1 obtida de A suprimindo a linha i e a coluna k (ver
Figura 2.1).
O determinante de A é representado por |A| ou det(A).

Mostra-se que o valor de (2.1) não depende da escolha da linha i. Mais, o determinante
de A pode ser calculado fixando uma qualquer coluna de A, em vez de uma linha. Ou seja,
para qualquer coluna j ∈ {1, . . . , n}, o determinante de A é dado por
n
X
(−1)k+j akj Mkj .
k=1

21
22 2. Determinantes

a11 a12 ... a1i ... a1n


a21 a22 ... a2i ... a2n
. .. .. ..
|A| = .. . . . =
ai1 ai2 ... aii ... ain
... ... ... ...
an1 an2 ... ani ... ann

a11 a12 ... a1i ... a1n a11 a12 ... a1i ... a1n a11 a12 ... a1i ... a1n a11 a12 ... a1i ... a1n
a21 a22 ... a2i ... a2n a21 a22 ... a2i ... a2n a21 a22 ... a2i ... a2n a21 a22 ... a2i ... a2n
.. .. .. .. . .. .. .. . .. .. .. . .. .. ..
= (-1)i+1ai1 . . . . + (-1)i+2 ai2 .. . . . + … + (-1)i+i aii .. . . . + … + (-1)i+n ain .. . . .
ai1 ai2 ... aii ... ain ai1 ai2 ... aii ... ain ai1 ai2 ... aii ... ain ai1 ai2 ... aii ... ain
... ... ... ... .. ... ... ... .. ... ... ... .. ... ... ...
. . .
an1 an2 ... ani ... ann an1 an2 ... ani ... ann an1 an2 ... ani ... ann an1 an2 ... ani ... ann

a12 ... a1i ... a1n a11 ... a1i ... a1n a12 a12 ... a1n a12 a12 ... a1i ...
i+1
= (-1) ai1 a22 ... a2i ... a2n + (-1)i+2 a a21 ... a2i ... a2n + … + (-1)i+i a a22 a22 ... a2n + … + (-1)i+n a a22 a22 ... a2i ...
.. .. .. i2 .. .. .. ii .. .. .. in .. .. ..
. . . . . . . . . . . .
an2 ... ani ... ann an1 ... ani ... ann an2 an2 ... ann an2 an2 ... ani ...

Figura 2.1: Determinante de uma matriz An×n desenvolvido segundo a linha i.

Definição 2.1.2

Chama-se menor complementar de A associado à posição (i, j) ao número Mij .


Chama-se complemento algébrico de A associado à posição (i, j), e representa-se
por Aij , a (−1)i+j Mij .

Observação 2.1.3

Assim, para n > 1, o determinante da matriz A = [aij ] de ordem n é igual à soma dos
produtos que se obtêm multiplicando os elementos de uma fila (linha ou coluna) pelos
respetivos complementos algébricos:
n
X
|A| = aik Aik (desenvolvendo segundo a linha i)
k=1
n
X
= akj Akj (desenvolvendo segundo a coluna j)
k=1

Exemplo 2.1.4
Vamos calcular o determinante da matriz
 
1 0 1
A =  0 0 2 ,
−1 1 3

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.2. Cálculo de Determinantes de Ordem 2 23

desenvolvendo segundo a terceira linha. Para tal precisamos dos complementos algébricos
A31, A32 e A33. Temos

3+1 0 1

A31 = (−1) =0
0 2

3+2 1 1

A32 = (−1) = −2
0 2

3+3 1 0

A33 = (−1) = 0.
0 0

Então, |A| = (−1)A31 + 1A32 + 3A33 = −2.

Observação 2.1.5

Se akl = 0, então ao calcularmos o determinante de A = [aij ] segundo a linha k ou


a coluna l evitamos o cálculo do complemento algébrico Akl já que akl Akl = 0. As-
sim, em geral, de modo a simplificar o cálculo do determinante de uma matriz A, o
desenvolvimento deve ser efetuado segundo a linha ou coluna que tiver mais entradas
nulas.

Exemplo 2.1.6
Considerando de novo a matriz do Exemplo 2.1.4
 
1 0 1
A =  0 0 2 ,
−1 1 3

podemos verificar que as filas com mais zeros são a linha 2 e a coluna 2. Assim, desen-
volvendo o determinante segundo a coluna 2 temos

|A| = 0A12 + 0A22 + 1A32 = −2 .

Notemos que neste caso bastou-nos calcular um único complemento algébrico (o A32 ).

O determinante de uma matriz de ordem n diz-se um determinante de ordem n.

2.2 Cálculo de Determinantes de Ordem 2


Seja  
a11 a12
A= .
a21 a22

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


24 2. Determinantes

Desenvolvendo segundo a linha 1, temos


|A| = a11 A11 + a12 A12 = a11 a22 − a12 a21 .

Observação 2.2.1
Assim, o determinante de uma matriz de ordem 2 é obtido subtraindo ao produto dos
elementos da diagonal principal o produto dos elementos da outra diagonal (ver Fi-
gura 2.2).

a11 a12 _
a21 a22
+

Figura 2.2: Determinantes de ordem 2 - regra de cálculo.

Exemplo 2.2.2
Temos
1 2
= 1 × 3 − 1 × 2 = 1.
1 3

2.3 Cálculo de Determinantes de Ordem 3


Seja  
a11 a12 a13
A =  a21 a22 a23  .
a31 a32 a33
Desenvolvendo segundo a linha 1, temos
|A| = a11 A11 + a12 A12 + a13 A13

a22 a23 a a
− a12 21 23 + a13 a21 a22

= a11

a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .

Observação 2.3.1

Esta mesma expressão para |A| pode ser obtida pela conhecida Regra de Sarrus: Para
calcular o determinante de uma matriz de ordem 3, repetem-se as duas primeiras li-

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.4. Propriedades dos Determinantes 25

nhas da matriz no final. Para cada diagonal indicada na figura, efetua-se o produto
dos elementos nessa diagonal. O determinante de A é a soma dos produtos associados
às diagonais assinaladas com + e dos simétricos dos produtos associados às diagonais
assinaladas com − (ver Figura 2.3).
Uma regra análoga pode ser estabelecida, repetindo à direita da matriz as duas
primeiras colunas.

Observação 2.3.2
A Regra de Sarrus só se aplica ao cálculo de determinantes de ordem 3.

a11 a12 a13 _


a21 a22 a23 _
a31 a32 a33 _
a11 a12 a13 +
a21 a22 a23 +
+

Figura 2.3: Determinantes de ordem 3 - regra de Sarrus.

Exemplo 2.3.3
Verifique que

1 2 −1

0 3 2 = 1 × 3 × 4 + 0 × 2 × (−1) + 2 × 2 × 2

2 2 4
− 2 × 3 × (−1) − 1 × 2 × 2 − 0 × 2 × 4
= 12 + 0 + 8 + 6 − 4
= 22.

2.4 Propriedades dos Determinantes


Apresentamos em seguida algumas propriedades dos determinantes, que resultam facilmente
da definição, cada uma acompanhada de um exemplo.
Seja A uma matriz quadrada de ordem n.

1) Temos |A| = |AT |.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


26 2. Determinantes

Exemplo:
1 2 1 1 0 −1

0 3 2 = 2 3 2

−1 2 3 1 2 3

2) Se B for obtida de A por troca de duas linhas de A, então |B| = −|A|.


Exemplo:
1 2 −1 −1 2 0

1 3 0 = −5 e 1 3 0 =5

−1 2 0 1 2 −1

3) Se B for obtida de A multiplicando uma linha de A por um número real λ, então


|B| = λ|A|.
Exemplo:
4×1 4×5 4×0 1 5 0

1 3 0 = 4 1 3 0 = 4(−4) = −16

2 1 2 2 1 2

4) Se uma linha de A, digamos a linha i, for a soma de duas linhas, l1 e l2 , e se B1 e B2


forem obtidas de A substituindo a linha i de A por l1 e por l2 , respetivamente, então
|A| = |B1 | + |B2 |.
Exemplo:

1+4 3+2 2+1 1 3 2 4 2 1

1 5 1 = 1 5 1 + 1 5 1 = 2 − 6 = −4

0 2 0 0 2 0 0 2 0

5) Se B for obtida de A somando a uma linha de A uma outra linha de A, eventualmente


multiplicada por uma constante, então |B| = |A|.
Exemplo:
1 2 1 1+4×3 2+4×5 1+4×0

3 5 0 = 3 5 0 = −1

1 2 2 1 2 2

6) O determinante de uma matriz triangular (superior ou inferior) é o produto dos ele-


mentos da diagonal principal.
Exemplo:

−1 1 2 −1 0 0

0 4 3 = (−1) × 4 × 3 = −12; 3 4 0 = (−1) × 4 × 2 = −8

0 0 3 −2 2 2

7) Se A e B são matrizes quadradas da mesma ordem, então |AB| = |A||B|.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.4. Propriedades dos Determinantes 27

Exemplo:
  
−1 1 0 3 1 1 −1 1 0 3 1 1

 2 4 1   1 2 1  = 2 4 1 1 2 1 = 21

−1 0 1 0 1 1 −1 0 1 0 1 1

Da propriedade 3), fazendo λ = 0, vem:

8) Se A tem uma linha nula, então |A| = 0.


Exemplo:
−1 1 3

0 0 0 =0

1 2 5

Das propriedades 5) e 8) vem:

9) Se A tem duas linhas proporcionais (eventualmente iguais), então |A| = 0.


Exemplo:

1 2 −1 1 2 −1 1 2 −1

2 0 1 = 2 0 1 = 2 0 1 =0

3 6 −3 3 − 3 × 1 6 − 3 × 2 −3 − 3 × (−1) 0 0 0

Da propriedade 3) vem

10) Se A é uma matriz quadrada de ordem n e λ ∈ R, então |λA| = λn |A|.


Exemplo:  

−1 1 1

−1 1 1



2  2 4 0  = 23 2 4 0 = 8 × 4 = 32

1 1 −1 1 1 −1

Observação 2.4.1

Pela propriedade 1), todas as propriedades apresentadas envolvendo linhas de uma matriz
são ainda válidas se em vez de linhas considerarmos colunas da matriz.

Observação 2.4.2
A definição de determinante reduz o cálculo de um determinante de ordem n > 1 ao
cálculo de, no máximo, n determinantes de ordem n−1. Recorrendo às propriedades dos
determinantes é possı́vel reduzir o cálculo de um determinante de ordem n ao cálculo de
um único determinante de ordem n − 1, conforme se ilustra no exemplo seguinte.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


28 2. Determinantes

No próximo exemplo introduz-se uma notação que identifica cada uma das operações
elementares efetuadas sobre as linhas e as colunas de uma matriz. Nessa notação represen-
tamos por li e cj a linha i e a coluna j da matriz. Por exemplo, l3 ← l3 − l1 significa que
substituı́mos a linha 3 da matriz pela linha 3 menos a linha 1 e c1 ↔ c3 significa a troca
entre as colunas 1 e 3.

Exemplo 2.4.3
Recorrendo às propriedades dos determinantes, vamos calcular o determinante da matriz
 
1 2 1
A =  −1 −1 2  ,
−1 1 3

reduzindo-o ao cálculo de um único determinante de ordem 2. Temos



1 2 1 1 2 1 1 2 1

|A| = −1 −1
2 = 0 1 3 = 0 1 3 . (2.2)
l ←l +l l ←l +l
−1 1 3 2 1 2 −1 1 3 3 1 3 0 3 4

A primeira igualdade resulta de termos somado a primeira linha de A à segunda linha de


A, não alterando o valor do determinante (propriedade 5)). De forma análoga se justifica
a segunda igualdade, somando a primeira linha de A à terceira linha de A. Calculando
o último determinante, efetuando o desenvolvimento segundo a primeira coluna, temos

1 2 1
1 3
|A| = 0 1 3 = 1(−1)2 = 4 − 9 = −5 .
0 3 4 3 4

Notemos que, recorrendo à propriedade 5), somando à linha 3 a linha 2 multiplicada


por −3, podemos transformar o último determinante em (2.2) no determinante de uma
matriz triangular superior:


1 2 1 1 2 1 1 2 1

0 1 3 0 1 3 = 0 1 3 = −5,
l3 ←l3 =


0 3 4 +(−3)l2
0 3−3×1 4−3×3

0 0 −5

onde a última igualdade se deve à propriedade 6).

Observação 2.4.4
Tal como no exemplo anterior, dado um qualquer determinante é sempre possı́vel, recor-

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.5. Inversão de Matrizes 29

rendo às propriedades 2) e 5), transformá-lo num determinante de uma matriz triangular,
o qual, pela propriedade 6) é de cálculo imediato.

Exemplo 2.4.5
Consideremos a matriz  
0 2 1
A= 1 2 3 .
1 0 1
Temos

0 2 1
2) 1 2 3 5) 1 2 3 5) 1 2 3

6)
|A| = 1 2 3 = − 0 2 1

= − 0 2
1 = − 0 2 1

= 2.

1 0 1 1 0 1 0 −2 −2 0 0 −1

2.5 Inversão de Matrizes


Nesta secção vamos dar condições necessárias e suficientes para uma matriz quadrada ser
invertı́vel. Apresentamos ainda um método, alternativo à definição, para calcular a inversa
de uma matriz quadrada, caso esta exista.

Definição 2.5.1

Uma matriz A quadrada de ordem n diz-se regular ou não singular se det(A) 6= 0. Se


det(A) = 0, então A diz-se singular ou não regular.

Definição 2.5.2

Seja A = [aij ] uma matriz de ordem n e Aij o complemento algébrico de A associado à


posição (i, j). A matriz
 T  
A11 · · · A1n A11 · · · An1
 .. .. ..  =  .. .. .. 
 . . .   . . . 
An1 · · · Ann A1n · · · Ann

diz-se a matriz adjunta de A e representa-se por Adj(A).

A observação seguinte é importante na demonstração do Teorema 2.5.4.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


30 2. Determinantes

Observação 2.5.3

Seja A = [aij ] uma matriz quadrada de ordem n. A soma dos produtos que se obtêm mul-
tiplicando os elementos de uma linha (resp. coluna) de A pelos complementos algébricos
de uma outra linha (resp. coluna) é nula, isto é, para i 6= k, temos
n
X
aij Akj = 0 .
j=1

Basta notar que esta soma corresponde ao determinante de uma matriz com duas linhas
iguais. Com efeito, seja B = [bij ] a matriz obtida de A substituindo a linha k por uma
linha igual à linha i. Notemos que A e B apenas diferem na linha k. Como a i-ésima
e a k-ésima linhas de B são iguais, temos |B| = 0. Por outro lado, os complementos
algébricos da linha k das matrizes A e B são iguais (uma vez que não dependem dos
elementos da linha k). Além disso, aij = bkj , j = 1, . . . , n. Então
n
X n
X
aij Akj = bkj Bkj = |B| = 0 .
i=1 i=1

Temos, então, o seguinte resultado que nos dá condições necessárias e suficientes para
uma matriz ser invertı́vel e, no caso de o ser, fornece-nos um método para calcular a sua
inversa.

Teorema 2.5.4
Uma matriz quadrada A é invertı́vel se e só se é regular. Além disso, se A é regular então
1
A−1 = Adj(A) .
det(A)

Demonstração.

(⇒) Se A é invertı́vel, então existe A−1 tal que AA−1 = In . Logo

det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1 ,

donde det(A) 6= 0 e, portanto, A é regular.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.5. Inversão de Matrizes 31

1
(⇐) Seja A = [aij ] regular, isto é, det(A) 6= 0. Seja B = det(A)
Adj(A). Temos
  
a11 a12 · · · a1n A11 A21 · · · An1
1  a21 a22 · · · a2n   A12 A22
  · · · An2 
AB = =
 
.. .. .. .  . .. ..
det(A)  . ..   ..

. . . . 
an1 an2 · · · ann A1n A2n · · · Ann

0 ···
 
det(A) 0
... ... ..
1  0 .

=  = In .
 
det(A) 
 .. ... ...
. 0 
0 · · · 0 det(A)

A segunda igualdade resulta da definição de determinante e da observação 2.5.3. De forma


análoga, verifica-se que BA = In . Por conseguinte, A é invertı́vel e, pela unicidade da
inversa, temos
1
A−1 = Adj(A) .
det(A)

Observação 2.5.5

Da demonstração de (⇒) no teorema anterior vem que se A é invertı́vel então A e A−1


são regulares e
1
det(A−1 ) = .
det(A)

Exemplo 2.5.6
Vamos calcular a inversa da matriz
 
1 2 −1
A= 1 0 1 .
1 3 2

Temos
 
1 2 −1 −3 −7 2

|A| = 1 0 1 = −8 e Adj(A) =  −1 3 −2  .
1 3 2 3 −1 −2

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


32 2. Determinantes

Logo,  −1  
1 2 −1 3 7 −2
 1 0 1  = 1  1 −3 2  .
8
1 3 2 −3 1 2

Sendo A uma matriz quadrada, por definição de matriz inversa, A tem inversa se existir
uma matriz B tal que AB = In e BA = In . Do teorema seguinte resulta que se uma das
igualdades anteriores for satisfeita, a outra igualdade também o é.

Teorema 2.5.7

Se A e B são matrizes quadradas de ordem n e AB = In então B = A−1 , isto é,


AB = BA = In .

Demonstração. Se AB = In então det(AB) = det(A) det(B) = 1 e, portanto, det(A) 6= 0.


Pelo teorema anterior, A é invertı́vel. Então, AB = In é equivalente a A−1 (AB) = A−1 In ,
isto é, B = A−1 . Por definição de inversa, AB = BA = In .

2.6 Caracterı́stica de uma Matriz


O conceito seguinte, embora válido para matrizes de qualquer ordem m × n, relaciona-se
com a noção de determinante e vai ser utilizado nos capı́tulos seguintes.

Definição 2.6.1
Dizemos que uma matriz A de ordem m × n tem caracterı́stica p se existir uma
submatriz quadrada de A de ordem p com determinante não nulo e todas as submatrizes
quadradas de A de ordem maior do que p (caso existam) tiverem determinante nulo.
Se A = 0m×n , convenciona-se que A tem caracterı́stica 0.
Representamos a caracterı́stica de A por car(A).

Observação 2.6.2

Sendo A uma matriz de ordem m × n, temos car(A) ≤ min{m, n}. Sendo A uma matriz
n × n, A tem caracterı́stica n se e só se A é regular.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.6. Caracterı́stica de uma Matriz 33

Exemplo 2.6.3
Seja  
−2 3 0
A=
2 −3 1
Como A ∈ M2×3 , temos carA ≤ 2. Como

3 0
= 3 6= 0 ,
−3 1

concluı́mos que car(A) = 2.

Exemplo 2.6.4
A matriz 
1 2 0
A= 1 0 1 
2 2 1
tem caracterı́stica 2. Basta notar que det(A) = 0 e

1 2
1 0 6= 0.

Exemplo 2.6.5
A matriz  
1 1 2 3
 0 1 1 1 
A=
 1

1 2 3 
1 1 2 3
tem caracterı́stica 2. De facto, temos |A| = 0. Podemos também verificar que os deter-
minantes das 16 submatrizes de A de ordem 3 são nulos. Assim, uma vez que a submatriz
de A de ordem 2 relativa às linhas e colunas 1 e 2 tem determinante não nulo,

1 1
0 1 = 1 6= 0, (2.3)

vem car(A) = 2.

Mostrar que a caracterı́stica da matriz A do exemplo anterior é 2 implicou o cálculo de


um determinante de ordem 4 e 16 determinantes de ordem 3.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


34 2. Determinantes

O teorema seguinte facilita a determinação da caracterı́stica de uma matriz.

Teorema 2.6.6
Seja A uma matriz de ordem m × n. Se existir uma submatriz B de A de ordem p com
determinante diferente de 0 e forem nulos todos os determinantes das submatrizes de A
de ordem p + 1 que têm B como submatriz, então car(A) = p.

Exemplo 2.6.7
Recorrendo ao teorema anterior, para concluir que a caracterı́stica da matriz A do exem-
plo 2.6.5 é 2, e tendo em conta (2.3), basta verificar que os determinantes das 4 subma-
trizes de ordem 3 de A que têm  
1 1
0 1
como submatriz são nulos, isto é,


1 1 2 1 1 3 1 1 2 1 1 3


0 1 1 = 0 1 1 = 0 1 1 = 0 1 1 = 0.

1 1 2 1 1 3 1 1 2 1 1 3

Exemplo 2.6.8
Consideremos a matriz  
1 2 1 1 1
 5 0 5 0 1 
A= .
 3 4 3 2 −1 
0 −2 0 −1 0
Temos car(A) ≤ 4, dado A ser uma matriz de ordem 4 × 5.
Por outro lado, temos car(A) ≥ 2, uma vez que
 
1 2
|B| = −10 6= 0, onde B = .
5 0

Vamos agora calcular o determinante das submatrizes de A de ordem 3 que têm B como
submatriz, até encontrarmos um diferente de zero, caso exista. Começamos por fixar a
linha 3 de A. Como

1 2 1 1 2 1 1 2 1

5 0 5 = 5 0 0 = 0 e 5 0 1 = 32 6= 0

3 4 3 3 4 2 3 4 −1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.6. Caracterı́stica de uma Matriz 35

temos que car(A) é 3 ou 4. Pelo teorema anterior temos apenas dois determinantes de
ordem 4 para calcular:

1 2 1 1 1 2 1 1

5 0 5 1 5 0 0 1
e .
3 4 3
−1


3 4 2 −1
0 −2 0 0 0 −2 −1 0

Facilmente se verifica que ambos os determinantes são zero e, portanto, car(A) = 3.

Definição 2.6.9

Chamamos operação elementar sobre as linhas (colunas) de uma matriz a qualquer


uma das seguintes operações:

(a) troca de duas linhas (colunas) da matriz;

(b) multiplicação de uma linha (coluna) da matriz por uma constante não nula;

(c) adição a uma linha (resp. coluna) de uma outra linha (resp. coluna), eventualmente
multiplicada por uma constante.

Definição 2.6.10
Uma matriz B diz-se equivalente a uma matriz A se B se obtém de A por uma sequência
de operações elementares.

Verifica-se facilmente que se B é equivalente a A, então A é equivalente a B. Dizemos


então que A e B são equivalentes e escrevemos A ∼ B.
A relação de equivalência de matrizes é transitiva, isto é, se A ∼ B e B ∼ C então
A ∼ C.
Os teoremas seguintes permitem-nos calcular a caracterı́stica de uma matriz, recorrendo
às operações elementares.

Teorema 2.6.11

Se A e B são matrizes equivalentes então car(A) = car(B).

Efetuando operações elementares sobre as linhas e/ou colunas de uma matriz, podemos
reduzir a matriz a uma forma que nos permite determinar a sua caracterı́stica de modo
imediato.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


36 2. Determinantes

Teorema 2.6.12
Qualquer matriz A é equivalente a uma única matriz da forma
 
Ip 0
. (2.4)
0 0

O número p (a ordem da submatriz identidade) é a caracterı́stica de A: p = car(A). Di-


zemos que (2.4) é a forma normal de A. Resulta, então, que duas matrizes são equivalentes
se e só se têm a mesma forma normal.
Ao processo de obtenção da matriz (2.4) a partir da matriz A, por uma sequência de
operações elementares, chamamos condensação da matriz A.
Na prática, para se conhecer a caracterı́stica de uma matriz A, não nula, de ordem m × n,
basta condensá-la até chegar à forma
 
A1 A2
, A1 ∈ Mp×p , A2 ∈ Mp×(n−p)
0 0

com A1 regular. A ordem p de A1 é a caracterı́stica da matriz A.

Exemplo 2.6.13
Vamos condensar a matriz A do exemplo 2.6.5 para determinar a sua caracterı́stica.
Temos
     
1 1 2 3 1 1 2 3 1 1 2 3
 0 1 1 1   0 1 1 1   0 1 1 1 
A=  ∼   ∼  =B.
 1 1 2 3  l3 ←l3 −l1  0 0 0 0  l4 ←l4 −l1  0 0 0 0 
1 1 2 3 1 1 2 3 0 0 0 0

Nesta fase, concluimos que car(A) = car(B) = 2 uma vez que as operações elemen-
tares não alteram a caracterı́stica de uma matriz e, claramente, a última matriz tem
caracterı́stica 2, já que
1 1
0 1 = 1 6= 0

e qualquer determinante de uma submatriz de B de ordem maior do que 2 tem uma


linha nula e, portanto, é 0. Notemos, no entanto, que podemos chegar à forma normal

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


2.6. Caracterı́stica de uma Matriz 37

de A continuando a condensação:
     
1 1 2 3 1 0 1 2 1 0 0 2
 0 1 1 1   0 1 1 1   0 1 1 1 
  ∼   ∼  
 0 0 0 0  l1 ←l1 −l2  0 0 0 0  c3 ←c3 −c1  0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0 0
     
1 0 0 0 1 0 0 0 1 0 0 0  
 0 1 1 1   0 1 0 1   0 1 0 0 
∼   ∼   ∼   = I2 0 .
c4 ←c4 −2c1  0 0 0 0  c3 ←c3 −c2  0 0 0 0  c4 ←c4 −c2  0 0 0 0  0 0
0 0 0 0 0 0 0 0 0 0 0 0

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


38 2. Determinantes

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


3

Sistemas de Equações Lineares

Neste capı́tulo vamos estudar um método de resolução de sistemas de equações lineares que
utiliza os conceitos e resultados apresentados nas secções anteriores.

3.1 Introdução
Definição 3.1.1
Um sistema de m equações lineares e n incógnitas é da forma

 a11 x1 + a12 x2 + · · · + a1n xn = b1

..
 .
 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

onde aij ∈ R, i = 1, . . . , m, j = 1, . . . , n, são os coeficientes do sistema, bi ∈ R, i =


1, . . . , m, são os termos independentes e x1 , . . . , xn são as incógnitas ou variáveis.

Exemplo 3.1.2
O sistema 
 x1 + x2 − x3 = 1
x2 + x3 = −1
x1 + 2x2 = 0

é um sistema linear de 3 equações e 3 incógnitas.

39
40 3. Sistemas de Equações Lineares

Exemplo 3.1.3
O sistema 
 x1 x2 − x3 = 1
x2 + x23 = −1
x1 + 2x2 = 0

nas variáveis x1 , x2 , x3 não é linear.

Um sistema linear de m equações e n incógnitas pode ser representado matricialmente


por
AX = B, (3.1)
onde      
a11 · · · a1n x1 b1
A =  ... ... ..  , X =  ..  e B =  ..  .

.   .   . 
am1 · · · amn xn bm
A matriz A é chamada matriz dos coeficientes do sistema, o vetor X é o vetor das
incógnitas e o vetor B o vetor dos termos independentes.
O vetor  
α1
α =  ... 
 
αn
diz-se uma solução do sistema se Aα = B.
Um sistema de equações lineares pode ser classificado no que respeita à existência ou não
de soluções.

Observação 3.1.4
O sistema diz-se

• possı́vel, se tem pelo menos uma solução. Neste caso, diz-se

– determinado, se tem uma única solução.


– indeterminado, se tem mais do que uma solução.

• impossı́vel, se não tem soluções.

Definição 3.1.5
Um sistema diz-se homogéneo se o vetor dos termos independentes é nulo, isto é, se
B = 0.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


3.2. Discussão e Resolução de Sistemas de Equações Lineares 41

Observação 3.1.6
Um sistema homogéneo é sempre possı́vel, isto é, tem pelo menos uma solução. Basta
ter em conta que X = 0 é solução do sistema.

Exemplo 3.1.7
O sistema 
 x1 + x2 − x3 = 1
x2 + x3 = −1
x1 + 2x2 = 0

é representado matricialmente por


    
1 1 −1 x1 1
 0 1 1   x2  =  −1  .
1 2 0 x3 0

Podemos verificar que (4, −2, 1) e (2, −1, 0) são duas soluções do sistema e, portanto, o
sistema é possı́vel indeterminado.

3.2 Discussão e Resolução de Sistemas de Equações Li-


neares
Definição 3.2.1
Diz-se que dois sistemas são equivalentes se possuem exatamente o mesmo conjunto de
soluções.

Dado um sistema de equações lineares, obtemos um sistema equivalente ao dado quando


se efetuam as seguintes operações:

(1) troca de duas equações do sistema;

(2) multiplicação de ambos os membros de uma equação por uma constante não nula;

(3) adição membro a membro a uma equação de uma outra, eventualmente multiplicada
por uma constante;

(4) troca da ordem das incógnitas.

Uma forma de resolver um sistema linear é usar as operações acima para o transformar
num sistema equivalente e que seja mais fácil de resolver. Este processo é facilitado se
recorrermos à forma matricial do sistema.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


42 3. Sistemas de Equações Lineares

Definição 3.2.2

Chama-se matriz completa do sistema (3.1) à matriz de ordem m × (n + 1)


 
a11 · · · a1n b1
 .. .. . ..  .
[A|B] =  . . .. . 
am1 · · · amn bm

Em termos da matriz completa do sistema, as operações (1) a (4) acima descritas corres-
pondem respetivamente a:

(a) troca de duas linhas da matriz;

(b) multiplicação de uma linha da matriz por uma constante não nula;

(c) adição a uma linha de uma outra, eventualmente multiplicada por uma constante;

(d) troca de colunas de A (a troca não inclui a coluna B).

As operações (a) a (c) correspondem a operações elementares sobre as linhas da matriz


[A|B]. A única operação elementar sobre as colunas é a referida em (d) e envolve apenas a
matriz A.
Recorrendo às operações elementares (a) a (d) acima descritas, é possı́vel condensar-se a
matriz completa [A|B] de modo a obter-se uma matriz da forma

···
 
α1,p+1 α1n β1
.. ... .. ..
Ip . . .
 
 
αp,p+1 ··· αp,n βp
 
0 0
[A |B ] =  , (3.2)
 
 0 ··· 0 0 ··· 0 βp+1 
 .. . . .. .. .. .. .. 
 . . . . . . . 
0 ··· 0 0 ··· 0 βm

onde αi,j , βk ∈ R, i = 1, . . . , p, j = p + 1, . . . , n, k = 1, . . . , m.
Notemos que
A ∼ A0 e [A|B] ∼ [A0 |B 0 ] .
Portanto,

car(A) = car(A0 ) = p e p ≤ car([A|B]) = car([A0 |B 0 ]) ≤ p + 1 ,

tendo-se car([A|B]) = p se e só se βp+a = . . . βm = 0. Observemos ainda que B = 0 se e só


se B 0 = 0.
O processo de obtenção da matriz (3.2) a partir da matriz [A|B] é chamado método de
condensação de Gauss. A matriz obtida diz-se condensada.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


3.2. Discussão e Resolução de Sistemas de Equações Lineares 43

Admitindo que não houve troca de colunas, isto é, que a operação elementar (d) não foi
usada no processo de condensação, a matriz [A0 |B 0 ] corresponde ao sistema

 x1 + α1,p+1 xp+1 + · · · + α1n xn =



 β1


 .
..


xp + αp,p+1 xp+1 + · · · + αp,n xn = βp

(3.3)
 0 = βp+1
..





 .

0 = βm

Os sistemas (3.1) e (3.3) são equivalentes, isto é, têm as mesmas soluções. Assim,

(1) se p < m e existe i ∈ {p + 1, . . . , m} tal que βi 6= 0, isto é,

car([A|B]) > car(A),

o sistema (3.1) é impossı́vel;

(2) se p = m ou βp+1 = · · · = βm = 0, isto é,

car([A|B]) = car(A),

o sistema (3.1) é possı́vel.

(2.1) se p = n, o sistema é determinado e a sua solução é dada por



 x1 = β1

.. ;
 .
 x = β
n n

(2.2) Se p < n, o sistema é indeterminado e a sua solução é dada por



 x1 = β1 −α1,p+1 xp+1 − · · · − α1n xn

.. ,
 .
 x = β −α − · · · − αp,n xn
p p p,p+1 xp+1

com xp+1 , . . . , xn ∈ R. O grau de indeterminação do sistema é n − p. Se o grau


de indeterminação for 1, o sistema diz-se simplesmente indeterminado; se for
2, diz-se duplamente indeterminado, etc.

Observemos que, na prática, para discutir o sistema, o processo de condensação da matriz


[A|B] pode terminar quando em vez da matriz Ip em (3.2) se chegar a uma matriz triangular
superior regular.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


44 3. Sistemas de Equações Lineares

Exemplo 3.2.3
Vamos agora resolver o sistema do Exemplo 3.1.7 por forma a encontrar todas as suas
soluções. Temos
     
1 1 −1 1 1 1 1 2 1 1 1 2
 0 1 1 −1  ∼  0 1 1 −1  ∼  0 1 1 −1 
l3 ←l3 −l1 l3 ←l3 −l2
1 2 0 0 0 1 1 −1 0 0 0 0
 
1 0 −2 2
∼  0 1 1 −1 
l1 ←l1 −l2
0 0 0 0

Assim, 
x1 = 2 + 2x3
, x3 ∈ R.
x2 = −1 − x3
Logo, o conjunto de solução do sistema é

{(2 + 2x, −1 − x, x) : x ∈ R} .

Exemplo 3.2.4
Vamos discutir o sistema seguinte em função do parâmetro a ∈ R e resolvê-lo para os
valores de a que o tornam possı́vel:

 x+y+z =2
x+z =1 .
2x + y + 2z = a

Condensando a matriz completa do sistema dado, usando as operações elementares a) a


d) acima indicadas, temos
     
1 1 1 2 1 1 1 2 1 1 1 2
[A|B] = 1 0 1 1
  ∼  0 −1 0 −1  ∼  0 −1 0 -1 
l2 ←l2 −l1 l3 ←l3 −2l1
2 1 2 a 2 1 2 a 0 −1 0 a−4
 
1 1 1 2
∼  0 −1 0 −1  .
l3 ←l3 −l2
0 0 0 a−3

Nesta fase podemos concluir que o sistema é impossı́vel se a 6= 3 já que neste caso
2 = car(A) < car([A|B]) = 3. Se a = 3, temos car(A) = car([A|B]) = 2. Neste caso o
sistema é possı́vel. Sendo 3 o número de incógnitas do sistema, o grau de indeterminação

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


3.3. Método Alternativo de Inversão de uma Matriz 45

do sistema é 3−car(A) = 3−2 = 1. Assim, para a = 3 o sistema é possı́vel simplesmente


indeterminado. Embora a solução do sistema resulte facilmente da última matriz obtida,
que corresponde ao sistema
 
x+y+z =2 x=1−z
⇔ , z ∈ R,
−y = −1 y=1

vamos prosseguir a condensação:


     
1 1 1 2 1 1 1 2 1 0 1 1
 0 −1 0 −1  ∼  0 1 0 1  ∼  0 1 0 1  .
l2 ←−l2 l1 ←l1 −l2
0 0 0 0 0 0 0 0 0 0 0 0

Nesta fase a solução do sistema é dada de forma imediata por



x=1−z
, z ∈ R.
y=1

Logo, o conjunto de solução do sistema é

{(x, y, z) ∈ R3 : x = 1 − z ∧ y = 1} = {(1 − z, 1, z) : z ∈ R} .

3.3 Método Alternativo de Inversão de uma Matriz


O método de resolução de sistemas lineares descrito pode ser utilizado para determinar a
inversa de uma matriz. Motivamos este processo com o seguinte exemplo.

Exemplo 3.3.1
 
1 2
Seja A = . Uma vez que |A| = 2 6= 0, temos que A é invertı́vel. Seja A−1 =
  1 4
a b
. Temos AA−1 = I, isto é
c d
    
1 2 a b 1 0
= .
1 4 c d 0 1

Esta igualdade é equivalente aos dois sistemas:


         
1 2 a 1 1 2 b 0
= e = . (3.4)
1 4 c 0 1 4 d 1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


46 3. Sistemas de Equações Lineares

Resolvendo o primeiro sistema, temos


       
1 2 1 1 2 1 1 2 1 1 0 2
∼ ∼ ∼ ,
1 4 0 l2 ←l2 −l1 0 2 −1 l2 ←l2 /2 0 1 − 21 l1 ←l1 −2l2 0 1 − 21

pelo que    
a 2
= .
c − 12
Resolvendo agora o segundo sistema, temos
       
1 2 0 1 2 0 1 2 1 1 0 −1
∼ ∼ 1 ∼ 1 ,
1 4 1 l2 ←l2 −l1 0 2 1 l2 ←l2 /2 0 1 2 l1 ←l1 −2l2 0 1 2

pelo que    
b −1
= 1 .
d 2
Assim  
−1 2 −1
A = .
− 12 12
Notemos que, como os dois sistemas têm a mesma matriz dos coeficientes, a sua
resolução envolve exatamente as mesmas operações elementares sobre as linhas da matriz
completa e, portanto, podemos resolvê-los simultaneamente considerando a matriz A
seguida dos dois vetores de termos independentes (a matriz identidade):
 
1 2 1 0
1 4 0 1

Temos    
1 2 1 0 1 2 1 0

1 4 0 1 l2 ←l2 −l1 0 2 −1 1
   
1 2 1 1 1 0 2 −1
∼ ∼ .
l2 ←l2 /2 0 1 − 12 1
2 l1 ←l1 −2l2 0 1 − 12 1
2

Usando o método de condensação na matriz [A|I], quando obtivermos a matriz identidade


do lado esquerdo, a matriz do lado direito é a matriz inversa de A uma vez que a primeira
coluna dessa matriz é a solução do primeiro sistema em (3.4) (primeira coluna de A−1 )
e a segunda coluna é a solução do segundo sistema em (3.4) (segunda coluna de A−1 ).

Consideremos agora o caso geral. Seja A uma matriz quadrada de ordem n invertı́vel. Se
B = [bij ] for a inversa de A, temos
AB = In

ou ainda
 
Ab1 · · · Abn = In ,

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


3.3. Método Alternativo de Inversão de uma Matriz 47

que é equivalente aos n sistemas de equações lineares

Ab1 = e1 ∧ Ab2 = e2 ∧ ··· ∧ Abn = en

onde bj e ej representam as j-ésimas colunas de B e In , respetivamente.


Para cada j fixo, consideremos o sistema Abj = ej de n equações lineares nas n incógnitas
b1j , b2j , . . . , bnj . Como A é regular, cada um destes sistemas tem uma única solução, que é a
j-ésima coluna da matriz B.
As matrizes completas dos n sistemas são [A|e1 ], . . . , [A|en ]. Uma vez que car(A) = n,
efetuando operações elementares sobre as linhas de cada matriz [A|ej ], é possı́vel chegarmos
a uma matriz da forma [In |βj ], sendo então a solução do sistema Abj = ej dada por bj = βj .
Uma vez que todos estes n sistemas têm a mesma matriz dos coeficientes, podemos resolvê-los
simultaneamente condensando, apenas com operações elementares sobre as linhas, a matriz
[A|In ], até obtermos uma matriz da forma [In |B] (o que é possı́vel se e só se A for regular).
A matriz B obtida é a inversa de A.

Exemplo 3.3.2
Vamos determinar a inversa da matriz A pelo método descrito acima:
 
0 1 −1
A =  1 2 1 .
1 1 1

Temos
   
0 1 −1 1 0 0 1 2 1 0 1 0
 1 2 1 0 1 0  ∼  0 1 −1 1 0 0 
l1 ↔l2
1 1 1 0 0 1 1 1 1 0 0 1
   
1 2 1 0 1 0 1 2 1 0 1 0
∼  0 1 −1 1 0 0  ∼  0 1 −1 1 0 0 
l3 ←l3 −l1 l3 ←l3 +l2
0 −1 0 0 −1 1 0 0 −1 1 −1 1
   
1 2 1 0 1 0 1 2 0 1 0 1
∼  0 1 −1 1 0 0  ∼  0 1 −1 1 0 0 
l3 ←−l3 l1 ←l1 −l3
0 0 1 −1 1 −1 0 0 1 −1 1 −1
   
1 2 0 1 0 1 1 0 0 1 −2 3
∼  0 1 0 0 1 −1  ∼  0 1 0 0 1 −1  .
l2 ←l2 +l3 l1 ←l1 −2l2
0 0 1 −1 1 −1 0 0 1 −1 1 −1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


48 3. Sistemas de Equações Lineares

Assim, a inversa de A é  
1 −2 3
A−1 = 0 1 −1  .
−1 1 −1

No caso de A ser singular temos car(A) < n e, por conseguinte, condensando por linhas a
matriz [A|I], chegamos a uma matriz em que o bloco do lado esquerdo tem pelo menos uma
linha de zeros e a linha correspondente no bloco do lado direito é não nula (uma vez que este
bloco tem caracterı́stica n). Assim, temos um sistema impossı́vel e, portanto, concluı́mos
que A não tem inversa. Tal já era esperado porque |A| = 0.

Exemplo 3.3.3
Pretendemos calcular, caso exista, a inversa da matriz A pelo método descrito acima:
 
0 1 −1
A =  1 2 1 .
1 1 2

Temos
   
0 1 −1 1 0 0 1 2 1 0 1 0
 1 2 1 0 1 0  ∼  0 1 −1 1 0 0 
l1 ↔l2
1 1 2 0 0 1 1 1 2 0 0 1
   
1 2 1 0 1 0 1 2 1 0 1 0
∼  0 1 −1 1 0 0  ∼  0 1 −1 1 0 0 
l3 ←l3 −l1 l3 ←l3 +l2
0 −1 1 0 −1 1 0 0 0 1 −1 1

Assim, concluı́mos que A não tem inversa.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4

O Espaço Vetorial Real Rn

4.1 Introdução
Definição 4.1.1
Chamamos espaço vetorial real Rn ao conjunto Rn munido da operação interna + e
da operação externa · definidas por

+: Rn × Rn → Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) → (x1 + y1 , . . . , xn + yn )
e
·: R × Rn → Rn
.
(λ, (x1 , . . . , xn )) → (λx1 , . . . , λxn )

Representamos o espaço vetorial real Rn por (Rn , +, ·). Quando nos referirmos simples-
mente a Rn , subentendemos as operações atrás definidas.
Os elementos de Rn são chamados vetores e os elementos de R são chamados escalares.
Representamos por 0Rn o vetor (0, . . . , 0) ∈ Rn .
Sejam X, Y e Z quaisquer vetores de Rn e λ, β escalares de R. São válidas as seguintes
propriedades.

Propriedades
a) X + Y = Y + X e) λ(βX) = (λβ)X

b) (X + Y ) + Z = X + (Y + Z) f ) λ(X + Y ) = λX + λY

c) X + 0Rn = X g) (λ + β)X = λX + βY

d) X + (−X) = 0Rn h) 1X = X

49
50 4. O Espaço Vetorial Real Rn

O conceito de vetores e espaço vetorial real pode ser generalizado. Dizemos que um
conjunto não vazio munido de duas operações, soma e multiplicação por um escalar λ ∈
R, é um espaço vetorial real se satisfaz propriedades análogas às propriedades a)-h). Em
particular o conjunto tem que ter um elemento neutro para a soma (propriedade c)) e cada
vetor tem que ter um simétrico em relação à soma (propriedade d)).
Por exemplo, o conjunto das matrizes de ordem m × n, Mm×n , munido da operação soma
de matrizes e multiplicação de uma matriz por uma escalar apresentadas no Capı́tulo 1, é um
espaço vetorial real uma vez que são satisfeitas as propriedades apresentadas nas Secções 1.2
e 1.3.

4.2 Dependência e Independência Linear de Vetores


Definição 4.2.1
Um vetor X ∈ Rn diz-se uma combinação linear dos vetores X1 , . . . , Xm ∈ Rn se
existirem escalares λ1 , . . . , λm ∈ R tais que

X = λ1 X1 + · · · + λm Xm .

Exemplo 4.2.2

(a) O vetor (4, 2, 0) é combinação linear de (2, 1, 0) uma vez que

(4, 2, 0) = 2(2, 1, 0) .

(b) O vetor (2, 1, 0) é combinação linear dos vetores (1, 1, 0) e (0, 1, 0) uma vez que

(2, 1, 0) = 2(1, 1, 0) + (−1)(0, 1, 0) .

Exemplo 4.2.3

Pretendemos determinar se o vetor (−1, 2, −2) ∈ R3 é combinação linear dos vetores


(1, 1, 0) e (0, 1, −1). Isso acontece se existirem λ1 , λ2 ∈ R tal que

(−1, 2, −2) = λ1 (1, 1, 0) + λ2 (0, 1, −1)

ou seja, se o sistema com matriz completa


 
1 0 −1
 1 1 2 
0 −1 −2

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.2. Dependência e Independência Linear de Vetores 51

for possı́vel. A matriz anterior é equivalente a


   
1 0 −1 1 0 −1
 0 1 3  ∼  0 1 3 
l3 ←l3 +l2
0 −1 −2 0 0 1

que corresponde a um sistema impossı́vel. Concluı́mos assim que (−1, 2, −2) não é
combinação linear dos vetores dados.

Definição 4.2.4
Dizemos que os vetores X1 , . . . , Xm ∈ Rn são linearmente independentes se e só se,
para λ1 , . . . , λm ∈ R, tivermos

λ1 X1 + · · · + λm Xm = 0Rn ⇒ λ1 = · · · = λm = 0 .

Se os vetores X1 , . . . , Xm não são linearmente independentes, então dizem-se line-


armente dependentes. Neste caso, existem escalares λ1 , . . . , λm ∈ R não todos nulos
tais que
λ1 X1 + · · · + λm Xm = 0Rn .

Exemplo 4.2.5

(a) Os vetores (1, 2, 3), (2, 4, 1) são linearmente independentes em R3 uma vez que

λ1 (1, 2, 3) + λ2 (2, 4, 1) = (0, 0, 0) ⇒ λ1 = λ2 = 0 .

(b) Os vetores (1, 2, 3), (2, 4, 6) são linearmente dependentes em R3 uma vez que

2(1, 2, 3) + (−1)(2, 4, 6) = (0, 0, 0) .

Propriedades
1) O vetor nulo 0Rn é linearmente dependente.

2) Se X 6= 0Rn então X é linearmente independente.

3) Os vetores X1 , . . . , Xm são linearmente dependentes se e só se um deles é combinação


linear dos restantes.

4) Se X1 , . . . , Xr são linearmente dependentes então X1 , . . . , Xr , . . . , Xm , com m ≥ r,


também o são.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


52 4. O Espaço Vetorial Real Rn

5) Se X1 , . . . , Xm são linearmente independentes, então quaisquer r destes vetores, com


r ≤ m, também o são.

6) Se os vetores X1 , . . . , Xm são linearmente independentes e os vetores X1 , . . . , Xm , X


são linearmente dependentes, então X é combinação linear de X1 , . . . , Xm .

Demonstração.

1) Basta ter em conta que 1.0Rn = 0Rn

2) Basta ter em conta que λX = 0Rn e X 6= 0Rn implica λ = 0.

3) (⇐) Suponhamos que um dos vetores X1 , . . . , Xm é combinação linear dos restantes.


Sem perda de generalidade (s.p.g.), suponhamos X1 = λ2 X2 + · · · + λm Xm . Então

(−1)X1 + λ2 X2 + · · · + λm Xm = 0Rn ,

e, portanto, os vetores X1 , . . . , Xm são linearmente dependentes.


(⇒) Suponhamos que X1 , . . . , Xm são linearmente dependentes. S.p.g. suponhamos

λ1 X1 + λ2 X2 + · · · + λm Xm = 0Rn ,

com λ1 6= 0. Então
λ2 λm
X1 = − X2 − · · · − Xm ,
λ1 λ1
e, portanto, X1 é combinação linear dos restantes vetores.

4) Se X1 , . . . , Xr são linearmente dependentes, então existem escalares λ1 , . . . , λr não


todos nulos tais que
λ1 X1 + · · · + λr Xr = 0Rn .
Logo
λ1 X1 + · · · + λr Xr + 0Xr+1 + · · · + 0Xm = 0Rn .

5) Resulta diretamente da propriedade anterior.

6) Suponhamos
λ1 X1 + · · · + λm Xm + λX = 0Rn ,
com λ, λ1 , . . . , λm não todos nulos. Se λ = 0, então existe λi não nulo tal que λ1 X1 +
· · · + λm Xm = 0Rn , o que não pode acontecer uma vez que X1 , . . . , Xm são linearmente
independentes. Então λ 6= 0 e
λ1 λm
X=− X1 − · · · − Xm .
λ λ

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.2. Dependência e Independência Linear de Vetores 53

Exemplo 4.2.6

Os vetores (−1, 1, 1), (1, 0, 0) e (2, −2, −2) de R3 são linearmente dependentes, uma vez
que os vetores (−1, 1, 1) e (2, −2, −2) também o são, dado serem combinação linear um
do outro.

Vamos agora relacionar o conceito de dependência/independência linear de vetores com a


caracterı́stica da matriz cujas colunas são dadas por esses vetores. Começamos por motivar
com um exemplo.

Exemplo 4.2.7

Pretendemos determinar se os vetores (−1, 1, 1), (0, −1, 1) e (1, 0, 1) de R3 são linear-
mente independentes. Para tal temos que resolver o sistema homogéneo resultante da
igualdade
λ1 (−1, 1, 1) + λ2 (0, −1, 1) + λ3 (1, 0, 1) = (0, 0, 0)
que, matricialmente, corresponde a
 
−1 0 1 0
[A|0] =  1 −1 0 0 .
1 1 1 0

Notemos que o sistema anterior é sempre possı́vel por ser homogéneo. Os vetores são
linearmente independentes se o sistema for determinado, isto é, se a caracterı́stica de A
coincidir com o número de vetores (variáveis). Assim basta-nos estudar car(A). Como
|A| 6= 0 temos car(A) = 3 e, por conseguinte, os três vetores são linearmente indepen-
dentes. Notemos que a matriz A é a matriz formada pelos 3 vetores em coluna.

No caso geral, sejam X1 = (x11 , . . . , xn1 ), . . . , Xm = (x1m , . . . , xnm ), m vetores de Rn . A


igualdade
λ1 X1 + · · · + λm Xm = 0Rn
equivale ao sistema 
 λ1 x11 + · · · + λm x1m = 0

.. ,
 .
 λ x + ··· + λ x = 0
1 n1 m nm

cuja forma matricial é


AX = 0n×1 (4.1)
com    
x11 · · · x1m λ1
A =  ... . . . ..  e X =  ..  .

.   . 
xn1 · · · xnm λm

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


54 4. O Espaço Vetorial Real Rn

O sistema linear homogéneo (4.1), nas incógnitas λ1 , . . . , λm , admite unicamente a solução


nula λ1 = · · · = λm = 0 se e só se car(A) = m. Neste caso, os vetores X1 , . . . , Xm são
linearmente independentes.
O sistema (4.1) admite uma infinidade de soluções se e só se car(A) < m. Neste caso, os
vetores X1 , . . . , Xm são linearmente dependentes.
No teorema seguinte identificamos as linhas de uma matriz de ordem n × m com vetores
de Rm e as colunas com vetores de Rn

Teorema 4.2.8
Sendo A uma matriz de ordem n × m com caracterı́stica p, existem p colunas e p linhas
linearmente independentes e quaisquer r colunas e r linhas, com r > p, são linearmente
dependentes.

Observação 4.2.9
Do teorema anterior resulta que quaisquer r vetores de Rn com r > n são linearmente
dependentes. Em particular, o número máximo de vetores linearmente independentes
em R2 é 2, em R3 é 3, etc.

Exemplo 4.2.10

Os vetores (1, 0, 0), (1, 2, 1), (3, 2, 1) são linearmente dependentes uma vez que car(A) =
2 < 3, onde  
1 1 3
A =  0 2 2 .
0 1 1
é a matriz cujas colunas correspondem aos vetores dados. Os vetores (1, 0, 0), (1, 2, 1) são
linearmente independentes uma vez que car(B) = 2, sendo B a submatriz de A obtida
por supressão da terceira coluna.

Exemplo 4.2.11

Consideremos os vetores u1 = (1, 2, 3), u2 = (2, 4, −1), u3 = (1, 2, −4) e u4 = (0, 1, 1).
Pela observação a seguir ao Teorema 4.2.8, temos que os vetores dados são linearmente
dependentes.
Vamos determinar o maior número r de vetores linearmente independentes e identi-

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.3. Subespaços Vetoriais de Rn 55

ficar r desses vetores. Seja A a matriz cujas colunas correspondem aos vetores dados:
 
1 2 1 0
A= 2 4 2 1 .
3 −1 −4 1

Vamos condensar a matriz para determinar a sua caracterı́stica. Temos


     
1 2 1 0 1 2 1 0 1 2 1 0
A= 2 4 2 1  ∼  0 0 0 1  ∼  0 −7 −1 1  = A0 .
l2 ←l2 −2l1 l2 ↔l3
3 −1 −4 1 l3 ←l3 −3l1 0 −7 −1 1 0 0 0 1

Claramente car(A0 ) = 3. Se na matriz A0 retirarmos a coluna 3 (resp. coluna 2),


temos que a submatriz resultante tem caracterı́stica 3. Como a condensação só envolveu
operações sobre linhas, esta submatriz de A0 é equivalente à submatriz de A obtida elimi-
nando a coluna 3 (resp. coluna 2). Assim, também esta submatriz tem caracterı́stica 3
e, portanto, os 3 vetores associados às suas colunas são linearmente independentes. Con-
cluı́mos assim que quer os vetores u1 , u2 e u4 quer os vetores u1 , u3 e u4 são linearmente
independentes. Já os vetores u1 , u2 e u3 são linearmente dependentes.
Convém realçar que, para garantir que a caracterı́stica da submatriz de A0 elimi-
nando uma das colunas coincida com a caracterı́stica da submatriz de A eliminando a
mesma coluna, é importante que no processo de condensação não tenham sido efetuadas
operações sobre colunas envolvendo a coluna eliminada. Assim, para determinar os ve-
tores que são linearmente dependentes/independentes convém efetuar apenas operações
elementares sobre linhas.

4.3 Subespaços Vetoriais de Rn


Definição 4.3.1

Seja S ⊆ Rn . Dizemos que S é um subespaço vetorial de (Rn , +, .) se

i) S 6= ∅,

ii) X + Y ∈ S, ∀X, Y ∈ S,

iii) λX ∈ S, ∀X ∈ S, ∀λ ∈ R.

Exemplo 4.3.2

(a) Rn é subespaço vetorial de si próprio.

(b) {0Rn } é subespaço vetorial de Rn .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


56 4. O Espaço Vetorial Real Rn

Exemplo 4.3.3

(a) S = {(0, x2 , x3 ) : x2 , x3 ∈ R} é um subespaço vetorial de R3 . De facto, S é


claramente não vazio pois (0, 0, 0) ∈ S e, quaisquer que sejam (0, x2 , x3 ) ∈ S e
(0, y2 , y3 ) ∈ S e λ ∈ R, temos (0, x2 + y2 , x3 + y3 ) ∈ S e (0, λx2 , λx3 ) ∈ S.

(b) S = {(x1 , x2 , x3 ) ∈ R3 : x1 ≥ 0} não é um subespaço vetorial de R3 . Basta notar


que, por exemplo, (1, 0, 0) ∈ S e (−1)(1, 0, 0) = (−1, 0, 0) ∈/ S.

Observação 4.3.4

Se S é subespaço vetorial de Rn , então 0Rn ∈ S. Basta ter em conta que, como S 6= ∅,


existe X ∈ S. Então, por definição de subespaço vetorial, 0X = 0Rn ∈ S.

Exemplo 4.3.5

S = {(x1 , x2 , x3 ) ∈ R3 : x1 6= 0} não é um subespaço vetorial de R3 . Basta notar que,


por exemplo, o vetor (0, 0, 0) ∈ / S.

Exemplo 4.3.6
Sejam A uma matriz de ordem m × n e Mn,1 o conjunto dos vetores reais de ordem n × 1.
O conjunto das soluções do sistema homogéneo AX = 0m×1 ,

S = {X ∈ Mn,1 : AX = 0m×1 },

é um subespaço vetorial de Rn (identificamos aqui Rn com Mn,1 ). Basta notar que


0Rn ∈ S; se X1 , X2 ∈ S, A(X1 + X2 ) = AX1 + AX2 = 0m×1 + 0m×1 = 0m×1 e, portanto,
X1 + X2 ∈ S; também, para α ∈ R, A(αX1 ) = αAX1 = α0Rm = 0Rm , donde αX1 ∈ S.

O resultado seguinte é uma consequência simples da definição de subespaço vetorial de


Rn .

Teorema 4.3.7

Seja C = {X1 , X2 , . . . , Xm } um subconjunto não vazio de vetores de Rn . Então o


conjunto de todas as combinações lineares dos vetores de C, isto é,

W = {λ1 X1 + λ2 X2 + · · · + λm Xm : λ1 , . . . , λm ∈ R} ,

é um subespaço vetorial de Rn . Mais, se S é um subespaço vetorial de Rn que contém

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.4. Geradores de um Subespaço Vetorial de Rn 57

todos os vetores de C, então W ⊆ S.

4.4 Geradores de um Subespaço Vetorial de Rn


No que se segue S representa um subespaço vetorial de Rn .

Definição 4.4.1

Seja C = {X1 , X2 , . . . , Xm } um conjunto não vazio de vetores de S. Dizemos que C é


um conjunto de geradores de S (ou C gera S) se qualquer vetor de S é combinação
linear dos vetores de C, ou seja

S = {λ1 X1 + λ2 X2 + · · · + λm Xm : λ1 , λ2 , . . . ∈ R} .

Se C gera S, escrevemos S =< C >. Se C = {X1 , . . . , Xm }, dizemos que os vetores


X1 , . . . , Xm geram S e escrevemos S =< X1 , . . . , Xm >.

Exemplo 4.4.2

Os vetores (1, 0, 0), (0, 1, 0), (0, 0, 1) geram R3 . Também os vetores (1, 0, 0), (0, 1, 0),
(0, 0, 1), (1, 1, 0) geram R3 . De facto, ∀(x, y, z) ∈ R3 , temos

(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)


= x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) + 0(1, 1, 0).

Exemplo 4.4.3

Os vetores (0, 1, 0), (0, 0, 1) geram o subespaço vetorial S referido no exemplo 4.3.3 pois
(0, 1, 0), (0, 0, 1) ∈ S e ∀(0, x2 , x3 ) ∈ S,

(0, x2 , x3 ) = x2 (0, 1, 0) + x3 (0, 0, 1) .

Exemplo 4.4.4
Seja
S =< (0, 1, 0), (0, 0, 1) >
o subespaço vetorial referido nos exemplos 4.3.3 e 4.4.3. Vamos mostrar que também se
tem
S =< (0, 1, 1), (0, 1, 2) > . (4.2)

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


58 4. O Espaço Vetorial Real Rn

Como os vetores (0, 1, 1) e (0, 1, 2) pertencem ao subespaço vetorial S, temos

< (0, 1, 1), (0, 1, 2) >⊆ S .

Por outro lado, os vetores (0, 1, 0), (0, 0, 1) são combinações lineares dos vetores (0, 1, 1), (0, 1, 2).
Logo, (0, 1, 0), (0, 0, 1) ∈ < (0, 1, 1), (0, 1, 2) > e, portanto,

S ⊆< (0, 1, 1), (0, 1, 2) > .

Donde se tem (4.2).

Observação 4.4.5
Se Y é combinação linear de X1 , . . . , Xm ∈ S, isto é, se Y ∈< X1 , . . . , Xm >, então

< X1 , . . . , Xm , Y >=< X1 , . . . , Xm > .

Da observação anterior resulta que, se a um conjunto de geradores de um subespaço


vetorial S juntarmos um qualquer vetor de S obtemos ainda um conjunto de geradores de
S. Por outro lado, se num conjunto de geradores um dos vetores for combinação linear dos
restantes, então o conjunto obtido retirando esse vetor é ainda um conjunto de geradores de
S. Repetindo este processo, de um conjunto de geradores de S podemos sempre obter um
subconjunto deste que ainda gere S e seja formado por vetores linearmente independentes.

Exemplo 4.4.6

Os vetores (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 0) geram R3 . Como (1, 0, 0) = −(0, 1, 0) +
0(0, 0, 1) + (1, 1, 0), então também os vetores (0, 1, 0), (0, 0, 1), (1, 1, 0) geram R3 .

O resultado seguinte dá-nos um limite superior para o número de vetores linearmente


independentes num subespaço vetorial S.

Teorema 4.4.7
Se S é gerado por m vetores, quaisquer r vetores de S, com r > m, são linearmente
dependentes.

Demonstração. Basta mostrar o resultado para r = m + 1, pois se quaisquer r vetores são


linearmente dependentes então quaisquer vetores, em número superior a r, também o são.
Sejam S =< X1 , . . . , Xm > e Y1 , . . . , Ym+1 ∈ S. Então existem escalares λij ∈ R tais que

Y1 = λ11 X1 + · · · + λ1m Xm
..
.
Ym+1 = λ(m+1)1 X1 + · · · + λ(m+1)m Xm .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.4. Geradores de um Subespaço Vetorial de Rn 59

Logo
α1 Y1 + · · · + αm+1 Ym+1 = 0 (4.3)
é equivalente a

(α1 λ11 + · · · + αm+1 λ(m+1)1 )X1 + · · · + (α1 λ1m + · · · + αm+1 λ(m+1)m )Xm = 0.

Assim, as soluções do sistema homogéneo



 α1 λ11 + · · · + αm+1 λ(m+1)1 = 0

.. ,
 .
 α λ + ··· + α
1 1m m+1 λ(m+1)m = 0

nas variáveis α1 , . . . , αm+1 , satisfazem (4.3). Como o número de incógnitas, m + 1, é superior


ao número de equações, m, este sistema homogéneo é possı́vel indeterminado. Logo admite
uma solução não nula e, por conseguinte, os vetores Y1 , . . . , Ym+1 são linearmente dependentes
uma vez que (4.3) tem soluções não nulas.

Alternativamente, o teorema anterior pode ser enunciado da seguinte forma:

Corolário 4.4.8
Se em S há r vetores linearmente independentes, então quaisquer m vetores de S, com
m < r, não geram S.

Atendendo à propriedade 6) da secção 4.2, verifica-se facilmente o seguinte.

Observação 4.4.9
Se os vetores X1 , . . . , Xm ∈ S são linearmente independentes e não geram S, então existe
Xm+1 ∈ S tal que X1 , . . . , Xm , Xm+1 são linearmente independentes.

Exemplo 4.4.10

Os vetores (0, 0, 1), (1, 1, 0) são linearmente independentes e não geram R3 pois, por
exemplo, (1, 0, 1) não é combinação linear dos vetores (0, 0, 1), (1, 1, 0). Então, pela
propriedade 6) da Secção 4.2, os vetores (0, 0, 1), (1, 1, 0), (1, 0, 1) são linearmente inde-
pendentes.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


60 4. O Espaço Vetorial Real Rn

4.5 Dimensão e Base de um Subespaço Vetorial


Definição 4.5.1
Seja S ⊆ Rn um subespaço vetorial não nulo e X1 , . . . , Xm vetores pertencentes a S.
Dizemos que a sequência (X1 , . . . , Xm ) é uma base de S se os vetores X1 , . . . , Xm geram
S e são linearmente independentes.

Notemos que, se S = {0Rn }, S não tem base uma vez que o único gerador de S é o vetor
nulo, o qual é linearmente dependente.
Se um subespaço S tem uma base formada por n vetores, n > 1, então reordenando os
vetores dessa base obtemos ainda uma base de S, distinta da primeira.

Exemplo 4.5.2

Em R3 as bases ((1, 0, 0), (0, 1, 0), (0, 0, 1)) e ((0, 1, 0), (1, 0, 0), (0, 0, 1)) são diferentes.

Do Teorema 4.4.7 obtemos o seguinte resultado.

Teorema 4.5.3
Seja S um subespaço vetorial não nulo de Rn . Se S tem uma base formada por m vetores,
então qualquer outra base de S é formada por m vetores.

Demonstração. Suponhamos que (X1 , . . . , Xm ) e (Y1 , . . . , Ym0 ) são duas bases de S. Que-
remos mostrar que m = m0 . Como X1 , . . . , Xm geram S e Y1 , . . . , Ym0 são linearmente
independentes, pelo Teorema 4.4.7 vem m0 ≤ m. Analogamente, como Y1 , . . . , Ym0 geram S
e X1 , . . . , Xm são linearmente independentes, vem m ≤ m0 . Logo m = m0 .

Definição 4.5.4

Seja S um subespaço vetorial não nulo de Rn . Ao número de vetores de uma (qual-


quer) base de S chama-se dimensão de S e representa-se por dim S. Se S = {0Rn },
convenciona-se que dim S = 0.

Facilmente se pode verificar que

((1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)) .

é uma base de Rn . Esta base diz-se a base canónica de Rn . Temos dim Rn = n.

Teorema 4.5.5
Seja S um subespaço vetorial de Rn . Se dim S = m então quaisquer m vetores de S

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.5. Dimensão e Base de um Subespaço Vetorial 61

linearmente independentes constituem uma base de S. Também quaisquer m geradores


de S constituem uma base de S.

Demonstração. Vamos começar por mostrar que quaisquer m vetores de S linearmente


independentes geram S. Sejam X1 , . . . , Xm ∈ S vetores linearmente independentes. Supo-
nhamos que X1 , . . . , Xm não geram S, isto é, existe Y ∈ S tal que Y não é combinação
linear de X1 , . . . , Xm . Então, pela propriedade 6) da secção 4.2, os vetores X1 , . . . , Xm , Y
são linearmente independentes o que, pelo Teorema 4.4.7, não pode acontecer visto S ser
gerado por m vetores (porque dim S = m) e, por conseguinte, quaisquer m + 1 vetores serem
linearmente dependentes. Assim, qualquer vetor Y ∈ S é combinação linear de X1 , . . . , Xm
e, portanto X1 , . . . , Xm geram S.
Vamos agora mostrar que quaisquer m geradores de S são linearmente independentes.
Sejam X1 , . . . , Xm vetores geradores de S. Suponhamos que X1 , . . . , Xm são linearmente
dependentes. Então um destes vetores é combinação linear dos restantes. Suponhamos, sem
perda de generalidade, que X1 é combinação linear de X2 , . . . , Xm . Pela Observação 4.4.5,
os m − 1 vetores X2 , . . . , Xm geram S. Logo, pelo Teorema 4.4.7, quaisquer m vetores de
S são linearmente dependentes e, portanto, não pode haver uma base de S com m vetores,
o que é absurdo uma vez que dim S = m. Vem, então, que X1 , . . . , Xm são linearmente
independentes.

Observação 4.5.6
Se S1 e S2 são dois subespaços vetoriais não nulos de Rn com S1 ⊆ S2 e dim S1 = dim S2 ,
então S1 = S2 . Basta notar que uma base de S1 é também uma base de S2 .

Observação 4.5.7

Da Observação 4.4.5 e da propriedade 3) da secção 4.2 resulta que, dado um conjunto


C de vetores geradores de um subespaço vetorial S, existe uma base de S formada por
vetores em C.

Exemplo 4.5.8
Consideremos o conjunto

C = {(1, 0, 0), (0, 1, 1), (1, 1, 1), (2, 0, 0)}

de geradores de um subespaço vetorial S de R3 . Uma vez que (1, 1, 1) e (2, 0, 0) são com-
binações lineares dos vetores (1, 0, 0) e (0, 1, 1), temos S =< C >=< (1, 0, 0), (0, 1, 1) >.
Como (1, 0, 0) e (0, 1, 1) são linearmente independentes, então ((1, 0, 0), (0, 1, 1)) é uma
base de S.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


62 4. O Espaço Vetorial Real Rn

Exemplo 4.5.9

Seja S o subespaço vetorial de R3 definido por

S = {(x + y, x + z, 0) : x, y, z ∈ R} .

(1) Pretendemos encontrar um conjunto de geradores de S. Seja (x + y, x + z, 0) um


elemento arbitrário de S. Temos

(x + y, x + z, 0) = x(1, 1, 0) + y(1, 0, 0) + z(0, 1, 0) .

Assim, qualquer elemento de S é combinação linear dos vetores (1, 1, 0), (1, 0, 0), (0, 1, 0) ∈
S, pelo que estes 3 vetores geram S.

(2) Pretendemos encontrar uma base de S. Verifica-se facilmente que os 3 vetores


geradores de S encontrados no ponto anterior são linearmente dependentes. No
entanto os vetores (1, 1, 0) e (1, 0, 0) são linearmente independentes. Assim, pela
propriedade 6) da secção 4.2, (0, 1, 0) é combinação linear de (1, 1, 0) e (1, 0, 0).
Pela Observação 4.4.5,

S =< (1, 1, 0), (1, 0, 0), (0, 1, 0) >=< (1, 1, 0), (1, 0, 0) > .

Portanto, os vetores (1, 1, 0), (1, 0, 0) geram S e são linearmente independentes.


Logo ((1, 1, 0), (1, 0, 0)) é uma base de S e dim S = 2.

Exemplo 4.5.10

Seja S o subespaço vetorial de R4 gerado pelos vetores e1 = (1, 1, 0, 1), e2 = (0, 1, 0, 0),
e3 = (2, 0, 0, 2) e e4 = (0, 2, 0, 0). Vamos encontrar uma base de S. Seja
 
1 0 2 0
 1 1 0 2 
A= 0 0 0 0 .

1 0 2 0

É fácil verificar que car(A) = 2. Além disso, a submatriz de A formada pelas duas
primeiras colunas tem caracterı́stica 2. Assim, conclui-se que os vetores e1 e e2 são line-
armente independentes e quaisquer 3 vetores em {e1 , e2 , e3 , e4 } são linearmente dependen-
tes. Então e3 e e4 são combinações lineares de e1 e e2 e, portanto, S =< e1 , e2 , e3 , e4 >=<
e1 , e2 >. Logo e1 e e2 geram S e são linearmente independentes e, por conseguinte, (e1 , e2 )
é uma base de S.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.6. Coordenadas de um Vetor numa Base 63

Observação 4.5.11
Da Observação 4.4.9 resulta que, dado um conjunto C de vetores linearmente indepen-
dentes de um subespaço vetorial S, existe uma base de S contendo os vetores de C.

Exemplo 4.5.12
Seja S o subespaço vetorial do Exemplo 4.5.9:

S = {(x + y, x + z, 0) : x, y, z ∈ R} .

Pretendemos encontrar uma base de R3 contendo a base (e1 , e2 ) = ((1, 1, 0), (0, 1, 0))
de S. Como dim R3 = 3, temos que encontrar um vetor e3 ∈ R3 tal que e1 , e2 , e3 são
linearmente independentes. A existência deste vetor é assegurada pelo facto de os vetores
e1 , e2 não gerarem R3 . Facilmente se verifica que, para e3 = (0, 0, 1), os vetores e1 , e2 , e3
são linearmente independentes e, portanto, (e1 , e2 , e3 ) é uma base de R3 .

4.6 Coordenadas de um Vetor numa Base


O teorema seguinte mostra que cada vetor X de um subespaço vetorial S não nulo de Rn se
exprime de forma única como combinação linear dos vetores de uma base de S.

Teorema 4.6.1

Sejam (e1 , . . . , em ) uma base de um subespaço vetorial não nulo S ⊆ Rn e x ∈ S. Então,


existem escalares λ1 , . . . , λm ∈ R únicos tais que

X = λ1 e1 + · · · + λm em .

Demonstração. A existência dos escalares λ1 , . . . , λm resulta do facto de os vetores e1 , . . . , em


gerarem S. Para mostrar a unicidade, suponhamos que

X = λ1 e1 + · · · + λm em = λ01 e1 + · · · + λ0m em .

Então
(λ1 − λ01 ) e1 + · · · + (λm − λ0m ) em = 0Rn .
Como e1 , . . . , em são linearmente independentes, vem λi = λ0i .

Definição 4.6.2

Nas condições do teorema anterior, a sequência (λ1 , . . . , λm ) diz-se o vetor das coor-
denadas (ou, simplesmente, as coordenadas) do vetor X na base e = (e1 , . . . , em ) e

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


64 4. O Espaço Vetorial Real Rn

representa-se por Xe .

Exemplo 4.6.3

O vetor (x1 , . . . , xn ) ∈ Rn tem coordenadas (x1 , . . . , xn ) na base canónica de Rn . Basta


notar que

(x1 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, 0, . . . , 0) + · · · + xn (0, . . . , 0, 1) .

Assim, o vetor (x1 , . . . , xn ) ∈ Rn identifica-se com as suas coordenadas na base canónica,


o que motiva o termo “canónica” para a base em causa.

O exemplo seguinte ilustra a importância da “ordenação” das coordenadas.

Exemplo 4.6.4

O vetor que na base ((1, 1), (1, 0)) de R2 tem coordenadas (1, 2) é

X = 1(1, 1) + 2(1, 0) = (3, 1) .

O vetor que, na mesma base, tem coordenadas (2, 1) é

Y = 2(1, 1) + 1(1, 0) = (3, 2) .

Exemplo 4.6.5

Consideremos a base b = ((1, 1), (1, 0)) de R2 e a base b0 = ((1, 0), (1, 1)), obtida de b
trocando a ordem dos vetores. O vetor X = (3, 1) tem coordenadas (1, 2) na base b
enquanto que as suas coordenadas na base b0 são (2, 1), isto é, Xb = (1, 2) e Xb0 = (2, 1).

Exemplo 4.6.6

Sejam (2, −3, −2) as coordenadas de X ∈ R3 na base ((1, 1, 1), (1, 1, 0), (1, −1, 2)) de R3 .
Então

X = 2(1, 1, 1) − 3(1, 1, 0) − 2(1, −1, 2)


= (−3, 1, −2) .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.6. Coordenadas de um Vetor numa Base 65

Exemplo 4.6.7

As coordenadas do vetor X do exemplo anterior na base ((1, 2, 3), (1, −3, 2), (2, 1, 4)) de
R3 são dadas pelo vetor (λ1 , λ2 , λ3 ) tal que

(−3, 1, −2) = λ1 (1, 2, 3) + λ2 (1, −3, 2) + λ3 (2, 1, 4) .

Esta última igualdade equivale a um sistema linear nas incógnitas λ1 , λ2 , λ3 , cuja solução
é dada por λ1 = 4, λ2 = 1 e λ3 = −4. Assim, temos

(−3, 1, −2) = 4(1, 2, 3) + (1, −3, 2) − 4(2, 1, 4)

e, portanto, as coordenadas do vetor X na base dada são (4, 1, −4).

Exemplo 4.6.8

Sejam S um subespaço vetorial de Rn e e = (e1 , e2 , e3 ) uma base de S. Sejam f1 = e1 +e2 ,


f2 = e2 + 2e3 e f3 = e3 .

(1) Vamos mostrar que os vetores f1 , f2 , f3 geram S. Seja X ∈ S. Queremos ver que
existem β1 , β2 , β3 ∈ R tais que

X = β1 f1 + β2 f2 + β3 f3 , (4.4)

ou, equivalentemente,

X = β1 e1 + (β1 + β2 )e2 + (2β2 + β3 )e3 .

Como e é uma base de S, existem λ1 , λ2 , λ3 ∈ R (únicos) tais que

X = λ1 e1 + λ2 e2 + λ3 e3 . (4.5)

Assim, existem β1 , β2 , β3 satisfazendo (4.4) se e só se o seguinte sistema for possı́vel:



 β1 = λ1
β1 + β2 = λ2 .
2β2 + β3 = λ3

Uma vez que


1 0 0

1 1 0 = 1 6= 0,

0 2 1

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


66 4. O Espaço Vetorial Real Rn

o sistema anterior nas incógnitas β1 , β2 , β3 é possı́vel (determinado) e, portanto, a


existência dos escalares β1 , β2 , β3 satisfazendo (4.4) está garantida.

(2) Uma vez que dim S = 3 e os 3 vetores f1 , f2 , f3 geram S, então, pelo Teorema 4.5.5,
(f1 , f2 , f3 ) é também uma base de S.

3) Se X ∈ S tem coordenadas (1, 2, 1) na base (f1 , f2 , f3 ), então

X = f1 + 2f2 + f3 = (e1 + e2 ) + 2(e2 + 2e3 ) + e3


= e1 + 2e2 + 5e3 ,

e, portanto, as coordenadas de X na base e são (1, 2, 5).

Vamos de seguida construir uma matriz associada a duas bases b1 e b2 de Rn que permite
transformar as coordenadas na base b1 de um qualquer vetor de Rn nas suas coordenadas na
base b2 .
Sejam b1 = (e1 , . . . , en ) e b2 = (f1 , . . . , fn ) duas bases de Rn e X ∈ Rn com Xb1 =
(x1 , . . . , xn ) e Xb2 = (y1 , . . . , yn ). Denotemos por (α1i , . . . , αni ) as coordenadas de ei na base
b2 , i = 1, . . . , n. Então,

X = x1 e1 + · · · + xn en
= x1 (α11 f1 + · · · + αn1 fn ) + · · · + xn (α1n f1 + · · · + αnn fn )
= (x1 α11 + x2 α12 + · · · + xn α1n )f1 + · · · + (x1 αn1 + x2 αn2 + · · · + xn αnn )fn .

Logo, as coordenadas (y1 , . . . , yn ) de X na base b2 são dadas por



 y1 = x1 α11 + x2 α12 + · · · + xn α1n

.. ,
 .
 y = x α + x α + ··· + x α
n 1 n1 2 n2 n nn

sistema que é representado matricialmente por Xb2 = P Xb1 , com


     
α11 · · · α1n x1 y1
P =  ... . . . ..  , X =  ..  e X =  ..  .

.  b1  .  b2  . 
αn1 · · · αnn xn yn

Observação 4.6.9
A matriz P designa-se por matriz de mudança de base ou matriz de passagem
da base b1 para a base b2 de Rn . A matriz P “transforma” as coordenadas de um vetor
X ∈ Rn na base b1 nas coordenadas de X na base b2 . Para ilustrar este facto, escrevemos,
quando conveniente, Pb2 ←b1 em vez de P . Notemos que a i-ésima coluna de P são as
coordenadas do vetor ei na base b2 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.6. Coordenadas de um Vetor numa Base 67

A matriz P é regular. De facto, encarando-se P Xb1 = Xb2 como um sistema de n equações


lineares onde Xb1 é o vetor das incógnitas e Xb2 é dado, este sistema é possı́vel e determinado,
uma vez que cada vetor se escreve de forma única como combinação linear dos vetores de
uma base. Assim, sendo P regular, temos também Xb1 = P −1 Xb2 , sendo, então, P −1 a
matriz de passagem da base b2 para a base b1 de Rn .

Observação 4.6.10
No caso particular em que b2 é a base canónica de Rn , a matriz de passagem P da base
b1 para a base b2 é obtida de forma imediata. De facto, a i-ésima coluna de P obtém-se
dispondo em coluna o i-ésimo vetor da base b1 .

Exemplo 4.6.11

Sejam b1 = ((1, 0, 0), (1, 1, 0), (0, −1, 1)) e b2 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) duas bases de
R3 . Uma vez que a base b2 é a base canónica de R3 , tendo em conta a observação
anterior, a matriz de passagem P da base b1 para a base b2 é
 
1 1 0
P =  0 1 −1  .
0 0 1

A matriz de passagem Q da base b2 para a base b1 é


 
1 −1 −1
−1
Q=P = 0 1  1 .
0 0 1

As coordenadas do vetor X = (1, 3, 0) ∈ R3 na base b1 são dadas pelo vetor


   
1 −2
Xb1 = QXb2 = P −1  3  =  3  .
0 0

Assim,
(1, 3, 0) = −2(1, 0, 0) + 3(1, 1, 0) + 0(0, −1, 1).

Exemplo 4.6.12

Sejam b1 = ((1, 1, 2), (1, 0, 1), (0, 0, 1)) e b2 = ((2, 0, 1), (1, 1, 0), (1, 0, 0)) duas bases de
R3 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


68 4. O Espaço Vetorial Real Rn

Pretendemos determinar a matriz de passagem da base b1 para a base b2 , ou seja,


Pb2 ←b1 .
Temos

(1, 1, 2) = 2(2, 0, 1) + 1(1, 1, 0) + (−4)(1, 0, 0)


(1, 0, 1) = 1(2, 0, 1) + 0(1, 1, 0) + (−1)(1, 0, 0)
(0, 0, 1) = 1(2, 0, 1) + 0(1, 1, 0) + (−2)(1, 0, 0) .

Assim,  
2 1 1
Pb2 ←b1 = 1 0 0 .
−4 −1 −2
Consideremos agora o vetor X ∈ R3 cujas coordenadas na base b1 são (1, 1, 2). As
coordenadas de X na base b2 são dadas por
      
1 2 1 1 1 5
Pb2 ←b1  1  =  1 0 0  1  =  1  ,
2 −4 −1 −2 2 −9
ou seja, as coordenadas de X na base b2 são (5, 1, −9).

4.7 Subespaços Vetoriais associados a uma Matriz


Nesta secção, dada uma matriz A de ordem m × n, vamos definir um subespaço vetorial de
Rn e um subespaço vetorial de Rm associados a A. No que se segue e, quando conveniente,
escrevemos X = (x1 , . . . , xn ) ∈ Rn em vez de
 
x1
X =  ...  ∈ Rn×1 .
 
xn

Definição 4.7.1
Seja A ∈ Mm×n . Chamamos núcleo de A, e representamos por NA , ao conjunto das
soluções do sistema homogéneo cuja matriz dos coeficientes é A, ou seja,

NA = {X ∈ Rn : AX = 0Rm } .

Observação 4.7.2
Qualquer que seja a matriz A ∈ Mm×n , temos 0Rn ∈ NA .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.7. Subespaços Vetoriais associados a uma Matriz 69

Exemplo 4.7.3
Seja  
1 1 0
A= .
1 −1 0
Uma vez que  
x  
0
A y  = ⇔ x = 0 ∧ y = 0,
0
z
temos
NA = {(0, 0, z) : z ∈ R} .

Teorema 4.7.4
Seja A ∈ Mm×n . Então NA é um subespaço vetorial de Rn .

Demonstração. Uma vez que A0Rn = 0Rm , 0Rn ∈ NA e, portanto, NA 6= ∅. Sejam


X1 , X2 ∈ NA e α ∈ R. Então A(X1 + X2 ) = A(X1 ) + A(X2 ) = 0Rm + 0Rm = 0Rm , donde
X1 +X2 ∈ NA . Também, A(αX1 ) = αA(X1 ) = α0Rm = 0Rm , donde αX1 ∈ NA . Concluimos,
assim, que NA é um subespaço vetorial de Rn .

Exemplo 4.7.5

Sendo A a matriz considerada no Exemplo 4.7.3, uma base de NA é ((0, 0, 1)) e dim NA =
1.

Definição 4.7.6
 
Seja A = A1 A2 · · · An ∈ Mm×n , onde Ai representa a i-ésima coluna de A.
Chamamos espaço coluna de A, e representamos por CA , ao subespaço vetorial de Rn
gerado pelas colunas de A :

CA = {λ1 A1 + · · · + λn An : λ1 , . . . , λn ∈ R} .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


70 4. O Espaço Vetorial Real Rn

Exemplo 4.7.7
Seja  
1 0 2
A =  0 1 0 .
0 1 0
Uma vez que        
1 0 2 λ1 + 2λ3
λ1  0  + λ2  1  + λ3  0  =  λ2 ,
0 1 0 λ2
temos
CA = {(λ1 + 2λ3 , λ2 , λ2 ) : λ1 , λ2 , λ3 ∈ R} .

Uma vez que CA é gerado pelas colunas de A, temos o seguinte resultado.

Teorema 4.7.8

Seja A ∈ Mm×n . Então dim CA = car(A).

Exemplo 4.7.9
Seja A a matriz definida no Exemplo 4.7.7. Os vetores
     
1 0 2
 0 ,  1 ,  0 
0 1 0

geram CA . Os três vetores acima são linearmente dependentes, uma vez que
 
1 0 2
car  0 1 0  = 2.
0 1 0

Por outro lado, os vetores (1, 0, 0), (0, 1, 1) são linearmente independentes. Assim, uma
base de CA é, por exemplo, ((1, 0, 0), (0, 1, 1)) e

CA = {(x, y, y) : x, y ∈ R} .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


4.7. Subespaços Vetoriais associados a uma Matriz 71

Observação 4.7.10
O subespaço CA pode escrever-se da seguinte forma alternativa:

CA = {AX : X ∈ Rn }
= {Y ∈ Rm |∃X ∈ Rn : Y = AX} .

Se b = (e1 , . . . , en ) for a base canónica de Rn , o vetor Aei é a iésima coluna de A. Assim,


da definição de espaço coluna, vem que os vetores Ae1 , . . . , Aen geram C(A). O teorema
seguinte generaliza este resultado.

Teorema 4.7.11

Seja A ∈ Mm×n . Se b = (e1 , . . . , en ) é uma base qualquer de Rn , então Ae1 , . . . , Aen


geram CA .

Demonstração. Claramente, Ae1 , . . . , Aen ∈ C(A). Seja Y um vetor qualquer de CA .


Pretendemos ver que Y é combinação linear de Ae1 , . . . , Aen . Como Y ∈ CA , existe
X = λ1 e1 + · · · + λn en ∈ Rn tal que Y = AX. Então Y = A(λ1 e1 + · · · + λn en ) =
λ1 Ae1 + · · · + λn Aen .

O teorema seguinte relaciona as dimensões do núcleo e do espaço coluna de uma matriz


A ∈ Mm×n .

Teorema 4.7.12
Seja A ∈ Mm×n . Então n = dim NA + dim CA .

Demonstração. Sendo o núcleo de uma matriz A o conjunto solução do sistema AX = 0Rm ,


verifica-se facilmente que a dimensão do núcleo é o grau de indeterminação do sistema, ou
seja, dim NA = n − car(A). Do Teorema 4.7.8, tem-se dim CA = car(A), obtendo-se o
resultado.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


72 4. O Espaço Vetorial Real Rn

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


5

Valores Próprios, Vetores Próprios e


Diagonalização de Matrizes
Quadradas

Nesta secção estudamos valores próprios de matrizes quadradas, os quais surgem em di-
versos contextos, nomeadamente, como veremos mais adiante, na classificação de formas
quadráticas e de extremos de funções.

5.1 Valores Próprios e Vetores Próprios


Seja A uma matriz quadrada de ordem n.

Definição 5.1.1

O vetor X ∈ Rn \{0Rn } diz-se um vetor próprio da matriz A se existir λ ∈ R tal que


AX = λX. Ao escalar λ chama-se valor próprio de A. Por outras palavras, λ é um
valor próprio de A se existir X ∈ Rn \{0Rn } tal que AX = λX.

Observação 5.1.2
Para todo o λ ∈ R, temos A 0Rn = 0Rn = λ0Rn . No entanto, por definição, 0Rn não é
vetor próprio de A.

73
74 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas

Exemplo 5.1.3
Consideremos a matriz  
2 0 0
A =  1 1 0 .
0 1 1
Temos que      
1 2 1
A 1 = 2 = 2 1 ,
    
1 2 1
e, portanto, (1, 1, 1) é um vetor próprio de A associado ao valor próprio 2. De facto, para
qualquer k ∈ R \ {0}, (k, k, k) é vetor próprio de A associado ao valor próprio 2 pois
          
k 1 1 2 k
A k =A k 1
      = kA   1   = k 2 = 2 k .
  
k 1 1 2 k

Observação 5.1.4
O valor próprio associado a um vetor próprio é único. Com efeito, suponhamos AX =
λ1 X e AX = λ2 X, com X 6= 0Rn . Então λ1 X = λ2 X ou, equivalentemente, (λ1 −λ2 )X =
0Rn . Como X 6= 0Rn , vem λ1 = λ2 . Assim, se AX = λX, com X 6= 0Rn , diz-se que X é
um vetor próprio de A associado ao valor próprio λ.

Seja λ ∈ R um valor próprio de uma matriz A de ordem n. Uma vez que

AX = λX ⇔ (A − λIn )X = 0Rn ,

o conjunto Eλ formado pelos vetores próprios de A associados a λ e pelo vetor 0Rn ,

Eλ = {X ∈ Rn : AX = λX}, (5.1)

é o núcleo da matriz A − λIn . Assim, pelo Teorema 4.7.4, Eλ é um subespaço vetorial de


Rn .

Exercı́cio 5.1.5
Mostre, recorrendo diretamente à definição, que Eλ é um subespaço vetorial de Rn .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


5.1. Valores Próprios e Vetores Próprios 75

Definição 5.1.6

Se λ é valor próprio de A, o subespaço vetorial Eλ definido em (5.1) diz-se o subespaço


próprio de A associado ao valor próprio λ.

Exemplo 5.1.7
Relativamente à matriz do Exemplo 5.1.3, temos

E2 = {(x, y, z) ∈ R3 : A[x y z]T = 2[x y z]T }.

Temos
       
x x x 0
A y = 2 y ⇔ (A − 2I3 ) y = 0 
      
z z z 0

y=x
⇔ , x ∈ R.
z=x

Logo,
E2 = {(x, x, x) : x ∈ R} = h(1, 1, 1)i .
Assim ((1, 1, 1)) é uma base de E2 e dimE2 = 1.

Observação 5.1.8
Uma vez que cada vetor próprio está associado a um único valor próprio, se λ1 e λ2 são
valores próprios distintos de uma matriz A, então Eλ1 ∩ Eλ2 = {0Rn }.

Vamos de seguida apresentar um método para determinar os valores próprios de uma


matriz. Atendendo à definição de valor próprio de uma matriz A, o escalar λ é valor próprio de
A se e só se o sistema (A−λIn )X = 0 admitir soluções não nulas (ou seja, for indeterminado).
Uma vez que o sistema (A − λIn )X = 0 é indeterminado se e só se
det(A − λIn ) = 0, (5.2)
concluimos que λ é valor próprio de A se e só se a igualdade em (5.2) é satisfeita.
Note-se que a expressão det(A − λIn ) é um polinómio de grau n em λ.

Definição 5.1.9

O polinómio p(λ) = det(A − λIn ) de grau n diz-se o polinómio caracterı́stico de A.


A equação det(A − λIn ) = 0, na incógnita λ, diz-se a equação caracterı́stica de A.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


76 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas

Observação 5.1.10
Da discussão efetuada, concluı́mos então que os valores próprios de A são as soluções
reais da equação caracterı́stica de A.

Exemplo 5.1.11
Seja  
2 0 2
A =  0 2 2 .
0 0 0
Temos  
2−λ 0 2
det(A − λI3 ) = det  0 2 − λ 2  = −λ(2 − λ)2 .
0 0 −λ
Assim, os valores próprios de A são 0 e 2. Temos
       
2 0 2 1 0 0 x 0
 0 2 2 −0 0
  1 0   y = 0 
 
0 0 0 0 0 1 z 0

se e só se x = y = −z, com z ∈ R. Temos


       
2 0 2 1 0 0 x 0
 0 2 2 −2 0 1 0
    y = 0 
 
0 0 0 0 0 1 z 0

se e só se z = 0. Assim, os subespaços próprios de A são

E0 = {(−z, −z, z) : z ∈ R} e E2 = {(x, y, 0) : x, y ∈ R} .

Uma base de E0 é ((−1, −1, 1)) e uma base de E2 é ((1, 0, 0), (0, 1, 0)).

Observação 5.1.12
Tal como verificado no exemplo anterior, os valores próprios de uma matriz triangular
(inferior ou superior) são as entradas da diagonal principal da matriz.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


5.1. Valores Próprios e Vetores Próprios 77

Observação 5.1.13

Uma vez que o escalar 0 é valor próprio de A se e só se det(A−0I) = 0, isto é, det(A) = 0,
concluimos, então, que as seguintes afirmações são equivalentes:

• 0 é valor próprio de A.

• A é singular.

• NA 6= {0Rn }.

Mais, se 0 é valor próprio de A, então E0 = NA .

Exemplo 5.1.14
Seja A a matriz definida no Exemplo 5.1.11. Uma vez que 0 é valor próprio de A podemos
concluir que A é singular e NA = E0 = {(−z, −z, z) : z ∈ R}.

Claramente, matrizes distintas podem ter os mesmos valores próprios. Dada uma matriz
A de ordem n, identificamos de seguida uma classe de matrizes com os mesmos valores
próprios de A. Começamos por introduzir uma definição que será também utilizada na
secção seguinte.

Definição 5.1.15
Sejam A e B matrizes quadradas de ordem n. Dizemos que B é semelhante a A se existir
uma matriz regular P quadrada de ordem n tal que B = P −1 AP, ou seja, P B = AP.

Note-se que se B é semelhante a A então A é semelhante a B. Assim, dizemos simples-


mente que A e B são semelhantes.

Teorema 5.1.16
Sejam A e B matrizes quadradas de ordem n. Se A e B são semelhantes então A e B
têm o mesmo polinómio caraterı́stico e, por conseguinte, os mesmos valores próprios.

Demonstração. Suponhamos que B = P −1 AP com P regular. Então

det(B − λIn ) = det(P −1 AP − λIn )


= det(P −1 (A − λIn )P )
= det(P ) det(P −1 ) det(A − λIn )
= det(A − λIn ).

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


78 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas

Finalizamos esta secção com um teorema e um seu corolário relativos à indepêndencia


linear de vetores próprios de uma matriz associados a valores próprios distintos.

Teorema 5.1.17
Seja A uma matriz quadrada de ordem n. Sejam X1 , . . . , Xk vetores próprios de A asso-
ciados aos valores próprios λ1 , . . . , λk , respetivamente. Se λ1 , . . . , λk são todos distintos,
então X1 , . . . , Xk são linearmente independentes.

Demonstração. A prova é efetuada por indução em k. O resultado verifica-se para k = 1,


uma vez que X1 6= 0Rn por ser vetor próprio de A e, portanto, X1 é linearmente indepen-
dente. Suponhamos agora k > 1 e que os vetores próprios X1 , . . . , Xk−1 são linearmente
independentes. Suponhamos que os vetores X1 , . . . , Xk são linearmente dependentes. Então,
Xk é combinação linear de X1 , . . . , Xk−1 , ou seja, existem escalares β1 , . . . , βk−1 ∈ R tais que
Xk = β1 X1 + · · · + βk−1 Xk−1 .
Note-se que β1 , . . . , βk−1 não são todos nulos uma vez que Xk 6= 0Rn . Então, tem-se
f (Xk ) = f (β1 X1 + · · · + βk−1 Xk−1 )
⇔ f (Xk ) = β1 f (X1 ) + · · · + βk−1 f (Xk−1 )
⇔ λk Xk = β1 λ1 X1 + · · · + βk−1 λk−1 Xk−1
⇔ λk Xk − β1 λ1 X1 − · · · − βk−1 λk−1 Xk−1 = 0
⇔ β1 (λk − λ1 )X1 + · · · + βk−1 (λk − λk−1 )Xk−1 = 0.
Uma vez que β1 , . . . , βk−1 não são todos nulos, existe j ∈ {1, . . . , k − 1} tal que βj 6= 0. Como
λk − λj 6= 0, uma vez que os valores próprios λ1 , . . . , λk são distintos, concluimos que os
vetores X1 , . . . , Xk−1 são linearmente dependentes, contrariando a hipótese. Logo os vetores
X1 , . . . , Xk são linearmente independentes.
O resultado seguinte pode obter-se como consequência do Teorema 5.1.17 e estabelece o
seguinte: se considerarmos subespaços próprios de A associados a valores próprios distintos
e, em cada um desses subespaços, considerarmos um conjunto de vetores linearmente inde-
pendentes, a reunião desses conjuntos de vetores é ainda um conjunto de vetores linearmente
independentes.

Corolário 5.1.18
Seja A uma matriz quadrada de ordem n. Sejam λ1 , . . . , λk valores próprios distin-
tos de A e ei1 , . . . , eini vetores linearmente independentes de Eλi , i = 1, . . . , k. Então
e11 , . . . , e1n1 , . . . , ek1 , . . . , eknk são linearmente independentes.

5.2 Diagonalização de Matrizes


Seja A uma matriz quadrada de ordem n.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


5.2. Diagonalização de Matrizes 79

Definição 5.2.1
Chamamos multiplicidade algébrica do valor próprio λ0 de A, e representamos por
ma (λ0 ), à multiplicidade de λ0 como raiz do polinómio caracterı́stico de A.

Claramente, a multiplicidade algébrica de um valor próprio é maior ou igual a 1. Uma


vez que o polinómio caracterı́stico de A tem grau n, a soma das multiplicidades algébricas
dos valores próprios de A é menor ou igual a n. Esta soma é estritamente inferior a n se e
só se o polinómio caracterı́stico possuir raı́zes complexas não reais.

Exemplo 5.2.2
Seja  
0 0 0
A= 0 0 1 .
0 −1 −1
O polinómio caracterı́stico de A é p(λ) = det(A−λI3 ) = −λ (λ2 + λ + 1). Assim, o único
valor próprio de A é 0 e ma (0) = 1. Notemos que, neste caso, a soma das multiplicidades
algébricas dos valores próprios é 1 < 3.

Exemplo 5.2.3
Seja  
1 1 0
A =  0 3 0 .
0 0 3
O polinómio caracterı́stico de A é p(λ) = det(A−λI3 ) = (1−λ)(3−λ)2 . Assim, os valores
próprios de A são 1 e 3 com ma (1) = 1 e ma (3) = 2. Neste caso ma (1) + ma (3) = 3.

Exemplo 5.2.4
Consideremos  
2 1 0 0
 0 2 0 0 
A= .
 0 0 0 −1 
0 0 1 0
O polinómio caracterı́stico de A é

p(λ) = (2 − λ)2 (λ2 + 1) .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


80 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas

O único valor próprio de A é 2 e ma (2) = 2 < 4.

Definição 5.2.5
Chamamos multiplicidade geométrica do valor próprio λ0 de A, e representamos por
mg (λ0 ), à dimensão do subespaço próprio Eλ0 .

Uma vez que, se λ0 é valor próprio de A, Eλ0 6= {0Rn }, a multiplicidade geométrica de


um valor próprio é maior ou igual a 1.

Exemplo 5.2.6
Relativamente à matriz A do Exemplo 5.1.11, observe-se que as multiplicidades algébrica
e geométrica do valor próprio 0 coincidem e são iguais a 1. Também as multiplicidades
algébrica e geométrica do valor próprio 2 coincidem e, neste caso, são iguais a 2.

Exemplo 5.2.7

Relativamente à matriz A do Exemplo 5.2.4, temos mg (2) = 1 < 2 = ma (2) (exercı́cio:


mostre que mg (2) = 1).

O resultado seguinte estabelece uma relação entre as multiplicidades algébrica e geométrica


de um valor próprio de uma matriz.

Teorema 5.2.8
A multiplicidade geométrica de um valor próprio de A é menor ou igual à sua multipli-
cidade algébrica.

Uma consequência imediata do teorema anterior é a seguinte.

Corolário 5.2.9
Se um valor próprio tem multiplicidade algébrica 1 então também tem multiplicidade
geométrica 1.

Apresentamos de seguida um conceito fundamental no desenvolvimento desta secção.

Definição 5.2.10
Dizemos que uma matriz quadrada A de ordem n é diagonalizável se A for semelhante
a uma matriz diagonal.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


5.2. Diagonalização de Matrizes 81

Sejam A, D e P matrizes quadradas de ordem n com D diagonal,


 
λ1 0 ... 0
 0 λ2 . . . 0 
D =  .. ..  , (5.3)
 
.. . .
 . . . . 
0 0 . . . λn

e P = [P1 · · · Pn ], onde Pi representa a i-ésima coluna de P . Verifica-se facilmente que

AP = P D ⇔ APi = λi Pi , i = 1, . . . , n.

Uma vez que P é regular se e só se as colunas de P são linearmente independentes, concluimos
que A é diagonalizável se e só se A tem n vetores próprios linearmente independentes. Tendo
em conta o Corolário 5.1.18, obtemos o seguinte resultado.

Teorema 5.2.11
Uma matriz quadrada A é diagonalizável se e só se existir uma base de Rn formada
por vetores próprios de A, isto é, se e só se a soma das multiplicidades geométricas dos
valores próprios de A for n.

Observação 5.2.12
Do teorema anterior resulta que A é diagonalizável se e só se:
P
(1) λ0 ∈Λ ma (λ0 ) = n, onde Λ representa o conjunto dos valores próprios distintos de
Ae

(2) ma (λ0 ) = mg (λ0 ), para todo o valor próprio λ0 de A.

Se alguma das condições (1) ou (2) não se verificar, então A não é diagonalizável. Notemos
ainda que a condição (1) é equivalente ao polinómio caracterı́stico de A ter todas as raı́zes
reais.
Se A é uma matriz com n valores próprios distintos, então a multiplicidade algébrica, e,
por conseguinte, a multiplicidade geométrica, de cada valor próprio é 1. Tem-se, então, a
seguinte consequência do Teorema 5.2.11.

Corolário 5.2.13
Se A é uma matriz quadrada de ordem n com n valores próprios distintos, então A é
diagonalizável.

Se A é uma matiz diagonalizável de ordem n, obtemos uma base b de Rn formada por


vetores próprios de A “juntando” as bases de todos os subespaços próprios de A. De facto,

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


82 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas

uma vez que, pelo Teorema 5.2.11, a soma das multiplicidades geométricas dos subespaços
próprios de A é n = dim Rn , obtemos exatamente n vetores. Pelo Corolário 5.1.18, esses n
vetores são linearmente independentes e, portanto, formam uma base de Rn . Se P é a matriz
cujas colunas são os vetores próprios da referida base, ou seja, P é a matriz de passagem da
base b para a base canónica de Rn , então P é regular e AP = P D, ou seja, P −1 AP = D,
onde D é a matriz diagonal cujas entradas da diagonal são os valores próprios de A na ordem
dos vetores próprios correspondentes na base de vetores próprios considerada.

Exemplo 5.2.14
A matriz do exemplo 5.1.11 é diagonalizável uma vez que a soma das dimensões dos
seus subespaços próprios é 3, a ordem da matriz. Uma base de R3 formada por vetores
próprios de A obtém-se ”juntando”as bases de E0 e E2 e é, portanto, ((−1, −1, 1), (1, 0, 0), (0, 1, 0)).
Tem-se
D = P −1 AP,
onde  
0 0 0
D= 0 2 0 
0 0 2
e  
−1 1 0
P =  −1 0 1  .
1 0 0

Exemplo 5.2.15
A matriz  
0 1 0
A= 0 0 1 
0 0 1
não é diagonalizável. Com efeito, o polinómio caracterı́stico de A é p(λ) = λ2 (1 −
λ). Assim, os valores proprios de A são 0, com multiplicidade algébrica 2, e 1, com
multiplicidade algébrica 1. Pelo Corolário 5.2.9, dim E1 = 1. Por outro lado, efetuando
alguns cálculos, obtém-se
E0 = {(x, 0, 0) : x ∈ R}.
Como dim E0 = 1, vem dim E0 + dim E1 = 2 < 3. Logo A não é diagonalizável.

Exemplo 5.2.16
Seja A uma matriz de orden n. Vamos mostrar que se A é diagonalizável então:

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


5.2. Diagonalização de Matrizes 83

1. tr(A) é a soma dos valores próprios de A (contando as multiplicidades)

2. det(A) é o produto dos valores próprios de A (contando as multiplicidades).

3. o termo constante do polinómio caraterı́stico é o produto dos valores próprios de


A (contando as multiplicidades).

Uma vez que A é diagonalizável, existe uma matriz regular P de ordem n tal que
A = P DP −1 , onde D é a matriz em (5.3), sendo λ1 , . . . , λn os valores próprios de A,
contando as multiplicidades. Assim,

1. temos
tr(A) = tr(P DP −1 ) = tr(P −1 P D) = tr(D) = λ1 + · · · + λn .

2. temos

det(A) = det(P DP −1 ) = det(P ) det(D) det(P −1 ) = det(D) = λ1 · · · λn .

3. temos

det(A − λIn ) = det(P DP −1 − λIn ) = det(P (D − λIn )P −1 )


= det(D − λIn ) = (λ − λ1 ) · · · (λ − λn ).

Claramente o termo constante do polinómio p(λ) = (λ − λ1 ) · · · (λ − λn ) é λ1 · · · λn .

Concluimos esta secção com um resultado que será útil no Capı́tulo 7.

Teorema 5.2.17
Seja A uma matriz quadrada simétrica. Então A é diagonalizável e existe uma matriz
ortogonal Q tal que QT AQ é diagonal.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


84 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


6

Transformações Lineares de Rn em Rm

6.1 Introdução
Nesta secção vamos considerar funções de um espaço vetorial Rn num espaço vetorial Rm
que preservam as operações de adição de vetores e multiplicação por um escalar.

Definição 6.1.1
Uma função f de Rn em Rm diz-se uma aplicação linear, uma transformação linear
ou um homomorfismo, de Rn em Rm se forem satisfeitas as seguintes condições:

i) f (X + Y ) = f (X) + f (Y ), ∀X, Y ∈ Rn

ii) f (αX) = αf (X), ∀α ∈ R, ∀X ∈ Rn .

Exemplo 6.1.2

A aplicação f : R3 → R2 definida por

f (x, y, z) = (x, y + z)

é uma transformação linear de R3 em R2 . De facto, dados (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ R3 e


λ ∈ R quaisquer, temos

f ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = f (x1 + x2 , y1 + y2 , z1 + z2 )


= (x1 + x2 , y1 + y2 + z1 + z2 )
= (x1 , y1 + z1 ) + (x2 , y2 + z2 )
= f (x1 , y1 , z1 ) + f (x2 , y2 , z2 ).

85
86 6. Transformações Lineares de Rn em Rm

Também,

f (α(x1 , y1 , z1 )) = f (αx1 , αy1 , αz1 ) = (αx1 , αy1 + αz1 )


= α(x1 , y1 + z1 ) = αf (x1 , y1 , z1 ).

Exemplo 6.1.3

A aplicação f : R2 → R2 definida por

f (x, y) = (x + 1, y)

não é uma transformação linear. Basta notar que, por exemplo,

f ((1, 1) + (0, 1)) = f (1, 2) = (2, 2)

enquanto que
f (1, 1) + f (0, 1) = (2, 1) + (1, 1) = (3, 2) .

Uma transformação linear de Rn em Rn diz-se um endomorfismo de Rn .

Se f é uma transformação linear de Rn em Rm , X1 , . . . , Xn ∈ Rn e α1 , . . . , αn ∈ R,


resulta facilmente das condições i) e ii) na Definição 6.1.1 que

f (α1 X1 + · · · + αn Xn ) = α1 f (X1 ) + · · · + αn f (Xn ). (6.1)

Uma vez que qualquer vetor de Rn se escreve como combinação linear dos vetores de uma
base, temos, então, o seguinte resultado.

Proposição 6.1.4
Uma transformação linear de Rn em Rm fica definida quando se conhecem as imagens
dos vetores de uma base de Rn .

Exemplo 6.1.5

Seja f uma transformação linear de R3 em R2 . Sabendo que f (1, 0, 0) = (1, 2), f (0, 1, 1) =
(1, 0) e f (0, 0, 1) = (1, 1), pretendemos determinar f (x, y, z). Notemos que
((1, 0, 0), (0, 1, 1), (0, 0, 1)) é uma base R3 . O vetor (x, y, z) ∈ R3 escreve-se como com-
binação linear dos vetores desta base da seguinte forma:

(x, y, z) = x(1, 0, 0) + y(0, 1, 1) + (z − y)(0, 0, 1) .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


6.1. Introdução 87

Então, tendo em conta (6.1), temos

f (x, y, z) = f (x(1, 0, 0) + y(0, 1, 1) + (z − y)(0, 0, 1))


= xf (1, 0, 0) + yf (0, 1, 1) + (z − y)f (0, 0, 1)
= x(1, 2) + y(1, 0) + (z − y)(1, 1)
= (x + z, 2x + z − y).

Vamos de seguida mostrar que uma transformação linear de Rn em Rm pode ser repre-
sentada por uma matriz A de ordem m × n.
Seja f uma transformação linear de Rn em Rm . Sejam b1 = (e1 , . . . , en ) e b2 = (f1 , . . . , fm )
as bases canónicas de Rn e Rm , respetivamente, e X = (x1 , . . . , xn ) ∈ Rn . Denotemos
f (ei ) = (α1i , . . . , αmi ), i = 1, . . . , n. Então,

f (X) = f (x1 e1 + · · · + xn en )
= x1 f (e1 ) + · · · + xn f (en )
= x1 (α11 f1 + · · · + αm1 fm ) + · · · + xn (α1n f1 + · · · + αmn fm )
= (x1 α11 + x2 α12 + · · · + xn α1n )f1 + · · · + (x1 αm1 + x2 αm2 + · · · + xn αmn )fm .

Logo, fazendo Y = f (X) = (y1 , . . . , ym ), temos



 y1 = x1 α11 + x2 α12 + · · · + xn α1n

.. ,
 .
m = x1 αm1 + x2 αm2 + · · · + xn αmn
 y

sistema que é representado matricialmente por

Y = AX,

com      
α11 · · · α1n x1 y1
A =  ... .. ..  , X =  ..  e Y =  ..  .

. .   .   . 
αm1 · · · αmn xn ym
A matriz A diz-se a matriz da transformação linear f . Notemos que a i-ésima coluna
de A é o vetor f (ei ).
Observemos que poderı́amos obter uma matriz representativa da transformação linear
f considerando bases b1 de Rn e b2 de Rm com pelo menos uma delas diferente da base
canónica. Embora a dedução de uma tal matriz seja análoga à efetuada anteriormente com
as bases canónicas, tendo em conta os objetivos deste curso, neste texto focamo-nos apenas
no caso considerado.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


88 6. Transformações Lineares de Rn em Rm

Exemplo 6.1.6

Seja f : R3 → R3 o endomorfismo definido por f (x, y, z) = (x + 2z, y, y). Temos

f (1, 0, 0) = (1, 0, 0)
f (0, 1, 0) = (0, 1, 1)
f (0, 0, 1) = (2, 0, 0).

Assim, a matriz de f é a matriz A do Exemplo 4.7.7:


 
1 0 2
A= 0 1
 0 .
0 1 0

Temos    
x x + 2z
A y  =  y .
z y

Definição 6.1.7
Chamamos núcleo de uma transformação linear f : Rn → Rm , e representamos por Nf ,
a
Nf = {X ∈ Rn : f (X) = 0Rm } .

Exemplo 6.1.8

Seja f : R3 → R2 a transformação linear definida por

f (x, y, z) = (x + y, x − y) .

Uma vez que


f (x, y, z) = (0, 0) ⇔ x = 0 ∧ y = 0,
temos
Nf = {(0, 0, z) : z ∈ R} .

Definição 6.1.9
Chamamos imagem de uma transformação linear f : Rn → Rm , e representamos por

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


6.1. Introdução 89

Imf , a

Imf = {f (X) : X ∈ Rn }
= {Y ∈ Rm |∃X ∈ Rn : Y = f (X)} .

Exemplo 6.1.10

Seja f : R3 → R3 o endomorfismo considerado no Exemplo 6.1.6. Temos

Imf = {(x + 2z, y, y) : x, y, z ∈ R} .

Observemos que Imf = CA , sendo A a matriz do Exemplo 4.7.7.

Observação 6.1.11
Verifica-se facilmente que, se f é uma transformação linear de Rn em Rm e A é a matriz
de f, então o núcleo e a imagem de f são o núcleo e o espaço coluna de A, respetivamente.
Assim, tendo em conta o Teorema 4.7.4 e a definição de espaço coluna de A, concluimos
que Nf e Imf são subespaços vetoriais de Rn e Rm , respetivamente. Do Teorema 4.7.12,
tem-se
dim Rn = dim Nf + dim Imf .

Definição 6.1.12
Seja f uma transformação linear de Rn em Rm .

1. f diz-se injetiva se

∀X, Y ∈ Rn : X 6= Y ⇒ f (X) 6= f (Y ) .

2. f diz-se sobrejetiva se

∀Y ∈ Rm ∃X ∈ Rn : Y = f (X) ,

ou seja, se Imf = Rm , ou ainda, se dim Imf = m.

Teorema 6.1.13

Uma transformação linear f de Rn em Rm é injetiva se e só se Nf = {0Rn }.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


90 6. Transformações Lineares de Rn em Rm

Demonstração.
(⇒) Suponhamos que existe X ∈ Rn tal que X 6= 0Rn e X ∈ Nf . Então f (X) =
f (0Rn ) = 0Rm . Donde f não seria injetiva. Logo, f injetiva implica Nf = {0Rn }.
(⇐) Suponhamos que f não é injetiva, isto é, existem X, Y ∈ Rn tais que X 6= Y e
f (X) = f (Y ). Então f (X) − f (Y ) = f (X − Y ) = 0Rm e, portanto, 0Rn 6= X − Y ∈ Nf .
Donde Nf 6= {0Rn }. Logo, Nf = {0Rn } implica f injetiva.

Notemos que dim Nf = 0 se e só se Nf = {0Rn }.

Exemplo 6.1.14
Seja f o endomorfismo considerado nos Exemplos 6.1.6 e 6.1.10. Temos dim Imf = 2 <
3 = dim R3 . Logo f não é sobrejetiva. Tendo em conta a Observação 6.1.11, temos
dim Nf = dim R3 − dim Imf = 1. Pelo Teorema 6.1.13, concluimos que f não é injetiva.

Resulta do Teorema 6.1.13 e da Observação 6.1.11 que um endomorfismo f de Rn é inje-


tivo se e só se é sobrejetivo. Mais, qualquer aplicação linear de Rn em Rm simultaneamente
injetiva e sobrejetiva, é um endomorfismo de Rn (isto é, n = m). Um endomorfismo de Rn
injetivo (e, portanto, sobrejetivo) diz-se um isomorfismo de Rn .

6.2 Valores Próprios e Vetores Próprios de um Endo-


morfismo
Seja f um endomorfismo de Rn .

Definição 6.2.1

O vetor X ∈ Rn \{0Rn } diz-se um vetor próprio do endomorfismo f se existir λ ∈ R


tal que f (X) = λX. Ao escalar λ chama-se valor próprio de f . Por outras palavras, λ
é um valor próprio de f se existir X ∈ Rn \{0Rn } tal que f (X) = λX.

Exemplo 6.2.2

Consideremos o endomorfismo f de R3 definido por

f (x, y, z) = (2x, 3y, 3z) .

Temos que f (0, 1, 1) = (0, 3, 3) = 3(0, 1, 1). Assim, 3 é um valor próprio de f e (0, 1, 1)
é um vetor próprio de f associado ao valor próprio 3.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


6.2. Valores Próprios e Vetores Próprios de um Endomorfismo 91

Definição 6.2.3
Se λ ∈ R é um valor próprio de um endomorfismo f de Rn , o subespaço vetorial

Eλ = {X ∈ Rn : f (X) = λX},

diz-se o subespaço próprio de f associado ao valor próprio λ.

Exemplo 6.2.4
Relativamente ao endomorfismo definido no Exemplo 6.1.10, temos

E2 = {(x, y, z) ∈ R3 : f (x, y, z) = 2(x, y, z)}


= {(x, y, z) ∈ R3 : (x + 2z, y, y) = 2(x, y, z)}
= {(x, x, x) : x ∈ R}

Assim ((1, 1, 1)) é uma base de E2 e dimE2 = 1.

Definição 6.2.5
Dizemos que um endomorfismo f de Rn é diagonalizável se existir uma base de Rn
formada por vetores próprios de f.

Observação 6.2.6
Seja A a matriz de um endomorfismo f. Verifica-se facilmente que λ é valor próprio de f
se e só se λ é valor próprio de A. Analogamente, X é vetor próprio de f associado ao valor
próprio λ se e só se X é vetor próprio de A associado ao valor próprio λ. Tendo em conta
o Teorema 5.2.11, concluimos, então, que um endomorfismo f de Rn é diagonalizável se
e só se a matriz A do endomorfismo é diagonalizável.

Se f é diagonalizável e A é a matriz do endomorfismo, então existe uma matriz não


singular P tal que
D = P −1 AP,
com D diagonal. As colunas de P são os vetores de uma base b de Rn formada por vetores
próprios de f, ou seja, P é a matriz de passagem da base b para a base canónica de Rn .
As entradas da diagonal de D são os valores próprios de f , na ordem dos vetores próprios
correspondentes na base de vetores próprios considerada. A matriz D diz-se a matriz diagonal
representativa do endomorfismo f na base b.
Temos
Y = AX ⇔ Y = P DP −1 X ⇔ P −1 Y = DP −1 X ⇔ Yb = DXb ,

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


92 6. Transformações Lineares de Rn em Rm

onde Xb = P −1 X e Yb = P −1 Y são as coordenadas de X e Y na base b.

Exemplo 6.2.7

O endomorfismo f de R3 definido por

f (x, y, z) = (2x + 2z, 2y + 2z, 0)

é representado pela matriz A do exemplo 5.1.11. Mostramos no Exemplo 5.2.14 que esta
matriz é diagonalizável. De facto, temos
 
0 0 0
D =  0 2 0  = P −1 AP,
0 0 2

onde P é a matriz de passagem da base b de vetores próprios para a base canónica:


 
−1 1 0
P = −1
 0 1 .
1 0 0

Se Xb e Yb são as coordenadas de X ∈ R3 e Y = f (X) na base b, ou seja, X = P Xb e


Y = P Yb , tem-se
Yb = DXb .

Exemplo 6.2.8

Seja f o endomorfismo de R3 tal que


 
1 0 0
D =  0 −1 0 
0 0 2

é a matriz representativa de f na base de vetores próprios

b = ((1, 0, 0), (1, 1, 0), (1, 0, 1)).

Vamos determinar f (x, y, z).


Uma vez que, para X ∈ R3 e Y = f (X), se tem

Yb = DXb ,

onde Xb e Yb são as coordenadas de X e Y na base b, respetivamente, vamos começar


por determinar as coordenadas Xb na base b de um vetor X = (x, y, z) de R3 . Verifica-se

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


6.2. Valores Próprios e Vetores Próprios de um Endomorfismo 93

facilmente, eventualmente resolvendo um sistema de equações lineares, que

(x, y, z) = (x − y − z)(1, 0, 0) + y(1, 1, 0) + z(1, 0, 1)

e, portanto, Xb = (x − y − z, y, z). Então


    
1 0 0 x−y−z x−y−z
Yb = DXb =  0 −1 0   y = −y .
0 0 2 z 2z

Logo,

Y = f (x, y, z) = (x − y − z)(1, 0, 0) − y(1, 1, 0) + 2z(1, 0, 1) = (x − 2y + z, −y, 2z).

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


94 6. Transformações Lineares de Rn em Rm

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


7

Formas Quadráticas

7.1 Introdução
Definição 7.1.1
Chama-se forma quadrática de Rn a uma função de Rn em R definida por

f (x1 , . . . , xn ) = a11 x21 + 2a12 x1 x2 + · · · + 2a1n x1 xn +


+ a22 x22 + 2a23 x2 x3 + · · · + 2a2n x2 xn +
+ ···+
+ an−1,n−1 x2n−1 + 2an−1,n xn−1 xn +
+ ann x2n ,

com aij ∈ R, para i, j = 1, . . . , n, j ≥ i.

Matricialmente, tem-se
 

  x 1


f (x1 , . . . , xn ) = x1 · · · xn A · · · ,
  (7.1)
xn

onde  
a11 a12 ··· a1,n−1 a1n

 a12 a22 ··· a2,n−1 a2n 

A=
 .. .. .. .. .. 
. . . . . 
 
 a1,n−1 a2,n−1 · · · an−1,n−1 an−1,n 
a1n a2n · · · an−1,n ann
é uma matriz simétrica de ordem n.
Assim, a toda a forma quadrática está associada uma matriz simétrica. Reciprocamente,
a toda a matriz simétrica A de ordem n está associada a forma quadrática de Rn definida
por (7.1).

95
96 7. Formas Quadráticas

Exemplo 7.1.2

À forma quadrática de R3 definida for

f (x, y, z) = x2 + 2xy + 4xz + z 2

está associada a matriz  


1 1 2
A =  1 0 0 .
2 0 1
Temos  

  x
f (x, y, z) = x y z A y  .

z

Considerem-se as formas quadráticas de Rn definidas por

f (x1 , . . . , xn ) = |X T AX|, (7.2)

e
g(y1 , . . . , yn ) = |Y T BY |,
 T  T
onde A e B são matrizes de ordem n simétricas, X = x1 · · · xn e Y = y1 · · · yn .

Definição 7.1.3
As formas quadráticas f e g dizem-se equivalentes se existir uma matriz regular Q tal
que B = QT AQ.

Nestas circunstâncias, para Y = Q−1 X (ou seja, X = QY ), tem-se

f (x1 , . . . , xn ) = |X T AX| = |(QY )T A(QY )|


= |Y T (QT AQ)Y | = |Y T BY |
= g(y1 , . . . , yn ).

A matriz Q é a matriz de mudança da base q = (q1 , . . . , qn ) para a base canónica de Rn ,


onde qi é o vetor de Rn correspondente à i-ésima coluna de Q. Assim, o vetor (y1 , . . . , yn )
representa as coordenadas de (x1 , . . . , xn ) ∈ Rn na base q.
Uma vez que, pelo Teorema 5.2.17, se A é uma matriz real simétrica, existe uma matriz
ortogonal Q tal que QT AQ é diagonal, tem-se o seguinte resultado.

Teorema 7.1.4
Seja f uma forma quadrática de Rn e A a matriz simétrica associada. Então f é equiva-

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


7.1. Introdução 97

lente a uma forma quadrática do tipo

g(y1 , . . . , yn ) = β1 y12 + · · · + βn yn2


   T
= y1 · · · yn D y1 · · · yn ,

onde
D = QT AQ = diag(β1 , . . . , βn ),
com Q ortogonal.

A matriz D = QT AQ no teorema anterior é semelhante (via a matriz ortogonal Q) à


matriz A da forma quadrática f, e, portanto, os elementos da diagonal de D são os valores
próprios de A. Os vetores correspondentes às colunas da matriz Q são vetores próprios de A.

Observação 7.1.5

A forma quadrática g = g(y1 , . . . , yn ) no Teorema 7.1.4 diz-se uma forma reduzida de


f (observe-se que, não estando imposta uma ordenação dos β 0 s, a forma reduzida não é,
em geral, única).

Exemplo 7.1.6

Consideremos a forma quadrática f de R3 definida por

f (x1 , x2 , x3 ) = x21 + 4x1 x2 + 4x22 + 6x23 .

Pretendemos encontrar uma forma reduzida de f . A matriz da forma quadrática é


 
1 2 0
A= 2 4 0 .
0 0 6

Temos    T
f (x1 , x2 , x3 ) = x1 x2 x3 A x1 x2 x3 .

Os valores próprios de A são as raı́zes da equação det(A−λI3 ) = 0, a saber 0, 5, 6. Assim,


f é equivalente à forma reduzida g definida por

g(y1 , y2 , y3 ) = 5y12 + 6y22 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


98 7. Formas Quadráticas

7.2 Classificação de Formas Quadráticas


Definição 7.2.1
Uma forma quadrática f de Rn diz-se:

1. definida positiva se f (X) > 0 ∀X ∈ Rn \{0};

2. definida negativa se f (X) < 0 ∀X ∈ Rn \{0};

3. semi-definida positiva se f (X) ≥ 0 ∀X ∈ Rn ;

4. semi-definida negativa se f (X) ≤ 0 ∀X ∈ Rn ;

5. indefinida se ∃X, Y ∈ Rn : f (X) > 0 e f (Y ) < 0.

Observe-se que, de acordo com a definição, uma forma quadrática definida positiva (res-
petivamente negativa) é semi-definida positiva (respetivamente negativa).

7.2.1 Classificação de Formas Quadráticas recorrendo a Valores


Próprios
Vamos de seguida ver que uma forma quadrática pode ser classificada analisando os sinais
dos valores próprios da matriz que lhe está associada. Comecemos por considerar alguns
exemplos com formas quadráticas na forma reduzida.

Exemplo 7.2.2

Consideremos a forma quadrática g de R3 definida por

g(x1 , x2 , x3 ) = 2x21 + 4x22 + 2x23 .

Notemos que g está na forma reduzida. Assim, a matriz A associada à forma quadrática g
é diagonal e os seus valores próprios são 2, 2, 4, os quais são todos positivos. Claramente,
g(x1 , x2 , x3 ) > 0 ∀(x1 , x2 , x3 ) ∈ R3 \{0R3 }. Logo g é definida positiva.

Exemplo 7.2.3

Consideremos a forma quadrática g de R3 definida por

g(x1 , x2 , x3 ) = 2x21 + 4x22 .

Temos g(x1 , x2 , x3 ) ≥ 0 ∀(x1 , x2 , x3 ) ∈ R3 . Logo g é semi-definida positiva. Por outro


lado, g(0, 0, x3 ) = 0 ∀x3 ∈ R. Logo g é não é definida positiva.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


7.2. Classificação de Formas Quadráticas 99

Exemplo 7.2.4

Consideremos a forma quadrática g de R3 definida por

g(x1 , x2 , x3 ) = 2x21 − 4x22 + x23 .

Temos g(x1 , 0, x3 ) = 2x21 + x23 > 0 ∀x1 , x3 ∈ R com x1 6= 0 ou x3 6= 0. Por outro lado,
g(0, x2 , 0) > 0 ∀x2 ∈ R\{0}. Logo g é indefinida.

Generalizando os exemplos anteriores, temos que, se g é uma forma quadrática definida


por
g(y1 , . . . , yn ) = β1 y12 + · · · + βn yn2 ,
a classificação de g resulta de forma imediata dos sinais de β1 , . . . .βn , ou seja dos valores
próprios da matriz associada a g, a qual neste caso é diagonal.
Se f é uma forma quadrática de Rn e g é uma sua forma reduzida, temos

f (x1 , . . . , xn ) = g(y1 , . . . , yn ) ,

onde (y1 , . . . , yn ) são as coordenadas de (x1 , . . . , xn ) numa certa base de vetores próprios
da matriz A de f. Assim, a classificação de f pode ser feita a partir da forma reduzida g.
Uma vez que as matrizes associadas a f e à sua forma reduzida são semelhantes, então estas
matrizes têm os mesmos valores próprios. Logo, a classificação de f pode ser feita em função
dos valores próprios da matriz que lhe está associada.

Observação 7.2.5
Assim, uma forma quadrática f de Rn com matriz A é:

1. definida positiva se todos os valores próprios de A são positivos;

2. semi-definida positiva se todos os valores próprios de A são não negativos;

3. definida negativa se todos os valores próprios de A são negativos;

4. semi-definida negativa se todos os valores próprios de A são não positivos;

5. indefinida se A tem pelo menos um valor próprio positivo e um valor próprio


negativo.

Exemplo 7.2.6

Consideremos a forma quadrática f de R3 definida no Exemplo 7.1.6. Conforme obser-


vado neste exemplo, os valores próprios da matriz A associada a f são 0, 5, 6 e a forma

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


100 7. Formas Quadráticas

reduzida g de f é definida por

g(y1 , y2 , y3 ) = 5y12 + 6y22 .

A forma quadrática f é semi-definida positiva uma vez que todos os valores próprios de
A são não negativos. De facto, temos g(y1 , y2 , y3 ) ≥ 0 ∀(y1 , y2 , y3 ) ∈ R3 , o que implica
f (x1 , x2 , x3 ) ≥ 0 ∀(x1 , x2 , x3 ) ∈ R3 .
A forma quadrática f não é definida positiva pois 0 é valor próprio de A. De facto,
temos g(0, 0, y) = 0, para todo o y ∈ R, e, portanto existem vetores não nulos X ∈ R3
tais que f (X) = 0.

Exemplo 7.2.7

Consideremos a forma quadrática f de R3 definida por

f (x1 , x2 , x3 ) = x21 + x22 + 4x1 x2 + 3x2.


3.

A matriz A associada à forma quadrática f é


 
1 2 0
A= 2  1 0 .
0 0 3

Verifica-se facilmente que A tem valores próprios 3, −1, onde 3 tem multiplicidade
algébrica 2 e −1 tem multiplicidade algébrica 1. Como A tem dois valores próprios
com sinais contrários, concluimos que A é indefinida.

7.2.2 Classificação de Formas Quadráticas recorrendo a Menores


Principais
Definição 7.2.8
Chama-se menor principal de uma matriz A de ordem n, e representa-se por ∆i , ao
determinante da submatriz quadrada de A obtida eliminando as últimas n − i linhas e
as últimas n − i colunas.

A classificação de uma forma quadrática pode ser efetuada de forma alternativa a partir
da análise do sinal dos menores principais da matriz associada. Apresentamos de seguida,
sem demonstrar, esta classificação.

Observação 7.2.9
Seja f uma forma quadrática de Rn com matriz associada A e sejam ∆i , i = 1, . . . , n,

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


7.2. Classificação de Formas Quadráticas 101

os seus menores principais. Então f é:

1. definida positiva se ∆i > 0 para todo i = 1, . . . , n;

2. semi-definida positiva se ∆i ≥ 0 para todo i = 1, . . . , n;

3. definida negativa se (−1)i ∆i > 0 para todo i = 1, . . . , n, ou seja, se ∆i é positivo


para i par e negativo para i ı́mpar.

4. semi-definida negativa se se (−1)i ∆i ≥ 0 para todo i = 1, . . . , n;

5. indefinida se nenhum dos casos anteriores se verifica.

Observe-se que este método de classificação de uma forma quadrática pode ser conveniente
por não envolver o cálculo das raı́zes de um polinómio, ao contrário da classificação de uma
forma quadrática recorrendo aos valores próprios, que requer o cálculo das raı́zes do polinómio
caraterı́stico.

Exemplo 7.2.10

Consideremos a forma quadrática f de R3 definida por

f (x1 , x2 , x3 ) = 2x21 − 4x1 x2 + 4x22 − 2x2 x3 + 2x23 .

A matriz da forma quadrática é


 
2 −2 0
A =  −2 4 −1  .
0 −1 2

Temos

2 −2
∆1 = |2| = 2 > 0; ∆2 = =4>0
−2 4


2 −2 0

∆3 = −2 4 −1 = 6 > 0.
0 −1 2

Assim, concuimos que a forma quadrática f é definida positiva.

Exemplo 7.2.11

Consideremos a forma quadrática f de R3 definida no Exemplo 7.2.7 com matriz asso-

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


102 7. Formas Quadráticas

ciada  
1 2 0
A =  2 1 0 .
0 0 3
Temos

1 2
∆1 = |1| = 1 > 0; ∆2 = = −3 < 0
2 1


1 2 0

∆3 = 2 1 0 = −9 < .

0 0 3

Concluimos assim que f é indefinida. Observemos que o facto de se ter ∆1 > 0 e ∆2 < 0
permite desde logo concluir que f é semi-definida negativa ou indefinida.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


8

Aplicações ao Estudo de Extremos de


Funções

Neste capı́tulo começamos por recordar alguns resultados relativos ao estudo de extremos
de funções f : Df ⊆ Rn → R definidas num aberto de Rn . De seguida vamos ver como os
resultados estudados nos capı́tulos anteriores podem ser usados no problema da determinação
dos extremos de uma função.

8.1 Introdução
Apresentamos de seguida os conceitos de máximo e mı́nimo de uma função.

Definição 8.1.1
Sejam f : Df ⊆ Rn → R e X0 ∈ Df . Diz-se que

(i) f possui um máximo local, ou relativo, em X0 ∈ Df se existir uma vizinhança


V de X0 tal que, para todo X em V ∩ Df , se tem f (X) ≤ f (X0 );

(ii) f possui um mı́nimo local, ou relativo, em X0 ∈ Df se existir uma vizinhança


V de X0 tal que, para todo X em V ∩ Df , se tem f (X) ≥ f (X0 );

(iii) Se a desigualdade em (i) (respetivamente (ii)) for válida para todos os pontos
X ∈ Df , dizemos que f tem um máximo (respetivamente mı́nimo) global, ou
absoluto, em X0 .

Quando uma função f tem um máximo ou um mı́nimo local (respetivamente global)


num ponto, dizemos que f tem um extremo local (respetivamente global) nesse ponto.
Se, na Definição 8.1.1, a desigualdade em (i) (respetivamente (ii)) for estrita para todo o
X ∈ Df ∩ V \ {X0 }, dizemos que o respetivo extremo é estrito.
Um ponto X0 ∈ Df onde ocorre um extremo de f diz-se um extremante de f . Em
particular, se f tem um máximo (respetivamente mı́nimo) em X0 , dizemos que X0 é um

103
104 8. Aplicações ao Estudo de Extremos de Funções

maximizante (respetivamente minimizante) de f .


Relembremos que, no caso de uma função f real de uma variável real, é condição ne-
cessária para a função f ter um extremo num ponto x0 que ou não exista a primeira derivada
de f em x0 ou, no caso de existir, seja nula. A situação é semelhante para o caso de funções
reais de duas ou mais variáveis reais.

Definição 8.1.2
Seja f : Df ⊆ Rn → R, onde Df é um aberto de Rn . Um ponto X0 ∈ Df diz-se um
ponto crı́tico de f se cada uma das derivadas parciais de f em X0 ou não existe ou é
zero.

No caso de f ser diferenciável, como existem todas as derivadas parciais de primeira


ordem em Df , os pontos crı́ticos de f são aqueles em que estas derivadas parciais se anulam.
Assim, neste caso, sendo X0 um ponto crı́tico de f , o hiperplano tangente ao gráfico de f
em (X0 , f (X0 )) é “horizontal”, isto é, é da forma z = f (X0 ).

Teorema 8.1.3
Seja f : Df ⊆ Rn → R uma função definida num aberto Df de Rn . Se f tem um máximo
ou um mı́nimo local em X0 ∈ Df então X0 é um ponto crı́tico de f .

O teorema anterior estabelece que, se uma função f tem um extremo local em X0 , então
X0 é um ponto crı́tico de f . No entanto, X0 pode ser ponto crı́tico de f sem que haja extremo
em X0 . Ou seja, X0 ser ponto crı́tico de f é uma condição necessária, mas não suficiente,
para a existência de extremo em X0 .

Exemplo 8.1.4

A função f : R2 → R definida por

f (x, y) = x3 + y 3

tem um ponto crı́tico em (0, 0), uma vez que ∂f


∂x
(0, 0) = ∂f
∂y
(0, 0) = 0. No entanto f não
tem extremo em (0, 0) uma vez que, para y > 0, temos f (0, y) > 0 = f (0, 0) e, para
y < 0, temos f (0, y) < 0 = f (0, 0).

8.2 Extremos de Funções e a Matriz Hesseana


No caso de funções reais de uma variável real, suficientemente deriváveis, o estudo do sinal das
derivadas de ordem superior a um permite determinar a existência ou não de extremo num
ponto crı́tico da função. Existem resultados análogos para funções diferenciáveis de várias
variáveis. Iremos aqui apresentar apenas resultados que envolvem as derivadas parciais de
segunda ordem da função. Nesse sentido, vamos considerar funções de classe C 2 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


8.2. Extremos de Funções e a Matriz Hesseana 105

Definição 8.2.1

Seja f : Df ⊆ Rn → R uma função de classe C 2 e X0 ∈ Df . Chamamos Matriz


Hesseana de f em X0 à matriz quadrada de ordem n
 
∂2f ∂2f
2 (X 0 ) . . . ∂xn ∂x1
(X 0 )
 ∂x1 . . . 
Hessf (X0 ) = 
 .. .. .. .

∂2f ∂2f
∂x1 ∂xn
(X0 ) . . . ∂x2
(X0 )
n

Por outras palavras, a matriz Hesseana de f em X0 é a matriz quadrada de ordem n


2f
cuja entrada na linha i e coluna j é ∂x∂i ∂x j
(X0 ).

Se f é uma função de classe C 2 , o Teorema de Schwarz garante que a matriz Hesseana de


f em X0 , Hessf (X0 ), é simétrica e, portanto, é a matriz associada a uma forma quadrática,
a qual designamos por D2 f (X0 ).

Obtemos assim o seguinte resultado.

Teorema 8.2.2

Sejam f : Df ⊆ Rn → R uma função de classe C 2 definida num aberto Df ⊆ Rn e X0


um ponto crı́tico de f .

1. a. Se D2 f (X0 ) é definida positiva, então f tem mı́nimo local em X0 ;


b. Se f tem um mı́nimo local em X0 , então D2 f (X0 ) é semi-definida positiva.

2. a. Se D2 f (X0 ) é definida negativa, então f tem máximo local em X0 ;


b. Se f tem um máximo local em X0 , então D2 f (X0 ) é semi-definida negativa.

3. Se D2 f (X0 ) é indefinida, então f não tem extremo em X0 .

Notemos que se D2 f (X0 ) for semi-definida positiva (respetivamente semi-definida ne-


gativa) mas não for definida positiva (respetivamente definida negativa), podemos apenas
concluir que, se f tiver extremo em X0 , então esse extremo é um mı́nimo (respetivamente
máximo). Pode no entanto ocorrer que f não tenha extremo em X0 .

Apresentamos nas secções seguintes duas reformulações do Teorema 8.2.2 que derivam
do facto da classificação de uma forma quadrática poder ser efetuada quer em função dos
valores próprios da matriz simétrica que lhe está associada quer dos seus menores principais
(ver Capı́tulo 7).

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


106 8. Aplicações ao Estudo de Extremos de Funções

8.3 Estudo de Extremos de Funções recorrendo a Va-


lores Próprios
Tendo em conta a classificação de uma forma quadrática em função dos valores próprios da
matriz que lhe está associada, obtemos a seguinte consequência do Teorema 8.2.2. Recor-
demos que uma matriz simétrica de ordem n tem n valores próprios, considerando as suas
multiplicidades.

Corolário 8.3.1

Sejam f : Df ⊆ Rn → R uma função de classe C 2 definida num aberto Df ⊆ Rn e X0 um


ponto crı́tico de f . Denotemos por λ1 , . . . , λn os valores próprios da matriz Hessf (X0 ).

1. a. Se λi > 0 para todo i = 1, . . . , n, então f tem um mı́nimo em X0 ;


b. Se f tem um mı́nimo em X0 , então λi ≥ 0, para todo i = 1, . . . , n.

2. a. Se λi < 0 para todo i = 1, . . . , n, então f tem um máximo em X0 ;


b. Se f tem um máximo em X0 , então λi ≤ 0, para todo i = 1, . . . , n.

3. Se existem i, j ∈ {1, . . . , n} tal que λi < 0 < λj , então f não tem extremo em X0 .

Exemplo 8.3.2

Seja f : R3 → R a função definida por

f (x, y, z) = x2 − xy + y 2 + 2z 2 − z 4 .

Como f é de classe C ∞ , os pontos crı́ticos de f são os pontos onde as derivadas parciais


de primeira ordem de f se anulam. As derivadas parciais de primeira ordem de f são
dadas por
∂f ∂f ∂f
(x, y, z) = 2x − y , (x, y, z) = −x + 2y e (x, y, z) = 4z − 4z 3 .
∂x ∂y ∂z

Estas derivadas anulam-se simultaneamente apenas nos pontos (0, 0, 0), (0, 0, 1) e (0, 0, −1).
Temos  
2 −1 0
Hessf (x, y, z) =  −1 2 0 ,
2
0 0 4 − 12z

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


8.3. Estudo de Extremos de Funções recorrendo a Valores Próprios 107

pelo que  
2 −1 0
Hessf (0, 0, 0) =  −1 2 0 
0 0 4
e  
2 −1 0
Hessf (0, 0, 1) = Hessf (0, 0, −1) =  −1 2 0 .
0 0 −8
Os valores próprios de Hessf (0, 0, 0) são 1, 3 e 4. Como são todos estritamente
positivos, pelo Corolário 8.3.1 concluı́mos que f tem um mı́nimo em (0, 0, 0). Por outro
lado, os valores próprios de Hessf (0, 0, 1) e de Hessf (0, 0, −1) são 1, 3 e −8. Como temos
dois valores próprios com sinais contrários, pelo Corolário 8.3.1 concluı́mos que f não
tem extremo nos pontos (0, 0, 1) e (0, 0, −1).

Exemplo 8.3.3

Consideremos a função f : R3 → R definida por

f (x, y, z) = (x − y)2 + z 2 + z 4 .

Sendo f uma função de classe C ∞ , os pontos crı́ticos de f são os pontos onde as derivadas
parciais de primeira ordem de f se anulam. Temos
∂f ∂f ∂f
(x, y, z) = 2(x − y) , (x, y, z) = −2(x − y) e (x, y, z) = 2z(1 + 2z 2 ) ,
∂x ∂y ∂z
pelo que o conjunto dos pontos crı́ticos de f é

C = {(x, y, z) ∈ R3 : y = x ∧ z = 0} = {(x0 , x0 , 0) : x0 ∈ R} .

Temos  
2 −2 0
Hessf (x, y, z) =  −2 2 0 
2
0 0 2 + 12z
e, portanto, para x0 ∈ R,
 
2 −2 0
Hessf (x0 , x0 , 0) =  −2 2 0  .
0 0 2

Uma vez que a matriz Hesseana não depende do ponto crı́tico, os seus valores próprios
também não. Estes valores próprios são 0, 2 e 4. Uma vez que são maiores ou iguais a
zero e um deles é zero, o Corolário 8.3.1 não nos permite afirmar se f tem ou não um

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


108 8. Aplicações ao Estudo de Extremos de Funções

extremo nos pontos da forma (x0 , x0 , 0). Podemos apenas afirmar que, se tiver extremo,
então esse extremo é um mı́nimo.
Vamos então mostrar, recorrendo à definição, que f tem um mı́nimo nos pontos da
forma (x0 , x0 , 0), com x0 ∈ R. Fixemos x0 ∈ R. Comecemos por notar que f (x0 , x0 , 0) =
0. Tendo em conta que

f (x, y, z) = (x − y)2 + z 2 + z 4 ≥ 0 = f (x0 , x0 , 0)

qualquer que seja (x, y, z) ∈ R3 , concluı́mos que f tem um mı́nimo (global) no ponto
(x0 , x0 , 0).

Exemplo 8.3.4

Consideremos a função f : R3 → R definida por

f (x, y, z) = −3x2 − y 2 − z 2 − 2yz .

Sendo f uma função de classe C ∞ , os pontos crı́ticos de f são os pontos onde as derivadas
parciais de primeira ordem de f se anulam. Temos
∂f ∂f ∂f
(x, y, z) = −6x , (x, y, z) = −2(y + z) e (x, y, z) = −2(z + y) ,
∂x ∂y ∂z
pelo que o conjunto dos pontos crı́ticos de f é

C = {(x, y, z) ∈ R3 : x = 0 ∧ z = −y} = {(0, y0 , −y0 ) : y0 ∈ R} .

Temos  
−6 0 0
Hessf (x, y, z) =  0 −2 −2 
0 −2 −2
e, portanto, para y0 ∈ R,
 
−6 0 0
Hessf (0, y0 , −y0 ) =  0 −2 −2  .
0 −2 −2

Uma vez que a matriz Hesseana não depende do ponto crı́tico, os seus valores próprios
também não. Estes valores próprios são −6, −4 e 0. Uma vez que são maiores ou iguais
a zero e um deles é zero, o Corolário 8.3.1 não nos permite afirmar se f tem ou não um
extremo nos pontos da forma (0, y0 , −y0 ). Podemos apenas afirmar que, se tiver extremo,
então esse extremo é um máximo.

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


8.3. Estudo de Extremos de Funções recorrendo a Valores Próprios 109

Vamos então mostrar, recorrendo à definição, que f tem um máximo nos pontos
da forma (0, y0 , −y0 ), com y0 ∈ R. Fixemos y0 ∈ R. Comecemos por notar que
f (0, y0 , −y0 ) = 0. Tendo em conta que

f (x, y, z) = −3x2 − y 2 − z 2 − 2yz = −3x2 − (y + z)2 ≤ 0 = f (0, y0 , −y0 )

qualquer que seja (x, y, z) ∈ R3 , concluı́mos que f tem um máximo (global) no ponto
(0, y0 , −y0 ).

Exemplo 8.3.5

Seja f : R3 → R uma função de classe C 2 tal que

(i) (0, 0, 0) é ponto crı́tico de f ;

(ii) o polinómio caracterı́stico da matriz Hesseana na origem é p(λ) = −λ3 + 8λ − 6.

Vamos mostrar que f não tem extremo em (0, 0, 0).

Sejam λ1 , λ2 , λ3 os valores próprios da matriz Hesseana de f na origem. O termo


independente do polinómio caracterı́stico é dado pelo produto dos valores próprios, pelo
que λ1 λ2 λ3 = −6. Assim, ou os três valores próprios são negativos ou dois deles são
positivos e o restante negativo. Pode verificar-se que o coeficiente de λ2 no polinómio
caracterı́stico é igual ao simétrico da soma dos valores próprios. Assim, temos que
λ1 + λ2 + λ3 = 0. Logo, tem de haver valores próprios com sinais contrários. Concluı́mos,
assim, que f não tem extremo em (0, 0, 0).

Exemplo 8.3.6

Seja f : R2 → R uma função de classe C 2 tal que

(i) (1, 2) é ponto crı́tico de f ;

(ii) o polinómio caracterı́stico da matriz Hesseana na origem é p(λ) = −λ2 + 5λ + 6.

Vamos verificar se f tem extremo em (1, 2) e, em caso afirmativo, classificá-lo.

Sejam λ1 , λ2 os valores próprios da matriz Hesseana de f em (1, 2). O termo indepen-


dente do polinómio caracterı́stico é o produto dos valores próprios, pelo que λ1 λ2 = 6 > 0.
Assim, os dois valores próprios têm o mesmo sinal. Uma vez que o coeficiente de λ no
polinómio caracterı́stico é igual ao simétrico da soma dos valores próprios, temos que

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


110 8. Aplicações ao Estudo de Extremos de Funções

λ1 + λ2 = −5. Assim, os dois valores próprios são negativos. Concluı́mos então que f
tem um máximo (local) em (1, 2).

8.4 Estudo de Extremos de Funções recorrendo a Me-


nores Principais
Sejam f : Df ⊆ Rn → R uma função de classe C 2 nas variáveis (x1 , . . . , xn ) e X0 ∈ Df . Seja
∆i o menor principal de ordem i da matriz Hessf (X0 ), ou seja, o determinante da submatriz
quadrada de Hessf (X0 ) obtida eliminando as últimas n − i linhas e as últimas n − i colunas.
Temos então,
∂2f ∂2f

∂ 2f ∂x21 (X0 ) (X )
0

∂x2 ∂x1
∆1 = (X ), ∆ =

2 0 2 2
∂ f 2
∂ f
∂x1

∂x ∂x (X0 ) ∂x2
(X0 )
1 2 2


∂2f ∂2f ∂2f

∂x21
(X0 ) ∂x2 ∂x1
(X0 ) ∂x3 ∂x1
(X0 )

∂2f ∂2f ∂2f

∆3 = (X0 ) (X0 ) (X0 ) , . . . , ∆n = |Hessf (X0 )| .
∂x1 ∂x2 ∂x22 ∂x3 ∂x2
2
∂ f 2
∂ f 2
∂ f
(X0 ) (X0 ) (X0 )

∂x1 ∂x3 ∂x2 ∂x3 ∂x2

3

Tendo em conta a classificação de uma forma quadrática em função dos menores principais
da matriz que lhe está associada, obtemos a seguinte consequência do Teorema 8.2.2.

Corolário 8.4.1

Sejam f : Df ⊆ Rn → R uma função de classe C 2 definida num aberto Df ⊆ Rn e


X0 um ponto crı́tico de f . Sejam Hessf (X0 ) a matriz Hesseana de f em X0 e ∆i os
respetivos menores principais.

1. a. Se ∆i > 0 para todo i = 1, . . . , n, então f tem mı́nimo local em X0 ;


b. Se f tem um mı́nimo local em X0 , então ∆i ≥ 0 para todo i = 1, . . . , n.

2. a. Se (−1)i ∆i > 0 para todo i = 1, . . . , n, então f tem máximo local em X0 ;


b. Se f tem um máximo local em X0 , então (−1)i ∆i ≥ 0 para todo i = 1, . . . , n.

3. Se não se verificar ∆i ≥ 0 para todo i = 1, . . . , n nem (−1)i ∆i ≥ 0 para todo


i = 1, . . . , n, então f não tem extremo em X0 .

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


8.4. Estudo de Extremos de Funções recorrendo a Menores Principais 111

Exemplo 8.4.2

Consideremos a função f : R3 → R definida por


2
f (x, y, z) = ex + y 2 − yz + z 2 .

Temos
∂f 2 ∂f ∂f
(x, y, z) = 2xex , (x, y, z) = 2y − z e (x, y, z) = −y + 2z .
∂x ∂y ∂z
Tendo em conta que f é de classe C ∞ , os pontos crı́ticos de f são os pontos onde estas
derivadas parciais se anulam. Assim, (0, 0, 0) é o único ponto crı́tico de f .
Temos  x2 2 
2e + 4x2 ex 0 0
Hessf (x, y, z) =  0 2 −1 
0 −1 2
e, portanto,  
2 0 0
Hessf (0, 0, 0) =  0 2 −1  .
0 −1 2
Os menores principais de Hessf (0, 0, 0) são dados por

∆1 (0, 0, 0) = |2| = 2

2 0
∆2 (0, 0, 0) = =4
0 2

2 0 0

∆3 (0, 0, 0) = 0 2 −1 =6

0 −1 2

Como todos estes menores principais são positivos, concluı́mos pelo Corolário 8.4.1 que
f tem um mı́nimo em (0, 0, 0).

Exemplo 8.4.3

Seja f : R4 → R a função de classe C 2 definida por f (x, y, z, w) = x2 + y 2 − zw. Vamos


verificar se f tem extremo em (0, 0, 0, 0) e, em caso afirmativo, classificá-lo.

Comecemos por notar que a origem é ponto crı́tico de f , pelo que a origem é candidato

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


112 8. Aplicações ao Estudo de Extremos de Funções

a extremante de f . De facto, temos


∂f ∂f
(x, y, z, w) = 2x; (x, y, z, w) = 2y
∂x ∂y
∂f ∂f
(x, y, z, w) = −w; (x, y, z, w) = −z
∂z ∂w
e, portanto
∂f ∂f
(0, 0, 0, 0) = 0; (0, 0, 0, 0) = 0
∂x ∂y
∂f ∂f
(0, 0, 0, 0) = 0; (0, 0, 0, 0) = 0.
∂z ∂w
A matriz Hesseana de f na origem é dada por
 
2 0 0 0
 0 2 0 0 
Hess f (0, 0, 0, 0) =  .
 2 0 0 −1 
2 0 −1 0

Verifica-se facilmente que ∆4 = det Hess f (0, 0, 0, 0) = −4. Uma vez que ∆4 < 0 e
(−1)4 ∆4 < 0, o ponto 3 do Corolário 8.4.1 garante que f não tem extremo em (0, 0, 0, 0).

M. Aguiar, S. Furtado, J.M. Oliveira, H. Reis


Bibliografia

[1] F. R. Agudo, “Introdução à Álgebra Linear e Geometria Analı́tica”, Escolar Editora,


1992.

[2] I. Cabral, C. Perdigão e C. Saiago, “Álgebra Linear”, Escolar Editora, 2010.

[3] F. C. Durão, “Lições de Matemática - Álgebra Linear”, Dept. Matemática Univ. Por-
tucalense, 1992.

[4] J. Fraleigh e R. Beauregard, “Linear Algebra”, Addison Wesley, 1995.

[5] E. Giraldes, V. H. Fernandes e M. P. M. Smith, “Curso de Álgebra Linear e Geometria


Analı́tica”, McGraw-Hill, 1995.

[6] A. Monteiro, “Álgebra Linear e Geometria Analı́tica”, McGraw-Hill, 2001.

113

Das könnte Ihnen auch gefallen