Beruflich Dokumente
Kultur Dokumente
ÁLGEBRA LINEAR
Manuela Aguiar
Susana Furtado
José Manuel Oliveira
Helena Reis
Template Relatório
2017
2
1 Matrizes 5
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Adição de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Multiplicação de uma Matriz por um Escalar . . . . . . . . . . . . . . . . . . 8
1.4 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Matrizes Quadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Determinantes 21
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Cálculo de Determinantes de Ordem 2 . . . . . . . . . . . . . . . . . . . . . 23
2.3 Cálculo de Determinantes de Ordem 3 . . . . . . . . . . . . . . . . . . . . . 24
2.4 Propriedades dos Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Caracterı́stica de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3
4 Índice
6 Transformações Lineares de Rn em Rm 85
6.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Valores Próprios e Vetores Próprios de um Endomorfismo . . . . . . . . . . . 90
7 Formas Quadráticas 95
7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.2 Classificação de Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . 98
7.2.1 Classificação de Formas Quadráticas recorrendo a Valores Próprios . 98
7.2.2 Classificação de Formas Quadráticas recorrendo a Menores Principais 100
Bibliografia 113
Matrizes
O conceito de matriz, que vamos estudar de seguida, tem aplicação na resolução de diversos
problemas em diferentes áreas do conhecimento, nomeadamente, em economia e gestão.
1.1 Introdução
Definição 1.1.1
Uma matriz (real) de ordem m × n, ou (m, n), é uma tabela com m linhas e n colunas
formada por mn números reais.
Denotamos o conjunto das matrizes de ordem m × n por Mm×n .
Seja A uma matriz de ordem m × n. Representa-se por aij ou (A)ij o elemento da matriz
A correspondente à linha i e à coluna j, i = 1, . . . , m, j = 1, . . . , n. Escreve-se
A = [aij ]
ou
a11 · · · a1n
A = ... .. .. .
. .
am1 · · · amn
Definição 1.1.2
Se m = 1, a matriz diz-se matriz linha ou vetor linha. Se n = 1, a matriz diz-se
matriz coluna ou vetor coluna. Se m = n, a matriz diz-se quadrada de ordem n.
5
6 1. Matrizes
Exemplo 1.1.3
A matriz √
2 −1 2
A=
0 π 3
é de ordem 2 × 3. O elemento a12 é −1.
Exemplo 1.1.4
A matriz
A= 2 −1 3
é uma matriz (vetor) linha enquanto que a matriz
2
A=
0
Definição 1.1.5
Duas matrizes A = [aij ] e B = [bij ] da mesma ordem m × n dizem-se iguais se aij = bij
para i = 1, . . . , m, j = 1, . . . , n. Neste caso escreve-se A = B.
Definição 1.1.6
Diz-se que B é uma submatriz de uma matriz A se B se obtém de A eliminando linhas
e/ou colunas de A.
Exemplo 1.1.7
A matriz quadrada
4 0
B=
−1 −4
é uma submatriz da matriz
4 1 0
2 1 1
A=
−1
5 −4
3 4 −1
Definição 1.1.8
Se aij = 0 para todo o i = 1, . . . , m e para todo o j = 1, . . . , n, a matriz diz-se matriz
nula de ordem m × n e representa-se por 0m×n ou, simplesmente, por 0, se não houver
ambiguidade relativamente à ordem.
Exemplo 1.2.2
Temos
−1 −2 0 4 −4 0 3 −6 0
+ = .
−6 −10 −2 −1 −5 −4 −7 −15 −6
Propriedades
A adição de matrizes em Mm×n goza das seguintes propriedades:
(1) A + B ∈ M m×n , ∀A, B ∈ M m×n (+ é fechada em Mm×n )
(2) A + B = B + A , ∀A, B ∈ M m×n (+ é comutativa em Mm×n )
(3)(A + B) + C = A + (B + C) , ∀A, B, C ∈ M m×n (+ é associativa em Mm×n )
(4) A + 0m×n = 0m×n +A = A , ∀A ∈ M m×n (0m×n é elemento neutro para + em Mm×n )
(5) A + (−A) = (−A) + A = 0m×n , ∀A ∈ M m×n (−A é simétrico de A em Mm×n )
A+N =A
⇔ aij + nij = aij , i = 1, . . . , m , j = 1, . . . , n
⇔ nij = 0 , i = 1, . . . , m , j = 1, . . . , n
⇔ N = 0.
Deixamos como exercı́cio mostrar que também o simétrico de A ∈ Mm×n é único, isto é,
A0 + A = A + A0 = 0m×n ⇒ A0 = −A .
cij = λaij , i = 1, . . . , m , j = 1, . . . , n .
Exemplo 1.3.2
Temos
−1 −2 0 −2 −4 0
2 = .
−6 −10 −2 −12 −20 −4
Propriedades
A multiplicação de uma matriz em Mm×n por um escalar goza das seguintes propriedades:
• λA ∈ Mm×n , ∀A ∈ Mm×n , ∀λ ∈ R
• λ (A + B) = λA + λB , ∀A, B ∈ Mm×n , ∀λ ∈ R
• 1A = A , ∀A ∈ Mm×n
B1 B3
A1 a11 a12 a13 b11 b12 b13 c11 c12 c13 A1∙B1 c12 A1∙B3
= = =
a21 a22 a23 b21 b22 b23 c21 c22 c23 c21 c22 c23
b31 b32 b33
a11 b11+ a12 b21+ a13 b31 c12 a11 b13+ a12 b23+ a13 b33
=
c21 c22 c23
Observação 1.4.2
Dadas duas matrizes A e B, o produto AB só está definido se o número de colunas de
A for igual ao número de linhas de B. No caso do produto AB estar definido, o número
de linhas da matriz AB é o número de linhas de A enquanto que o número de colunas
de AB é o número de colunas de B.
Exemplo 1.4.3
Temos
1 −1 1 1 1 1 × 1 + (−1) × 2 1 × 1 + (−1) × 3 1 × 1 + (−1) × 1
=
2 −4 2 3 1 2 × 1 + (−4) × 2 2 × 1 + (−4) × 3 2 × 1 + (−4) × 1
−1 −2 0
= .
−6 −10 −2
Exemplo 1.4.4
Temos
1 −1 1 3 0 5
= .
2 2 1 −2 4 2
Observação 1.4.5
O produto de duas matrizes, em que uma delas é uma matriz nula, é a matriz nula da
ordem apropriada. No entanto, o produto de duas matrizes pode ser a matriz nula sem
que nenhuma das matrizes fator o seja. Por outras palavras, não é possı́vel estender a
lei do anulamento do produto de números reais ao caso do produto de matrizes.
Exemplo 1.4.6
Temos
1 −1 1 3 1 0 0 0
= .
2 −2 1 3 1 0 0 0
Observação 1.4.7
A multiplicação de matrizes não é em geral comutativa.
Definição 1.4.8
Diz-se que duas matrizes A e B quadradas de ordem n comutam se AB = BA.
Exemplo 1.4.9
Sejam
1 −1 1 3
A= e B=
2 −2 1 3
matrizes quadradas de ordem 2.
Temos
1 −1 1 3 0 0
AB = =
2 −2 1 3 0 0
e
1 3 1 −1 7 −7
BA = = .
1 3 2 −2 7 −7
Como A e B são matrizes quadradas da mesma ordem, é possı́vel efetuar os produtos
AB e BA. No entanto, temos AB 6= BA.
Exemplo 1.4.10
As matrizes
1 1 1 2
A= e B=
0 0 0 −1
comutam pois
1 1
AB = BA = .
0 0
Propriedades
A multiplicação de matrizes goza das seguintes propriedades:
C(A + B) = CA + CB .
(A + B)D = AD + BD .
Exemplo 1.5.2
Temos T
1 2
3 1 = 1 3 −4
.
2 1 5
−4 5
Exemplo 1.5.3
Temos T
1 2 1 1 4 −3
4 0 −1 = 2 0 3 .
−3 3 2 1 −1 2
Propriedades
A transposição de matrizes goza das seguintes propriedades:
T
1) AT = A, ∀A ∈ Mm×n .
Demonstração.
T T
1) A = AT ji = (A)ij , i = 1, . . . , m, j = 1, . . . , n.
ij
(A + B)T
2) = (A + B)ji = (A)ji + (B)ji = AT ij
+ BT ij
, i = 1, . . . , m, j =
ij
1, . . . , n.
3) Exercı́cio.
Pn Pn
4) (AB)T ij = (AB)ji = k=1 (A)jk (B)ki = T T T T
k=1 (B )ik (A )kj = (B A )ij , i =
1, . . . , m, j = 1, . . . , n.
Definição 1.6.1
Exemplo 1.6.2
Se
1 2 1
A = 3 −1 0 ,
−4 5 2
a diagonal principal de A é (1, −1, 2).
Definição 1.6.3
A matriz A diz-se triangular superior se aij = 0 para todo i > j. Se aij = 0 para
todo i < j a matriz A diz-se triangular inferior. A matriz A diz-se triangular se for
triangular inferior ou triangular superior.
Exemplo 1.6.4
As matrizes
1 2 1 −1 0 0
A= 0 0 0 e B= 2 1 0
0 0 2 1 0 2
são triangulares, sendo A triangular superior e B triangular inferior.
Definição 1.6.5
A matriz A diz-se diagonal se aij = 0 para todo i 6= j.
Exemplo 1.6.6
A matriz
5 0 0
0 2 0
0 0 4
é diagonal.
Definição 1.6.7
A matriz A de ordem n diz-se matriz identidade de ordem n se A é diagonal com
Exemplo 1.6.8
A matriz identidade de ordem 3 é
1 0 0
I3 = 0 1 0 .
0 0 1
Observação 1.6.9
Definição 1.6.10
Exemplo 1.6.11
A matriz
1 2 −1
2 0 3
−1 3 1
é simétrica.
Definição 1.6.12
O traço de uma matriz quadrada A de ordem n é a soma dos elementos da diagonal
principal de A. Representa-se o traço de A por tr(A). Se A = [aij ] tem-se
n
X
tr(A) = aii .
i=1
Exemplo 1.6.13
Se
−1 2 −1
A = 2 8 3 ,
−1 3 4
temos tr(A) = −1 + 8 + 4 = 11.
Propriedades
O traço de uma matriz goza das seguintes propriedades:
Demonstração.
2) Exercı́cio;
3) Exercı́cio;
Logo
m m n
!
X X X
tr(AB) = (AB)ii = aij bji
i=1 i=1 j=1
n m
! n
X X X
= bji aij = (BA)jj = tr(BA) .
j=1 i=1 j=1
Definição 1.7.1
Uma matriz quadrada A de ordem n diz-se invertı́vel se existir uma matriz B de ordem
n tal que
AB = BA = In . (1.1)
Teorema 1.7.2
Seja A uma matriz quadrada de ordem n. Se A é invertı́vel, então a matriz inversa de A
é única.
Definição 1.7.3
Notemos que a Definição 1.7.1 não faz sentido se A não for uma matriz quadrada uma
vez que, neste caso, para qualquer matriz B ou pelo menos um dos produtos AB, BA não
está definido ou os dois produtos não têm a mesma ordem.
Exemplo 1.7.4
Vamos verificar que a matriz
1 −1
A=
0 2
1 12
B= .
0 12
Ao contrário do que acontece com os números reais, em que todo o elemento não nulo
é invertı́vel, existem matrizes não nulas que não são invertı́veis, conforme ilustra o exemplo
seguinte.
Exemplo 1.7.5
Consideremos a matriz
1 2
A= .
2 4
Vamos verificar, pela definição, que a matriz A não é invertı́vel. Seja
b11 b12
B=
b21 b22
1) A matriz AB é invertı́vel e
(AB)−1 = B −1 A−1 .
2) A matriz λA é invertı́vel e
1 −1
(λA)−1 = A .
λ
3) A matriz A−1 é invertı́vel e
−1
A−1 = A.
4) A matriz AT é invertı́vel e
(AT )−1 = (A−1 )T .
Demonstração.
1) Temos (AB) (B −1 A−1 ) = (B −1 A−1 ) (AB) = In , logo como a inversa é única, B −1 A−1
é a inversa de AB.
Observação 1.7.6
Representamos a matriz (AT )−1 , que é igual à matriz (A−1 )T , por A−T .
Observação 1.7.7
Dadas duas matrizes A e B de ordem n invertı́veis, em geral, não se verifica
(A + B)−1 = A−1 + B −1 .
Exemplo 1.7.8
Sejam
1 −1 0 1
A= e B= .
0 1 1 1
Temos
−1 1 1 −1 −1 1
A = , B =
0 1 1 0
e
−1 −1 0 2
A +B = .
1 1
No entanto,
−1 1 0
(A + B) = 6= A−1 + B −1 .
−1/2 1/2
Exercı́cio 1.7.9
Seja A uma matriz invertı́vel. Mostre que se A é simétrica então A−1 também é simétrica.
Definição 1.7.10
Exemplo 1.7.11
A matriz
senθ cos θ
A=
cos θ −senθ
é ortogonal uma vez que AAT = AT A = I2 .
Determinantes
2.1 Introdução
Vamos agora definir determinante de uma matriz quadrada. A definição é apresentada de
forma recursiva, ou seja, começamos por definir o determinante de uma matriz de ordem
1 e, em seguida, definimos o determinante de uma matriz de ordem n à custa de n > 1
determinantes de matrizes de ordem n − 1.
Definição 2.1.1
Mostra-se que o valor de (2.1) não depende da escolha da linha i. Mais, o determinante
de A pode ser calculado fixando uma qualquer coluna de A, em vez de uma linha. Ou seja,
para qualquer coluna j ∈ {1, . . . , n}, o determinante de A é dado por
n
X
(−1)k+j akj Mkj .
k=1
21
22 2. Determinantes
a11 a12 ... a1i ... a1n a11 a12 ... a1i ... a1n a11 a12 ... a1i ... a1n a11 a12 ... a1i ... a1n
a21 a22 ... a2i ... a2n a21 a22 ... a2i ... a2n a21 a22 ... a2i ... a2n a21 a22 ... a2i ... a2n
.. .. .. .. . .. .. .. . .. .. .. . .. .. ..
= (-1)i+1ai1 . . . . + (-1)i+2 ai2 .. . . . + … + (-1)i+i aii .. . . . + … + (-1)i+n ain .. . . .
ai1 ai2 ... aii ... ain ai1 ai2 ... aii ... ain ai1 ai2 ... aii ... ain ai1 ai2 ... aii ... ain
... ... ... ... .. ... ... ... .. ... ... ... .. ... ... ...
. . .
an1 an2 ... ani ... ann an1 an2 ... ani ... ann an1 an2 ... ani ... ann an1 an2 ... ani ... ann
a12 ... a1i ... a1n a11 ... a1i ... a1n a12 a12 ... a1n a12 a12 ... a1i ...
i+1
= (-1) ai1 a22 ... a2i ... a2n + (-1)i+2 a a21 ... a2i ... a2n + … + (-1)i+i a a22 a22 ... a2n + … + (-1)i+n a a22 a22 ... a2i ...
.. .. .. i2 .. .. .. ii .. .. .. in .. .. ..
. . . . . . . . . . . .
an2 ... ani ... ann an1 ... ani ... ann an2 an2 ... ann an2 an2 ... ani ...
Definição 2.1.2
Observação 2.1.3
Assim, para n > 1, o determinante da matriz A = [aij ] de ordem n é igual à soma dos
produtos que se obtêm multiplicando os elementos de uma fila (linha ou coluna) pelos
respetivos complementos algébricos:
n
X
|A| = aik Aik (desenvolvendo segundo a linha i)
k=1
n
X
= akj Akj (desenvolvendo segundo a coluna j)
k=1
Exemplo 2.1.4
Vamos calcular o determinante da matriz
1 0 1
A = 0 0 2 ,
−1 1 3
desenvolvendo segundo a terceira linha. Para tal precisamos dos complementos algébricos
A31, A32 e A33. Temos
3+1 0 1
A31 = (−1) =0
0 2
3+2 1 1
A32 = (−1) = −2
0 2
3+3 1 0
A33 = (−1) = 0.
0 0
Observação 2.1.5
Exemplo 2.1.6
Considerando de novo a matriz do Exemplo 2.1.4
1 0 1
A = 0 0 2 ,
−1 1 3
podemos verificar que as filas com mais zeros são a linha 2 e a coluna 2. Assim, desen-
volvendo o determinante segundo a coluna 2 temos
Notemos que neste caso bastou-nos calcular um único complemento algébrico (o A32 ).
Observação 2.2.1
Assim, o determinante de uma matriz de ordem 2 é obtido subtraindo ao produto dos
elementos da diagonal principal o produto dos elementos da outra diagonal (ver Fi-
gura 2.2).
a11 a12 _
a21 a22
+
Exemplo 2.2.2
Temos
1 2
= 1 × 3 − 1 × 2 = 1.
1 3
Observação 2.3.1
Esta mesma expressão para |A| pode ser obtida pela conhecida Regra de Sarrus: Para
calcular o determinante de uma matriz de ordem 3, repetem-se as duas primeiras li-
nhas da matriz no final. Para cada diagonal indicada na figura, efetua-se o produto
dos elementos nessa diagonal. O determinante de A é a soma dos produtos associados
às diagonais assinaladas com + e dos simétricos dos produtos associados às diagonais
assinaladas com − (ver Figura 2.3).
Uma regra análoga pode ser estabelecida, repetindo à direita da matriz as duas
primeiras colunas.
Observação 2.3.2
A Regra de Sarrus só se aplica ao cálculo de determinantes de ordem 3.
Exemplo 2.3.3
Verifique que
1 2 −1
0 3 2 = 1 × 3 × 4 + 0 × 2 × (−1) + 2 × 2 × 2
2 2 4
− 2 × 3 × (−1) − 1 × 2 × 2 − 0 × 2 × 4
= 12 + 0 + 8 + 6 − 4
= 22.
Exemplo:
1 2 1 1 0 −1
0 3 2 = 2 3 2
−1 2 3 1 2 3
Exemplo:
−1 1 0 3 1 1 −1 1 0 3 1 1
2 4 1 1 2 1 = 2 4 1 1 2 1 = 21
−1 0 1 0 1 1 −1 0 1 0 1 1
Da propriedade 3) vem
Observação 2.4.1
Pela propriedade 1), todas as propriedades apresentadas envolvendo linhas de uma matriz
são ainda válidas se em vez de linhas considerarmos colunas da matriz.
Observação 2.4.2
A definição de determinante reduz o cálculo de um determinante de ordem n > 1 ao
cálculo de, no máximo, n determinantes de ordem n−1. Recorrendo às propriedades dos
determinantes é possı́vel reduzir o cálculo de um determinante de ordem n ao cálculo de
um único determinante de ordem n − 1, conforme se ilustra no exemplo seguinte.
No próximo exemplo introduz-se uma notação que identifica cada uma das operações
elementares efetuadas sobre as linhas e as colunas de uma matriz. Nessa notação represen-
tamos por li e cj a linha i e a coluna j da matriz. Por exemplo, l3 ← l3 − l1 significa que
substituı́mos a linha 3 da matriz pela linha 3 menos a linha 1 e c1 ↔ c3 significa a troca
entre as colunas 1 e 3.
Exemplo 2.4.3
Recorrendo às propriedades dos determinantes, vamos calcular o determinante da matriz
1 2 1
A = −1 −1 2 ,
−1 1 3
1 2 1 1 2 1 1 2 1
0 1 3 0 1 3 = 0 1 3 = −5,
l3 ←l3 =
0 3 4 +(−3)l2
0 3−3×1 4−3×3
0 0 −5
Observação 2.4.4
Tal como no exemplo anterior, dado um qualquer determinante é sempre possı́vel, recor-
rendo às propriedades 2) e 5), transformá-lo num determinante de uma matriz triangular,
o qual, pela propriedade 6) é de cálculo imediato.
Exemplo 2.4.5
Consideremos a matriz
0 2 1
A= 1 2 3 .
1 0 1
Temos
0 2 1
2) 1 2 3 5) 1 2 3 5) 1 2 3
6)
|A| = 1 2 3 = − 0 2 1
= − 0 2
1 = − 0 2 1
= 2.
1 0 1 1 0 1 0 −2 −2 0 0 −1
Definição 2.5.1
Definição 2.5.2
Observação 2.5.3
Seja A = [aij ] uma matriz quadrada de ordem n. A soma dos produtos que se obtêm mul-
tiplicando os elementos de uma linha (resp. coluna) de A pelos complementos algébricos
de uma outra linha (resp. coluna) é nula, isto é, para i 6= k, temos
n
X
aij Akj = 0 .
j=1
Basta notar que esta soma corresponde ao determinante de uma matriz com duas linhas
iguais. Com efeito, seja B = [bij ] a matriz obtida de A substituindo a linha k por uma
linha igual à linha i. Notemos que A e B apenas diferem na linha k. Como a i-ésima
e a k-ésima linhas de B são iguais, temos |B| = 0. Por outro lado, os complementos
algébricos da linha k das matrizes A e B são iguais (uma vez que não dependem dos
elementos da linha k). Além disso, aij = bkj , j = 1, . . . , n. Então
n
X n
X
aij Akj = bkj Bkj = |B| = 0 .
i=1 i=1
Temos, então, o seguinte resultado que nos dá condições necessárias e suficientes para
uma matriz ser invertı́vel e, no caso de o ser, fornece-nos um método para calcular a sua
inversa.
Teorema 2.5.4
Uma matriz quadrada A é invertı́vel se e só se é regular. Além disso, se A é regular então
1
A−1 = Adj(A) .
det(A)
Demonstração.
1
(⇐) Seja A = [aij ] regular, isto é, det(A) 6= 0. Seja B = det(A)
Adj(A). Temos
a11 a12 · · · a1n A11 A21 · · · An1
1 a21 a22 · · · a2n A12 A22
· · · An2
AB = =
.. .. .. . . .. ..
det(A) . .. ..
. . . .
an1 an2 · · · ann A1n A2n · · · Ann
0 ···
det(A) 0
... ... ..
1 0 .
= = In .
det(A)
.. ... ...
. 0
0 · · · 0 det(A)
Observação 2.5.5
Exemplo 2.5.6
Vamos calcular a inversa da matriz
1 2 −1
A= 1 0 1 .
1 3 2
Temos
1 2 −1 −3 −7 2
|A| = 1 0 1 = −8 e Adj(A) = −1 3 −2 .
1 3 2 3 −1 −2
Logo, −1
1 2 −1 3 7 −2
1 0 1 = 1 1 −3 2 .
8
1 3 2 −3 1 2
Sendo A uma matriz quadrada, por definição de matriz inversa, A tem inversa se existir
uma matriz B tal que AB = In e BA = In . Do teorema seguinte resulta que se uma das
igualdades anteriores for satisfeita, a outra igualdade também o é.
Teorema 2.5.7
Definição 2.6.1
Dizemos que uma matriz A de ordem m × n tem caracterı́stica p se existir uma
submatriz quadrada de A de ordem p com determinante não nulo e todas as submatrizes
quadradas de A de ordem maior do que p (caso existam) tiverem determinante nulo.
Se A = 0m×n , convenciona-se que A tem caracterı́stica 0.
Representamos a caracterı́stica de A por car(A).
Observação 2.6.2
Sendo A uma matriz de ordem m × n, temos car(A) ≤ min{m, n}. Sendo A uma matriz
n × n, A tem caracterı́stica n se e só se A é regular.
Exemplo 2.6.3
Seja
−2 3 0
A=
2 −3 1
Como A ∈ M2×3 , temos carA ≤ 2. Como
3 0
= 3 6= 0 ,
−3 1
Exemplo 2.6.4
A matriz
1 2 0
A= 1 0 1
2 2 1
tem caracterı́stica 2. Basta notar que det(A) = 0 e
1 2
1 0 6= 0.
Exemplo 2.6.5
A matriz
1 1 2 3
0 1 1 1
A=
1
1 2 3
1 1 2 3
tem caracterı́stica 2. De facto, temos |A| = 0. Podemos também verificar que os deter-
minantes das 16 submatrizes de A de ordem 3 são nulos. Assim, uma vez que a submatriz
de A de ordem 2 relativa às linhas e colunas 1 e 2 tem determinante não nulo,
1 1
0 1 = 1 6= 0, (2.3)
vem car(A) = 2.
Teorema 2.6.6
Seja A uma matriz de ordem m × n. Se existir uma submatriz B de A de ordem p com
determinante diferente de 0 e forem nulos todos os determinantes das submatrizes de A
de ordem p + 1 que têm B como submatriz, então car(A) = p.
Exemplo 2.6.7
Recorrendo ao teorema anterior, para concluir que a caracterı́stica da matriz A do exem-
plo 2.6.5 é 2, e tendo em conta (2.3), basta verificar que os determinantes das 4 subma-
trizes de ordem 3 de A que têm
1 1
0 1
como submatriz são nulos, isto é,
1 1 2 1 1 3 1 1 2 1 1 3
0 1 1 = 0 1 1 = 0 1 1 = 0 1 1 = 0.
1 1 2 1 1 3 1 1 2 1 1 3
Exemplo 2.6.8
Consideremos a matriz
1 2 1 1 1
5 0 5 0 1
A= .
3 4 3 2 −1
0 −2 0 −1 0
Temos car(A) ≤ 4, dado A ser uma matriz de ordem 4 × 5.
Por outro lado, temos car(A) ≥ 2, uma vez que
1 2
|B| = −10 6= 0, onde B = .
5 0
Vamos agora calcular o determinante das submatrizes de A de ordem 3 que têm B como
submatriz, até encontrarmos um diferente de zero, caso exista. Começamos por fixar a
linha 3 de A. Como
1 2 1 1 2 1 1 2 1
5 0 5 = 5 0 0 = 0 e 5 0 1 = 32 6= 0
3 4 3 3 4 2 3 4 −1
temos que car(A) é 3 ou 4. Pelo teorema anterior temos apenas dois determinantes de
ordem 4 para calcular:
1 2 1 1 1 2 1 1
5 0 5 1 5 0 0 1
e .
3 4 3
−1
3 4 2 −1
0 −2 0 0 0 −2 −1 0
Definição 2.6.9
(b) multiplicação de uma linha (coluna) da matriz por uma constante não nula;
(c) adição a uma linha (resp. coluna) de uma outra linha (resp. coluna), eventualmente
multiplicada por uma constante.
Definição 2.6.10
Uma matriz B diz-se equivalente a uma matriz A se B se obtém de A por uma sequência
de operações elementares.
Teorema 2.6.11
Efetuando operações elementares sobre as linhas e/ou colunas de uma matriz, podemos
reduzir a matriz a uma forma que nos permite determinar a sua caracterı́stica de modo
imediato.
Teorema 2.6.12
Qualquer matriz A é equivalente a uma única matriz da forma
Ip 0
. (2.4)
0 0
Exemplo 2.6.13
Vamos condensar a matriz A do exemplo 2.6.5 para determinar a sua caracterı́stica.
Temos
1 1 2 3 1 1 2 3 1 1 2 3
0 1 1 1 0 1 1 1 0 1 1 1
A= ∼ ∼ =B.
1 1 2 3 l3 ←l3 −l1 0 0 0 0 l4 ←l4 −l1 0 0 0 0
1 1 2 3 1 1 2 3 0 0 0 0
Nesta fase, concluimos que car(A) = car(B) = 2 uma vez que as operações elemen-
tares não alteram a caracterı́stica de uma matriz e, claramente, a última matriz tem
caracterı́stica 2, já que
1 1
0 1 = 1 6= 0
de A continuando a condensação:
1 1 2 3 1 0 1 2 1 0 0 2
0 1 1 1 0 1 1 1 0 1 1 1
∼ ∼
0 0 0 0 l1 ←l1 −l2 0 0 0 0 c3 ←c3 −c1 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0 1 0 0 0
0 1 1 1 0 1 0 1 0 1 0 0
∼ ∼ ∼ = I2 0 .
c4 ←c4 −2c1 0 0 0 0 c3 ←c3 −c2 0 0 0 0 c4 ←c4 −c2 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
Neste capı́tulo vamos estudar um método de resolução de sistemas de equações lineares que
utiliza os conceitos e resultados apresentados nas secções anteriores.
3.1 Introdução
Definição 3.1.1
Um sistema de m equações lineares e n incógnitas é da forma
a11 x1 + a12 x2 + · · · + a1n xn = b1
..
.
a x + a x + ··· + a x = b
m1 1 m2 2 mn n m
Exemplo 3.1.2
O sistema
x1 + x2 − x3 = 1
x2 + x3 = −1
x1 + 2x2 = 0
39
40 3. Sistemas de Equações Lineares
Exemplo 3.1.3
O sistema
x1 x2 − x3 = 1
x2 + x23 = −1
x1 + 2x2 = 0
Observação 3.1.4
O sistema diz-se
Definição 3.1.5
Um sistema diz-se homogéneo se o vetor dos termos independentes é nulo, isto é, se
B = 0.
Observação 3.1.6
Um sistema homogéneo é sempre possı́vel, isto é, tem pelo menos uma solução. Basta
ter em conta que X = 0 é solução do sistema.
Exemplo 3.1.7
O sistema
x1 + x2 − x3 = 1
x2 + x3 = −1
x1 + 2x2 = 0
Podemos verificar que (4, −2, 1) e (2, −1, 0) são duas soluções do sistema e, portanto, o
sistema é possı́vel indeterminado.
(2) multiplicação de ambos os membros de uma equação por uma constante não nula;
(3) adição membro a membro a uma equação de uma outra, eventualmente multiplicada
por uma constante;
Uma forma de resolver um sistema linear é usar as operações acima para o transformar
num sistema equivalente e que seja mais fácil de resolver. Este processo é facilitado se
recorrermos à forma matricial do sistema.
Definição 3.2.2
Em termos da matriz completa do sistema, as operações (1) a (4) acima descritas corres-
pondem respetivamente a:
(b) multiplicação de uma linha da matriz por uma constante não nula;
(c) adição a uma linha de uma outra, eventualmente multiplicada por uma constante;
···
α1,p+1 α1n β1
.. ... .. ..
Ip . . .
αp,p+1 ··· αp,n βp
0 0
[A |B ] = , (3.2)
0 ··· 0 0 ··· 0 βp+1
.. . . .. .. .. .. ..
. . . . . . .
0 ··· 0 0 ··· 0 βm
onde αi,j , βk ∈ R, i = 1, . . . , p, j = p + 1, . . . , n, k = 1, . . . , m.
Notemos que
A ∼ A0 e [A|B] ∼ [A0 |B 0 ] .
Portanto,
Admitindo que não houve troca de colunas, isto é, que a operação elementar (d) não foi
usada no processo de condensação, a matriz [A0 |B 0 ] corresponde ao sistema
Os sistemas (3.1) e (3.3) são equivalentes, isto é, têm as mesmas soluções. Assim,
car([A|B]) = car(A),
Exemplo 3.2.3
Vamos agora resolver o sistema do Exemplo 3.1.7 por forma a encontrar todas as suas
soluções. Temos
1 1 −1 1 1 1 1 2 1 1 1 2
0 1 1 −1 ∼ 0 1 1 −1 ∼ 0 1 1 −1
l3 ←l3 −l1 l3 ←l3 −l2
1 2 0 0 0 1 1 −1 0 0 0 0
1 0 −2 2
∼ 0 1 1 −1
l1 ←l1 −l2
0 0 0 0
Assim,
x1 = 2 + 2x3
, x3 ∈ R.
x2 = −1 − x3
Logo, o conjunto de solução do sistema é
{(2 + 2x, −1 − x, x) : x ∈ R} .
Exemplo 3.2.4
Vamos discutir o sistema seguinte em função do parâmetro a ∈ R e resolvê-lo para os
valores de a que o tornam possı́vel:
x+y+z =2
x+z =1 .
2x + y + 2z = a
Nesta fase podemos concluir que o sistema é impossı́vel se a 6= 3 já que neste caso
2 = car(A) < car([A|B]) = 3. Se a = 3, temos car(A) = car([A|B]) = 2. Neste caso o
sistema é possı́vel. Sendo 3 o número de incógnitas do sistema, o grau de indeterminação
{(x, y, z) ∈ R3 : x = 1 − z ∧ y = 1} = {(1 − z, 1, z) : z ∈ R} .
Exemplo 3.3.1
1 2
Seja A = . Uma vez que |A| = 2 6= 0, temos que A é invertı́vel. Seja A−1 =
1 4
a b
. Temos AA−1 = I, isto é
c d
1 2 a b 1 0
= .
1 4 c d 0 1
pelo que
a 2
= .
c − 12
Resolvendo agora o segundo sistema, temos
1 2 0 1 2 0 1 2 1 1 0 −1
∼ ∼ 1 ∼ 1 ,
1 4 1 l2 ←l2 −l1 0 2 1 l2 ←l2 /2 0 1 2 l1 ←l1 −2l2 0 1 2
pelo que
b −1
= 1 .
d 2
Assim
−1 2 −1
A = .
− 12 12
Notemos que, como os dois sistemas têm a mesma matriz dos coeficientes, a sua
resolução envolve exatamente as mesmas operações elementares sobre as linhas da matriz
completa e, portanto, podemos resolvê-los simultaneamente considerando a matriz A
seguida dos dois vetores de termos independentes (a matriz identidade):
1 2 1 0
1 4 0 1
Temos
1 2 1 0 1 2 1 0
∼
1 4 0 1 l2 ←l2 −l1 0 2 −1 1
1 2 1 1 1 0 2 −1
∼ ∼ .
l2 ←l2 /2 0 1 − 12 1
2 l1 ←l1 −2l2 0 1 − 12 1
2
Consideremos agora o caso geral. Seja A uma matriz quadrada de ordem n invertı́vel. Se
B = [bij ] for a inversa de A, temos
AB = In
ou ainda
Ab1 · · · Abn = In ,
Exemplo 3.3.2
Vamos determinar a inversa da matriz A pelo método descrito acima:
0 1 −1
A = 1 2 1 .
1 1 1
Temos
0 1 −1 1 0 0 1 2 1 0 1 0
1 2 1 0 1 0 ∼ 0 1 −1 1 0 0
l1 ↔l2
1 1 1 0 0 1 1 1 1 0 0 1
1 2 1 0 1 0 1 2 1 0 1 0
∼ 0 1 −1 1 0 0 ∼ 0 1 −1 1 0 0
l3 ←l3 −l1 l3 ←l3 +l2
0 −1 0 0 −1 1 0 0 −1 1 −1 1
1 2 1 0 1 0 1 2 0 1 0 1
∼ 0 1 −1 1 0 0 ∼ 0 1 −1 1 0 0
l3 ←−l3 l1 ←l1 −l3
0 0 1 −1 1 −1 0 0 1 −1 1 −1
1 2 0 1 0 1 1 0 0 1 −2 3
∼ 0 1 0 0 1 −1 ∼ 0 1 0 0 1 −1 .
l2 ←l2 +l3 l1 ←l1 −2l2
0 0 1 −1 1 −1 0 0 1 −1 1 −1
Assim, a inversa de A é
1 −2 3
A−1 = 0 1 −1 .
−1 1 −1
No caso de A ser singular temos car(A) < n e, por conseguinte, condensando por linhas a
matriz [A|I], chegamos a uma matriz em que o bloco do lado esquerdo tem pelo menos uma
linha de zeros e a linha correspondente no bloco do lado direito é não nula (uma vez que este
bloco tem caracterı́stica n). Assim, temos um sistema impossı́vel e, portanto, concluı́mos
que A não tem inversa. Tal já era esperado porque |A| = 0.
Exemplo 3.3.3
Pretendemos calcular, caso exista, a inversa da matriz A pelo método descrito acima:
0 1 −1
A = 1 2 1 .
1 1 2
Temos
0 1 −1 1 0 0 1 2 1 0 1 0
1 2 1 0 1 0 ∼ 0 1 −1 1 0 0
l1 ↔l2
1 1 2 0 0 1 1 1 2 0 0 1
1 2 1 0 1 0 1 2 1 0 1 0
∼ 0 1 −1 1 0 0 ∼ 0 1 −1 1 0 0
l3 ←l3 −l1 l3 ←l3 +l2
0 −1 1 0 −1 1 0 0 0 1 −1 1
4.1 Introdução
Definição 4.1.1
Chamamos espaço vetorial real Rn ao conjunto Rn munido da operação interna + e
da operação externa · definidas por
+: Rn × Rn → Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) → (x1 + y1 , . . . , xn + yn )
e
·: R × Rn → Rn
.
(λ, (x1 , . . . , xn )) → (λx1 , . . . , λxn )
Representamos o espaço vetorial real Rn por (Rn , +, ·). Quando nos referirmos simples-
mente a Rn , subentendemos as operações atrás definidas.
Os elementos de Rn são chamados vetores e os elementos de R são chamados escalares.
Representamos por 0Rn o vetor (0, . . . , 0) ∈ Rn .
Sejam X, Y e Z quaisquer vetores de Rn e λ, β escalares de R. São válidas as seguintes
propriedades.
Propriedades
a) X + Y = Y + X e) λ(βX) = (λβ)X
b) (X + Y ) + Z = X + (Y + Z) f ) λ(X + Y ) = λX + λY
c) X + 0Rn = X g) (λ + β)X = λX + βY
d) X + (−X) = 0Rn h) 1X = X
49
50 4. O Espaço Vetorial Real Rn
O conceito de vetores e espaço vetorial real pode ser generalizado. Dizemos que um
conjunto não vazio munido de duas operações, soma e multiplicação por um escalar λ ∈
R, é um espaço vetorial real se satisfaz propriedades análogas às propriedades a)-h). Em
particular o conjunto tem que ter um elemento neutro para a soma (propriedade c)) e cada
vetor tem que ter um simétrico em relação à soma (propriedade d)).
Por exemplo, o conjunto das matrizes de ordem m × n, Mm×n , munido da operação soma
de matrizes e multiplicação de uma matriz por uma escalar apresentadas no Capı́tulo 1, é um
espaço vetorial real uma vez que são satisfeitas as propriedades apresentadas nas Secções 1.2
e 1.3.
X = λ1 X1 + · · · + λm Xm .
Exemplo 4.2.2
(4, 2, 0) = 2(2, 1, 0) .
(b) O vetor (2, 1, 0) é combinação linear dos vetores (1, 1, 0) e (0, 1, 0) uma vez que
Exemplo 4.2.3
que corresponde a um sistema impossı́vel. Concluı́mos assim que (−1, 2, −2) não é
combinação linear dos vetores dados.
Definição 4.2.4
Dizemos que os vetores X1 , . . . , Xm ∈ Rn são linearmente independentes se e só se,
para λ1 , . . . , λm ∈ R, tivermos
λ1 X1 + · · · + λm Xm = 0Rn ⇒ λ1 = · · · = λm = 0 .
Exemplo 4.2.5
(a) Os vetores (1, 2, 3), (2, 4, 1) são linearmente independentes em R3 uma vez que
(b) Os vetores (1, 2, 3), (2, 4, 6) são linearmente dependentes em R3 uma vez que
Propriedades
1) O vetor nulo 0Rn é linearmente dependente.
Demonstração.
(−1)X1 + λ2 X2 + · · · + λm Xm = 0Rn ,
λ1 X1 + λ2 X2 + · · · + λm Xm = 0Rn ,
com λ1 6= 0. Então
λ2 λm
X1 = − X2 − · · · − Xm ,
λ1 λ1
e, portanto, X1 é combinação linear dos restantes vetores.
6) Suponhamos
λ1 X1 + · · · + λm Xm + λX = 0Rn ,
com λ, λ1 , . . . , λm não todos nulos. Se λ = 0, então existe λi não nulo tal que λ1 X1 +
· · · + λm Xm = 0Rn , o que não pode acontecer uma vez que X1 , . . . , Xm são linearmente
independentes. Então λ 6= 0 e
λ1 λm
X=− X1 − · · · − Xm .
λ λ
Exemplo 4.2.6
Os vetores (−1, 1, 1), (1, 0, 0) e (2, −2, −2) de R3 são linearmente dependentes, uma vez
que os vetores (−1, 1, 1) e (2, −2, −2) também o são, dado serem combinação linear um
do outro.
Exemplo 4.2.7
Pretendemos determinar se os vetores (−1, 1, 1), (0, −1, 1) e (1, 0, 1) de R3 são linear-
mente independentes. Para tal temos que resolver o sistema homogéneo resultante da
igualdade
λ1 (−1, 1, 1) + λ2 (0, −1, 1) + λ3 (1, 0, 1) = (0, 0, 0)
que, matricialmente, corresponde a
−1 0 1 0
[A|0] = 1 −1 0 0 .
1 1 1 0
Notemos que o sistema anterior é sempre possı́vel por ser homogéneo. Os vetores são
linearmente independentes se o sistema for determinado, isto é, se a caracterı́stica de A
coincidir com o número de vetores (variáveis). Assim basta-nos estudar car(A). Como
|A| 6= 0 temos car(A) = 3 e, por conseguinte, os três vetores são linearmente indepen-
dentes. Notemos que a matriz A é a matriz formada pelos 3 vetores em coluna.
Teorema 4.2.8
Sendo A uma matriz de ordem n × m com caracterı́stica p, existem p colunas e p linhas
linearmente independentes e quaisquer r colunas e r linhas, com r > p, são linearmente
dependentes.
Observação 4.2.9
Do teorema anterior resulta que quaisquer r vetores de Rn com r > n são linearmente
dependentes. Em particular, o número máximo de vetores linearmente independentes
em R2 é 2, em R3 é 3, etc.
Exemplo 4.2.10
Os vetores (1, 0, 0), (1, 2, 1), (3, 2, 1) são linearmente dependentes uma vez que car(A) =
2 < 3, onde
1 1 3
A = 0 2 2 .
0 1 1
é a matriz cujas colunas correspondem aos vetores dados. Os vetores (1, 0, 0), (1, 2, 1) são
linearmente independentes uma vez que car(B) = 2, sendo B a submatriz de A obtida
por supressão da terceira coluna.
Exemplo 4.2.11
Consideremos os vetores u1 = (1, 2, 3), u2 = (2, 4, −1), u3 = (1, 2, −4) e u4 = (0, 1, 1).
Pela observação a seguir ao Teorema 4.2.8, temos que os vetores dados são linearmente
dependentes.
Vamos determinar o maior número r de vetores linearmente independentes e identi-
ficar r desses vetores. Seja A a matriz cujas colunas correspondem aos vetores dados:
1 2 1 0
A= 2 4 2 1 .
3 −1 −4 1
i) S 6= ∅,
ii) X + Y ∈ S, ∀X, Y ∈ S,
iii) λX ∈ S, ∀X ∈ S, ∀λ ∈ R.
Exemplo 4.3.2
Exemplo 4.3.3
Observação 4.3.4
Exemplo 4.3.5
Exemplo 4.3.6
Sejam A uma matriz de ordem m × n e Mn,1 o conjunto dos vetores reais de ordem n × 1.
O conjunto das soluções do sistema homogéneo AX = 0m×1 ,
S = {X ∈ Mn,1 : AX = 0m×1 },
Teorema 4.3.7
W = {λ1 X1 + λ2 X2 + · · · + λm Xm : λ1 , . . . , λm ∈ R} ,
Definição 4.4.1
S = {λ1 X1 + λ2 X2 + · · · + λm Xm : λ1 , λ2 , . . . ∈ R} .
Exemplo 4.4.2
Os vetores (1, 0, 0), (0, 1, 0), (0, 0, 1) geram R3 . Também os vetores (1, 0, 0), (0, 1, 0),
(0, 0, 1), (1, 1, 0) geram R3 . De facto, ∀(x, y, z) ∈ R3 , temos
Exemplo 4.4.3
Os vetores (0, 1, 0), (0, 0, 1) geram o subespaço vetorial S referido no exemplo 4.3.3 pois
(0, 1, 0), (0, 0, 1) ∈ S e ∀(0, x2 , x3 ) ∈ S,
Exemplo 4.4.4
Seja
S =< (0, 1, 0), (0, 0, 1) >
o subespaço vetorial referido nos exemplos 4.3.3 e 4.4.3. Vamos mostrar que também se
tem
S =< (0, 1, 1), (0, 1, 2) > . (4.2)
Por outro lado, os vetores (0, 1, 0), (0, 0, 1) são combinações lineares dos vetores (0, 1, 1), (0, 1, 2).
Logo, (0, 1, 0), (0, 0, 1) ∈ < (0, 1, 1), (0, 1, 2) > e, portanto,
Observação 4.4.5
Se Y é combinação linear de X1 , . . . , Xm ∈ S, isto é, se Y ∈< X1 , . . . , Xm >, então
Exemplo 4.4.6
Os vetores (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 0) geram R3 . Como (1, 0, 0) = −(0, 1, 0) +
0(0, 0, 1) + (1, 1, 0), então também os vetores (0, 1, 0), (0, 0, 1), (1, 1, 0) geram R3 .
Teorema 4.4.7
Se S é gerado por m vetores, quaisquer r vetores de S, com r > m, são linearmente
dependentes.
Y1 = λ11 X1 + · · · + λ1m Xm
..
.
Ym+1 = λ(m+1)1 X1 + · · · + λ(m+1)m Xm .
Logo
α1 Y1 + · · · + αm+1 Ym+1 = 0 (4.3)
é equivalente a
(α1 λ11 + · · · + αm+1 λ(m+1)1 )X1 + · · · + (α1 λ1m + · · · + αm+1 λ(m+1)m )Xm = 0.
Corolário 4.4.8
Se em S há r vetores linearmente independentes, então quaisquer m vetores de S, com
m < r, não geram S.
Observação 4.4.9
Se os vetores X1 , . . . , Xm ∈ S são linearmente independentes e não geram S, então existe
Xm+1 ∈ S tal que X1 , . . . , Xm , Xm+1 são linearmente independentes.
Exemplo 4.4.10
Os vetores (0, 0, 1), (1, 1, 0) são linearmente independentes e não geram R3 pois, por
exemplo, (1, 0, 1) não é combinação linear dos vetores (0, 0, 1), (1, 1, 0). Então, pela
propriedade 6) da Secção 4.2, os vetores (0, 0, 1), (1, 1, 0), (1, 0, 1) são linearmente inde-
pendentes.
Notemos que, se S = {0Rn }, S não tem base uma vez que o único gerador de S é o vetor
nulo, o qual é linearmente dependente.
Se um subespaço S tem uma base formada por n vetores, n > 1, então reordenando os
vetores dessa base obtemos ainda uma base de S, distinta da primeira.
Exemplo 4.5.2
Em R3 as bases ((1, 0, 0), (0, 1, 0), (0, 0, 1)) e ((0, 1, 0), (1, 0, 0), (0, 0, 1)) são diferentes.
Teorema 4.5.3
Seja S um subespaço vetorial não nulo de Rn . Se S tem uma base formada por m vetores,
então qualquer outra base de S é formada por m vetores.
Demonstração. Suponhamos que (X1 , . . . , Xm ) e (Y1 , . . . , Ym0 ) são duas bases de S. Que-
remos mostrar que m = m0 . Como X1 , . . . , Xm geram S e Y1 , . . . , Ym0 são linearmente
independentes, pelo Teorema 4.4.7 vem m0 ≤ m. Analogamente, como Y1 , . . . , Ym0 geram S
e X1 , . . . , Xm são linearmente independentes, vem m ≤ m0 . Logo m = m0 .
Definição 4.5.4
Teorema 4.5.5
Seja S um subespaço vetorial de Rn . Se dim S = m então quaisquer m vetores de S
Observação 4.5.6
Se S1 e S2 são dois subespaços vetoriais não nulos de Rn com S1 ⊆ S2 e dim S1 = dim S2 ,
então S1 = S2 . Basta notar que uma base de S1 é também uma base de S2 .
Observação 4.5.7
Exemplo 4.5.8
Consideremos o conjunto
de geradores de um subespaço vetorial S de R3 . Uma vez que (1, 1, 1) e (2, 0, 0) são com-
binações lineares dos vetores (1, 0, 0) e (0, 1, 1), temos S =< C >=< (1, 0, 0), (0, 1, 1) >.
Como (1, 0, 0) e (0, 1, 1) são linearmente independentes, então ((1, 0, 0), (0, 1, 1)) é uma
base de S.
Exemplo 4.5.9
S = {(x + y, x + z, 0) : x, y, z ∈ R} .
Assim, qualquer elemento de S é combinação linear dos vetores (1, 1, 0), (1, 0, 0), (0, 1, 0) ∈
S, pelo que estes 3 vetores geram S.
S =< (1, 1, 0), (1, 0, 0), (0, 1, 0) >=< (1, 1, 0), (1, 0, 0) > .
Exemplo 4.5.10
Seja S o subespaço vetorial de R4 gerado pelos vetores e1 = (1, 1, 0, 1), e2 = (0, 1, 0, 0),
e3 = (2, 0, 0, 2) e e4 = (0, 2, 0, 0). Vamos encontrar uma base de S. Seja
1 0 2 0
1 1 0 2
A= 0 0 0 0 .
1 0 2 0
É fácil verificar que car(A) = 2. Além disso, a submatriz de A formada pelas duas
primeiras colunas tem caracterı́stica 2. Assim, conclui-se que os vetores e1 e e2 são line-
armente independentes e quaisquer 3 vetores em {e1 , e2 , e3 , e4 } são linearmente dependen-
tes. Então e3 e e4 são combinações lineares de e1 e e2 e, portanto, S =< e1 , e2 , e3 , e4 >=<
e1 , e2 >. Logo e1 e e2 geram S e são linearmente independentes e, por conseguinte, (e1 , e2 )
é uma base de S.
Observação 4.5.11
Da Observação 4.4.9 resulta que, dado um conjunto C de vetores linearmente indepen-
dentes de um subespaço vetorial S, existe uma base de S contendo os vetores de C.
Exemplo 4.5.12
Seja S o subespaço vetorial do Exemplo 4.5.9:
S = {(x + y, x + z, 0) : x, y, z ∈ R} .
Pretendemos encontrar uma base de R3 contendo a base (e1 , e2 ) = ((1, 1, 0), (0, 1, 0))
de S. Como dim R3 = 3, temos que encontrar um vetor e3 ∈ R3 tal que e1 , e2 , e3 são
linearmente independentes. A existência deste vetor é assegurada pelo facto de os vetores
e1 , e2 não gerarem R3 . Facilmente se verifica que, para e3 = (0, 0, 1), os vetores e1 , e2 , e3
são linearmente independentes e, portanto, (e1 , e2 , e3 ) é uma base de R3 .
Teorema 4.6.1
X = λ1 e1 + · · · + λm em .
X = λ1 e1 + · · · + λm em = λ01 e1 + · · · + λ0m em .
Então
(λ1 − λ01 ) e1 + · · · + (λm − λ0m ) em = 0Rn .
Como e1 , . . . , em são linearmente independentes, vem λi = λ0i .
Definição 4.6.2
Nas condições do teorema anterior, a sequência (λ1 , . . . , λm ) diz-se o vetor das coor-
denadas (ou, simplesmente, as coordenadas) do vetor X na base e = (e1 , . . . , em ) e
representa-se por Xe .
Exemplo 4.6.3
Exemplo 4.6.4
O vetor que na base ((1, 1), (1, 0)) de R2 tem coordenadas (1, 2) é
Exemplo 4.6.5
Consideremos a base b = ((1, 1), (1, 0)) de R2 e a base b0 = ((1, 0), (1, 1)), obtida de b
trocando a ordem dos vetores. O vetor X = (3, 1) tem coordenadas (1, 2) na base b
enquanto que as suas coordenadas na base b0 são (2, 1), isto é, Xb = (1, 2) e Xb0 = (2, 1).
Exemplo 4.6.6
Sejam (2, −3, −2) as coordenadas de X ∈ R3 na base ((1, 1, 1), (1, 1, 0), (1, −1, 2)) de R3 .
Então
Exemplo 4.6.7
As coordenadas do vetor X do exemplo anterior na base ((1, 2, 3), (1, −3, 2), (2, 1, 4)) de
R3 são dadas pelo vetor (λ1 , λ2 , λ3 ) tal que
Esta última igualdade equivale a um sistema linear nas incógnitas λ1 , λ2 , λ3 , cuja solução
é dada por λ1 = 4, λ2 = 1 e λ3 = −4. Assim, temos
Exemplo 4.6.8
(1) Vamos mostrar que os vetores f1 , f2 , f3 geram S. Seja X ∈ S. Queremos ver que
existem β1 , β2 , β3 ∈ R tais que
X = β1 f1 + β2 f2 + β3 f3 , (4.4)
ou, equivalentemente,
X = λ1 e1 + λ2 e2 + λ3 e3 . (4.5)
(2) Uma vez que dim S = 3 e os 3 vetores f1 , f2 , f3 geram S, então, pelo Teorema 4.5.5,
(f1 , f2 , f3 ) é também uma base de S.
Vamos de seguida construir uma matriz associada a duas bases b1 e b2 de Rn que permite
transformar as coordenadas na base b1 de um qualquer vetor de Rn nas suas coordenadas na
base b2 .
Sejam b1 = (e1 , . . . , en ) e b2 = (f1 , . . . , fn ) duas bases de Rn e X ∈ Rn com Xb1 =
(x1 , . . . , xn ) e Xb2 = (y1 , . . . , yn ). Denotemos por (α1i , . . . , αni ) as coordenadas de ei na base
b2 , i = 1, . . . , n. Então,
X = x1 e1 + · · · + xn en
= x1 (α11 f1 + · · · + αn1 fn ) + · · · + xn (α1n f1 + · · · + αnn fn )
= (x1 α11 + x2 α12 + · · · + xn α1n )f1 + · · · + (x1 αn1 + x2 αn2 + · · · + xn αnn )fn .
Observação 4.6.9
A matriz P designa-se por matriz de mudança de base ou matriz de passagem
da base b1 para a base b2 de Rn . A matriz P “transforma” as coordenadas de um vetor
X ∈ Rn na base b1 nas coordenadas de X na base b2 . Para ilustrar este facto, escrevemos,
quando conveniente, Pb2 ←b1 em vez de P . Notemos que a i-ésima coluna de P são as
coordenadas do vetor ei na base b2 .
Observação 4.6.10
No caso particular em que b2 é a base canónica de Rn , a matriz de passagem P da base
b1 para a base b2 é obtida de forma imediata. De facto, a i-ésima coluna de P obtém-se
dispondo em coluna o i-ésimo vetor da base b1 .
Exemplo 4.6.11
Sejam b1 = ((1, 0, 0), (1, 1, 0), (0, −1, 1)) e b2 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) duas bases de
R3 . Uma vez que a base b2 é a base canónica de R3 , tendo em conta a observação
anterior, a matriz de passagem P da base b1 para a base b2 é
1 1 0
P = 0 1 −1 .
0 0 1
Assim,
(1, 3, 0) = −2(1, 0, 0) + 3(1, 1, 0) + 0(0, −1, 1).
Exemplo 4.6.12
Sejam b1 = ((1, 1, 2), (1, 0, 1), (0, 0, 1)) e b2 = ((2, 0, 1), (1, 1, 0), (1, 0, 0)) duas bases de
R3 .
Assim,
2 1 1
Pb2 ←b1 = 1 0 0 .
−4 −1 −2
Consideremos agora o vetor X ∈ R3 cujas coordenadas na base b1 são (1, 1, 2). As
coordenadas de X na base b2 são dadas por
1 2 1 1 1 5
Pb2 ←b1 1 = 1 0 0 1 = 1 ,
2 −4 −1 −2 2 −9
ou seja, as coordenadas de X na base b2 são (5, 1, −9).
Definição 4.7.1
Seja A ∈ Mm×n . Chamamos núcleo de A, e representamos por NA , ao conjunto das
soluções do sistema homogéneo cuja matriz dos coeficientes é A, ou seja,
NA = {X ∈ Rn : AX = 0Rm } .
Observação 4.7.2
Qualquer que seja a matriz A ∈ Mm×n , temos 0Rn ∈ NA .
Exemplo 4.7.3
Seja
1 1 0
A= .
1 −1 0
Uma vez que
x
0
A y = ⇔ x = 0 ∧ y = 0,
0
z
temos
NA = {(0, 0, z) : z ∈ R} .
Teorema 4.7.4
Seja A ∈ Mm×n . Então NA é um subespaço vetorial de Rn .
Exemplo 4.7.5
Sendo A a matriz considerada no Exemplo 4.7.3, uma base de NA é ((0, 0, 1)) e dim NA =
1.
Definição 4.7.6
Seja A = A1 A2 · · · An ∈ Mm×n , onde Ai representa a i-ésima coluna de A.
Chamamos espaço coluna de A, e representamos por CA , ao subespaço vetorial de Rn
gerado pelas colunas de A :
CA = {λ1 A1 + · · · + λn An : λ1 , . . . , λn ∈ R} .
Exemplo 4.7.7
Seja
1 0 2
A = 0 1 0 .
0 1 0
Uma vez que
1 0 2 λ1 + 2λ3
λ1 0 + λ2 1 + λ3 0 = λ2 ,
0 1 0 λ2
temos
CA = {(λ1 + 2λ3 , λ2 , λ2 ) : λ1 , λ2 , λ3 ∈ R} .
Teorema 4.7.8
Exemplo 4.7.9
Seja A a matriz definida no Exemplo 4.7.7. Os vetores
1 0 2
0 , 1 , 0
0 1 0
geram CA . Os três vetores acima são linearmente dependentes, uma vez que
1 0 2
car 0 1 0 = 2.
0 1 0
Por outro lado, os vetores (1, 0, 0), (0, 1, 1) são linearmente independentes. Assim, uma
base de CA é, por exemplo, ((1, 0, 0), (0, 1, 1)) e
CA = {(x, y, y) : x, y ∈ R} .
Observação 4.7.10
O subespaço CA pode escrever-se da seguinte forma alternativa:
CA = {AX : X ∈ Rn }
= {Y ∈ Rm |∃X ∈ Rn : Y = AX} .
Teorema 4.7.11
Teorema 4.7.12
Seja A ∈ Mm×n . Então n = dim NA + dim CA .
Nesta secção estudamos valores próprios de matrizes quadradas, os quais surgem em di-
versos contextos, nomeadamente, como veremos mais adiante, na classificação de formas
quadráticas e de extremos de funções.
Definição 5.1.1
Observação 5.1.2
Para todo o λ ∈ R, temos A 0Rn = 0Rn = λ0Rn . No entanto, por definição, 0Rn não é
vetor próprio de A.
73
74 5. Valores Próprios, Vetores Próprios e Diagonalização de Matrizes Quadradas
Exemplo 5.1.3
Consideremos a matriz
2 0 0
A = 1 1 0 .
0 1 1
Temos que
1 2 1
A 1 = 2 = 2 1 ,
1 2 1
e, portanto, (1, 1, 1) é um vetor próprio de A associado ao valor próprio 2. De facto, para
qualquer k ∈ R \ {0}, (k, k, k) é vetor próprio de A associado ao valor próprio 2 pois
k 1 1 2 k
A k =A k 1
= kA 1 = k 2 = 2 k .
k 1 1 2 k
Observação 5.1.4
O valor próprio associado a um vetor próprio é único. Com efeito, suponhamos AX =
λ1 X e AX = λ2 X, com X 6= 0Rn . Então λ1 X = λ2 X ou, equivalentemente, (λ1 −λ2 )X =
0Rn . Como X 6= 0Rn , vem λ1 = λ2 . Assim, se AX = λX, com X 6= 0Rn , diz-se que X é
um vetor próprio de A associado ao valor próprio λ.
AX = λX ⇔ (A − λIn )X = 0Rn ,
Eλ = {X ∈ Rn : AX = λX}, (5.1)
Exercı́cio 5.1.5
Mostre, recorrendo diretamente à definição, que Eλ é um subespaço vetorial de Rn .
Definição 5.1.6
Exemplo 5.1.7
Relativamente à matriz do Exemplo 5.1.3, temos
Temos
x x x 0
A y = 2 y ⇔ (A − 2I3 ) y = 0
z z z 0
y=x
⇔ , x ∈ R.
z=x
Logo,
E2 = {(x, x, x) : x ∈ R} = h(1, 1, 1)i .
Assim ((1, 1, 1)) é uma base de E2 e dimE2 = 1.
Observação 5.1.8
Uma vez que cada vetor próprio está associado a um único valor próprio, se λ1 e λ2 são
valores próprios distintos de uma matriz A, então Eλ1 ∩ Eλ2 = {0Rn }.
Definição 5.1.9
Observação 5.1.10
Da discussão efetuada, concluı́mos então que os valores próprios de A são as soluções
reais da equação caracterı́stica de A.
Exemplo 5.1.11
Seja
2 0 2
A = 0 2 2 .
0 0 0
Temos
2−λ 0 2
det(A − λI3 ) = det 0 2 − λ 2 = −λ(2 − λ)2 .
0 0 −λ
Assim, os valores próprios de A são 0 e 2. Temos
2 0 2 1 0 0 x 0
0 2 2 −0 0
1 0 y = 0
0 0 0 0 0 1 z 0
Uma base de E0 é ((−1, −1, 1)) e uma base de E2 é ((1, 0, 0), (0, 1, 0)).
Observação 5.1.12
Tal como verificado no exemplo anterior, os valores próprios de uma matriz triangular
(inferior ou superior) são as entradas da diagonal principal da matriz.
Observação 5.1.13
Uma vez que o escalar 0 é valor próprio de A se e só se det(A−0I) = 0, isto é, det(A) = 0,
concluimos, então, que as seguintes afirmações são equivalentes:
• 0 é valor próprio de A.
• A é singular.
• NA 6= {0Rn }.
Exemplo 5.1.14
Seja A a matriz definida no Exemplo 5.1.11. Uma vez que 0 é valor próprio de A podemos
concluir que A é singular e NA = E0 = {(−z, −z, z) : z ∈ R}.
Claramente, matrizes distintas podem ter os mesmos valores próprios. Dada uma matriz
A de ordem n, identificamos de seguida uma classe de matrizes com os mesmos valores
próprios de A. Começamos por introduzir uma definição que será também utilizada na
secção seguinte.
Definição 5.1.15
Sejam A e B matrizes quadradas de ordem n. Dizemos que B é semelhante a A se existir
uma matriz regular P quadrada de ordem n tal que B = P −1 AP, ou seja, P B = AP.
Teorema 5.1.16
Sejam A e B matrizes quadradas de ordem n. Se A e B são semelhantes então A e B
têm o mesmo polinómio caraterı́stico e, por conseguinte, os mesmos valores próprios.
Teorema 5.1.17
Seja A uma matriz quadrada de ordem n. Sejam X1 , . . . , Xk vetores próprios de A asso-
ciados aos valores próprios λ1 , . . . , λk , respetivamente. Se λ1 , . . . , λk são todos distintos,
então X1 , . . . , Xk são linearmente independentes.
Corolário 5.1.18
Seja A uma matriz quadrada de ordem n. Sejam λ1 , . . . , λk valores próprios distin-
tos de A e ei1 , . . . , eini vetores linearmente independentes de Eλi , i = 1, . . . , k. Então
e11 , . . . , e1n1 , . . . , ek1 , . . . , eknk são linearmente independentes.
Definição 5.2.1
Chamamos multiplicidade algébrica do valor próprio λ0 de A, e representamos por
ma (λ0 ), à multiplicidade de λ0 como raiz do polinómio caracterı́stico de A.
Exemplo 5.2.2
Seja
0 0 0
A= 0 0 1 .
0 −1 −1
O polinómio caracterı́stico de A é p(λ) = det(A−λI3 ) = −λ (λ2 + λ + 1). Assim, o único
valor próprio de A é 0 e ma (0) = 1. Notemos que, neste caso, a soma das multiplicidades
algébricas dos valores próprios é 1 < 3.
Exemplo 5.2.3
Seja
1 1 0
A = 0 3 0 .
0 0 3
O polinómio caracterı́stico de A é p(λ) = det(A−λI3 ) = (1−λ)(3−λ)2 . Assim, os valores
próprios de A são 1 e 3 com ma (1) = 1 e ma (3) = 2. Neste caso ma (1) + ma (3) = 3.
Exemplo 5.2.4
Consideremos
2 1 0 0
0 2 0 0
A= .
0 0 0 −1
0 0 1 0
O polinómio caracterı́stico de A é
Definição 5.2.5
Chamamos multiplicidade geométrica do valor próprio λ0 de A, e representamos por
mg (λ0 ), à dimensão do subespaço próprio Eλ0 .
Exemplo 5.2.6
Relativamente à matriz A do Exemplo 5.1.11, observe-se que as multiplicidades algébrica
e geométrica do valor próprio 0 coincidem e são iguais a 1. Também as multiplicidades
algébrica e geométrica do valor próprio 2 coincidem e, neste caso, são iguais a 2.
Exemplo 5.2.7
Teorema 5.2.8
A multiplicidade geométrica de um valor próprio de A é menor ou igual à sua multipli-
cidade algébrica.
Corolário 5.2.9
Se um valor próprio tem multiplicidade algébrica 1 então também tem multiplicidade
geométrica 1.
Definição 5.2.10
Dizemos que uma matriz quadrada A de ordem n é diagonalizável se A for semelhante
a uma matriz diagonal.
AP = P D ⇔ APi = λi Pi , i = 1, . . . , n.
Uma vez que P é regular se e só se as colunas de P são linearmente independentes, concluimos
que A é diagonalizável se e só se A tem n vetores próprios linearmente independentes. Tendo
em conta o Corolário 5.1.18, obtemos o seguinte resultado.
Teorema 5.2.11
Uma matriz quadrada A é diagonalizável se e só se existir uma base de Rn formada
por vetores próprios de A, isto é, se e só se a soma das multiplicidades geométricas dos
valores próprios de A for n.
Observação 5.2.12
Do teorema anterior resulta que A é diagonalizável se e só se:
P
(1) λ0 ∈Λ ma (λ0 ) = n, onde Λ representa o conjunto dos valores próprios distintos de
Ae
Se alguma das condições (1) ou (2) não se verificar, então A não é diagonalizável. Notemos
ainda que a condição (1) é equivalente ao polinómio caracterı́stico de A ter todas as raı́zes
reais.
Se A é uma matriz com n valores próprios distintos, então a multiplicidade algébrica, e,
por conseguinte, a multiplicidade geométrica, de cada valor próprio é 1. Tem-se, então, a
seguinte consequência do Teorema 5.2.11.
Corolário 5.2.13
Se A é uma matriz quadrada de ordem n com n valores próprios distintos, então A é
diagonalizável.
uma vez que, pelo Teorema 5.2.11, a soma das multiplicidades geométricas dos subespaços
próprios de A é n = dim Rn , obtemos exatamente n vetores. Pelo Corolário 5.1.18, esses n
vetores são linearmente independentes e, portanto, formam uma base de Rn . Se P é a matriz
cujas colunas são os vetores próprios da referida base, ou seja, P é a matriz de passagem da
base b para a base canónica de Rn , então P é regular e AP = P D, ou seja, P −1 AP = D,
onde D é a matriz diagonal cujas entradas da diagonal são os valores próprios de A na ordem
dos vetores próprios correspondentes na base de vetores próprios considerada.
Exemplo 5.2.14
A matriz do exemplo 5.1.11 é diagonalizável uma vez que a soma das dimensões dos
seus subespaços próprios é 3, a ordem da matriz. Uma base de R3 formada por vetores
próprios de A obtém-se ”juntando”as bases de E0 e E2 e é, portanto, ((−1, −1, 1), (1, 0, 0), (0, 1, 0)).
Tem-se
D = P −1 AP,
onde
0 0 0
D= 0 2 0
0 0 2
e
−1 1 0
P = −1 0 1 .
1 0 0
Exemplo 5.2.15
A matriz
0 1 0
A= 0 0 1
0 0 1
não é diagonalizável. Com efeito, o polinómio caracterı́stico de A é p(λ) = λ2 (1 −
λ). Assim, os valores proprios de A são 0, com multiplicidade algébrica 2, e 1, com
multiplicidade algébrica 1. Pelo Corolário 5.2.9, dim E1 = 1. Por outro lado, efetuando
alguns cálculos, obtém-se
E0 = {(x, 0, 0) : x ∈ R}.
Como dim E0 = 1, vem dim E0 + dim E1 = 2 < 3. Logo A não é diagonalizável.
Exemplo 5.2.16
Seja A uma matriz de orden n. Vamos mostrar que se A é diagonalizável então:
Uma vez que A é diagonalizável, existe uma matriz regular P de ordem n tal que
A = P DP −1 , onde D é a matriz em (5.3), sendo λ1 , . . . , λn os valores próprios de A,
contando as multiplicidades. Assim,
1. temos
tr(A) = tr(P DP −1 ) = tr(P −1 P D) = tr(D) = λ1 + · · · + λn .
2. temos
3. temos
Teorema 5.2.17
Seja A uma matriz quadrada simétrica. Então A é diagonalizável e existe uma matriz
ortogonal Q tal que QT AQ é diagonal.
Transformações Lineares de Rn em Rm
6.1 Introdução
Nesta secção vamos considerar funções de um espaço vetorial Rn num espaço vetorial Rm
que preservam as operações de adição de vetores e multiplicação por um escalar.
Definição 6.1.1
Uma função f de Rn em Rm diz-se uma aplicação linear, uma transformação linear
ou um homomorfismo, de Rn em Rm se forem satisfeitas as seguintes condições:
i) f (X + Y ) = f (X) + f (Y ), ∀X, Y ∈ Rn
Exemplo 6.1.2
f (x, y, z) = (x, y + z)
85
86 6. Transformações Lineares de Rn em Rm
Também,
Exemplo 6.1.3
f (x, y) = (x + 1, y)
enquanto que
f (1, 1) + f (0, 1) = (2, 1) + (1, 1) = (3, 2) .
Uma vez que qualquer vetor de Rn se escreve como combinação linear dos vetores de uma
base, temos, então, o seguinte resultado.
Proposição 6.1.4
Uma transformação linear de Rn em Rm fica definida quando se conhecem as imagens
dos vetores de uma base de Rn .
Exemplo 6.1.5
Seja f uma transformação linear de R3 em R2 . Sabendo que f (1, 0, 0) = (1, 2), f (0, 1, 1) =
(1, 0) e f (0, 0, 1) = (1, 1), pretendemos determinar f (x, y, z). Notemos que
((1, 0, 0), (0, 1, 1), (0, 0, 1)) é uma base R3 . O vetor (x, y, z) ∈ R3 escreve-se como com-
binação linear dos vetores desta base da seguinte forma:
Vamos de seguida mostrar que uma transformação linear de Rn em Rm pode ser repre-
sentada por uma matriz A de ordem m × n.
Seja f uma transformação linear de Rn em Rm . Sejam b1 = (e1 , . . . , en ) e b2 = (f1 , . . . , fm )
as bases canónicas de Rn e Rm , respetivamente, e X = (x1 , . . . , xn ) ∈ Rn . Denotemos
f (ei ) = (α1i , . . . , αmi ), i = 1, . . . , n. Então,
f (X) = f (x1 e1 + · · · + xn en )
= x1 f (e1 ) + · · · + xn f (en )
= x1 (α11 f1 + · · · + αm1 fm ) + · · · + xn (α1n f1 + · · · + αmn fm )
= (x1 α11 + x2 α12 + · · · + xn α1n )f1 + · · · + (x1 αm1 + x2 αm2 + · · · + xn αmn )fm .
Y = AX,
com
α11 · · · α1n x1 y1
A = ... .. .. , X = .. e Y = .. .
. . . .
αm1 · · · αmn xn ym
A matriz A diz-se a matriz da transformação linear f . Notemos que a i-ésima coluna
de A é o vetor f (ei ).
Observemos que poderı́amos obter uma matriz representativa da transformação linear
f considerando bases b1 de Rn e b2 de Rm com pelo menos uma delas diferente da base
canónica. Embora a dedução de uma tal matriz seja análoga à efetuada anteriormente com
as bases canónicas, tendo em conta os objetivos deste curso, neste texto focamo-nos apenas
no caso considerado.
Exemplo 6.1.6
f (1, 0, 0) = (1, 0, 0)
f (0, 1, 0) = (0, 1, 1)
f (0, 0, 1) = (2, 0, 0).
Temos
x x + 2z
A y = y .
z y
Definição 6.1.7
Chamamos núcleo de uma transformação linear f : Rn → Rm , e representamos por Nf ,
a
Nf = {X ∈ Rn : f (X) = 0Rm } .
Exemplo 6.1.8
f (x, y, z) = (x + y, x − y) .
Definição 6.1.9
Chamamos imagem de uma transformação linear f : Rn → Rm , e representamos por
Imf , a
Imf = {f (X) : X ∈ Rn }
= {Y ∈ Rm |∃X ∈ Rn : Y = f (X)} .
Exemplo 6.1.10
Observação 6.1.11
Verifica-se facilmente que, se f é uma transformação linear de Rn em Rm e A é a matriz
de f, então o núcleo e a imagem de f são o núcleo e o espaço coluna de A, respetivamente.
Assim, tendo em conta o Teorema 4.7.4 e a definição de espaço coluna de A, concluimos
que Nf e Imf são subespaços vetoriais de Rn e Rm , respetivamente. Do Teorema 4.7.12,
tem-se
dim Rn = dim Nf + dim Imf .
Definição 6.1.12
Seja f uma transformação linear de Rn em Rm .
1. f diz-se injetiva se
∀X, Y ∈ Rn : X 6= Y ⇒ f (X) 6= f (Y ) .
2. f diz-se sobrejetiva se
∀Y ∈ Rm ∃X ∈ Rn : Y = f (X) ,
Teorema 6.1.13
Demonstração.
(⇒) Suponhamos que existe X ∈ Rn tal que X 6= 0Rn e X ∈ Nf . Então f (X) =
f (0Rn ) = 0Rm . Donde f não seria injetiva. Logo, f injetiva implica Nf = {0Rn }.
(⇐) Suponhamos que f não é injetiva, isto é, existem X, Y ∈ Rn tais que X 6= Y e
f (X) = f (Y ). Então f (X) − f (Y ) = f (X − Y ) = 0Rm e, portanto, 0Rn 6= X − Y ∈ Nf .
Donde Nf 6= {0Rn }. Logo, Nf = {0Rn } implica f injetiva.
Exemplo 6.1.14
Seja f o endomorfismo considerado nos Exemplos 6.1.6 e 6.1.10. Temos dim Imf = 2 <
3 = dim R3 . Logo f não é sobrejetiva. Tendo em conta a Observação 6.1.11, temos
dim Nf = dim R3 − dim Imf = 1. Pelo Teorema 6.1.13, concluimos que f não é injetiva.
Definição 6.2.1
Exemplo 6.2.2
Temos que f (0, 1, 1) = (0, 3, 3) = 3(0, 1, 1). Assim, 3 é um valor próprio de f e (0, 1, 1)
é um vetor próprio de f associado ao valor próprio 3.
Definição 6.2.3
Se λ ∈ R é um valor próprio de um endomorfismo f de Rn , o subespaço vetorial
Eλ = {X ∈ Rn : f (X) = λX},
Exemplo 6.2.4
Relativamente ao endomorfismo definido no Exemplo 6.1.10, temos
Definição 6.2.5
Dizemos que um endomorfismo f de Rn é diagonalizável se existir uma base de Rn
formada por vetores próprios de f.
Observação 6.2.6
Seja A a matriz de um endomorfismo f. Verifica-se facilmente que λ é valor próprio de f
se e só se λ é valor próprio de A. Analogamente, X é vetor próprio de f associado ao valor
próprio λ se e só se X é vetor próprio de A associado ao valor próprio λ. Tendo em conta
o Teorema 5.2.11, concluimos, então, que um endomorfismo f de Rn é diagonalizável se
e só se a matriz A do endomorfismo é diagonalizável.
Exemplo 6.2.7
é representado pela matriz A do exemplo 5.1.11. Mostramos no Exemplo 5.2.14 que esta
matriz é diagonalizável. De facto, temos
0 0 0
D = 0 2 0 = P −1 AP,
0 0 2
Exemplo 6.2.8
Yb = DXb ,
Logo,
Formas Quadráticas
7.1 Introdução
Definição 7.1.1
Chama-se forma quadrática de Rn a uma função de Rn em R definida por
Matricialmente, tem-se
x 1
f (x1 , . . . , xn ) = x1 · · · xn A · · · ,
(7.1)
xn
onde
a11 a12 ··· a1,n−1 a1n
a12 a22 ··· a2,n−1 a2n
A=
.. .. .. .. ..
. . . . .
a1,n−1 a2,n−1 · · · an−1,n−1 an−1,n
a1n a2n · · · an−1,n ann
é uma matriz simétrica de ordem n.
Assim, a toda a forma quadrática está associada uma matriz simétrica. Reciprocamente,
a toda a matriz simétrica A de ordem n está associada a forma quadrática de Rn definida
por (7.1).
95
96 7. Formas Quadráticas
Exemplo 7.1.2
e
g(y1 , . . . , yn ) = |Y T BY |,
T T
onde A e B são matrizes de ordem n simétricas, X = x1 · · · xn e Y = y1 · · · yn .
Definição 7.1.3
As formas quadráticas f e g dizem-se equivalentes se existir uma matriz regular Q tal
que B = QT AQ.
Teorema 7.1.4
Seja f uma forma quadrática de Rn e A a matriz simétrica associada. Então f é equiva-
onde
D = QT AQ = diag(β1 , . . . , βn ),
com Q ortogonal.
Observação 7.1.5
Exemplo 7.1.6
Temos T
f (x1 , x2 , x3 ) = x1 x2 x3 A x1 x2 x3 .
Observe-se que, de acordo com a definição, uma forma quadrática definida positiva (res-
petivamente negativa) é semi-definida positiva (respetivamente negativa).
Exemplo 7.2.2
Notemos que g está na forma reduzida. Assim, a matriz A associada à forma quadrática g
é diagonal e os seus valores próprios são 2, 2, 4, os quais são todos positivos. Claramente,
g(x1 , x2 , x3 ) > 0 ∀(x1 , x2 , x3 ) ∈ R3 \{0R3 }. Logo g é definida positiva.
Exemplo 7.2.3
Exemplo 7.2.4
Temos g(x1 , 0, x3 ) = 2x21 + x23 > 0 ∀x1 , x3 ∈ R com x1 6= 0 ou x3 6= 0. Por outro lado,
g(0, x2 , 0) > 0 ∀x2 ∈ R\{0}. Logo g é indefinida.
f (x1 , . . . , xn ) = g(y1 , . . . , yn ) ,
onde (y1 , . . . , yn ) são as coordenadas de (x1 , . . . , xn ) numa certa base de vetores próprios
da matriz A de f. Assim, a classificação de f pode ser feita a partir da forma reduzida g.
Uma vez que as matrizes associadas a f e à sua forma reduzida são semelhantes, então estas
matrizes têm os mesmos valores próprios. Logo, a classificação de f pode ser feita em função
dos valores próprios da matriz que lhe está associada.
Observação 7.2.5
Assim, uma forma quadrática f de Rn com matriz A é:
Exemplo 7.2.6
A forma quadrática f é semi-definida positiva uma vez que todos os valores próprios de
A são não negativos. De facto, temos g(y1 , y2 , y3 ) ≥ 0 ∀(y1 , y2 , y3 ) ∈ R3 , o que implica
f (x1 , x2 , x3 ) ≥ 0 ∀(x1 , x2 , x3 ) ∈ R3 .
A forma quadrática f não é definida positiva pois 0 é valor próprio de A. De facto,
temos g(0, 0, y) = 0, para todo o y ∈ R, e, portanto existem vetores não nulos X ∈ R3
tais que f (X) = 0.
Exemplo 7.2.7
Verifica-se facilmente que A tem valores próprios 3, −1, onde 3 tem multiplicidade
algébrica 2 e −1 tem multiplicidade algébrica 1. Como A tem dois valores próprios
com sinais contrários, concluimos que A é indefinida.
A classificação de uma forma quadrática pode ser efetuada de forma alternativa a partir
da análise do sinal dos menores principais da matriz associada. Apresentamos de seguida,
sem demonstrar, esta classificação.
Observação 7.2.9
Seja f uma forma quadrática de Rn com matriz associada A e sejam ∆i , i = 1, . . . , n,
Observe-se que este método de classificação de uma forma quadrática pode ser conveniente
por não envolver o cálculo das raı́zes de um polinómio, ao contrário da classificação de uma
forma quadrática recorrendo aos valores próprios, que requer o cálculo das raı́zes do polinómio
caraterı́stico.
Exemplo 7.2.10
Temos
2 −2
∆1 = |2| = 2 > 0; ∆2 = =4>0
−2 4
2 −2 0
∆3 = −2 4 −1 = 6 > 0.
0 −1 2
Exemplo 7.2.11
ciada
1 2 0
A = 2 1 0 .
0 0 3
Temos
1 2
∆1 = |1| = 1 > 0; ∆2 = = −3 < 0
2 1
1 2 0
∆3 = 2 1 0 = −9 < .
0 0 3
Concluimos assim que f é indefinida. Observemos que o facto de se ter ∆1 > 0 e ∆2 < 0
permite desde logo concluir que f é semi-definida negativa ou indefinida.
Neste capı́tulo começamos por recordar alguns resultados relativos ao estudo de extremos
de funções f : Df ⊆ Rn → R definidas num aberto de Rn . De seguida vamos ver como os
resultados estudados nos capı́tulos anteriores podem ser usados no problema da determinação
dos extremos de uma função.
8.1 Introdução
Apresentamos de seguida os conceitos de máximo e mı́nimo de uma função.
Definição 8.1.1
Sejam f : Df ⊆ Rn → R e X0 ∈ Df . Diz-se que
(iii) Se a desigualdade em (i) (respetivamente (ii)) for válida para todos os pontos
X ∈ Df , dizemos que f tem um máximo (respetivamente mı́nimo) global, ou
absoluto, em X0 .
103
104 8. Aplicações ao Estudo de Extremos de Funções
Definição 8.1.2
Seja f : Df ⊆ Rn → R, onde Df é um aberto de Rn . Um ponto X0 ∈ Df diz-se um
ponto crı́tico de f se cada uma das derivadas parciais de f em X0 ou não existe ou é
zero.
Teorema 8.1.3
Seja f : Df ⊆ Rn → R uma função definida num aberto Df de Rn . Se f tem um máximo
ou um mı́nimo local em X0 ∈ Df então X0 é um ponto crı́tico de f .
O teorema anterior estabelece que, se uma função f tem um extremo local em X0 , então
X0 é um ponto crı́tico de f . No entanto, X0 pode ser ponto crı́tico de f sem que haja extremo
em X0 . Ou seja, X0 ser ponto crı́tico de f é uma condição necessária, mas não suficiente,
para a existência de extremo em X0 .
Exemplo 8.1.4
f (x, y) = x3 + y 3
Definição 8.2.1
Teorema 8.2.2
Apresentamos nas secções seguintes duas reformulações do Teorema 8.2.2 que derivam
do facto da classificação de uma forma quadrática poder ser efetuada quer em função dos
valores próprios da matriz simétrica que lhe está associada quer dos seus menores principais
(ver Capı́tulo 7).
Corolário 8.3.1
3. Se existem i, j ∈ {1, . . . , n} tal que λi < 0 < λj , então f não tem extremo em X0 .
Exemplo 8.3.2
f (x, y, z) = x2 − xy + y 2 + 2z 2 − z 4 .
Estas derivadas anulam-se simultaneamente apenas nos pontos (0, 0, 0), (0, 0, 1) e (0, 0, −1).
Temos
2 −1 0
Hessf (x, y, z) = −1 2 0 ,
2
0 0 4 − 12z
pelo que
2 −1 0
Hessf (0, 0, 0) = −1 2 0
0 0 4
e
2 −1 0
Hessf (0, 0, 1) = Hessf (0, 0, −1) = −1 2 0 .
0 0 −8
Os valores próprios de Hessf (0, 0, 0) são 1, 3 e 4. Como são todos estritamente
positivos, pelo Corolário 8.3.1 concluı́mos que f tem um mı́nimo em (0, 0, 0). Por outro
lado, os valores próprios de Hessf (0, 0, 1) e de Hessf (0, 0, −1) são 1, 3 e −8. Como temos
dois valores próprios com sinais contrários, pelo Corolário 8.3.1 concluı́mos que f não
tem extremo nos pontos (0, 0, 1) e (0, 0, −1).
Exemplo 8.3.3
f (x, y, z) = (x − y)2 + z 2 + z 4 .
Sendo f uma função de classe C ∞ , os pontos crı́ticos de f são os pontos onde as derivadas
parciais de primeira ordem de f se anulam. Temos
∂f ∂f ∂f
(x, y, z) = 2(x − y) , (x, y, z) = −2(x − y) e (x, y, z) = 2z(1 + 2z 2 ) ,
∂x ∂y ∂z
pelo que o conjunto dos pontos crı́ticos de f é
C = {(x, y, z) ∈ R3 : y = x ∧ z = 0} = {(x0 , x0 , 0) : x0 ∈ R} .
Temos
2 −2 0
Hessf (x, y, z) = −2 2 0
2
0 0 2 + 12z
e, portanto, para x0 ∈ R,
2 −2 0
Hessf (x0 , x0 , 0) = −2 2 0 .
0 0 2
Uma vez que a matriz Hesseana não depende do ponto crı́tico, os seus valores próprios
também não. Estes valores próprios são 0, 2 e 4. Uma vez que são maiores ou iguais a
zero e um deles é zero, o Corolário 8.3.1 não nos permite afirmar se f tem ou não um
extremo nos pontos da forma (x0 , x0 , 0). Podemos apenas afirmar que, se tiver extremo,
então esse extremo é um mı́nimo.
Vamos então mostrar, recorrendo à definição, que f tem um mı́nimo nos pontos da
forma (x0 , x0 , 0), com x0 ∈ R. Fixemos x0 ∈ R. Comecemos por notar que f (x0 , x0 , 0) =
0. Tendo em conta que
qualquer que seja (x, y, z) ∈ R3 , concluı́mos que f tem um mı́nimo (global) no ponto
(x0 , x0 , 0).
Exemplo 8.3.4
Sendo f uma função de classe C ∞ , os pontos crı́ticos de f são os pontos onde as derivadas
parciais de primeira ordem de f se anulam. Temos
∂f ∂f ∂f
(x, y, z) = −6x , (x, y, z) = −2(y + z) e (x, y, z) = −2(z + y) ,
∂x ∂y ∂z
pelo que o conjunto dos pontos crı́ticos de f é
Temos
−6 0 0
Hessf (x, y, z) = 0 −2 −2
0 −2 −2
e, portanto, para y0 ∈ R,
−6 0 0
Hessf (0, y0 , −y0 ) = 0 −2 −2 .
0 −2 −2
Uma vez que a matriz Hesseana não depende do ponto crı́tico, os seus valores próprios
também não. Estes valores próprios são −6, −4 e 0. Uma vez que são maiores ou iguais
a zero e um deles é zero, o Corolário 8.3.1 não nos permite afirmar se f tem ou não um
extremo nos pontos da forma (0, y0 , −y0 ). Podemos apenas afirmar que, se tiver extremo,
então esse extremo é um máximo.
Vamos então mostrar, recorrendo à definição, que f tem um máximo nos pontos
da forma (0, y0 , −y0 ), com y0 ∈ R. Fixemos y0 ∈ R. Comecemos por notar que
f (0, y0 , −y0 ) = 0. Tendo em conta que
qualquer que seja (x, y, z) ∈ R3 , concluı́mos que f tem um máximo (global) no ponto
(0, y0 , −y0 ).
Exemplo 8.3.5
Exemplo 8.3.6
λ1 + λ2 = −5. Assim, os dois valores próprios são negativos. Concluı́mos então que f
tem um máximo (local) em (1, 2).
∂2f ∂2f ∂2f
∂x21
(X0 ) ∂x2 ∂x1
(X0 ) ∂x3 ∂x1
(X0 )
∂2f ∂2f ∂2f
∆3 = (X0 ) (X0 ) (X0 ) , . . . , ∆n = |Hessf (X0 )| .
∂x1 ∂x2 ∂x22 ∂x3 ∂x2
2
∂ f 2
∂ f 2
∂ f
(X0 ) (X0 ) (X0 )
∂x1 ∂x3 ∂x2 ∂x3 ∂x2
3
Tendo em conta a classificação de uma forma quadrática em função dos menores principais
da matriz que lhe está associada, obtemos a seguinte consequência do Teorema 8.2.2.
Corolário 8.4.1
Exemplo 8.4.2
Temos
∂f 2 ∂f ∂f
(x, y, z) = 2xex , (x, y, z) = 2y − z e (x, y, z) = −y + 2z .
∂x ∂y ∂z
Tendo em conta que f é de classe C ∞ , os pontos crı́ticos de f são os pontos onde estas
derivadas parciais se anulam. Assim, (0, 0, 0) é o único ponto crı́tico de f .
Temos x2 2
2e + 4x2 ex 0 0
Hessf (x, y, z) = 0 2 −1
0 −1 2
e, portanto,
2 0 0
Hessf (0, 0, 0) = 0 2 −1 .
0 −1 2
Os menores principais de Hessf (0, 0, 0) são dados por
∆1 (0, 0, 0) = |2| = 2
2 0
∆2 (0, 0, 0) = =4
0 2
2 0 0
∆3 (0, 0, 0) = 0 2 −1 =6
0 −1 2
Como todos estes menores principais são positivos, concluı́mos pelo Corolário 8.4.1 que
f tem um mı́nimo em (0, 0, 0).
Exemplo 8.4.3
Comecemos por notar que a origem é ponto crı́tico de f , pelo que a origem é candidato
Verifica-se facilmente que ∆4 = det Hess f (0, 0, 0, 0) = −4. Uma vez que ∆4 < 0 e
(−1)4 ∆4 < 0, o ponto 3 do Corolário 8.4.1 garante que f não tem extremo em (0, 0, 0, 0).
[3] F. C. Durão, “Lições de Matemática - Álgebra Linear”, Dept. Matemática Univ. Por-
tucalense, 1992.
113