Sie sind auf Seite 1von 108

Introducao a Algebra Linear `

Pedro Patr cio


Departamento de Matemtica e Aplicaes a co Universidade do Minho pedro@math.uminho.pt

2007, 2008, 2009, 2010

Conte do u
1 Introduo ca 2 Clculo Matricial a 2.1 Notao matricial . . . . . . . . . . . . . . . . ca 2.2 Operaes matriciais . . . . . . . . . . . . . . co 2.2.1 Soma e produto escalar . . . . . . . . 2.2.2 Produto . . . . . . . . . . . . . . . . . 2.2.3 Transposio . . . . . . . . . . . . . . ca 2.2.4 Invertibilidade . . . . . . . . . . . . . 2.3 Um resultado de factorizaao de matrizes . . c 2.3.1 Matrizes elementares . . . . . . . . . . 2.3.2 O Algoritmo de Eliminao de Gauss ca 2.4 Determinantes . . . . . . . . . . . . . . . . . 2.4.1 Denio . . . . . . . . . . . . . . . . ca 2.4.2 Propriedades . . . . . . . . . . . . . . 2.4.3 Teorema de Laplace . . . . . . . . . . 3 Sistemas de equaes lineares co 3.1 Formulao matricial . . . . . ca 3.2 Resoluo de Ax = b . . . . . ca 3.3 Algoritmo de Gauss-Jordan . 3.4 Regra de Cramer . . . . . . . 4 5 7 7 9 9 10 15 17 21 21 27 35 35 36 39 45 45 46 51 53 57 57 59 62 65 65 76 83 83

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Espaos vectoriais c 4.1 Denio e exemplos . . . . . . . . . . . . . . . . . ca 4.2 Independncia linear . . . . . . . . . . . . . . . . . e 4.3 Bases de espaos vectoriais nitamente gerados . . c n e seus subespaos (vectoriais) . . . . . . . . . . 4.4 R c 4.4.1 Ncleo e espao das colunas de uma matriz u c 4.4.2 Sistemas imposs veis . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

Valores e vectores prprios o 5.1 Motivao e denies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca co 3

4 5.2 5.3

CONTEUDO Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrizes diagonalizveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 85 86 95 95 96 100 107

6 Transformaes lineares co 6.1 Denio e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 6.2 Propriedades das transformaes lineares . . . . . . . . . . . . . . . . . . . . . co 6.3 Matriz associada a uma transformao linear . . . . . . . . . . . . . . . . . . ca Bibliograa

Cap tulo 1

Introduo ca
Estes apontamentos pretendem complementar a matria abordada na componente terica e o das aulas de Algebra Linear. Poder aqui encontrar provas de resultados referidos nas aulas, a bem como exemplos de aplicaes e exerc co cios.

CAP ITULO 1. INTRODUCAO

Cap tulo 2

Clculo Matricial a
Ao longo deste documento, K designar o conjunto C dos nmeros complexos ou R o dos a u nmeros reais. u

2.1

Notao matricial ca
tabela com mn elementos de K, elementos esses .

Uma matriz do tipo m n sobre K uma e dispostos em m linhas e n colunas: a11 a21 A= . . .

a12 a22 . . .

a1n a2n . . . amn

am1 am2

Os elementos aij dizem-se os elementos ou componentes da matriz. A matriz diz-se do tipo m n se tiver m linhas e n colunas. O conjunto de todas as matrizes (do tipo) m n sobre K representa-se por Mmn (K) ou por Kmn , e o conjunto de todas as matrizes (nitas) sobre K por M (K). Km denota Km1 . So exemplos de matrizes a A= 1 2 2 3 ,B= 1 2 0 1 0 1 ,C= 2 1 0 6 ,D= 1 2 .

Quando conveniente, escrevemos a matriz A da denio anterior como ca [aij ] , e referimos aij como o elemento (i, j) de A, isto , o elemento que est na linha i e na coluna e a j de A. Iremos tambm usar a notao (A)ij para indicar o elemento na linha i e coluna j e ca de A.

CAP ITULO 2. CALCULO MATRICIAL

Duas matrizes [aij ] , [bij ] Mmn (K) so iguais se aij = bij , para i = 1, . . . , m, j = a 1, . . . , n. Ou seja, duas matrizes so iguais se tm o mesmo nmero de linhas e o mesmo a e u nmero de colunas, e que os elementos na mesma linha e coluna so iguais. u a Uma matriz do tipo m por n diz-se quadrada de ordem n se m = n, ou seja, se o nmero u de linhas iguala o de colunas; diz-se rectangular caso contrrio. Por exemplo, so quadradas a a as matrizes 1 2 3 1 0 , 2 3 4 0 2 3 4 5 e rectangulares as matrizes 1 2 3 0 5 3 1 , 4 . 0

1 1

Os elementos diagonais de [aij ]i,j=1,... n so a11 , a22 , . . . , ann . a Por exemplo, os elementos diagonais de 1 0 0 2 so 1 e 2, e os da matriz a 1 2 3 0 5 3

so 1 e 5. a Nos exemplos atrs apresentados, apenas a matriz A quadrada, sendo as restantes reca e tangulares. Os elementos diagonais de A so 1, 3. a Apresentamos, de seguida, alguns tipos especiais de matrizes. 1. Uma matriz diz-se diagonal se for da d1 0 0 d2 . . . . . . 0 0 forma 0 0 . = diag (d1 , d2 , . . . , dn ) , . . dn

ou seja, o elemento (i, j) nulo, se i = j. Portanto, uma matriz quadrada diagonal se e e os unicos elementos possivelmente no nulos so os diagonais. a a 1 0 0 1 0 Por exemplo, as matrizes e 0 0 0 so matrizes diagonais. a 0 1 0 0 2 2. A matriz identidade de ordem n, In , a matriz diagonal de ordem n, com os elementos e diagonais iguais a 1; ou seja, 1 0 0 0 1 0 In = . . . . . . . . . . 0 0 1

2.2. OPERACOES MATRICIAIS

3. Uma matriz A = [aij ] diz-se triangular superior se aij = 0 quando i > j, e triangular inferior se aij = 0 quando i < j. Ou seja, so respectivamente triangulares superiores a e inferiores as matrizes a11 a12 a1n a11 0 0 0 0 a22 a2n a21 a22 . . . , . . . . . . . . . . . . . . . . 0 0 amn am1 am2 amn

1 1 0 Por exemplo, as matrizes 0 0 0 e 0 0 1

1 1 3 0 1 1 3

so triangulares superiores. a

2.2

Operaes matriciais co

Vejamos agora algumas operaes denidas entre matrizes, e algumas propriedades que estas co satisfazem.

2.2.1

Soma e produto escalar

Sejam A = [aij ] , B = [bij ] Mmn (K) e K. 1. A soma entre matrizes A + B a matriz m n cujo elemento (i, j) aij + bij . Ou seja, e e (A + B)ij = (A)ij + (B)ij . 2. O produto de uma matriz com um escalar A a matriz m n cujo elemento (i, j) e e aij . Ou seja, (A)ij = (A)ij . Repare que a soma de duas matrizes, da mesma ordem, feita elemento a elemento, e o e produto escalar de uma matriz por K de novo uma matriz da mesma ordem da dada, e onde cada entrada surge multiplicada por . Ou seja, a11 a12 . . . a1m b11 b12 . . . b1m a11 + b11 a12 + b12 . . . a1m + b1m a21 a22 . . . a2m b21 b22 . . . b2m a21 + b21 a22 + b22 . . . a2m + b2m . . + . . = . . . . . . . . . . . . . . an1 an2 . . . anm bn1 bn2 . . . bnm an1 + bn1 an2 + bn2 . . . anm + bnm e Por exemplo, 1 2 3 4 + 5 6 7 8 = 1+5 2+6 3+7 4+8 a11 a21 . . . a12 a22 ... ... a1m a2m . . . anm a11 a21 . . . a12 a22 ... ... a1m a2m . . . anm .

an1 an2 . . .

an1 an2 . . .

10 e 5 1 2 3 4 =

CAP ITULO 2. CALCULO MATRICIAL

51 52 53 54

Como fcil de compreender, a soma e o produto escalar so comutativos. e a a De ora em diante, 0 representa uma qualquer matriz cujos elementos so nulos, e se a A = [aij ] ento A = [aij ]. a Estas operaes satisfazem as propriedades que de seguida se descrevem, onde A, B, C co Mmn (K) e , K: 1. A soma de matrizes associativa: (A + B) + C = A + (B + C). e 2. A soma de matrizes comutativa: A + B = B + A e 3. A matriz nula o elemento neutro da adio: A + 0 = 0 + A. e ca 4. Existe o simtrico de cada matriz A + (A) = (A) + A = 0. e 5. (A + B) = A + B. 6. ( + )A = A + A. 7. ()A = (A). 8. 1 A = A.

2.2.2

Produto

Resta-nos denir o produto matricial. Seja A = [aij ] uma matriz m p e B = [bij ] uma matriz p n. O produto de A por B, denotado por AB, a matriz m n cujo elemento (i, j) ai1 b1j + ai2 b2j + + ain bnj . Assim, e e
p p

AB =
k=1

aik bkj
mp

e portanto (AB)ij =
k=1

(A)ik (B)kj .

Atente-se nas dimenses de A e B na denio anterior. o ca 1 2 Como exemplo, faamos o produto da matriz A = c pela matriz B = 1 1 Ora 11+20 11+21 1 0 + 2 (1) AB = . 1 1 + 1 0 1 1 + 1 1 1 0 + 1 (1)

1 1 0 0 1 1

Antes de fazermos referncia a algumas propriedades, vejamos uma outra forma exprimir e y1 y2 o produto de duas matrizes. Para tal, suponha que X = x1 x2 . . . xn , Y = . , . . yn sendo a primeira do tipo 1 n e a segunda do tipo n 1. Pelo que acabmos de referir, o a

2.2. OPERACOES MATRICIAIS

11

produto de X por Y est bem denido, sendo a matriz produto do tipo 1 1, e portanto, a um elemento de K. Esse elemento x1 y1 + x2 y2 + . . . xn yn . Voltemos agora ao produto e de Amp por Bpn , e xemos a linha i de A e a coluna j de B. Ou seja, a matriz linha b1j b2j . . O produto da primeira pela segunda o e ai1 ai2 . . . aip e a matriz coluna . . bpj
p

elemento de K dado por ai1 b1j + ai2 b2j + + aip bpj =


k=1

aik bkj . Ora, este elemento no a e

mais nem menos que a entrada (i, j) da matriz produto AB. Ou seja, a entrada (i, j) de AB o produto da linha i de A pela coluna j de B. e Vejamos algumas propriedades deste produto de matrizes, onde as dimenses das matrizes o A, B, C, I, 0 so tais que as operaes indicadas esto denidas, e K: a co a 1. O produto de matrizes associativo (AB)C = A(BC); e 2. O produto de matrizes distributivo em relao ` soma A(B + C) = AB + AC, (A + e ca a B)C = AC + BC; 3. A matriz identidade o elemento neutro para o produto: AI = A, IA = A; e 4. A matriz nula o elemento absorvente para o produto: 0A = 0, A0 = 0; e 5. (AB) = (A)B = A(B). Faamos a vericao da primeira igualdade de (1). A vericao de que as matrizes so c ca ca a do mesmo tipo ca ao cargo do leitor. Iremos apenas vericar que a entrada (i, j) de A(B +C) iguala a entrada (i, j) de AB + AC. Ora, supondo que A tem p colunas, e portanto que B e C tm p linhas, e
p

(A(B + C))ij

=
k=1 p

(A)ik ((B)kj + (C)kj ) ((A)ik (B)kj + (A)ik (C)kj )


k=1 p p

=
k=1

(A)ik (B)kj +
k=1

(A)ik (C)kj

= (AB)ij + (AC)ij = (AB + AC)ij . Veriquemos tambm a propriedade (3). Note-se que (I)i = 1 e (I)ij = 0 se i = j. Ora e p (AI)ij = k=1 (A)ik (I)kj = (A)ij . E importante notar que o produto matricial no , em geral, comutativo. Por exema e 1 0 0 1 0 1 1 0 plo, = . A lei do anulamento do produto tambm e 0 0 0 0 0 0 0 0

12

CAP ITULO 2. CALCULO MATRICIAL

1 0 0 0 = 0, sem 0 0 0 1 que um dos factores seja nulo. Ou seja, AB = 0 (A = 0 ou B = 0). De uma forma 1 0 2 2 mais geral, (AB = AC e A = 0) (B = C), j que, por exemplo, a = 0 0 1 1 no vlida, em geral, no produto matricial. Por exemplo, a e a 1 0 0 0 2 2 1 3 .

1 2 0 1 eB= . 2 3 1 1 Como fcil de observar, a soma de duas matrizes triangulares inferiores [resp. triangue a lares superiores] de novo triangular inferior [resp. triangular superior]. O que se pode dizer e em relao ao produto? ca Como exerc cio, calcule AB e BA, com A = Teorema 2.2.1. O produto de matrizes triangulares inferiores [resp. triangulares superiores] de novo uma matriz triangular inferior [resp. triangular superior]. e Demonstrao. Sejam A, B duas matrizes triangulares inferiores de tipo apropriado. Ou seja, ca (A)ij , (B)ij = 0, para i < j. Pretende-se mostrar que, para i < j se tem (AB)ij = 0. Ora, para i < j, e supondo que A tem p colunas, (AB)ij = p (A)ik (B)kj = i (A)ik (B)kj = 0. k=1 k=1 Por vezes conveniente considerar-se o produto matricial por blocos. Para tal, considere e as matrizes A e B divididas em submatrizes A= A11 A12 A21 A22 ,B = B11 B12 B21 B22

de forma conforme as operaes descritas de seguida estejam denidas, ento co a AB = A11 B11 + A12 B21 A11 B12 + A12 B22 A21 B11 + A22 B21 A21 B12 + A22 B22 .

De uma forma mais geral, se A11 A12 A21 A22 A= . . .. . . . . . Am1 Am2

A1p A2p . . . Amp

, B =

B11 B21 . . .

B12 B22 . . .

.. .

B1n B2n . . . Bpn

Bpn Bpn

em que as submatrizes so tais que as operaes seguintes esto bem denidas, ento a co a a p p p k=1 A1k Bk1 k=1 A1k Bk2 k=1 A1k Bkn p p p A2k Bk1 A2k Bk2 k=1 k=1 k=1 A2k Bkn . AB = . . . .. . . . . . . . p p p k=1 Amk Bk1 k=1 Amk Bk2 k=1 Amk Bkn Exerc cios

2.2. OPERACOES MATRICIAIS 1. Calcule A + B, se poss vel, onde 0 2 2 4 1 3 2 1 3 1 1 3 (a) A = eB= 1 3 2 4 0 4 2 0 2 4 2 2 (b) A = 1 3 2 2 4 4 eB= 4 4 4 3 0 1 .

13

3 3 2 4 2 2 (c) A = 3 2 2 e B = 1 4 3 2 0 2 4 0 4 2. Calcule AB e BA, se poss vel, onde 2 1 2 (a) A = 3 2 0 e B = 0 0 1 3 1 1 4 (b) A = eB= 4 3 4 3 1 3. Considere as matrizes-linha b =

4 2 2 1 4 3 4 0 4 1 3 0 ec= 3 4 0 3 .

0 1 12 23

(a) Construa a matriz A cujas linhas so b e c. a (b) Calcule 5b. (c) Calcule b + c. b (d) Calcule b c . c 4. Considere as matrizes reais 1 0 1 3 2 1 4 2 A= 0 5 0 1 1 2 1 3

,B =

2 2 4 1

1 5 1 1

0 0 1 2 3 6 0 2

,H =

2 3 0 1

1 1 2 4 1 3 2 2 1 1 0 3

(a) Calcule AB e BA e compare as respostas. O que pode inferir sobre o produto matricial? (b) Faa o produto da linha i de A com a coluna j de B (fazendo i, j variar de 1 at 4), c e e compare o resultado com a entrada (i,j) de AB. (c) Calcule (AB)H e A(BH) e compare os resultados. O resultado nal ilustra que propriedade do produto? (d) Calcule (A + B)H e AH + BH e compare os resultados. O resultado nal ilustra que propriedade das operaes matriciais? co

14 5. Calcule as expresses seguintes: o (a) 4 3 7 5 2 4 7 3 1 2 1 7 3 2 5 0 1 1 5 2 0 2 1 0 4


3

CAP ITULO 2. CALCULO MATRICIAL

3 1 1 0 1 4 0 0 3 3 4 0 0 0

0 2 (b) 2 1 3 2 (c) 0 0 1 1 0 0 1 2 3 4

(d)

6. Calcule, se poss vel, (a) 1 14 20 8 25 9 + 2 15 26 1 6 28 29 17

(b) (c) (d) (e)

2 31 24 18 22 + 10 19 3 15 9 9 4 2 31 4 19 + 29 0 4 1 6 7 4 9 22 18 29 29 20 + 1 8 22 27 25 14 0 23 27 1 10 25 26 0 30 30 4 + 20 27 0 6 14 23 24 9 0 7 4 7 7 4 6 2 0 2 2 0 0 6 6 0 6 7 4 0 2 6 0 7 1 1 1 3

(f) 3 (g) 1 2 (h) 5 3

(i)

2.2. OPERACOES MATRICIAIS 3 7

15

(j)

3 6

7. Indique o valor lgico das armaes seguintes, justicando: o co (a) Se A, B so matrizes quadradas das mesma ordem ento (AB)n = An B n a a (b) Se A, B so matrizes quadradas das mesma ordem ento (A + B)2 = A2 + 2AB + B 2 a a (c) Se A, B so matrizes quadradas das mesma ordem ento A2 B 2 = (A + B)(A B) a a 8. Dadas matrizes diagonais D1 , D2 quadradas com a mesma ordem, mostre que D1 D2 = D2 D1

2.2.3

Transposio ca

A transposta de uma matriz A = [aij ] Mmn (K), a matriz AT = [bij ] Mnm (K) cuja e entrada (i, j) aji , para i = 1, . . . , n, j = 1, . . . , m. Ou seja, (AT )ij = (A)ji . A matriz e e T = A. simtrica se A e 1 2 1 3 1 2 Como exemplo, a transposta da matriz a matriz e , e a matriz 3 4 2 4 2 3 uma matriz simtrica. e e Repare que a coluna i de AT a linha i de A, e que uma matriz simtrica se e s e e e o se for quadrada e forem iguais os elementos situados em posies simtricas relativamente ` co e a diagonal principal. Exerc cios 1. Indique AT no caso de A ser 1 8 (a) 3 4 2 2 1 4 1 (b) 2 3 0 1 4 5 2. Para as seguintes inferir? 2 (a) A = 3 0 (b) A = escolhas de A e de B, compare (A + B)T com AT + B T . O que pode 4 2 2 1 4 3 4 0 4 T 1 3 0

1 2 2 0 e B = 0 1 3 1 1 4 eB= 4 3 4 3 1

16

CAP ITULO 2. CALCULO MATRICIAL 2 2 0 2 e U = , X = 1 3 4 1 e que (XU )T = U T X T .

0 2 0 0 3. Para S = 2 2 0 2 0 0 3 4 verique que (SX)T = X T S T

0 4 3 1 0 4 1 3 1 1

A transposio de matrizes goza das seguintes propriedades: ca 1. AT


T

= A;

2. (A + B)T = AT + B T ; 3. (A)T = AT , para K; 4. (AB)T = B T AT ; 5. Ak


T

= AT

, k N.

A armao (1) vlida j que ((AT )T )ij = (AT )ji = (A)ij . ca e a a T ) = (A + B) = (A) + (B) = (AT ) + (B T ) . Para (2), ((A + B) ij ji ji ji ij ij T ) = (AB) = T T Para (4), ((AB) ij ji k (A)jk (B)ki = k (B)ki (A)jk = k (B )ik (A )kj = T AT ) . (B ij Para (5), a prova feita por induo no expoente. Para k = 1 a armao trivialmente e ca ca e vlida. Assumamos ento que vlida para um certo k, e provemos que vlida para k + 1. a a e a e a Ora (Ak+1 )T = (Ak A)T =(4) AT (Ak )T = AT (AT )k = (AT )k+1 . Exerc cios 1 2 3 Considere a matriz real A = 4 5 6 . Considere ainda e1 = 7 8 9
T

1 0 0

, e2 =

0 1 0

, e3 =

0 0 1

1. Faa os produtos Ae1 , Ae2 , Ae3 , eT A, eT A, eT A. c 1 2 3


T

2. Compare A(e1 + e2 ) com A

1 1 0

3. Preveja, e conrme, o resultado de


T

(a) A (b) A (c) A (d) A

2 0 0 0 1 0 2 1 0
T T T

1 1 1

2.2. OPERACOES MATRICIAIS 4. Mostre que, para v Rn , se tem v T v = 0 se e s se v = 0. o

17

2.2.4

Invertibilidade

Uma matriz A quadradada de ordem n diz-se invert vel se existir uma matriz B, quadrada de ordem n, para a qual AB = BA = In . Teorema 2.2.2. Seja A Mn (K). Se existe uma matriz B Mn (K) tal que AB = BA = In ento ela unica. a e Demonstrao. Se B e B so matrizes quadradas, n n, para as quais ca a AB = BA = In = AB = B A ento a B = B In = B (AB) = (B A)B = In B = B.

A matriz B do teorema, caso exista, diz-se a inversa de A e representa-se por A1 . 1 0 Por exemplo, a matriz S = no invert a e vel. Por absurdo, suponha que existe 1 0 T , de ordem 2, tal que ST = I2 = T S. A matriz T ento da forma e a ST = x y z w . Ora

x y , que por sua vez iguala I2 , implicando por sua vez x = 1 e y = 0, juntamente x y com x = 0 e y = 1. 1 2 Considere, agora, a matriz real de ordem 2 denida por A = . Esta matriz 2 3 invert e vel. Mais adiante, forneceremos formas de averiguao da invertibilidade de uma ca matriz, bem como algoritmos para calcular a inversa. Por enquanto, verique que a inversa 3 2 de A a matriz X = e . Ou seja, que AX = XA = I2 . 2 1 O que podemos armar sobre o produto de duas matrizes invert veis? Ser ele uma outra a matriz invert vel? Em caso armativo, como se relaciona a inversa da matriz produto face `s a inversas das matrizes? O Teorema seguinte responde a esta questo. a Teorema 2.2.3. Dadas duas matrizes U e V de ordem n, ento U V invert e a e vel (U V )1 = V 1 U 1 .

18 Demonstrao. Como ca

CAP ITULO 2. CALCULO MATRICIAL

(U V ) V 1 U 1 = U V V 1 U 1 = U In U 1 = U U 1 = In e V 1 U 1 (U V ) = V 1 U 1 U V = V 1 In V = V 1 V = In , segue que U V invert e a sua inversa V 1 U 1 . e vel e

Ou seja, o produto de matrizes invert veis de novo uma matriz invert e vel, e iguala o produto das respectivas inversas por ordem inversa. Exerc cios 1. Seja A uma matriz invert vel. Mostre que A1
1

= A.

2. Sejam C uma matriz invert e A = CBC 1 . Mostre que A invert se e s se B vel e vel o e invert vel. 3. Dada uma matriz invert A, mostre que toda a potncia de A tambm invert vel e e e vel.

Duas matrizes A e B, do mesmo tipo, dizem-se equivalentes, e denota-se por A B, se existirem matrizes U, V invert veis para as quais A = U BV . Repare que se A B ento a 1 AV 1 . Pelo B A, j que se A = U BV , com U, V invert a veis, ento tambm B = U a e teorema anterior, se A B ento A invert se e s se B invert a e vel o e vel. Exerc cios Mostre que equivalncia de matrizes uma relao reexiva, simtrica e transitiva, ou seja, A A, e e ca e A B B A, e (A B B C) A C. As matrizes A e B so equivalentes por linhas se existir U invert tal que A = U B. E a vel o bvio que se duas matrizes A e B so equivalentes por linhas, ento so equivalentes, ou seja, a a a A B. Se uma matriz U for invert vel, ento a sua transposta U T tambm invert e U T a e e vel A prova imediata, bastando para tal vericar que e inversa, seguindo o resultado pela unicidade. Segue tambm pela unicidade da inversa que e A1
1 T U 1 . T U 1 1

satisfaz as condies de co

= A,

isto , que a inversa da inversa de uma matriz a prpria matriz. e e o

2.2. OPERACOES MATRICIAIS

19

Vimos, atrs, que o produto de matrizes triangulares inferiores [resp. superiores] de novo a e uma matriz triangular inferior [resp. superior]. O que podemos dizer em relao ` inversa, ca a caso exista? Teorema 2.2.4. Uma matriz quadrada triangular inferior [resp. superior] invert se e e vel s se tem elementos diagonais no nulos. Neste caso, a sua inversa de novo triangular o a e inferior [resp. superior]. Antes de efectuarmos a demonstrao, vejamos a que se reduz o resultado para matrizes ca a11 0 (quadradas) de ordem de 2, triangulares inferiores. Seja, ento, L = a , que a21 a22 x y , donde z w segue, em particular, que a11 x = 1, e portanto a11 = 0 e x = a1 . Assim, como a11 y = 0 e 11 a11 = 0 tem-se que y = 0. Ou seja, a inversa triangular inferior. Como y = 0, o produto e da segunda linha de L com a segunda coluna da sua inversa a22 w, que iguala (I)22 = 1. e 1 Portanto, a22 = 0 e w = a22 . O produto da segunda linha de L com a primeira coluna da sua a inversa a21 a1 + a22 z, que iguala (I)21 = 0. Ou seja, z = a112122 . e a 11 supusemos invert vel. Portanto, existem x, y, z, w K para os quais I2 = L Demonstrao. A prova feita por induo no nmero de linhas das matrizes quadradas. ca e ca u Para n = 1 o resultado trivial. Assuma, agora, que as matrizes de ordem n triangulares e inferiores invert veis so exactamente aquelas que tm elementos diagonais no nulos. Seja a e a A = [aij ] uma matriz triangular inferior, quadrada de ordem n + 1. Particione-se a matriz por blocos da forma seguinte: a11 O , b A onde b n 1, O 1 n e A n n triangular inferior. e e e x Y Por um lado, se A invert ento existe e vel a inversa de A, com x11 , Y1n , Zn1 , Z W Wnn . Logo a11 x = 1 e portanto a11 = 0 e x = a1 . Assim, como a11 Y = 0 e a11 = 0 11 tem-se que Y = 0. O bloco (2, 2) do produto ento AW , que iguala In . Sabendo que e a a11 O 1 0 x Y = , tem-se que tambm W A = In , e portanto A invert e e vel, Z W 0 In b A n n, com (A)1 = W . Usando a hiptese de induo aplicada a A, os elementos diagonais o ca de A, que so os elementos diagonais de A ` excepo de a11 (que j mostrmos ser no nulo) a a ca a a a so no nulos. a a Reciprocamente, suponha que os elementos diagonais de A so no nulos, e portanto que os a a elementos diagonais de A so no nulos. A hiptese de induo garante-nos a invertibilidade a a o ca 1 0 a11 de A. Basta vericar que a inversa de A. e a1 A1 b A1 11 Para nalizar esta seco, e como motivao, considere a matriz V = ca ca 0 1 1 0 . Esta

20

CAP ITULO 2. CALCULO MATRICIAL

matriz invert e vel, e V 1 = V T (verique!). Este tipo de matrizes denominam-se por ortogonais. Mais claramente, uma matriz ortogonal uma matriz (quadrada) invert e vel, e cuja inversa iguala a sua transposta. De forma equivalente, uma matriz A invert vel diz-se ortogonal se AAT = AT A = I. Teorema 2.2.5. 1. A inversa de uma matriz ortogonal tambm ela ortogonal. e e

2. O produto de matrizes ortogonais de novo uma matriz ortogonal. e Demonstrao. (1) Seja A uma matriz ortogononal, ou seja, para a qual a igualdade AT = A1 ca 1 T vlida. Pretende-se mostrar que A1 ortogonal; ou seja, que A1 e a e = A1 . Ora A1 = AT = A1 . (2) Sejam A, B matrizes ortogonais. Em particular so matrizes invert a veis, e logo AB e invert vel. Mais, (AB)1 = B 1 A1 = B T AT = (AB)T .
T 1 1

Exerc cios Considere a matriz A =

2 2

2 2

2 2 2 2

. Mostre que A ortogonal. e

A transconjugada de A a matriz A = AT . Ou seja, (A )ij = (A)ji . Esta diz-se herm e tica = A. (ou hermitiana) se A Sejam A, B matrizes complexas de tipo apropriado e C. Ento a 1. (A ) = A; 2. (A + B) = A + B ; 3. (A) = A ; 4. (AB) = B A ; 5. (An ) = (A )n , para n N; A prova destas armaes anloga ` que apresentmos para a transposta, e ca ao co e a a a cuidado do leitor. Uma matriz unitria uma matriz (quadrada) invert a e vel, e cuja inversa iguala a sua transconjugada. De forma equivalente, uma matriz A invert vel diz-se unitria se AA = a A = I. A Teorema 2.2.6. 1. A inversa de uma matriz unitria tambm ela unitria. a e e a

2. O produto de matrizes unitrias de novo uma matriz unitria. a e a Remetemos o leitor ao que foi referido no que respeitou as matrizes ortogonais para poder elaborar uma prova destas armaes. co

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES

21

2.3
2.3.1

Um resultado de factorizao de matrizes ca


Matrizes elementares

Nesta seco, iremos apresentar um tipo de matrizes que tero um papel relevante em resulca a tados vindouros: as matrizes elementares. Estas dividem-se em trs tipos: e a = 0; Dk (a) = 1 .. . 1 1 a 0 k i = j; Eij (a) = 1 .. . 1 .. . 0 j Pij = 1 .. . 1 0 1 .. 1 . 1 0 1 .. i j . 1 1 a . . . 1 .. . 1 0 i .. . 1 0 k

Ou seja, as matrizes elementares de ordem n so obtidas da matriz identidade In fazendo: a

22

CAP ITULO 2. CALCULO MATRICIAL para Dk (a), substituindo a entrada (k, k) por a; para Eij (a), substituindo a entrada (i, j) por a; para Pij , trocando as linhas i e j (ou de outra forma, as colunas i e j).

o E bvio que D (1) = Eij (0) = Pkk = In . A primeira propriedade que interessa referir sobre estas matrizes que so invert e a veis. Mais, para a, b K, a = 0, 1 (Dk (a))1 = Dk a (Eij (b))1 = Eij (b), para i = j (Pij )1 = Pij A segunda, relevante para o que se segue, indica outro o modo de se obter as matrizes Dk (a) e Eij (a) da matriz identidade, cujas linhas so denotadas por l1 , l2 , . . . , ln : a para Dk (a), substituindo a linha k por a lk ; para Eij (a), substituindo a linha i por li + a lj . Aplicando o mesmo racioc nio, mas considerando as colunas c1 , c2 , . . . , cn da matriz identidade: para Dk (a), substituindo a coluna k por a ck ; para Eij (a), substituindo a coluna j por cj + a ci .

O que sucede se, dada uma matriz A, a multiplicarmos ` esquerda ou ` direita1 por uma a a matriz elementar? Vejamos com alguns exemplos, tomando 4 2 0 1 A = 1 1 0 , P = P12 , E = E31 (2), D = D2 . 2 2 1 4 Vamos determinar o produto DEP A. Calcularemos primeiro P A, a este produto fazemos a multiplicao, ` esquerda, por E, e nalmente ao produto obtido a multiplicao por D, de ca a ca 1 1 0 novo ` esquerda. Como exerc a cio, verique que P A = 4 2 0 . Qual a relao entre ca 2 1 4 A e P A? Repare que ocorreu uma troca da primeira e da segunda linha de A. Que por sinal foram as mesmas trocas que se efectuaram a I3 de forma a obtermos P12 .
Recorde que o produto matricial no , em geral, comutativo, pelo que relevante a distinao dos dois a e e c casos.
1

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES

23

1 1 0 ` A matriz P A, multiplicamo-la, ` esquerda, por E, para obtermos EP A = 4 2 0 . a 0 3 4 Repare que a linha 3 de EP A foi obtida somando ` a terceira linha de P A o simtrico do dobro e 1 1 0 da sua linha 1. Finalmente DEP A = 2 1 0 . 0 3 4 Exerc cios

1. Considere as matrizes 3 3 elementares E = E3,1 (2), P = P1,2 , D = D2 (2). (a) Descreva como foram obtidas ` custa das linhas/colunas da matriz I3 . a (b) Indique a inversa de cada uma delas. 3 2 1 (c) Considere A = 8 c 3 3 . Faa os produtos DA, EA, P A. Relacione-as com 2 1 7 A. Recorde o que fez na al nea (a). (d) Repita a al nea anterior, mas agora com os produtos AD, AE, AP . 2. Considere 5 A= 8 3 as 1 0 0 matrizes E2,1 (2), E3,1 (1), E3,2 (2) do tipo 3 3. Considere ainda a matriz 3 4 . 10

(a) Relacione os produtos E2,1 (2)A, E3,1 (1)A, E3,2 (2)A e os produtos AE2,1 (2), AE3,1 (1) e AE3,2 (2) com A. 5 1 3 (b) Indique uma matriz P1 tal que P1 A = 3 0 10 . 8 0 4 1 5 3 (c) Indique uma matriz P2 tal que AP2 = 0 8 4 . 0 3 10 (d) Indique uma matriz D1 tal que D1 A a matriz obtida de A cuja segunda linha surge e dividida por 2. (e) Indique uma matriz D2 tal que AD2 a matriz obtida de A cuja terceira coluna surge e multiplicada por 4.

Uma matriz permutao de ordem n uma matriz obtida de In ` custa de trocas de suas ca e a linhas (ou colunas). Aqui entra o conceito de permutao. Uma permutao no conjunto ca ca

24

CAP ITULO 2. CALCULO MATRICIAL

Nn = {1, 2, . . . , n} uma bijeco (ou seja, uma aplicao simultaneamente injectiva e soe ca ca brejectiva) de Nn em Nn . Uma permutao : Nn Nn pode ser representada pela tabela ca 1 2 n . Para simplicar a escrita, habitual omitir-se a primeira linha, e (1) (2) (n) j que a posio da imagem na segunda linha indica o (nico) objecto que lhe deu origem. a ca u Denio 2.3.1. O conjunto de todas as permutaes em Nn denotado por Sn e denomica co e nado por grupo simtrico. e Como exemplo, considere a permutao = (2, 1, 5, 3, 4) S5 . Tal signica que ca (1) = 2, (2) = 1, (3) = 5, (4) = 3, (5) = 4. Note que Sn tem n! = n(n1)(n2) . . . 21 elementos. De facto, para = (i1 , i2 , . . . , in ) Sn , i1 pode tomar n valores distintos. Mas i2 apenas pode tomar um dos n 1 restantes, j que no se podem repetir elementos. E assim por diante. Obtemos ento n! permutaes a a a co distintas. Dada a permutao = (i1 , i2 , . . . , in ) Sn , se 1 j < k n e ij > ik ento ij > ik ca a diz-se uma inverso de . Na permutao = (2, 1, 5, 3, 4) acima exemplicada existem a ca trs inverses, j que (1) > (2), (3) > (4), (3) > (5). O sinal de uma permutao e o a ca , denotado por sgn(), toma o valor +1 caso o nmero de inverses seja par, e 1 caso u o contrrio. Portanto, sgn() = 1. As permutaes com sinal +1 chamam-se permutaes a co co pares (e o conjunto por elas formado chama-se grupo alterno, An ), e as cujo sinal 1 e denominam-se por permutaes co mpares. Uma transposio uma permutao que xa todos os pontos ` excepo de dois. Ou ca e ca a ca seja, Sn uma transposio se existirem i, j distintos para os quais (i) = j, (j) = i e ca e (k) = k para todo o k diferente de i e j. Verica-se que toda a permutao se pode ca escrever como composio de transposies 1 , 2 , . . . , r . Ou seja, = 1 2 r . ca co Esta decomposio no unica, mas quaisquer duas decomposies tm a mesma paridade ca a e co e de transposies. Ou seja, se existe uma decomposio com um nmero par [resp. co ca u mpar] de intervenientes, ento qualquer outra decomposio tem um nmero par [resp. a ca u mpar] de transposies. Mais, esse nmero tem a mesma paridade da do nmero de inverses. Por co u u o consequncia, o sinal de qualquer transposio 1. A permutao denida atrs pode-se e ca e ca a decompor como (2, 1, 5, 3, 4) = (2, 1, 3, 4, 5) (1, 2, 5, 4, 3) (1, 2, 4, 3, 5). O conjunto das permutaes Sn pode ser identicado com o conjunto das matrizes perco mutao de ordem n, em que a composio de permutao de uma forma natural identicado ca ca ca e com o produto de matrizes. A matriz permutao P associada ` permutao a matriz ca a ca e obtida de I5 realizando as trocas de linhas segundo . Para fcil compreenso, vejamos um exemplo. Considere-se a permutao = (2, 1, 5, 3, 4) a a ca e a matriz P associada a . seja, P a matriz obtida de I5 realizando as trocas de linhas Ou e 0 1 0 0 0 1 0 0 0 0 segundo , e portanto P = 0 0 0 0 1 . Na primeira linha de P surge a segunda de 0 0 1 0 0 0 0 0 1 0

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES

25

I5 , na segunda a primeira, na terceira a quinta de I5 , e assim por diante. Toda a matriz permutao pode-se escrever como produto de matrizes da forma Pij , tal ca como denidas atrs. Tal consequncia da existncia de uma decomposio da permutao a e e e ca ca em transposies. Note que as transposies se identicam com as matrizes Pij . co co Voltemos ao exemplo acima, considerando as matrizes Pi,j associadas `s transposies na a co decomposio de enunciadas atrs. Ou seja, as matrizes P1,2 , P3,5 e P3,4 . Verica-se que ca a P = P1,2 P3,5 P3,4 . Operaes elementares sobre as linhas de A so as que resultam pela sua multiplicao co a ca a ` esquerda por matrizes elementares. Ou seja, so operaes elementares por linhas de uma a co matriz a troca de duas linhas, a multiplicao de uma linha por um escalar no nulo, ca a a substituio de uma linha pela sua soma com um mltiplo de outra linha. ca u De forma anloga se denem as operaes elementares sobre as colunas de uma matriz, a co sendo a multiplicao por matrizes elementares feita ` direita da matriz. Na prtica, tal ca a a resulta em substituir a palavralinha pela palavra coluna na descrio acima. ca 2 4 6 Considere a matriz A = 1 4 2 . Em primeiro lugar, e efectuando operaes co 1 0 1 elementares nas linhas de A, tentaremos obter zeros por debaixo da entrada (A)11 . Ou seja, 2 4 6 pretendemos obter algo como 0 ? ? . Substitua-se a segunda linha, l2 , pela sua soma 0 ? ? com o simtrico de metade da primeira. Ou seja, e 2 4 6 2 4 6 1 1 4 2 l2 l2 l1 0 2 1 2 1 0 1 1 0 1 1 0 0 c Tal corresponde a multiplicar ` esquerda a matriz A por E21 ( 1 ) = 1 1 0 . Faamos a 2 2 0 0 1 o mesmo racioc nio para a terceira linha: 2 4 6 2 4 6 2 4 6 1 1 1 4 2 l2 l2 l1 0 2 1 l3 l3 + l1 0 2 1 2 2 1 0 1 1 0 1 0 2 4 Tal correspondeu a multiplicar o produto obtido no passo Ou seja, e at ao momento, obteve-se e 2 4 6 1 1 E31 ( )E21 ( )A = 0 2 1 2 2 0 2 4
1 anterior, ` esquerda, por E31 ( 2 ). a

= B.

26

CAP ITULO 2. CALCULO MATRICIAL

Todos os elementos na primeira coluna de B, ` excepo de (B)11 , so nulos. Concentremoa ca a nos agora na segunda coluna, e na segunda linha. Pretendem-se efectuar operaes elemen co 2 4 6 tares nas linhas de B por forma a obter uma matriz da forma 0 2 1 . Para tal, 0 0 ? 2 4 6 2 4 6 0 2 1 l3 l3 l2 0 2 1 = U. 0 2 4 0 0 5 Ou seja, multiplicou-se B, ` esquerda, pela matriz E32 (1). a E32 (1)B = U podemos concluir que 2 1 1 E32 (1)E31 ( )E21 ( )A = U = 0 2 2 0 Como B = E31 ( 1 )E21 ( 1 )A e 2 2 4 6 2 1 0 5

Repare que U uma matriz triangular superior, e que neste exemplo tem elementos diagonais e no nulos, e portanto uma matriz invert a e vel. Como as matrizes elementares so invert a veis 1 e e vel. Note e (E32 (1)E31 ( 1 )E21 ( 2 ))1 U = A, segue que a matriz A tambm ela invert 2 1 1 ainda que (E32 (1)E31 ( 2 )E21 ( 2 ))1 = E21 ( 1 )E31 ( 1 )E32 (1). A estratgia descrita acima e 2 2 aplicada ` matriz A denominada por algoritmo de eliminao de Gauss. O resultado nal foi a e ca a factorizao A = LU , onde U uma matriz triangular superior (veremos mais adiante que de ca e facto pertence a uma subclasse desse tipo de matrizes) e L uma matriz invert triangular e vel inferior (por ser a inversa de produto de matrizes invert veis triangulares inferiores). Nem sempre poss percorrer estes passos do algoritmo, para uma matriz dada arbitrariamente. e vel Veremos, na prxima seco, que modicaes se realizam na estratgia apresentada acima o ca co e por forma a que se garanta algum tipo de factorizao. ca O exemplo escolhido foi, de facto, simples na aplicao. Alguns passos podem no ser ca a poss veis, nomeadamente o primeiro. Repare que o primeiro passo envolve uma diviso (no a nosso caso, dividimos a linha 1 por (A)11 ). A propsito, os elementos-chave na diviso, ou de o a forma mais clara, o primeiro elemento no nulo da linha a que vamos tomar um seu mltiplo a u denomina-se por pivot. Ora esse pivot tem que ser no nulo. E se for nulo? Nesse caso, a trocamos essa linha por outra mais abaixo que tenha, nessa coluna, um elemento no nulo. a E se todos forem nulos? Ento o processo terminou para essa coluna e consideramos a coluna a seguinte. Apresentamos dois exemplos, um para cada um dos casos descritos: 0 1 2 0 1 1 1 1 2 ; 0 6 7 . 3 2 9 0 1 2 No primeiro caso, a troca da primeira linha pela linha dois ou trs resolve o problema. No e segundo caso, aplicamos a estratgia a partir da segunda coluna. Recorde que a troca da e linha i pela linha j uma operao elementar de linhas que corresponde ` multiplicao, ` e ca a ca a esquerda, por Pij . Apresentamos, de seguida, o algoritmo de eliminao de Gauss de uma forma mais formal. ca

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES

27

2.3.2

O Algoritmo de Eliminao de Gauss ca

O Algoritmo de Eliminao de Gauss, (abrev. AEG), segue os passos que em baixo se desca crevem: Seja A uma matriz m n no nula. a 1. Assuma que (A)11 = 0. Se tal no acontecer, ento troque-se a linha 1 com uma linha a a i para a qual (A)i1 = 0. Ou seja, multiplique A, ` esquerda, por P1i . Para simplicar a a notao, A denotar tanto a matriz original como a obtida por troca de duas das ca a suas linhas. A (A)11 chamamos pivot do algoritmo. Se todos os elementos da primeira coluna so nulos, use 2. a 2. Se a estratgia indicada no passo 1 no for poss (ou seja, os elementos da primeira e a vel coluna so todos nulos), ento aplique de novo o passo 1 ` submatriz obtida de A a a a retirando a primeira coluna. 3. Para i = 2, . . . , m, e em A, substitua a linha i pela sua soma com um mltiplo da u linha 1 por forma a que o elemento obtido na entrada (i, 1) seja 0. Tal corresponde a (A)i1 multiplicar a matriz A, ` esquerda, por Ei1 (A)11 . a 4. Repita os passos anteriores ` submatriz da matriz obtida pelos passos descritos, a que a se retirou a primeira linha e a primeira coluna. Aps se aplicar o passo 3 em todas as linhas e na primeira coluna, e supondo que (A)11 = 0, o a matriz que se obtem tem a forma seguinte: (A)11 (A)12 (A)13 (A)1n 0 ? ? ? 0 ? ? ? . . . . ? ? ? 0 ? ? ? Ou seja, e por operaes elementares de linhas, podemos obter de A uma matriz com a co (A)11 forma . O algoritmo continua agora aplicado ` matriz A segundo os pasa 0 A sos 1, 2 e 3. Note que as operaes elementares operadas nas linhas de A so tambm co a e (A)11 elas operaes elementares realizadas nas linhas de co . As operaes elementaco 0 A res efectuadas em A do origem a uma matriz da forma a (A)11 0 (A)11 = 0. Essas operaes elementares aplicadas `s linhas de co a A (A)11 0 A do lugar ` maa a , onde consideramos

(A)11 . . . (A)1m (A)11 o a a triz 0 . Note que se sups que as entradas (i, i) so no nulas, ou que 0 0 A

28

CAP ITULO 2. CALCULO MATRICIAL

existe uma troca conveniente de linhas por forma a se contornar essa questo. Como bvio, a eo tal pode no ser poss a vel. Nesse caso aplica-se o passo 2. Ou seja, e quando tal acontece, tal corresponde ` no existncia de pivots em colunas consecutivas. Como exemplo, considere a a a e 2 2 2 2 matriz M = 2 2 2 0 . Multiplicando esta matriz, ` esquerda, por E31 ( 1 )E21 (1), a 2 1 1 0 1 ou seja, substiuindo a linha 2 pela sua soma com o simtrico da linha1, e a linha 3 pela e 2 2 2 2 sua soma com metade do simtrico da linha 1, obtemos a matriz M2 = 0 0 0 2 . e 0 0 1 0 0 0 2 . Note que a esta submatriz 0 1 0 teremos que aplicar (2) por impossibilidade de se usar (1); de facto, no h elementos no a a a nulos na primeira coluna de M . Seja, ento, M2 a matriz obtida de M a que retirou a pria 0 2 a . E necessrio fazer a troca das linhas por forma meira coluna; ou seja, M2 = 1 0 a obtermos um elemento no nulo que ter as funes pivot. Essa troca de linhas uma a a co de e 2 2 2 2 operao elementar tambm na matriz original M2 = 0 0 0 2 . Tal corresponde ca e 0 0 1 0 a multiplic-la, ` esquerda, por P23 . Repare que, sendo os elementos nas linhas 2 e 3 e nas a a colunas 1 e 2 nulos, a troca das linhas de facto apenas altera as entradas que esto simultaa neamente nas linhas envolvidas e nas entradas ` direita do novo pivot. Obtemos, assim, a a 2 2 2 2 matriz 0 0 1 0 . A matriz obtida tem uma particularidade: debaixo de cada pivot 0 0 0 2 todos os elementos so nulos. a Como foi referido, a matriz obtida por aplicao dos passos descritos no Algoritmo de ca Eliminao de Gauss tem uma forma muito particular. De facto, debaixo de cada pivot todos ca os elementos so nulos. A esse tipo de matriz chamamos matriz escada (de linhas). Uma a matriz A = [aij ] matriz escada (de linhas) se e Aplicamos agora o algoritmo ` submatriz M = a (i) se aij = 0 com aik = 0, para k < j, ento alk = 0 se k j e l > i; a (ii) as linhas nulas surgem depois de todas as outras. Sempre que o contexto o permita, diremos matriz escada para signicar matriz escada de linhas. 2 2 2 2 A matriz U = 0 0 1 0 uma matriz escada (de linhas) que se obteve de M por e 0 0 0 2 o aplicao dos passos (1)(4). E bvio que uma matriz escada triangular superior, mas o ca e 0 1 rec proco no vlido em geral. Como exemplo, considere a matriz a e a . 0 1

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES

29

Teorema 2.3.2 (Factorizao P A = LU ). Dada uma matriz A, existem matrizes P perca mutao, L triangular inferior com 1s na diagonal principal e U matriz escada para as quais ca P A = LU . Ou seja, a matriz A iguala P 1 LU . Portanto, toda a matriz equivalente por linhas a e uma matriz escada de linhas. Antes de procedermos ` prova deste resultado, abrimos um parnteses para apresentarmos a e dois exemplos que servem de motivao ao lema que se segue. ca 0 3 2 Considere a matriz A = 1 3 0 . A troca da primeira com a segunda linhas 1 3 5 1 3 0 d origem ` matriz A = 0 3 2 , a qual, e usando o AEG descrito atrs, satisfaz a a a 1 3 5 1 3 0 E32 (2)E31 (1)A = 0 3 2 . Ou seja, existem matrizes P permutao, L triangular ca 0 0 1 inferior com 1s na diagonal e U matriz escada para as quais P A = LU . Para tal, basta tomar 0 1 0 1 3 0 P = 1 0 0 , L = (E32 (2)E31 (1))1 = E31 (1)E32 (2), e U = 0 3 2 . 0 0 1 0 0 1 1 1 1 1 1 1 Considere agora a matriz M = 0 0 1 . Ora E31 (1)M = 0 0 1 , o que 1 0 1 0 1 0 1 1 1 fora a troca da segunda pela terceira linha. Obtemos, assim, P23 E31 (1)M = 0 1 0 , c 0 0 1 que uma matriz escada. Neste caso, como se obtm as matrizes P, L, U do teorema? Ao e e contrrio do exemplo anterior, a realizao matricial das operaes elementares por linhas do a ca co AEG no nos fornece, de forma imediata, essa factorizao. No entanto, poder-se-ia escrever a ca 1 1 1 1 1 1 1 E31 (1)M = P23 0 1 0 , j que P23 = P23 , e portanto M = E31 (1)P23 0 1 0 , a 0 0 1 0 0 1 1 = E (1). Note que E (1)P pois E31 (1) a 31 31 23 = P23 E31 (1). No obstante, repare que 1 1 1 E31 (1)P23 = P23 E21 (1), donde M = P23 E21 (1) 0 1 0 , e portanto P A = LU , com 0 0 1 1 1 1 P = P23 , L = E21 (1) e U = 0 1 0 . 0 0 1 Lema 2.3.3. Para i, k, l > j, e para todo o a K, vlida a igualdade Eij (a)Pkl = Pkl Elj (a). e a Demonstrao. Se k = i, ento a igualdade bvia. ca a eo

30

CAP ITULO 2. CALCULO MATRICIAL

Suponha que k = i. Pretende-se mostrar que Eij (a)Pil = Pil Elj (a), com i, l > j. Sendo Pil Elj (a) a matriz obtida de Elj (A) trocando as linhas i e l, e visto a linha l de Elj (a) ser [0 0 a 0 j 0 1 0 l 0]

ento a linha i de Pil Elj (a) a e [0 0 a 0 j 0 1 0 l 0] .

Eij (a)Pil a matriz obtida de Pil a que ` linha i se somou a linha j de Pil multiplicada e a por a. Sendo a linha i de Pil [0 0 0 1 0 l 0]

e a linha j de Pil , e j que j < i, l, a [0 0 0 1 0 j 0]

segue que a linha i de Eij (a)Pil a soma e [0 0 0 1 0 l 0]+ a [0 0 0 1 0 j 0]

= [0

0 a 0 j

0 1 0 l

0]

Para k = i, a linha k de Eij (a)Pil a linha k de Pil , sendo esta a linha k da matriz e identidade se k = l, ou a linha i da identidade se k = l. Por sua vez, a linha k de Pil Elj (a) e a linha k da ientidade se k = l, ou a linha i de In se k = l. e Demonstrao do teorema 2.3.2. A prova segue da aplicao do algoritmo de eliminao de ca ca ca Gauss, fazendo-se uso do lema para se obter a factorizao da forma U = P LA, onde os ca pivots do algoritmo so o primeiro elemento no nulo de cada linha (no nula) de U . a a a Exerc cios

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES 8 2 3 1. Considere a matriz A = 4 3 2 . 1 2 1


1 (a) Calcule B = E21 ( 2 )A.

31

(b) Indique uma matriz elementar da forma Eij () tal que C = Eij ()B seja uma matriz com as entradas (2, 1) e (3, 1) nulas. (c) Indique uma matriz elementar E tal que EC uma matriz triangular superior. e (d) Indique uma matriz invert K triangular inferior tal que KA triangular superior. vel e (e) Mostre existe uma matriz triangular superior U e L triangular inferior invert para vel as quais A = LU . (f) Conclua que a matriz A e 2 2. Considere a matriz A = 1 3 invert vel. 4 3 4 0 . 1 1

(a) Indique uma matriz invert K triangular inferior tal que KA triangular superior. vel e (b) Mostre existe uma matriz triangular superior U e L triangular inferior invert para vel as quais A = LU . (c) Conclua que a matriz A invert e vel. 0 2 1 3. Considere a matrizA = 1 2 1 . 1 0 1 1 2 1 (a) Indique uma matriz P tal que P A = 0 2 1 . 1 0 1 (b) Indique uma matriz invert K triangular inferior tal que KP A triangular superior. vel e (c) Mostre existe uma matriz triangular superior U e L triangular inferior invert para vel as quais P A = LU . (d) Conclua que a matriz A invert e vel. 4. Considere matrizes 3 3. (a) Mostre que E31 (2)P23 = P23 E21 (2). (b) Mostre que E32 (1)P13 = P13 E12 (1). (c) Indique uma matriz permutao P e uma matriz elementar da forma Eij () para as ca quais E21 (3)P23 = P Eij (). (d) Indique uma matriz permutao P e uma matriz elementar da forma Eij () para as ca quais P32 E21 (1) = Eij ()P .

32 1 2 3 5. Considere a matriz A = 2 4 7 . 1 1 2

CAP ITULO 2. CALCULO MATRICIAL

(a) Indique uma matriz Y , ` custa de produtos de matrizes elementares, tal que Y A a e triangular superior. (b) Deduza que A invert e vel. e (c) Factorize Y = K P , onde P uma matriz permutao e K triangular inferior. ca e (d) Mostre existe uma matriz permutao P , uma triangular ca inferior invert para as quais P A = LU . vel 0 6. Encontre uma factorizao da forma P A = LU para A = 0 ca 1 superior U e L triangular 1 0 2 1 0 2 . 0 0 1

A caracter stica de uma matriz A, denotada por car(A), por c(A) ou ainda por rank(A), o nmero de linhas no nulas na matriz escada U obtida por aplicao do Algoritmo de e u a ca Eliminao de Gauss. Ou seja, e sabendo que toda a linha no nula de U tem exactamente 1 ca a pivot que corresponde ao primeiro elemento no nulo da linha, a caracter a stica de A o nmero e u de pivots no algoritmo (ainda que o ultimo possa no ser usado, por exemplo, no caso de estar a 2 2 2 2 na ultima linha). Note ainda que car(A) = car(U ). Por exemplo, car 2 2 2 0 = 3, j a 1 1 0 1 que a matriz escada obtida desta tem 3 linhas no nulas. a Uma matriz quadrada A de ordem n diz-se no-singular se car(A) = n. Ou seja, A a e no-singular se forem usados n pivots no algoritmo de eliminao de Gauss. Uma matriz a ca e singular se no for no-singular. a a Teorema 2.3.4. As matrizes no-singulares so exactamente as matrizes invert a a veis. Demonstrao. Seja A uma matriz quadrada, e U a matriz escada obtida de A por Gauss. ca Por um lado, se A invert e vel, e como A U , segue que U invert e vel, quadrada. Como U triangular superior, no pode ter linhas nulas caso contrrio teria um elemento diagonal e a a nulo, o que contraria a invertibilidade de U . Por outro lado, se A no-singular ento U no tem linhas nulas. Como cada coluna de e a a a U tem no mximo 1 pivot, e existem n linhas e n pivots, ento cada linha tem exactamente a a 1 pivot. Ou seja, os elementos diagonais de U so no nulos. Como U triangular superior, a a e segue que U invert e vel, e portanto A invert visto A U . e vel Teorema 2.3.5. Se A uma matriz no-singular, ento existe uma matriz P permutao e a a ca tal que P A factorizvel, de forma unica, como P A = LU , onde L triangular inferior com e a e 1s na diagonal e U uma matriz triangular superior com elementos diagonais no nulos. e a

2.3. UM RESULTADO DE FACTORIZACAO DE MATRIZES

33

Demonstrao. A existncia de tal factorizao consequncia do teorema 2.3.2. Repare que, ca e ca e e sendo a matriz no singular, tal signica que os pivots esto presentes em todas as colunas a a de U . Assim, os elementos diagonais de U so os pivots, sendo estes no nulos. Resta-nos a a provar a unicidade. Para tal, considere as matrizes L1 , L2 triangulares inferiores com 1s na diagonal, e as matrizes U1 , U2 triangulares superiores com elementos diagonais diferentes de zero, matrizes essas que satisfazem P A = L1 U1 = L2 U2 . Portanto, L1 U1 = L2 U2 , o que 1 implica, e porque L1 , U2 so invert a veis (porqu?), que U1 U2 = L1 L2 . Como L1 , U2 so, e a 1 1 respectivamente, triangulares inferior e superior, ento L1 e U2 so tambm triangulares a a e 1 inferior e superior, respectivamente. Recorde que sendo a diagonal de L1 constituida por 1s, ento a diagonal da sua inversa tem tambm apenas 1s. Daqui segue que L1 L2 triangular a e e 1 1 inferior, com 1s na diagonal, e que U1 U2 triangular superior. Sendo estes dois produtos e iguais, ento L1 L2 uma matriz diagonal, com 1s na diagonal; ou seja, L1 L2 = I, e a e 1 1 portanto L1 = L2 . Tal leva a que L1 U1 = L1 U2 , o que implica, por multiplicao ` esquerda ca a por L1 , que U1 = U2 . 1 Exerc cios 1 3 1 1. Considere a matriz A = 2 4 2 . 2 2 3 (a) Explique como se obteve E2,1 (2) ` custa das linhas de I3 , e como se obteve E2,1 (2)A a ` custa das linhas de A. a (b) Efectue os passos seguintes do Algoritmo de Eliminao de Gauss para obter a matriz ca escada U equivalente por linhas a A. (c) Use as matrizes elementares de (a) para construir a matriz V tal que V A = U . Diga por que razo V invert a e vel. (d) Use a al nea anterior para determinar L triangular inferior tal que A = LU . (e) Indique a caracter stica da 4 2. Considere a matriz B = 2 2 matriz A. Diga, justicando, se a matriz invert e vel. 2 2 2 0 5 1 . 3 5 4

(a) Efectue os passos do Algoritmo de Eliminao de Gauss para obter a matriz escada U ca equivalente por linhas a B. Identique os pivots. (b) Use as matrizes elementares de (a) para construir a matriz V tal que V B = U . Diga por que razo V invert a e vel. (c) Encontre a decomposio LU de B. ca (d) Indique a caracter stica da matriz B.

34 3. Considere a matriz C = 1 2 3 2 1 5 1 4 3 2 1 1 .

CAP ITULO 2. CALCULO MATRICIAL

(a) Efectue os passos do Algoritmo de Eliminao de Gauss para obter a matriz escada U ca equivalente por linhas a C. (b) Use as matrizes elementares de (a) para construir a matriz V tal que V C = U . Diga por que razo V invert a e vel. (c) Indique a caracter stica da matriz C. 0 3 2 4. Considere a matriz G = 1 3 0 . 2 3 5 (a) Efectue os passos do Algoritmo de Eliminao de Gauss para obter a matriz escada U ca equivalente por linhas a G. (b) Use as matrizes elementares de (a) para construir uma matriz V tal que V G = U . e Diga por que razo V invert a e vel. Verique se V triangular inferior. (c) Indique a caracter stica da matriz G. 5. Calcule a caracter stica das matrizes seguintes, fazendo uso do Algoritmo de Eliminao de ca Gauss. 6 3 4 0 1 3 1 A = 1 2 5 , B = 1 2 4 3 , C = 0 0 0 , 3 2 1 1 3 2 2 0 1 2 4 3 1 0 1 6 5 1 2 3 1 1 0 3 2 9 1 D = 6 . ,E = ,F = 1 3 2 3 1 2 1 4 1 2 6 11 3 6 2 5 2 7 5 0 1 3 6. Determine k R por forma que a caracter stica da matriz 1 1 1 1 F = 2 1 2 1 1 2 1 k seja inferior a 3.

2.4. DETERMINANTES

35

2.4
2.4.1

Determinantes
Denio ca
a b c d a b c d = e suponha que a = 0. Aplicando o AEG, obtemos a a b 0 bc + d a . Ou seja, a matriz A equivalente por e

Considere a matriz A = factorizao ca 1 c a 0 1

linhas ` matriz U = a

a b bc 0 a +d

, que uma matriz triangular superior. Recorde que A e

invert se e s se U for invert e vel o vel. Ora, a matriz U invert se e s se bc + d = 0, ou e vel o a de forma equivalente, se ad bc = 0. Portanto, A invert se e s se ad bc = 0. e vel o Este caso simples serve de motivao para introduzir a noo de determinante de uma ca ca matriz. Na denio que se apresenta de seguida, Sn indica o grupo simtrico (ver Denio 2.3.1). ca e ca

Denio 2.4.1. Seja A uma matriz quadrada de ordem n. O determinante de A, denotado ca por det A ou |A|, o escalar denido por e sgn() a1(1) a2(2) an(n) .
Sn

Vejamos o que resulta da frmula quando consideramos matrizes 2 2 e matrizes 3 3. o a11 a12 . Neste caso, o grupo simtrico S2 tem apenas as permutaes e co a21 a22 1 = (1 2) e 2 = (2 1), sendo que sgn(1 ) = 1 e que sgn(2 ) = 1. Recorde que 1 (1) = 1, 1 (2) = 2, 2 (1) = 2 e 2 (2) = 1. Obtemos, ento, |A| = a11 a22 a12 a21 . a Seja A =
11 00 11 00 11 00 1111111111111 0000000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 1111111111111 0000000000000 11 00 11 00 11 00

Figura 2.1: Esquema do clculo do determinante de matrizes de ordem 2 a a11 a12 a13 Seja agora A = a21 a22 a23 . Recorde que S3 tem 6 elementos. No quadro seguinte, a31 a32 a33 indicamos, respectivamente, a permutao S3 , o seu sinal, e o produto a1(1) a2(2) an(n) . ca

36 Permutao S3 ca (1 2 3) (2 3 1) (3 1 2) (1 3 2) (2 1 3) (3 2 1) Obtemos, assim, sgn() +1 +1 +1 1 1 1

CAP ITULO 2. CALCULO MATRICIAL a1(1) a2(2) an(n) a11 a22 a33 a12 a23 a31 a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31

|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31 Para fcil memorizao, pode-se recorrer ao esquema apresentado de seguida. a ca
111111111111111111111 000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 111111111111111111111 000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111 00000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000000

11 00 11 00 11 00 11 00

11 00 11 00

11 00 11 00

11 00 11 00

11 00 11 00

Figura 2.2: Esquema do clculo do determinante de matrizes de ordem 3, ou a Regra de a Sarrus

2.4.2

Propriedades

So consequncia da denio os resultados que de seguida apresentamos, dos quais omitimos a e ca a demonstrao. ca Teorema 2.4.2. Seja A uma matriz quadrada. 1. Se A tem uma linha ou uma coluna nula ento |A| = 0. a 2. |A| = |AT |. 3. Se A triangular (inferior ou superior) ento |A| = e a
i=1,...,n

(A)ii .

4. |Pij | = 1, |Dk (a)| = a, |Eij (a)| = 1, com i = j. Daqui segue que |In | = 1. Segue tambm que dada uma matriz tringular (inferior ou supee rior) que esta invert se e s se tiver determinante no nulo. Mais adiante, apresentaremos e vel o a um resultado que generaliza esta equivalncia para matrizes quadradas no necessariamente e a triangulares. Teorema 2.4.3. Dada uma matriz A quadrada, a K,

2.4. DETERMINANTES 1. |Di (a)A| = a|A| = |ADi (a)|; 2. |Pij A| = |APij | = |A|; 3. |Eij (a)A| = |A| = |AEij (a)|.

37

Como |Di (A)| = a, |Pij | = 1 e |Eij (a)| = 1, segue que |Di (a)A| = |Di (a)||A|, |Pij A| = |Pij ||A| e que |Eij (a)A| = |Eij (a)||A|. Repare ainda que, se A n n, vlida a igualdade e e a n n |A|, j que A = |A| = a a i=1 Di ()A. De forma anloga, dada uma matriz diagonal D com elementos diagonais d1 , d2 , . . . , dn , tem-se |DA| = d1 d2 dn |A| = |D||A|. Corolrio 2.4.4. Uma matriz com duas linhas/colunas iguais tem determinante nulo. a Demonstrao. Se a matriz tem duas linhas iguais, digamos i e j, basta subtrair uma ` outra, ca a que corresponde a multiplicar ` esquerda pela matriz Eij (1). A matriz resultante tem uma a linha nula, e portanto tem determinante zero. Para colunas iguais, basta aplicar o mesmo racioc nio a AT . O corolrio anterior pass de ser generalizado considerando no linhas iguais, mas tal a e vel a que uma linha se escreva como soma de mltiplos de outras linhas. O mesmo se aplica a u colunas. Corolrio 2.4.5. Tem determinante nulo uma matriz que tenha uma linha que se escreve a como a soma de mltiplos de outras das suas linhas. u Demonstrao. Suponha que a linha i, i , de uma matriz A se escreve como a soma de ca mltiplos de outras das suas linhas, ou seja, que i = jJ j j = j 1 j1 +j2 j2 + +js js . u A linha i de Eij1 (j1 )A a matriz obtida de A substituindo a sua linha i por i j1 j1 = e j2 j2 + + js js . Procedemos ao mesmo tipo de operaes elementares por forma a co obtermos uma matriz cuja linha i nula. Como o determinante de cada uma das matrizes e obtidas por operao elementar de linhas iguala o determinante de A, e como a ultima matriz ca tem uma linha nula, e logo o seu determinante zero, segue que |A| = 0. e Corolrio 2.4.6. Seja U a matriz obtida da matriz quadrada A por Gauss. Ento |A| = a a r |U |, onde r indica o nmero de trocas de linhas no algoritmo. (1) u Sabendo que uma matriz invert se e s se a matriz escada associada (por aplicao e vel o ca de Gauss) invert e vel, e que esta sendo triangular superior invert e vel se e s se os seus o elementos diagonais so todos no nulos, segue que, e fazendo uso de resultados enunciados e a a provados anteriormente, Corolrio 2.4.7. Sendo A uma matriz quadrada de ordem n, as armaes seguintes so a co a equivalentes: 1. A invert e vel; 2. |A| = 0; 3. car(A) = n;

38 4. A no-singular. e a

CAP ITULO 2. CALCULO MATRICIAL

Portanto, uma matriz com duas linhas/colunas iguais no invert a e vel. Mais, uma matriz que tenha uma linha que se escreva como soma de mltiplos de outras das suas linhas no u a e invert vel. Teorema 2.4.8. Seja A e B matrizes n n. |AB| = |A||B|. Demonstrao. Suponha que A invert ca e vel. Existem matrizes elementares E1 , . . . , Es e uma matriz escada (de linhas) U tal que A = E1 E2 . . . Es U . Ora existem tambm Es+1 , . . . , Er matrizes elementares, e U1 matriz e T = E escada de linhas para as quais U s+1 . . . Er U1 . Note que neste ultimo caso se pode pressupr que no houve trocas de linhas, j que os pivots do AEG so os elementos diao a a a gonais de U j que U T triangular inferior, que so no nulos por A ser invert a e a a vel. Ora U1 ento uma matriz triangular superior que se pode escrever como produto de matrizes e a triangulares inferiores, e portanto U1 uma matriz diagonal. Seja D = U1 . Resumindo, e T T T A = E1 E2 . . . Es (Es+1 . . . Er D)T = E1 E2 . . . Es DEr Er1 . . . Es+1 . Recorde que, dada uma matriz elementar E, vlida |EB| = |E||B|. Ento, e a a
T T T |AB| = |E1 E2 . . . Es DEr Er1 . . . Es+1 B| T T T = |E1 ||E2 . . . Es DEr Er1 . . . Es+1 B| T T T = |E1 ||E2 ||E3 . . . Es DEr Er1 . . . Es+1 B|

=
T T T = |E1 ||E2 ||E3 | . . . |Es ||D||Er ||Er1 | . . . |Es+1 ||B| T T T = |E1 E2 E3 . . . Es DEr Er1 . . . Es+1 ||B|

= |A||B|. Se A no invert a e vel, e portanto |A| = 0, ento AB no pode ser invert a a vel, e portanto |AB| = 0. Como |In | = 1, segue do teorema anterior a relao entre o determinante uma matriz ca invert com o da sua inversa. vel Corolrio 2.4.9. Se A uma matriz invert ento a e vel a |A1 | = 1 . |A|

Recorde que para que uma matriz A seja invert vel exige-se a existncia de uma outra e X para a qual AX = In = XA. O resultado seguinte mostra que se pode prescindir da vericao de uma das igualdades. ca Corolrio 2.4.10. Seja A uma matriz n n. So equivalentes: a a 1. A invert e vel

2.4. DETERMINANTES 2. existe uma matriz X para a qual AX = In 3. existe uma matriz Y para a qual Y A = In Nesse caso, A1 = X = Y .

39

Demonstrao. As equivalncias so imediatas, j que se AX = In ento 1 = |In | = |AX| = ca e a a a |A||X| e portanto |A| = 0. Para mostrar que A1 = X, repare que como AX = In ento A invert a e vel, e portanto 1 AX = A1 , donde X = A1 . A a . O prob duto interno usual (u1 , u2 ) (v1 , v2 ) em R2 pode ser encarado como o produto matricial v1 . Ou seja, u v = uT v. Esta identicao e noo pode ser generalica ca u1 u2 v2 zada de forma trivial para Rn . Dois vectores u e v de Rn dizem-se ortogonais, u v, se u v = uT v = 0. A norma usual em Rn denida por u = u u, com u Rn e Faa a identicao dos vectores (a, b) R2 com as matrizes coluna c ca Corolrio 2.4.11. Seja A uma matriz real n n com colunas c1 , c2 , . . . , cn . Ento A a a e ortogonal se e s se ci cj = 0 se i = j, e ci = 1, para i, j = 1, . . . , n. o Demonstrao. Condio suciente: Escrevendo A = ca ca In = A A =
T

c1

cn , temos que

cT 1 cT 2 . . . cT n

c1 c2 cn .

Como o elemento (i, j) de

cT 1 cT 2 . . .

c1 c2 cn cT cj , obtemos o resultado. e i

cT n T c = 0 se i = j, e cT c = 1 o mesmo que AT A = I , e pelo Condio necessria: Ora ci j ca a e n i i corolrio anterior implica que A invert com A1 = AT , pelo que A ortogonal. a e vel e Ou seja, as colunas das matrizes ortogonais so ortogonais duas a duas. O mesmo se pode a dizer acerca das linhas, j que a transposta de uma matriz ortogonal de novo uma matriz a e ortogonal.

2.4.3

Teorema de Laplace

Dada uma matriz A, quadrada de ordem n, denota-se por A(i|j) a submatriz de A obtida por remoo da sua linha i e da sua coluna j. ca Denio 2.4.12. Seja A = [aij ] uma matriz quadrada. ca

40

CAP ITULO 2. CALCULO MATRICIAL 1. O complemento algbrico de aij , ou cofactor de aij , denotado por Aij , est denido por e a Aij = (1)i+j |A(i|j)| 2. A matriz adjunta a transposta da matriz dos complementos algbricos e e Adj(A) = [Aij ]T .

Teorema 2.4.13 (Teorema de Laplace I). Para A = [aij ], n n, n > 1, ento, e para a k = 1, . . . , n,
n

|A| =
j=1 n

akj Akj ajk Ajk


j=1

O teorema anterior o caso especial de um outro que enunciaremos de seguida. Para tal, e necessrio introduzir mais notao e algumas denies (cf. [10]). e a ca co Seja A uma matriz m n. Um menor de ordem p de A, com 1 p min{m, n}, o e determinante de uma submatriz p p de A, obtida de A eliminando m p linhas e n p colunas de A. Considere duas sequncias crescentes de nmeros e u 1 i1 < i2 < < ip m, 1 j1 < j2 < < jp n, e o determinante da submatriz de A constituida pelas linhas i1 , i2 , . . . ip e pelas colunas i1 i2 . . . ip j1 , j2 , . . . , jp . Este determinate vai ser denotado por A . Ou seja, j1 j2 . . . jp A i1 i2 . . . j1 j2 . . . ip jp = | [aik jk ]k=1,...p |.

Paralelamente, podemos denir os menores complementares de A como os determinantes das submatrizes a que se retiraram linhas e colunas. Se A for n n, A i1 i2 . . . j1 j2 . . . ip jp
c

denota o determinante da submatriz de A aps remoo das linhas i1 , i2 , . . . ip e das colunas o ca j1 , j2 , . . . , jp de A. O cofactor complementar est denido como a A
c

i1 i2 . . . j1 j2 . . .

ip jp

= (1) A

i1 i2 . . . j1 j2 . . .

ip jp

onde s = (i1 + i2 + ip ) + (j1 + j2 + jp ). O caso em que p = 1 coincide com o exposto no in desta seco. cio ca

2.4. DETERMINANTES

41

Teorema 2.4.14 (Teorema de Laplace II). Sejam A = [aij ], n n, 1 p n. Para qualquer escolha de p linhas i1 , i2 , . . . , ip de A, ou de p colunas j1 , j2 , . . . , jp de A, |A| =
j

i1 i2 . . . j1 j2 . . .

ip jp

Ac

i1 i2 . . . j1 j2 . . .

ip jp

onde a soma percorre todos os menores referentes ` escolha das linhas [resp. colunas]. a Para nalizar, apresentamos um mtodo de clculo da inversa de uma matriz no singular. e a a Teorema 2.4.15. Se A invert ento e vel a A1 = Exerc cios 0 1 2 1. Seja A = 1 1 2 . 1 2 4 (a) Troque duas linhas de A e compare o determinante da matriz obtida com |A|. Repita o exerc fazendo trocas de colunas. cio (b) Substitua uma linha/coluna de A pela linha nula e calcule o determinante da matriz obtida. (c) Multiplique uma linha por um escalar no nulo e compare o determinante da matriz a obtida com |A|. Repita o exerc multiplicando uma coluna por um escalar no nulo. cio a (d) A uma linha de A some-lhe outra multiplicada por um escalar no nulo. Compare a o determinante da matriz obtida com |A|. Repita o exerc cio fazendo a operao ca elementar por colunas. (e) Encontre uma factorizao P A = LU . Calcule det(U ) e compare com det(A). ca (f) O que pode conjecturar sobre o valor de | A|? Teste a validade da sua conjectura. (g) Verique que |AT | = |A|. (h) Calcule a matriz dos complementos matriz dada. 1 2 5 2. Considere a matriz A = 0 6 6 4 1 0 algbricos, a adjunta e a inversa (caso exista) da e . Adj(A) . |A|

(a) Encontre uma factorizao P A = LU . ca (b) Calcule car(A). (c) Calcule det(A).

42

CAP ITULO 2. CALCULO MATRICIAL (d) Calcule a matriz dos complementos algbricos, a adjunta e a inversa (caso exista) da e matriz dada. 3 0 1 3. Seja A = 0 1 5 . 6 0 2 (a) Encontre uma factorizao P A = LU . ca (b) Calcule car(A). (c) Calcule det(A). (d) Calcule a matriz dos complementos algbricos, a adjunta e a inversa (caso exista) da e matriz dada. 2 2 1 4. Considere a matriz A = 2 2 1 . 4 1 1 (a) Encontre uma factorizao P A = LU . ca (b) Calcule car(A). (c) Calcule det(A). (d) Calcule a matriz dos complementos algbricos, a adjunta e a inversa (caso exista) da e matriz dada. 1 5 2 4 0 0 1 1 5. Para A = , 1 3 0 0 6 0 3 6 (a) encontre uma factorizao P A = LU , ca (b) calcule car(A), (c) calcule det(A). (d) calcule a matriz dos complementos algbricos, a adjunta e a inversa (caso exista). e 6. Calcule o determinante, a matriz dos complementos algbricos, a adjunta e a inversa (caso e exista) das matrizes 1 0 0 (a) 5 1 2 . 7 1 1 0 1 2 (b) 2 1 1 . 2 3 3

2.4. DETERMINANTES (c) (d) (e) (f) 0 1 0 0 0 0 2 0 0 5 1 0 1 1 1 0 1 2 1 1 . .

43

3 3 4 1 0 3 4 4 0 2 1 4

2 0 0 0 2 0 1 2 4 3 1 4 3 0 4 1 2 3 0 2 4 3 1 2 2 4 0 1 3 1 3 2

7. Calcule o determinante das matrizes seguintes: (a) (e) (i) 5 2 7 3 a2 ab ab b2 a c + di c di b (b) (f) (j) 1 2 3 4 n+1 n n n1 a + bi b 2a a bi (c) (g) (k) 3 2 8 5 a+b ab ab a+b cos sin sin cos (d) (h) (l) 6 9 8 12 1 i 1 1 i i 1

8. Se A uma matriz simtrica, mostre que det (A + B) = det A + B T , para qualquer e e matriz B com a mesma ordem de A. 9. Uma matriz A anti-simtrica se AT = A. Mostre que, para A Mn (K) com n e e mpar e A anti-simtrica, se tem det A = 0. e

44

CAP ITULO 2. CALCULO MATRICIAL

Cap tulo 3

Sistemas de equaoes lineares c


3.1 Formulao matricial ca

Uma equao linear em n variveis x1 , . . . , xn sobre K uma equao da forma ca a e ca a1 x1 + a2 x2 + + an xn = b, onde a1 , a2 , . . . , an , b K. Um sistema de equaes lineares um conjunto nito de equaes co e co lineares que resolvido simultaneamente. Ou seja, que se pode escrever da forma e a11 x1 + + a1n xn = b1 a x + + a x = b (1) 21 1 2n n 2 am1 x1 + + amn xn = bm Este tipo de sistema pode ser representado na forma matricial Ax = b, com A= a11 a21 . . . a12 a22 . . . .. . a1n a2n . . . amn x1 x2 . . . xn b1 b2 . . . bm .

am1 am2

,x =

,b =

A a matriz do sistema, x a coluna das incgnitas e b a coluna dos termos independentes, e e o e tambm denominado por segundo membro do sistema. e De ora em diante no faremos distino entre o sistema de equaes lineares e a sua a ca co formulao matricial Ax = b. ca Neste cap tulo, vamo-nos debruar sobre a resoluo deste tipo de equao. Dizemos c ca ca que v soluo de Ax = b se Av = b, ou seja, quando v uma realizao poss e ca e ca vel para a coluna das incgnitas. Iremos ver em que condies a equao tem soluo, e como se podem o co ca ca determinar. Entende-se por resolver o sistema Ax = b encontrar o conjunto (ainda que vazio) de todas as realizaes poss co veis para a coluna das incgnitas. O sistema diz-se imposs o vel 45

46

CAP ITULO 3. SISTEMAS DE EQUACOES LINEARES

ou inconsistente se o conjunto vazio e poss ou consistente caso contrrio. Neste ultimo e vel a caso, diz-se que poss determinado se existir apenas um e um s elemento no conjunto e vel o das solues, e poss indeterminado se for poss mas existirem pelo menos duas solues co vel vel co distintas1 . Entende-se por classicar o sistema a armao em como ele imposs ca e vel, poss vel determinada ou poss indeterminado. vel Um caso particular da equao Ax = b surge quando b = 0. Ou seja, quando a equao ca ca e da forma Ax = 0. O sistema associado a esta equao chama-se sistema homogneo. Repare ca e que este tipo de sistema sempre poss e vel. De facto, o vector nulo (ou seja, a coluna nula) soluo. Ao conjunto das solues de Ax = 0 chamamos ncleo2 de A, e denotado por e ca co u e N (A) ou ainda por ker(A). Ou seja, para A do tipo m n, N (A) = ker(A) = {x Kn : Ax = 0m1 } . Pelo que acabmos de referir, e independentemente da escolha de A, o conjunto ker(A) a e sempre no vazio j que 0n1 ker(A). a a Ou caso relevante no estudo da equao Ax = b surge quando a matriz A invert ca e vel. 1 , obtemos Neste caso, multpiplicando ambos os membros de Ax = b, ` esquerda, por A a A1 Ax = A1 b, e portanto x = A1 b. Ou seja, a equao poss ca e vel determinada, sendo 1 b a sua unica soluo. A ca

3.2

Resoluo de Ax = b ca

Nesta seco, vamos apresentar uma forma de resoluo da equao Ax = b, fazendo uso ca ca ca da factorizao P A = LU estudada atrs. Vejamos de que forma essa factorizao util no ca a ca e estudo da equao. ca 1 2 3 x1 7 Considere a equao 0 4 5 x2 = 8 . O sistema associado escreve-se ca 0 0 6 x3 9 x1 + 2x2 + 3x3 = 7 como ca e 4x2 + 5x3 = 8 . Calculando o valor de x3 pela ultima equao, este subs 6x3 = 9 tituido na segunda equao para se calcular o valor de x2 , que por sua vez so usados ca a na primeira equao para se obter x1 . Procedeu-se ` chamada substituio inversa para ca a ca se calcular a unica (repare que a matriz dada invert e vel) soluo do sistema. Em que ca condies se pode usar a substituio inversa? Naturalmente quando a matriz dada trianco ca e gular superior com elementos diagonaisno nulos. Mas tambm noutros casos. Considere a e x1 1 2 3 5 . A matriz do sistema no quadrada, a e a equao matricial ca x2 = 0 0 4 6 x3 mas o mtodo da susbstituio inversa pode ainda ser aplicado. O sistema associado e ca e
1 2

Veremos, mais adiante, que se existem duas soluoes distintas ento exite uma innidade delas. c a Iremos tambm usar a denominaao espao nulo de A. e c c

3.2. RESOLUCAO DE AX = B

47

x1 + 2x2 + 3x3 = 5 , donde x3 = 3 , e x1 depender do valor de x2 . A soluo geral a ca 2 4x3 = 6 9 9 do sistema (x1 , x2 , x3 ) = (5 2 2x2 , x2 , 3 ) = (5 2 , 0, 3 ) + x2 (2, 1, 0). Mais ` frente e a 2 2 a veremos qual a importncia de escrevermos a soluo na ultima forma apresentada. E fcil a ca constatar que a substituio inversa aplicvel desde que a matriz do sistema seja uma maca e a triz escada de linhas. A estatgia na resoluo da equao ir, portanto, passar pela matriz e ca ca a escada obtida por Gauss, para depois se aplicar a substituio inversa. Desde que o sistema ca seja poss vel, claro. Considere o sistema Ax = b e a factorizao P A = LU . Ou seja, U = L1 P A. Recorde ca que L1 P reecte as operaes elementares efectuadas nas linhas de A por forma a se obter co a matriz escada, percorrendo os passos do AEG. Multiplique ambos os membros de Ax = b, ` esquerda, por L1 P para obter L1 P A = L1 P b. Como U = L1 P A tem-se que a U x = L1 P b, e daqui podemos aplicar a substituio inversa... depois de se determinar o ca termo independente L1 P b. Recorde que L1 P reecte as operaes elementares efectuadas co 1 P b basta efectuar essas mesmas operaes nas linhas de A, de modo que para se obter L co elementares, pela mesma ordem, nas linhas de b. Por forma a simplicar o racioc nio e evitar poss veis enganos, esse processo pode ser efectuado ao mesmo tempo que aplicamos o AEG nas linhas de A. Consideramos, para esse efeito, a matriz aumentada do sistema A b , aplicamos o AEG para se obter a matriz U e c , onde U matriz escada de linhas e c = L1 P b. Se o sistema for poss vel, aplica-se a substituio inversa a U x = c. ca As solues de Ax = b so exactamente as mesmas de U x = c, e por este facto dizem-se co a equaes equivalentes, e os sistemas associados so equivalentes. De facto, se v soluo de co a e ca 1 P que L1 P Av = Ax = b ento Av = b, o que implica, por multiplicao ` esquerda por L a ca a 1 P b, ou seja, que U v = c. Por outro lado, se U v = c ento LU v = Lc e portanto P Av = Lc. L a Ora c = L1 P b, e portanto Lc = P b. Obtemos ento P Av = P b. Como P invert a e vel, segue que Av = b e v soluo de Ax = b. e ca Visto determinar as solues de Ax = b o mesmo que resolver U x = c, interessa-nos, co e ento classicar este ultimo. a x1 1 2 3 4 Como exemplo, considere a equao ca . A segunda equao ca x2 = 0 0 0 5 x3 do sistema associado reete a igualdade 0 = 5, o que imposs e vel. A equao imposs j ca e vel a 1 2 3 4 que no tem solues. A matriz aumentada associada ` equao a co a ca e . Repare 0 0 0 5 que a caracter stica da matriz A 1 enquanto que a caratacter e stica da matriz aumentada [A|b] 2. e Como fcil vericar, a caracter e a stica da matriz a que se acrescentou linhas ou colunas e no inferior ` caracter a a stica da matriz inicial. Por consequncia, car(A) car([A|b]). e Teorema 3.2.1. A equao matricial Ax = b consistente se e s car(A) = car ca e o A b .

Demonstrao. Considere P A = LU e c = L1 P b. A equao Ax = b equivalente ` equao ca ca e a ca U x = c, e portanto Ax = b tem soluo se e s se U x = c tem soluo. Tal equivale a dizer ca o ca

48

CAP ITULO 3. SISTEMAS DE EQUACOES LINEARES

que o nmero de linhas nulas de U iguala o nmero de linhas nulas de [U |c]. De facto, o u u nmero sendo o mesmo, por substituio inversa poss u ca e vel obter uma soluo de U x = c, ca e caso o nmero seja distinto ento obtemos no sistema associado a igualdade 0 = ci , para u a algum ci = 0, o que torna U x = c imposs vel. Se o nmero de linhas nulas de U iguala o de u [U |c] ento o nmero de linhas no nulas de U iguala o de [U |c]. a u a

Como exemplo, considere a equao matricial Ax = b onde A = ca 1 1 1 0 1 2 1

2 2 1 1 1 1 2

e b =

. A equao consistente se e s se car(A) = car([A|b]). Ora A = LU com L = ca e o e U = A b 2 2 1 0 0 0 e , e portanto car(A) = 1. A matriz escada obtida da matriz Ora a carater stica da matriz aumentada 2, pelo e

aumentada

2 2 1 1 0 0 0 3 2 que Ax = b inconsistente. e Dada a equao A ca x1 x2 . . .

= b, considere U

x1 x2 . . .

= c equivalente ` primeira fazendo a

xn xn uso da factorizao P A = LU da forma habitual. A incgnita xi diz-se incgnita bsica se ca o o a a coluna i de U tem pivot. Uma incgnita diz-se livre se no for bsica. A nulidade de A, o a a nul(A), o nmero de incgnitas livres na resoluo de Ax = 0. e u o ca 2 2 1 1 1 1 1 1 2 0 1 x1 , x = x2 , b = x3 1 1

Na equao Ax = b, com A = ca decomposio A = LU , com ca

, obtemos a

L= e U=

2 2 1 0 0 3 2

Repare que car(A) = 2. Ora 2 = car(A) car([A|b]) 2, j que a caracter a stica de uma matriz no superior ao seu nmero de linhas e ao seu nmero de colunas. Segue que e a u u car([A|b]) = 2. A equao Ax = b , portanto, consistente. Faamos, ento, a classicao ca e c a ca das incgnitas x1 , x2 , x3 em livres e em bsicas. Atente-se ` matriz escada de linhas U o a a 3 apresentada atrs. As colunas 1 e 3 tm como pivots, respectivamente, 2 e 2 . As incgnitas a e o x1 e x3 so bsicas. J x2 livre pois a coluna 2 de U no tem pivot. a a a e a Qual o interesse neste tipo de classicao das incgnitas? A explicao feita ` custa ca o ca e a do exemplo anterior. A equao Ax = b equivalente ` equao U x = c, com U = ca e a ca

3.2. RESOLUCAO DE AX = B 2 2 1 0 0 3 2 1
3 2

49

,c =

Com os dados fornecidos, a matriz escada seguindo os passos do AEG do exemplo iguala U c = 2 2 1 0 0 3 2 1
3 2

Podemos, agora, aplicar o mtodo da substituio inversa para obter as solues da e ca co equao. Esse mtodo aplicado da seguinte forma: ca e e 1. obtem-se o valor das incgnitas bsicas xi no sentido sulnorte, o a 2. as incgnitas livres comportam-se como se de termos independentes se tratassem. o Para convenincia futura, a soluo apresentada na e ca e x1 ? ? ? x2 ? ? ? . = . + xi . + xi . 1 2 . . . . . . . . xn ? ? ? forma

+ . . . xi k

? ? . . . ?

onde xi so as incgnitas livres. a o Voltando ao exemplo, recorde que se obteve a equao equivalente ` dada ca a x1 1 2 2 1 . x2 = 3 3 0 0 2 2 x3 Resolvendo a ultima equao correspondente, obtemos o valor da incgnita bsica x3 . De ca o a facto, 3 x3 = 3 implica x3 = 1. Na equao 2x1 + 2x2 + x3 = 1, o valor de x3 conhecido ca e 2 2 (bastando-nos, portanto, fazer a substituio) e a incgnita x2 livre, comportando-se ento ca o e a como termo independente. J x1 bsica, e resolve-se a equao em relao a esta. Obtemos a e a ca ca x1 = 2x2 = x2 . Para cada escolha de x2 obtemos outo valor para x1 . A soluo geral da ca e 2 forma (x1 , x2 , x3 ) = (x2 , x2 , 1) = (0, 0, 1) + x2 (1, 1, 0), onde x2 varia livremente em K. Num sistema poss vel, a existncia de incgnitas livres confere-lhe a existncia de vrias e o e a solues, e portanto o sistema poss indeterminado. Ora, se o nmero de incgnitas n e co e vel u o e se k delas so bsicas, ento as restantes n k so livres. Recorde que o nmero de incgnitas a a a a u o iguala o nmero de colunas da matriz do sistema, e que a caracter u stica de uma matriz e igual ao nmero de pivots. Existindo, no mximo, um pivot por coluna, e como o nmero u a u das colunas com pivots igual ao nmero de incgnitas bsicas, segue que a caracter e u o a stica da matriz igual ao nmero de incgnitas bsicas. A existncia de incgnitas livres equivalente e u o a e o e ao facto de existirem colunas sem pivot, ou seja, do nmero de colunas ser estritamente maior u que a caracter stica da matriz. De facto, as incgnitas livres so, em nmero, igual ao nmero o a u u de colunas sem pivot.

50

CAP ITULO 3. SISTEMAS DE EQUACOES LINEARES

Teorema 3.2.2. A equaao consistente Ax = b, onde A m n, tem uma unica soluo se c e ca e s se car(A) = n. o Corolrio 3.2.3. Um sistema poss de equaes lineares com menos equaes que incgnitas a vel co co o indeterminado. e Recorde que o nmero de incgnitas livres o nmero de colunas sem pivot na resoluo u o e u ca de um sistema poss vel Ax = b. Por outro lado, a nulidade de A, nul(A), o nmero de e u incgnitas livres que surgem na resoluo de Ax = 0. Recorde ainda que a caracter o ca stica de A, car(A), o nmero de pivots na implementao de Gauss, que por sua vez o nmero e u ca e u de colunas com pivot, que iguala o nmero de incgnitas bsicas na equao Ax = 0. Como u o a ca o nmero de colunas de uma matriz iguala o nmero de incgnitas equao Ax = 0, e estas u u o ca se dividem em bsicas e em livres, correspondendo em nmero a, respectivamente, car(A) e a u nul(A), temos o resultado seguinte: Teorema 3.2.4. Para A matriz m n, n = car(A) + nul(A). O resultado seguinte descreve as solues de uma equao poss co ca vel Ax = b ` custa do a sistema homogneo associado (ou seja, Ax = 0) e de uma soluo particular v de Ax = b. e ca Teorema 3.2.5. Sejam Ax = b uma equao consistente e v uma soluo particular de ca ca Ax = b. Ento w soluo de Ax = b se e s se existir u N (A) tal que w = v + u. a e ca o Demonstrao. Suponha v, w solues de Ax = b. Pretende-se mostrar que w v N (A), ca co ou seja, que A(w v) = 0. Ora A(w v) = Aw Av = b b = 0. Basta, portanto, tomar u = w v. Reciprocamente, assuma v soluo de Ax = b e u soluo de Ax = 0. Pretende-se mostrar ca ca que w = v + u soluo de Ax = b. Para tal, Aw = A(v + u) = Av + Au = b + 0 = b. e ca Ou seja, conhecendo o conjunto das solues de Ax = 0 e uma soluo particular de co ca Ax = b, conhece-se o conjunto das solues de Ax = b. co 12 1 8 Exemplo. Considere a equao matricial Ax = b, com A = 6 ca 5 0 e b = 9 2 4 1 e a 5 . O sistema consistente, j que car(A) = car([A|b]) = 2. De facto, a matriz escada 3 12 1 8 1 de linhas [U |c] obtida de [A|b] aps aplicao do AEG 0 o ca e 11 4 9 . Sendo a 2 2 0 0 0 0 caracter stica de A igual a 2 e tendo a matriz 3 colunas, ento existe uma, e uma s, incgnita a o o livre na resoluo de Ax = b. Faamos, ento, a diviso das incgnitas em livres e bsicas. ca c a a o a Observando as colunas da matriz escada de linhas U , se x = (x1 , x2 , x3 ), as incgnitas bsicas o a

3.3. ALGORITMO DE GAUSS-JORDAN

51

so x1 e x2 , enquanto que x3 incgnita livre, j que a unica coluna de U que no tem pivot a e o a a a terceira. e Como vimos do resultado anterior, conhecendo uma soluo particular de Ax = b, digaca mos, v, e conhecendo N (A), ou seja, o conjunto das solues de Ax = 0, ento as solues de co a co Ax = b so da forma v + u, onde u N (A). Uma soluo particular pode ser encontrada toa ca mando a incgnita livre como zero. Ou seja, considerando x3 = 0. A substituio inversa foro ca 9 9 1 nece o valor das incgnitas bsicas x1 , x2 . Obtemos x2 = 211 = o a e x1 = 1(1)x2 = 66 . 12 11 2 Resta-nos determinar N (A), ou seja, resolver o sistema homogneo Ax = 0. Para tal, e podemos fazer uso da matriz escada U encontrada atrs, e resolvemos o sistema U x = 0 em a relao `s incgnitas bsicas x1 , x2 , tratando a incgnita x3 como se de um termo independente ca a o a o se tratasse. As solues sero da forma x = x3 u. co a Considere, agora, a matriz A = 2 2 2 0 1 1 2 2 . Esta matriz tem caracter stica 2, e a 2 2 2 0 0 0 1 2 . A nulidade
T

matriz escada de linhas obtida de A aps aplicao do AEG U = o ca e

de A 2, j que existem 2 incgnitas livres na resoluo de A x1 x2 x3 x4 e a o ca = 021 . As incgnitas livres so as correspondentes `s colunas de U que no tm pivot; no caso, x2 e o a a a e 2x1 + 2x2 + 2x3 = 0 x4 . O sistema associado ` equao U x = 0 a ca e . Resolvendo o sistema x3 + 2x4 = 0 em relao `s incgnitas bsicas x1 , x3 , e por substituio inversa, obtemos x3 = 2x4 , que ca a o a ca 1 por sua vez fornece, substituindo na primeira equao, x1 = 2 (2x2 + 4x4 ) = x2 + 2x4 . ca Ou seja, a soluo geral de Ax = 0 ca e (x1 , x2 , x3 , x4 ) = (x2 + 2x4 , x2 , 2x4 , x4 ) = x2 (1, 1, 0, 0) + x4 (2, 0, 2, 1).

3.3

Algoritmo de Gauss-Jordan

A aplicao do Algoritmo de Eliminao de Gauss na resoluo de um sistema de equaes ca ca ca co lineares reduz o problema inicial a um outro, equivalente ao dado (ou seja, com o mesmo conjunto de solues) onde a matriz associada ao sistema escada de linhas. Tal permite co e a utilizao do algoritmo da susbstituio inversa por forma a se encontrar (caso existam) ca ca as solues para o problema. Nesse mtodo, o valor das incgnitas bsicas era encontrado co e o a a ` custa das incgnitas livres e dos termos independentes, bem como do valor das incgnitas o o bsicas encontrado no passo anterior, no sentido sulnorte do vector das incgnitas. Recorde a o que no AEG a estratgia tinha como objectivo, por operaes elementares de linhas, obter e co zeros por debaixo de cada pivot, estratgia essa implementada no sentido NWSE. Este e racioc nio pode ser estendido a obterem-se zeros por cima dos pivots, no sentido SWNE, por operaes elementares de linhas. De facto, neste processo esto ausentes trocas de linhas, co a j que os pivots usados neste novo processo so que estiveram envolvidos na fase inicial a a correspondente ao AEG. O resultado nal ser uma matriz constitu pelos pivots, tendo a da

52

CAP ITULO 3. SISTEMAS DE EQUACOES LINEARES

estes zeros por debaixo e por cima. Ou seja, se se dividir cada linha no nula pelo pivot a respectivo, obtemos uma matriz da forma, a menos de trocas de colunas, uma matriz da forma Ik M , podendo os blocos nulos no existir. A este mtodo (` excepo da poss troca a e a ca vel 0 0 de colunas) denominado o algoritmo de Gauss-Jordan, e a matriz obtida diz-se que est na e a forma cannica (reduzida) de linhas, ou na forma normal (ou cannica) de Hermite. Ou seja, o o a matriz H = [hij ], m n, obtida satisfaz: 1. H triangular superior, e 2. hii ou 0 ou 1, e 3. se hii = 0 ento hik = 0, para cada k tal que 1 k n, a 4. se hii = 1 ento hki = 0 para cada k = i. a Repare que s so realizadas operaes elementares nas linhas da matriz. A aplicao o a co ca deste mtodo na resoluo de uma sistema de equaes lineares permite obter, de forma e ca co imediata, o valor das incgnitas bsicas. Apesar deste mtodo parecer mais atractivo que o o a e de Gauss (ou suas variantes), em geral menos eciente do ponto de vista computacional. e 1 2 3 3 Exemplo. Considere a equao Ax = b, com A = 2 0 1 e b = 1 . A matriz ca 0 0 1 3 1 2 3 3 aumentada correspondente ao sistema de equas lineares [A|b] = 2 0 1 1 e a co e 0 0 1 3 1 0 0 2 forma normal de Hermite de [A|b] 0 1 0 2 . A forma cannica apresentada atrs e o a 0 0 1 3 fornece-nos uma soluo para o sistema, no caso (2, 2, 3). ca No que se segue, mostramos como se aplica o algoritmo de Gauss-Jordan para inverter matrizes. Seja A uma matriz n n, no-singular. Ou seja, invert a vel. De forma equivalente, existe uma unica matriz X tal que AX = In . Denotemos a matriz X, que pretendemos obter, ` a custa das suas colunas: X = X1 X2 Xn . Pela forma como est denido o produto a matricial, e tomando ei como a i-sima coluna da matriz In , a igualdade AX = In podee se escrever como AX1 AX2 AXn = e1 e2 en . Surgem-nos, ento, n a equaes matriciais: co AX1 = e1 , AX2 = e2 , . . . , AXn = en . Como A invert e vel, cada uma destas equaes consistente e tem apenas uma soluo. co e ca A soluo de AXj = ej a coluna j da matriz X inversa de A que pretendemos calcular. ca e Poder-se-ia aplicar a estratgia de Gauss a cada uma destas equaes, ou seja, ` matriz e co a aumentada A ej . Como a matriz do sistema a mesma, as operaes elementares e co

3.4. REGRA DE CRAMER

53

envolvidas seriam as mesmas para as n equaes. Essas operaes elementares podem ser co co efectuadas simultaneamente, considerando a matriz aumentada n 2n 1 0 0 . . 0 1 . . A 0 0 1 Sendo a matriz invert vel, a matriz escada de linhas U obtida de A por aplicao do AEG tem ca elementos diagonais no nulos, que so os pivots que surgem na implementao do algoritmo. a a ca Aplicando Gauss-Jordan (ou seja, no sentido SENW, criando zeros por cima dos pivots que d1 0 . . . 0 0 0 d2 se vo considerando), obtemos uma matriz da forma . a Y1 Y2 Yn . . . . . 0 0 Dividindo a linha i por di , para i = 1, ..., n, obtm-se a matriz e In X1 X2 Xn . dn

e Ora tal signica que Xi a soluo de AX = ei . Ou seja, o segundo bloco da matriz aumentada ca indicada atrs no mais que a inversa da matriz A. Isto , Gauss-Jordan forneceu a matriz a a e e 1 . In A

3.4

Regra de Cramer

A regra de Cramer fornece-nos um processo de clculo da soluo de uma equao consistente a ca ca Ax = b quando A invert e vel, e portanto a soluo unica. ca e x1 x2 . e b do tipo n 1, Dada a equao Ax = b, onde A n n no-singular, x = ca e a e . . denote-se por A(i) xn a matriz obtida de A substituindo a coluna i de A pela coluna b.

Teorema 3.4.1 (Regra de Cramer). Nas condies do pargrafo anterior, a unica soluo co a ca de Ax = b dada por e |A(i) | . xi = |A| 1 2 1 Exemplo. Para aplicar a regra de Cramer, considere-se A = 1 1 0 e b = 2 1 2 1 e vel, e portanto Ax = b uma equao e ca 1 . Como |A| = 3 = 0, a matriz A invert 1

54

CAP ITULO 3. SISTEMAS DE EQUACOES LINEARES

consistente com uma unica soluo. Denamos as matrizes A(1) , A(2) , A(3) como no teorema ca anterior. Alguns clculos mostram que det(A(1) ) = 4, det(A(2) ) = 1 e det(A(3) ) = 3. a 4 Aplicamos, de seguida, a regra de Cramer para obtermos x1 = 3 , x2 = 1 e x3 = 1. 3 Exerc cios

1. Resolva (a) (b)

os seguintes sistemas de equaes lineares: co 3x1 x2 + x3 = 1 9x1 2x2 + x3 = 9 3x1 + x2 2x3 = 9 2x1 + x2 + 2x3 + x4 4x1 + 3x2 + 7x3 + 3x4 8x1 x2 x3 + 3x4 6x1 + x2 + 2x3 x4 = = = = 5 8 4 1

2x 3y = 1 (c) 4x 6y = 2 12x 18y = 6 x1 x2 + 2x3 = 5 (d) 3x1 x2 + 7x3 = 22 x 3x x = 10 1 2 3 (e) x1 + x2 + x3 = 1 x1 x3 = 2

x1 + x2 + x3 = 2 (f) 2x1 + x2 + x3 = 3 3x + x + x = 4 1 2 3 2. Determine R de modo que o sistema x y + z = 0 2y 2z = 0 x y + z = 0 seja determinado. 3. Considere a matriz A = 1 2 3 2 4 7 .

(a) Encontre uma factorizao P A = LU , onde P matriz permutao, L invert ca e ca e vel triangular inferior e U escada de linhas. e (b) Resolva a equao Ax = b, onde b = ca 1 3

3.4. REGRA DE CRAMER 4. Determine todas as matrizes X M34 (R) tais que AX = 0, com 1 2 3 A = 2 5 6 . 2 3 6 5. Encontre os valores do parmetro k R para os quais o sistema a x 2y + 3z = 1 2x + ky + 6z = 6 x + 3y + (k 3)z = 0 seja (a) Poss determinado; vel (b) Poss indeterminado; vel (c) Imposs vel.

55

0 0 1 1 6. Considere a matriz A = 1 1 0 ca 1 . Resolva, usando o algoritmo de eliminao 2 2 1 3 de Gauss, a equao matricial Ax = (2, 1, 0). ca 7. Considere a matriz real 0 0 2 A = 1 2 0 . 2 3 2

(a) Mostre que a matriz A invert e calcule a sua inversa fazendo uso do algoritmo de e vel Gauss-Jordan. (b) Recorrendo ` regra de Cramer, resolva a 1 Ax = 0 . 0 8. Resolva AX = B, com A= 4 1 3 1 ,B= 1 2 1 3 .

1 1 1 9. Para U = 0 1 1 , mostre que U invert e calcule U 1 pelo algoritmo de Gausse vel 1 1 0 Jordan. 1 0 0 10. Seja B = 2 1 0 . 5 2 1

56

CAP ITULO 3. SISTEMAS DE EQUACOES LINEARES (a) Mostre que B invert e faa uso do algoritmo de Gauss-Jordan para calcular a e vel c inversa de B.

(b) Use a regra de Cramer para determinar a unica soluo de Bx = (0, 1, 0). ca 1 0 1 11. Para U = 2 0 0 , mostre que U invert e calcule U 1 pelo algoritmo de Gausse vel 2 1 4 Jordan. 12. Usando o algoritmo de Gauss-Jordan, calcule, se poss vel, a inversa 1 1 2 1 1 0 1 3 4 A= , B = 3 1 2 , C = 3 3 1 1 1 1 1 0 3 de 2 0 4 0 2 2 4 4 .

Cap tulo 4

Espaos vectoriais c
Tal como nos resultados apresentados anteriormente, K denota R ou C.

4.1

Denio e exemplos ca

Denio 4.1.1. Um conjunto no vazio V um espao vectorial sobre K (ou espao linear) ca a e c c se lhe esto associadas duas operaes, uma adiao de elementos de V e uma multiplicaao a co c c de elementos de K por elementos de V , com as seguintes propriedades: 1. Fecho da adio: x,yV , x + y V ; ca 2. Fecho da multiplicao por escalares: xV , K, x V ; ca 3. Comutatividade da adio: x + y = y + x, para x, y V ; ca 4. Associatividade da adio: x + (y + z) = (x + y) + z, para x, y, z V ; ca 5. Existncia de zero: existe um elemento de V , designado por 0, tal que x + 0 = x, para e xV; 6. Existncia de simtricos: xV , x + (1) x = 0; e e 7. Associatividade da multiplicao por escalares: ,K,xX , (x) = () x; ca 8. Distributividade: (x + y) = x + y e ( + ) x = x + x, para x, y V e , K; 9. Existncia de identidade: 1x = x, para todo x V . e Se V um espao vectorial sobre K, um subconjunto no vazio W V que ele tambm um e c a e e espao vectorial sobre K diz-se um subespao vectorial de V . c c Por forma a aligeirar a escrita, sempre que nos referirmos a um subespao de um espao c c vectorial queremos dizer subespao vectorial. c Dependendo se o conjunto dos escalares K R ou C, o espao vectorial diz-se, respectivae c mente, real ou complexo. Apresentam-se, de seguida, alguns exemplos comuns de espaos vectoriais. c 57

58

CAP ITULO 4.

ESPACOS VECTORIAIS

1. O conjunto Mmn (K) das matrizes m n sobre K, com a soma de matrizes e produto escalar denidos no in da disciplina, um espao vectorial sobre K. cio e c 2. Em particular, Kn um espao vectorial. e c 3. O conjunto {0} um espao vectorial. e c 4. O conjunto das sucesses de elementos de K, com a adio denida por {xn } + {yn } = o ca {xn + yn } e o produto escalar por {xn } = { xn }, um espao vectorial sobre K. Este e c N. espao vectorial usualmente denotado por K c e 5. Seja V = K [x] o conjunto dos polinmios na indeterminada x com coecientes em K. o Denindo a adio de vectores como a adio usual de polinmios e a multiplicao ca ca o ca escalar como a multiplicao usual de um escalar por um polinmio, V um espao ca o e c vectorial sobre K. 6. Dado n N, o conjunto Kn [x] dos polinmios de grau inferior a n, com as operaes o co denidas no exemplo anterior, um espao vectorial sobre K. e c 7. Seja V = KK o conjunto das aplicaes de K em K (isto , V = {f : K K}). co e Denindo, para f, g V, K, a soma e produto escalar como as aplicaes de K em co K tais que, para x K, (f + g) (x) = f (x) + g (x) , (f ) (x) = (f (x)) , V desta forma um espao vectorial sobre K. e c 8. O conjunto C um espao vectorial sobre R. R [resp. C] tambm um espao vectorial e c e e c sobre ele prprio. o 9. Seja V um espao vectorial sobre K e S um conjunto qualquer. O conjunto V S de todas c as funes de S em V um espao vectorial sobre K, com as operaes co e c co (f + g) (x) = f (x) + g (x) , (f ) (x) = (f (x)) , onde f, g V S , K. 10. Dado um intervalo real ]a, b[, o conjunto C]a, b[ de todas as funes reais cont co nuas em ]a, b[, para as operaes habituais com as funes descritas acima, um espao vectorial co co e c sobre R. O conjunto C k ]a, b[ das funes reais com derivadas cont co nuas at ` ordem k ea ]a, b[ das funes reais innitamente diferenciveis no no intervalo ]a, b[ e o conjunto C co a intervalo ]a, b[ so espaos vectoriais reais. a c Teorema 4.1.2. Seja V um espao vectorial sobre K e W V . Ento W um subespao c a e c de V se e s se as condioes seguintes forem satisfeitas: o c 1. W = ; 2. u, v W u + v W ;

4.2. INDEPENDENCIA LINEAR 3. v W, K v W . Observe que se W subespao de V ento necessariamente 0v W . e c a Alguns exemplos:

59

1. Para qualquer k N, C ]a, b[ um subespao de C k ]a, b[, que por sua vez um e c e subespao de C]a, b[. c 2. O conjunto das sucesses reais convergentes um subespao do espao das sucesses o e c c o reais. 3. Kn [x] um subespao de K[x]. e c 4. o conjunto das matrizes n n triangulares inferiores (inferiores ou superiores) um e subespao de Mn (K), onde Mn (K) denota o espao vectorial das matrizes quadradas c c de ordem n sobre K. Exerc cios Diga quais dos conjuntos seguintes so subespaos vectoriais do espao vectorial real R4 : a c c 1. W1 = {(x1 , x2 , x3 , x4 ) R4 : x1 x2 = 0 e x2 + 2x4 = 0}. 2. W2 = {(0, a, b, 1) : a, b R}. 3. W3 = {(0, 0, 0, 0), (0, 0, 0, 1)}. 4. W4 = {(x1 , x2 , x3 , x4 ) R4 : x2 Q}.

4.2

Independncia linear e

Sejam V um espao vectorial sobre K e {vi }iI V, {i }iI K. Se c


n

v=
i=1

i vi ,

diz-se que v uma combinao linear dos vectores v1 , . . . , vn . Neste caso, dizemos que v se e ca pode escrever como combinao linear de v1 , . . . , vn . ca Denio 4.2.1 (Conjunto linearmente independente). Um conjunto no vazio {vi }iI V ca a diz-se linearmente independente se i vi = 0 = 1 = 2 = = n = 0.
iI

Um conjunto diz-se linearmente dependente se no for linearmente independente. a

60

CAP ITULO 4.

ESPACOS VECTORIAIS

Por abuso de linguagem, tomaremos, em algumas ocasies, vectores linearmente indepeno dentes para signicar que o conjunto formado por esses vectores linearmente independente. e O conceito de dependncia e independncia linear usualmente usado de duas formas. e e e (i) Dado um conjunto no vazio {vi } de n vectores linearmente dependentes, ento a a e poss vel escrever o vector nulo como combinao linear no trivial de v1 , . . . , vn . Ou ca a seja, existem escalares 1 , . . . , n , algum ou alguns dos quais no nulos, tais que a
n

0=
i=n

i vi .

Seja k um coeciente no nulo dessa combinao linear. Ento a ca a


n

vk =
i=1,i=k

1 k i vi .

Concluindo, dado um conjunto de vectores linearmente dependentes, ento pelo menos a um desses vectores uma combinao linear (no trivial) dos outros vectores. e ca a (ii) Dado um conjunto no vazio {vi } de n vectores linearmente independentes, da relao a ca
n

0=
i=n

i vi

podemos concluir de forma imediata e bvia que 1 = = n = 0. Esta implicao o ca ser muito util ao longo desta disciplina. a

Algumas observaes: co 1. Considerando o espao vectorial K [x], o conjunto dos monmios {1, x, x2 , . . . } consc o e 2 , x2 + x + 1 so linearmente titu por elementos linearmente independentes. J 1, x, x do a a dependentes, visto 1 + x + x2 x2 + x + 1 = 0. 2. Em Kn [x], quaisquer n + 1 polinmios so linearmente dependentes. o a 3. Em R3 , consideremos os vectores = (1, 1, 0), = (1, 0, 1), = (0, 1, 1), = (1, 1, 1). Estes quatro vectores so linearmente dependentes (pois + + 2 = 0), apesar de a quaisquer trs deles serem linearmente independentes. e Teorema 4.2.2. Sejam v1 , . . . , vn elementos linearmente independentes de um espao vectoc rial V . Sejam ainda 1 , . . . , n , 1 , . . . , n K tais que 1 v1 + + n vn = 1 v1 + + n vn . Ento i = i , para todo i = 1, . . . , n. a

4.2. INDEPENDENCIA LINEAR Demonstrao. Se 1 v1 + + n vn = 1 v1 + + n vn ento ca a (1 1 ) v1 + + (n n ) vn = 0,

61

pelo que, usando o facto de v1 , . . . , vn serem linearmente independentes, se tem i i = 0, para todo i = 1, . . . , n. O resultado anterior mostra a unicidade da escrita de um vector como combinao linear ca de elementos de um conjunto linearmente independente, caso essa combinao linear exista. ca Teorema 4.2.3. Seja A um subconjunto no vazio de um espao vectorial V sobre K. Ento a c a o conjunto de todas as combinaes lineares de elementos de A um subespao vectorial de co e c V. Demonstrao. Seja A o conjunto de todas as combinaes lineares de elementos de A. A ca co e obviamente no vazio visto A = . Sejam u, v A . Ou seja, a u=
iI

i ai , v =
jJ

j aj ,

para alguns i , j K, com ai A. Note-se que u+v =


iI

i ai +
jJ

j aj

e portanto u + v assim uma combinao linear de elementos de A logo, u + v A . Para e ca K, temos que u = n i ai e portanto u A . iI

Tendo em conta o teorema anterior, podemos designar o conjunto das combinaes lineares co dos elementos de A como o espao gerado por A. Este espao vectorial (subespao de V ) c c c denota-se por A . Quando o conjunto A est apresentado em extenso, ento no escrevemos as chavetas ao a a a a denotarmos o espao gerado por esse conjunto. Por exemplo, se A = {v1 , v2 , v3 }, ento A c a pode-se escrever como v1 , v2 , v3 . Por notao, = {0}. ca E importante referir os resultados que se seguem, onde V indica um espao vectorial. c 1. Os vectores no nulos v1 , v2 , . . . , vn V so linearmente independentes se e s se, para a a o cada k, vk v1 , . . . , vk1 , vk+1 , . . . , vn . 2. Sejam A, B V . (a) Se A B ento A B . a (b) A = A .

(c) A o menor (para a relao de ordem ) subespao de V que contm A. e ca c e

62

CAP ITULO 4.

ESPACOS VECTORIAIS

4.3

Bases de espaos vectoriais nitamente gerados c

Denio 4.3.1. Seja V um espao vectorial. ca c Um conjunto B linearmente independente tal que B = V chamado de base de V . e A demonstrao do resultado que se segue envolve, no caso geral, diversos conceitos maca temticos (nomeadamente o Lema de Zorn) que ultrapassam em muito os propsitos desta a o disciplina. No entanto, o resultado garante, para qualquer espao vectorial, a existncia de c e um conjunto linearmente independente B que gere o espao vectorial. c Teorema 4.3.2. Todo o espao vectorial tem uma base. c Dizemos que V tem dimenso nita, ou que nitamente gerado, se tiver uma base com a e um nmero nito de elementos. Caso contrrio, diz-se que V tem dimenso innita. u a a V tem dimenso nita nula se V = {0}. a De ora em diante, apenas consideraremos espaos vectoriais nitamente gerados. Por c vezes faremos referncia ` base v1 , v2 , . . . , vn para indicar que estamos a considerar a base e a {v1 , v2 , . . . , vn }. Denio 4.3.3. Uma base ordenada B = {v1 , . . . , vm } uma base de V cujos elementos ca e 1 . Chamam-se componentes ou coordenadas de u V na esto dispostos por uma ordem xa a base {v1 , . . . , vm } aos coecientes escalares 1 , . . . , m da combinao linear ca
m

u=
k=1

k vk . por .

As coordenadas de u na base B so denotadas2 a 1 2 (u)B = . . . n

Recordemos que, se B = {v1 , . . . , vm } uma base de V , em particular so linearmente e a independentes, e portanto dado v V , os coecientes de v na base B so unicos. a Teorema 4.3.4. Se um espao vectorial tem uma base com um nmero nito n de elementos, c u ento todas as bases de V tm n elementos. a e Demonstrao. Seja V um espao vectorial e v1 , . . . , vn uma base de V . Seja w1 , . . . , wm ca c outra base de V com m elementos.
De uma forma mais correcta, B no deveria ser apresentado como conjunto, mas sim como um n-uplo: a (v1 , . . . , vm ). Mas esta notaao poder-se-ia confundir com a usada para denotar elementos de Rn , por exemplo. c Comete-se assim um abuso de notaao, tendo em mente que a notao escolhida indica a ordem dos elementos c ca da base pelos quais foram apresentados. 2 A notaao adoptada no signica que u Rn . c a
1

4.3. BASES DE ESPACOS VECTORIAIS FINITAMENTE GERADOS Como v1 , . . . , vn base de V , existem ji K para os quais e
n

63

wi =
j=1

ji vj .

Note-se que
m m n

x i wi = 0
i=1 i=1 m

xi
j=1 n

ji vj = 0 xi ji vj = 0

i=1 j=1 n

j=1 m i=1

xi ji

vj = 0

i=1

xi ji = 0, para todo j x1 . . =0 . xm

ji

e que

xi wi = 0 x1 = x2 = = xm = 0.
i=1

Portanto, ji um sistema determinado, pelo que e m = car ji n. x1 . . =0 . xm

Trocando os papis de v1 , . . . , vn e de w1 , . . . , wm , obtemos n m. Logo, n = m. e Denio 4.3.5. Seja V um espao vectorial. Se existir uma base de V com n elementos, ca c ento diz-se que V tem dimenso n, e escreve-se dim V = n. a a Corolrio 4.3.6. Seja V um espao vectorial com dim V = n. Para m > n, qualquer a c conjunto de m elementos de V linearmente dependente. e Demonstrao. A demonstrao segue a do teorema anterior. ca ca Considerando o espao vectorial Kn [x] dos polinmios com coecientes em K e grau no c o a superior a n, uma base de Kn [x] e B = 1, x, x2 , . . . , xn .

64

CAP ITULO 4.

ESPACOS VECTORIAIS

De facto, qualquer polinmio de Kn [x] tem uma representao unica na forma an xn + + o ca a1 x + a0 e portanto B gera Kn [x], e B linearmente independente. Logo, dim Kn [x] = n + 1. e Como exerc cio, mostre que B = 1, x + k, (x + k)2 , . . . , (x + k)n , para um k K xo, outra base de Kn [x]. e Considere agora o conjunto {ij : 1 i m, 1 j n}, onde ij a matriz m n com e as entradas todas nulas ` excepo de (i, j) que vale 1. Este conjunto uma base do espao a ca e c vectorial Mmn (K) das matrizes m n sobre R, pelo que dim Mmn (R) = mn. Teorema 4.3.7. Seja V um espao vectorial com dim V = n. c 1. Se v1 , . . . , vn so linearmente independentes em V , ento v1 , . . . , vn formam uma base a a de V . 2. Se v1 , . . . , vn = V , ento v1 , . . . , vn formam uma base de V . a Demonstrao. (1) Basta mostrar que v1 , . . . , vn = V . Suponhamos, por absurdo, que ca v1 , . . . , vn so linearmente independentes, e que v1 , . . . , vn a V . Ou seja, existe 0 = w V para o qual w v1 , . . . , vn = V . Logo, v1 , . . . , vn , w, so linearmente independentes, pelo / a que em V existem n + 1 elementos linearmente independentes, o que contradiz o corolrio a anterior. (2) Basta mostrar que v1 , . . . , vn so linearmente independentes. Suponhamos que v1 , . . . , vn a so linearmente dependentes e que A = {v1 , . . . , vn }. Ento pelo menos um deles coma a e binao linear dos outros. Ou seja, existe vk tal que vk v1 , . . . , vk1 , vk+1 , . . . , vn . Se ca v1 , . . . , vk1 , vk+1 , . . . , vn no forem linearmente independentes, ento repetimos o processo a a at obtermos B A linearmente independente. Vamos mostrar que B = A , recordando e que A = V . Seja C = A \ B; isto , C o conjunto dos elementos que se retiraram a A de e e forma a obter o conjunto linearmente independente B. Portanto, vi C vi =
vj B

ij vj .

Seja ento v V = A . Ou seja, existem i s para os quais a v =


vi A

i vi i vi +
vi B vi C

= =
vi B

i vi i
i vj B

i vi + i vi +
vi B i

ij vj i ij vj B .

vj B

Portanto, B uma base de V com m < n elementos, o que absurdo. e e

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

65

Corolrio 4.3.8. Sejam V um espao vectorial e W1 , W2 subespaos vectoriais de V . Se a c c W1 W2 e dim W1 = dim W2 ento W1 = W2 a Demonstrao. Se W1 W2 e ambos so subespaos de V ento W1 subespao de W2 . Seja ca a c a e c B = {w1 , . . . , wr } uma base de W1 , com r = dim W1 . Segue que B linearmente independente e em W2 . Como r = dim W1 = dim W2 , temos um conjunto linearmente inpedente com r elementos. Por (1) do teorema, B base de W2 , o portanto W1 = B = W2 . e Corolrio 4.3.9. Seja V um espao vectorial e A um conjunto tal que A = V . Ento existe a c a B A tal que B base de V . e Demonstrao. A demonstrao segue o mesmo racioc da demonstrao de (2) do teorema ca ca nio ca anterior.

4.4
4.4.1

Rn e seus subespaos (vectoriais) c


N cleo e espao das colunas de uma matriz u c

Nesta seco3 , debruamo-nos sobre Rn enquanto espao vectorial real. Repare que as colunas ca c c n , pelo que dim Rn = n. Mostre-se que de facto geram Rn . Se de In formam uma base de R se denotar por ei a coluna i de In , imediato vericar que (x1 , x2 , . . . , xn ) = n xi ei . Por e i=1 outro lado, n i ei = 0 implica (1 , 2 , . . . , n ) = (0, 0, . . . , 0), e portanto 1 = 2 = = i=1 n = 0. O conjunto {ei }i=1,...,n chamado base cannica de Rn . e o Teorema 4.4.1. Se A uma matriz m n sobre R, o ncleo N (A) um subespao vectorial e u e c n. de R Demonstrao. Basta mostrar que, dados elementos x, y de Rn tais que Ax = Ay = 0, ca tambm se tem A (x + y) = 0 e A (x) = 0, para qualquer R. Note-se que A (x + y) = e Ax + Ay = 0 + 0 = 0, e que A (x) = Ax = 0 = 0.

Considere, a t tulo de exemplo, o conjunto V = (x, y, z) R3 : z = 2x 3y = {(x, y, 2x 3y) : x, y R} . Este conjunto um subespao de R3 . De facto, escrevendo a condio z = 2x 3y como e c ca 2x 3y z = 0, o conjunto V iguala o ncleo da matriz A = 2 3 1 , pelo que V u e um subespao de R3 c 1 O conjunto U = (x, y, z) R3 : x 2y + 2 z = 0 = x + y + 2z um subespao de R3 , e c j que U = N a 1 2 1 2 . O subespao U dado pela interseco do plano dado c e ca 1 1 2 1 pela equao x 2y + 2 z = 0 com o plano dado pela equao x + y + 2z = 0. A interseco ca ca ca
3

De facto, o que armado pode ser facilmente considerado em Cn . e

66

CAP ITULO 4.

ESPACOS VECTORIAIS

destes dois planos uma recta; vamos, de seguida, e ou seja, vamos determinar uma base para U . Para x 1 1 2 2 y 1 1 2 z

encontrar um vector director dessa recta, tal, resolve-se o sistema homogneo e = 0 0 .

9 1 0 2 e por0 1 5 2 5 9 5 tanto y 2 z = 0 = x 9 z. Ou seja, as solues do homogneo so da forma ( 2 z, 2 z, z) = co e a 2 5 z( 9 , 2 , 1), com z R. Por conseguinte, as solues de A[x y z]T = 0 so todos os mltiplos co a u 2 9 5 do vector ( 2 , 2 , 1).

A forma normal de Hermite correspondente ` matriz do sistema iguala a

Como bvio, no estamos condicionados a R3 . Por exemplo, o conjunto eo a W = (x1 , x2 , x3 , x4 ) R4 : x1 2x3 = 0 = x1 x2 + 4x4 um subespao de R4 . De facto, repare que W = N e c Teorema 4.4.2. Sejam v1 , , vn Rm e A = os vectores vi Rm ). 1 0 2 0 1 1 0 4 vn
mn

. (as colunas de A so a

v1 v2

Ento {v1 , , vn } linearmente independente se e s se car(A) = n. a e o

Demonstrao. Consideremos a equao Ax = 0, com x = [x1 x2 xn ]T . Ou seja, consideca ca remos a equao ca x1 x2 . = 0. A . . xn Equivalentemente, x1 v1 + x2 v2 + + xn vn = 0. Ou seja, a independncia linear de v1 , . . . , vn equivalente a N (A) = {0} (isto , 0 ser a unica e e e soluo de Ax = 0). Recorde que Ax = 0 poss determinado se e s se car(A) = n. ca e vel o

Com base no teorema anterior, os vectores u = (1, 2, 3, 3); v = (2, 0, 1, 1); w = (0, 0, 1, 3) so linearmente independentes. Tal equivalente a mostrar que a e 1 2 0 2 0 0 car u v w = car = 3. 3 1 1 3 1 3

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

67

Para y = (1, 6, 7, 11), os vectores u, v, y no so linearmente independentes, j que a a a car u v y = 2. Teorema 4.4.3. Dados v1 , . . . , vm Rn , seja A a matriz A = v1 v2 vm Mnm (R) cujas colunas so v1 , . . . , vm . Ento w v1 , . . . , vm se e s se Ax = w tem a a o soluo. ca Demonstrao. Escrevendo Ax = w como ca [v1 . . . vm ] x1 x2 . . . xm temos que Ax = w tem soluo se e s se existirem x1 , x2 , . . . , xm R tais que ca o x1 v1 + x2 v2 + + xm vm = w, isto , w v1 , . . . , vm . e Denio 4.4.4. Ao subespao CS(A) = {Ax : x Rn } de Rm chamamos imagem de A, ou ca c espao das colunas de A. Por vezes, CS(A) denotado tambm por R(A) e por Im(A). O c e e T designa-se por espao das linhas de A e denota-se por RS(A). espao das colunas da A c c Considerando u, v, w, y como no exemplo anterior, vamos vericar se y u, v, w . Para A = u v w , tal equivalente a vericar se Ax = y tem soluo. Ou seja, se carA = e ca car . Aplicando o AEG, deduzimos que car(A) = 3 = car( A y ). A y J o vector (0, 0, 0,no combinao linear de u, v, w, ou seja, (0, 0, 0, 1) u, v, w . a 1) a e / ca 0 0 De facto, car(A) = car A . 0 1 = w,

Vejamos qual a razo de se denominar espao das colunas de A a CS(A). Escrevendo a c A = v1 v2 vn atravs das colunas de A, pela forma como o produto de matrizes e foi denido, obtemos 1 2 . = 1 v1 + 2 v2 + + n vn . A . . n O teorema anterior arma que b CS(A) (i.e., Ax = b poss e vel) se e s se b for um elemento o do espao gerado pelas colunas de A. c

68

CAP ITULO 4.

ESPACOS VECTORIAIS

A classicao de sistemas de equaes lineares como imposs ca co vel, poss determinado ou vel poss indeterminado, ganha agora uma nova perspectiva geomtrica. vel e 2 4 8 Por exemplo, consideremos a equao matricial A[x y z]T = b, com A = 1 2 4 ca 2 3 5 14 e b = 7 . O sistema poss e vel, j que car(A) = car([A b]), mas indeterminado pois a e 10 car(A) < 3. As colunas de A, que geram CS(A), no so linearmente independentes. Como Ax = b a a e poss temos que b CS(A), mas no sendo as colunas linearmente independentes, b no se vel a a escrever de forma unica como combinao linear das colunas de A. O sistema de equaes a ca co tem como solues as realizaes simultneas das equaes 2x + 4y 8z = 14, x + 2y 4z = 7 co co a co e 2x + 3y + 5z = 10. Cada uma destas equaes representa um plano de R3 , e portanto as co solues de Ax = b so exactamente os pontos de R3 que esto na interseco destes planos. co a a ca
T

No entanto, o sistema Ax = c = 0 1 0 imposs e vel, j que car(A) = 2 = 3 = a car([A c]). A interseco dos planos dados pelas equaes do sistema vazia. ca co e 1 1 0 Considere agora A = 1 0 e b = 1 . O facto de Ax = b ser imposs vel 1 1 0 (compare a caracter stica de A com a de [A b]) signica que b CS(A). Ora CS(A) = (1, 1, 1), (1, 0, 1) , ou seja, CS(A) o conjunto dos pontos de R3 que se escrevem da forma e (x, y, z) = (1, 1, 1) + (1, 0, 1) = ( + , , + ), , R.

Com alguns clculos, podemos encontrar a equao que dene CS(A). Recorde que se a ca
T

pretende encontrar os elementos

x y z

para os quais existem , R tais que x = y . z

1 1 1 0 1 1

Usando o mtodo que foi descrito na parte sobre resoluo de sistemas lineares, e ca 1 1 x 1 1 x yx . 1 0 y 0 1 1 1 z 0 0 z x + 2y Como o sistema tem que ter solues , , somos forados a ter z = x 2y. co c Ora Ax = b imposs e vel, pelo que b CS(A). Ou seja, b no um ponto do plano gerado a e pelas colunas de A.

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

69

CS(A) b

8 6 4 2 0 z -2 -4 -6 0 -8 -3 -2 -1 y 0 1 2 2 3 3 1 -3 -2 -1 x

Se A for invert vel, ento CS(A) = Rn (neste caso, tem-se necessariamente m = n). De a n , podemos escrever x = A(A1 x), pelo que, tomando y = A1 x Rn , facto, para x R temos x = Ay CS(A). Portanto, Rn CS(A) Rn . Se A, B so matrizes reais para as quais AB existe, temos a incluso CS(AB) CS(A). a a De facto, se b CS(AB) ento ABx = b, para algum x. Ou seja, A(Bx) = b, pelo que a b CS(A). Se B for invert vel, ento CS(AB) = CS(A). Esta igualdade ca provada se se mostrar a que CS(A) CS(AB). Para b CS(A), existe x tal que b = Ax = A(BB 1 )x = (AB)B 1 x, e portanto b CS(AB). Recordemos, ainda, que para A matriz real m n, existem matrizes P, L, U permutao, ca triangular inferior com 1s na diagonal (e logo invert vel) e escada, respectivamente, tais que P A = LU. Ou seja, A = P 1 LU. Finalmente, e a comprovao deste facto ca ao cargo do leitor, as linhas no nulas de ca a U , matriz obtida de A por aplicaao do mtodo de eliminao de Gauss, so linearmente c e ca a independentes. Para A, P, L, U denidas atrs, a RS(A) = CS(AT ) = CS(U T (P 1 L)T ) = CS(U T ) = RS(U ).

70

CAP ITULO 4.

ESPACOS VECTORIAIS

Ou seja, o espao das linhas de A e o das linhas de U so o mesmo, e uma base de RS(A) c a n . Temos, ento, so as linhas no nulas de U enquanto elementos de R a a a RS(A) = RS(U ) e dim RS(A) = car(A) Seja QA a forma normal de Hermite de A. Portanto, existe uma matriz permutao Perm ca Ir M tal que QAPerm = , onde r = car(A). Repare que CS(QA) = CS(QAPerm ), 0 0 j que o conjunto gerador o mesmo (ou ainda, porque Perm invert a e e vel). As primeiras r colunas de Im formam uma base de CS(QAPerm ) = CS(QA), e portanto dim CS(QA) = r. Pretendemos mostrar que dim CS(A) = car(A) = r. Para tal, considere o lema que se segue: Lema 4.4.5. Seja Q uma matriz n n invert e v1 , v2 , . . . , vr Rn . Ento {v1 , v2 , . . . , vr } vel a linearmente independente se e s se {Qv1 , Qv2 , . . . , Qvr } linearmente independente. e o e Demonstrao. Repare que ca Usando o lema anterior, dim CS(A) = dim CS(QA) = r = car(A). Sendo U a matriz escada de linhas obtida por Gauss, U equivalente por linhas a A, e e portanto dim CS(U ) = dim CS(A) = car(A). Considere os vectores de R3 : u = (1, 0, 2), v = (2, 2, 0), w = (1, 3, 1). Estes formam uma base de R3 , j que CS( u v w ) = R3 . Esta igualdade vlida j a e a a que CS( u v w ) R3 e car( u v w ) = dim CS( u v w ) = 3. Fica ao cargo 1 2 1 do leitor vericar que, para A = u v w = 0 2 3 se tem car(A) = 3. 2 0 1 J os vectores u, v, q, com q = (5, 6, 2), no so uma base de R3 . De facto, a a a 1 2 5 car = car 0 2 6 = 2, u v q 2 0 2 e portanto dim CS( u v q ) = 2 = 3 = dim R3 . As colunas da matriz no so linearmente a a independentes, e portanto no so uma base do espao das colunas da matriz a a c A questo que se coloca aqui : como obter uma base para CS(A)? a e Suponha que V a matriz escada de linhas obtida da matriz AT . Recorde que RS(AT ) = e RS(V ), e portanto CS(A) = CS(V T ). Portanto, e considerando a matriz A = [u v q] do u v q .
r i=1 i Qvi

= 0 Q(

r i=1 i vi )

=0

r i=1 i vi

= 0.

4.4. RN E SEUS SUBESPACOS (VECTORIAIS) exemplo anterior, basta-nos 5 0 6 exemplo, V T = 6 5 2 12 5 CS(A).

71

calcular uma matriz escada de linhas V associada a AT . Por 0 0 . As duas primeiras colunas de V T formam uma base de 0

a Em primeiro lugar, verica-se que as r colunas de U com pivot, digamos ui1 , ui2 , . . . , uir so x1 x2 . = 0 poss determinado. e vel linearmente independentes pois ui1 ui2 . . . uir . . xr Em segundo lugar, vamos mostrar que as colunas de A correspondentes `s colunas de U a com pivot so tambm elas linearmente independentes. Para tal, alertamos para a igualdade a e e U ei1 . . . eir = ui1 ui2 . . . uir , onde eij indica a ij -sima coluna de In . Tendo x1 x2 1 P A, e como . = 0 poss determinado, segue que, e vel U =L ui1 ui2 . . . uir . . xr x1 x2 pela invertibilidade de L1 P , a equao A ei1 . . . eir . = 0 admite apenas a ca . . xr soluo nula. Mas A ei1 . . . eir a matriz constitu pelas colunas i1 , i2 , . . . , ir de ca e da A, pelo que estas so linearmente independentes, em nmero igual a r = car(A). Visto a u dim CS(A) = r, essas colunas constituem de facto uma base de CS(A). Seja A a matriz do exemplo anterior: 1 2 5 A = 0 2 6 . 2 0 2 Vamos agora descrever esta segunda forma de encontrar uma base de CS(A). Como j vimos, a car(A) = 2, pelo que as colunas de A no formam uma base de CS(A) pois no so linearmente a a a independentes, e dim CS(A) = 2. Faamos a decomposio P = LU , trocando a primeira c ca A 2 0 2 pela terceira linha, obtendo a matriz escada de linhas U = 0 2 6 . Uma base 0 0 0 poss para CS(A) so as colunas de A correspondendo `s colunas de U que tm pivot. vel a a e No caso, a primeira e a segunda colunas de A formam uma base de CS(A).

72

CAP ITULO 4.

ESPACOS VECTORIAIS

Finalmente, como car(AT ) = dim CS(AT ) = dim RS(A) = car(A), temos a igualdade car(A) = car(AT ).

Repare que N (A) = N (U ) j que Ax = 0 se e s se U x = 0. Na resoluo de U x = 0, a o ca e feita a separao das incgnitas em bsicas e em livres. Recorde que o nmero destas ultimas ca o a u denotado por nul(A). Na apresentao da soluo de Ax = 0, obtemos, pelo algoritmo e ca ca para a resoluo da equao somas de vectores, cada um multiplicado por uma das incgnitas ca ca o livres. Esses vectores so geradores de N (A), e so em nmero igual a n r, onde r = car(A). a a u Queremos mostrar que nul(A) = dim N (A). Seja QA a forma normal de Hermite de A; existe Ir M P permutao tal que QAP = ca = HA , tendo em mente que r m, n. Como Q 0 0 invert e vel, segue que N (QA) = N (A). Sendo HA a matriz obtida de QA fazendo trocas convenientes de colunas, tem-se nul(HA ) = nul(QA) = nul(A). Denamos a matriz quadrada, Ir M . Como HA GA = HA segue que HA (In G) = 0, e portanto de ordem n, GA = 0 0 as colunas de In G pertencem a N (HA ). Mas In G = 0 M 0 Inr e as suas ultimas

M Inr = car = n r colunas so linearmente independentes (j que car a a Inr M T Inr = n r). Logo, dim N (A) = dim N (HA ) n r. Pelo que vimos atrs, car a M dim N (A) = dim N (U ) n r. Segue das duas desigualdades que nul(A) = dim N (A). Como n = car(A) + nul(A), obtemos, nalmente, n = dim CS(A) + dim N (A).

Considere o subespao W de R3 gerado pelos vectores c (1, 2, 1), (2, 3, 1), (3, 1, 2), (4, 1, 2), (5, 0, 4). Como temos 5 vectores de um espao de c dependentes. Qual a dimenso de W ? W a so os vectores dados: a 1 A= 2 1 dimenso 3, eles so necessariamente linearmente a a o espao das colunas da matriz A, cujas colunas e c 2 3 4 5 3 1 1 0 . 1 2 2 4

Ora dim CS(A) = car(A). Calcule a matriz U escada de linhas aplicando o AEG, e verique que as colunas de U com pivots so a primeira, a segunda e a terceira. Como car(A) = 3 ento a a

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

73

dim W = 3. Ora W R3 e tm a mesma dimenso, pelo que W = R3 . Ou seja, as colunas e a 3 . As colunas de A que formam uma base para W so aquelas correspondentes de A geram R a a `s colunas de U que tm pivot; neste caso, as trs primeiras de U . Uma base B para W o e e e conjunto formado pelos vectores v1 = (1, 2, 1), v2 = (2, 3, 1), v3 = (3, 1, 2). Vamos agora calcular as coordenadas de b = (0, 2, 2) nesta base. Tal corresponde a resolver a equao ca ca e e v1 v2 v3 x = b. A unica soluo o vector (1, 1, 1), que o vector das coordenadas 1 de b na base v1 , v2 , v3 . Ou seja, (0, 2, 2)B = 1 . 1 Vamos agora apresentar alguns resultados importantes que se podem deduzir facilmente a ` custa de car(A) + nul(A) = n, onde A uma matriz m n. Pressupe-se que B uma e o e matriz tal que AB existe. 1. car(AB) car(A). Como vimos na seco anterior, CS(AB) CS(A), pelo que dim CS(AB) dim CS(A). ca 2. Se B invert ento car(A) = car(AB). e vel a 3. N (B) N (AB). Se b N (B) ento Bb = 0. Multiplicando ambos os lados, ` esquerda, por A obtemos a a ABb = 0, pelo que b N (AB). 4. nul(B) nul(AB). 5. N (AT A) = N (A). Resta mostrar que N (AT A) N (A). Se x N (AT A) ento AT Ax = 0. Multiplicando a T obtemos xT AT Ax = 0, pelo (Ax)T Ax = 0. Seja ambos os lados, ` esquerda, por x a 2 2 2 (y1 , . . . , yn ) = y = Ax. De y T y = 0 obtemos y1 + y2 + . . . yn = 0. A soma de reais no a 2 negativos zero se e s se cada parcela nula, pelo que cada yi = 0, e portanto yi = 0. e o e Ou seja, y = 0, donde segue que Ax = 0, ou seja, que x N (A). 6. nul(AT A) = nul(A). 7. car(AT A) = car(A) = car(AAT ). De car(A) + nul(A) = n = car(AT A) + nul(AT A) e nul(AT A) = nul(A) segue que car(AT A) = car(A). Da mesma forma, car(AT ) = car(AAT ). Como car(A) = car(AT ), obtemos car(A) = car(AAT ). 8. Se car(A) = n ento AT A invert a e vel. T A uma matriz nn com caracter A e stica igual a n, pelo que uma matriz no-singular, e a logo invert vel.

Exerc cios

74

CAP ITULO 4. 1. Considere, no espao vectorial real R3 , os vectores c v1 = (1, 1, 1), Verique se (a) (1, 4, 5) combinao linear de v1 , v2 . e ca (b) (1, 2, 1) combinao linear de v1 , v2 . e ca (c) (3, 0, 2) combinao linear de u1 , u2 , u3 . e ca (d) (0, 2, 1) combinao linear de u1 , u2 , u3 . e ca 2. Verique se (2, 5, 3) (1, 4, 2), (2, 1, 3) . v2 = (2, 1, 2), u1 = (1, 0, 1),

ESPACOS VECTORIAIS

u2 = (1, 0, 0),

u3 = (1, 0, 1).

3. Determine , de forma a que (1, 1, , ) (1, 0, 2, 1), (1, 1, 2, 2) . 4. Diga quais dos seguintes conjuntos de vectores so linearmente dependentes: a (a) {(0, 1, 1, 0), (1, 0, 1, 1), (1, 1, 0, 1)} no espao vectorial real R4 . c (b) {(1, 2, 1), (2, 3, 1)} no espao vectorial real R3 . c (c) {(0, 1), (1, 2), (2, 3)} no espao vectorial real R2 . c (d) {x2 + x, x2 + 1, x, x3 } no espao vectorial real R3 [x]. c (e) {g1 , g2 , g3 , g4 } no espao vectorial real RR onde c g1 : R R g2 : R R , , x cos2 x x sin2 x g3 : R R , xx+1 g4 : R R x1

5. Considere os seguintes subespaos vectoriais do espao vectorial real R3 : c c V1 = {(x, y, z) R3 : z = 0}, V2 = {(x, y, z) R3 : y + z = 0, y z = 0}, V3 = {(x, y, z) R3 : x y = 0, 2y + z = 0}, V4 = {(x, y, z) R3 : x + y = 0}. Indique a dimenso e uma base para cada um deles. a 6. Considere, no espao vectorial real R4 , os subespaos c c U = {(a1 , a2 , a3 , a4 ) R4 : a1 a4 = 0, a4 a3 = 0} W1 = {(b1 , b2 , b3 , b4 ) R4 : b2 + 2b3 = 0, b1 + 2b3 b4 = 0} W2 =< (1, 1, 1, 0), (1, 1, 0, 1), (1, 3, 2, 1), (3, 1, 1, 2) >. (a) Diga, justicando, se {(1, 1, 1, 1), (0, 1, 0, 0), (1, 0, 0, 1)} uma base de U . e (b) Determine uma base de i. W1 . ii. W2 .

7. Considere os seguintes vectores do espao vectorial real R3 : c v1 = (, 6, 1), v2 = (1, , 1), v3 = (2, , 3). (a) Determine os valores do parmetro real para os quais o conjunto {v1 , v2 , v3 } uma a e 3. base de R

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

75

(b) Para um dos valores de determinados na al nea anterior, calcule as coordenadas do vector v = (1, 1.2) em relao ` base {v1 , v2 , v3 }. ca a 8. Considere os seguintes elementos de R3 : 1 3 v1 = (1, 0, 2), v2 = (1, 1, 1), v3 = (0, 1, 1), v4 = (1, , ). 2 2 Verique se v1 , v2 = v3 , v4 . 9. Considere os elementos de R3 : v1 = (2, 3, 1), v2 = (0, 1, 2), v3 = (1, 1, 2). (a) Mostre que so uma base de R3 . a (b) Determine as coordenadas de (3, 2, 1) relativamente a esta base. 10. Mostre que os vectores (a, b), (c, d) so uma base de R2 se e s se ad bc = 0. a o 11. Considere os seguintes subespaos de R4 : c {(x1 , x2 , x3 , x4 ) : x1 + x2 = 0} , {(x1 , x2 , x3 , x4 ) : x2 = 0} , {(x1 , x2 , x3 , x4 ) : x1 + x2 + x3 + x4 = 0} . Para cada um deles, determine a dimenso e indique uma base. a 12. Considere os seguintes subespaos de R4 : c F = {(x1 , x2 , x3 , x4 ) : x1 = x3 x4 = 2x2 } , G = (1, 0, 1, 0), (0, 2, 0, 1), (1, 2, 1, 1) . Determine a dimenso e indique uma base para F e para G. a 13. Encontre uma base para o espao das colunas das matrizes seguintes: c 2 8 2 (a) 1 17 6 9 6 1 3 4 0 4 (b) 2 4 2 0 . 3 2 4 4 0 7 3 8 1 (c) 1 6 8 2 3 0 0 0 5 8 14. Indique, justicando convenientemente, o valor lgico da seguinte armao: o ca Se as colunas da matriz quadrada A s~o linearmente independentes, ent~o a a 2 s~o tambm elas linearmente independentes. as colunas de A a e 15. Seja A Mn (R). Mostre que (a) se A2 = A e car(A) = n ento A = In ; a (b) se A2 = A ento CS(A) N (A) = {0}. a

76

CAP ITULO 4.

ESPACOS VECTORIAIS

4.4.2

Sistemas imposs veis

Como motivao para o que se segue, suponha que se quer encontrar (caso exista) a recta ca 2 que incide nos pontos (2, 5), (0, 1), (1, 1). Sendo a recta no vertical, ter uma r de R a a equao da forma y = mx + c, com m, c R. Como r incide nos pontos indicados, ento ca a necessariamente 5 = m (2) + c, 1 = m 0 + c, 1 = m 1 + c.

A formulao matricial deste sistema de equaes lineares (nas incgnitas m e c) ca co o e 2 1 0 1 1 1 5 = 1 . 1

m c

O sistema poss e vel determinado, pelo que a existncia da recta e a sua unicidade est e a garantida. A unica soluo (m, c) = (2, 1) e portanto a recta tem equao y = 2x 1. ca e ca No entanto, se considerarmos como dados os pontos (2, 5), (0, 0), (1, 1), facilmente chegar amos ` concluso que no existe uma recta incidente nos trs pontos. Para tal, basta a a a e mostrar que o sistema de equaes dado pelo problema (tal como zemos no caso anterior) co e imposs vel. Obtemos a relao ca b CS(A), 2 1 5 onde A = 0 1 e b = 0 . Suponha que os pontos dados correspondem a leituras 1 1 1 de uma certa experincia, pontos esses que, teoricamente, deveriam ser colineares. Ou seja, e em algum momento houve um desvio da leitura em relao ao que se esperaria. Desconhece-se ca qual ou quais os pontos que sofreram incorreces. Uma soluo seria a de negligenciar um co ca dos pontos e considerar os outros dois como correctos. E imediato concluir que este racioc nio pode levar a concluses errneas. Por exemplo, vamos pressupor que o primeiro dado que o o e est incorrecto (o ponto (2, 5)). A rectas que passa pelos pontos (0, 0), (1, 1) tem como a equao y = x. Ora se o erro esteve efectivamente na leitura do ponto (0, 0) (que deveria ca ser (0, 1)) ento o resultado correcto est bastante distante do que obtivmos. O utilizador a a e desconhece qual (ou quais, podendo haver leituras incorrectas em todos os pontos) dos dados sofreu erros. Geometricamente, a primeira estratgia corresponde a eliminar um dos pontos e e traar a recta que incide nos outros dois. Uma outra que, intuitivamente, parece a mais c indicada, ser a de, de alguma forma e com mais ou menos engenho, traar uma recta que se a c tente aproximar o mais poss vel de todos os pontos, ainda que no incida em nenhum deles! a

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

77

-1 y -2 -3 -4 -5 -6 -4 -3 -2 -1 0 x 1 2 3 4

Vamos, de seguida, usar todo o engenho que dispomos para encontrar a recta que se aproxima o mais poss dos pontos (2, 5), (0, 0), (1, 1). vel Sabendo que b CS(A), precisamos de encontrar b CS(A) por forma a que b seja o ponto de CS(A) mais prximo de b. Ou seja, pretendemos encontrar b CS(A) tal que o d(b, b ) = mincCS(A) d(c, b), onde d(u, v) = u v . O ponto b o de CS(A) que minimiza e a distncia a b. Este ponto b unico e tal que b b ortogonal a todos os elementos de a e e e CS(A). A b chamamos projeco ortogonal de b sobre (ou ao longo) de CS(A), e denota-se ca por projCS(A) b.

78

CAP ITULO 4.

ESPACOS VECTORIAIS

CS(A) b projeccao de b

6 4 2 0 z -2 -4 2 -6 6 0 4 2 y -2 0 -2 -4 -4 -6 -6 x 6 4

Apresentamos, de seguida, uma forma fcil de clculo dessa projeco, quando as colunas a a ca de A so linearmente independentes. Neste caso, AT A invert e a projeco de b sobre a e vel ca CS(A) dada por e b = A(AT A)1 AT b.

Pretendemos agora encontrar x por forma a que Ax = b , ou seja, x por forma a que a distncia de Ax a b seja a menor poss a vel. Repare que se Ax = b imposs e vel, ento a essa distncia ser, seguramente, no nula. A equao Ax = b sempre poss a a a ca e vel, j que a b = A(AT A)1 AT b CS(A); ou seja, b escreve-se como Aw, para algum w (bastando tomar w = (AT A)1 AT b). No entanto, o sistema pode ser indeterminado, e nesse caso poder a interessar, de entre todas as solues poss co veis, a que tem norma m nima. O que acabmos a por expr, de uma forma leve e ingnua, denomina-se o mtodo dos m o e e nimos quadrados, e a x soluo de Ax = b de norma minimal, denomina-se a soluo no sentido dos m ca ca nimos quadrados de norma minimal. Exerc cios

1. Calcule a projeco ortogonal do vector (2, 1, 1) sobre o espao gerado por (1, 1, 1), (0, 1, 3). ca c 1 3 2 2. Para A = e b = 4 10 1 m nimos quadrados de Ax = b.
T T

5 7 10

, determine a soluo no sentido dos ca

3. Determine a soluo no sentido dos m ca nimos quadrados de

4.4. RN E SEUS SUBESPACOS (VECTORIAIS) x1 = 1 (a) x2 = 1 x +x = 0 1 2 x1 + 2x2 = 1 (b) 2x1 + 5x2 = 0 3x + 7x = 2 1 2 4. Considere a matriz A = 1 1 0 1 1 0 1 1 .
T

79

(a) Calcule a projeco ortogonal de b = ca

4 5 1 4

sobre CS(A).

(b) O que pode dizer sobre o sistema Ax = b?

Ao invs de procurarmos a recta que melhor se adequa aos dados dispon e veis, podemos procurar o polinmio de segundo, terceiro, etc, graus. Se os dados apresentados forem pontos o de R3 , podemos procurar o plano que minimiza as somas das distncias dos pontos a esse a plano. E assim por diante, desde que as funes que denem a curva ou superf sejam co cie lineares nos parmetros. Por exemplo, ax2 + bx + c = 0 no uma equao linear em x mas a a e ca -o em a e b. e Exemplo 4.4.6. O exemplo que de seguida apresentamos baseia-se no descrito em [3, pag.58] Suponha que se est a estudar a cintica de uma reaco enzimtica que converte um a e ca a substrato S num produto P, e que essa reaco segue a equao de Michaelis-Menten, ca ca r= onde 1. [E]0 indica concentrao enzimtica original adicionada para iniciar a reaco, em graca a ca mas de E por litro, 2. r o nmero de gramas de S convertido por litro por minuto (ou seja, a velocidade da e u reaco), ca 3. k2 o nmero de gramas de S convertido por minuto por grama de E. e u Depois de se efectuar uma srie de experincias, obtiveram-se os dados apresentados na e e tabela seguinte, referentes ` taxa de converso de gramas de S por litro por minuto: a a k2 [E]0 [S] , Km + [S]

80 [S] g s/l 1.0 2.0 5.0 7.5 10.0 15.0 20.0 30.0

CAP ITULO 4. [E]0 = 0.005 gE /l 0.055 0.099 0.193 0.244 0.280 0.333 0.365 0.407

ESPACOS VECTORIAIS

[E]0 = 0.01 gE /l 0.108 0.196 0.383 0.488 0.569 0.665 0.733 0.815

Re-escrevendo a equao de Michaelis-Menten como ca

[E]0 Km 1 1 = + , r k2 [S] k2

obtemos um modelo linear y = b1 x + b0

com y= 1 1 [E]0 Km ,x= , b0 = , b1 = . r [S] k2 k2

Denotemos os dados x e y por xi e yi , com i = 1, . . . , 8. Este sistema de equaes lineares co tem a representao matricial ca A b1 b0 =y= y1 y2 . . . y8

x1 1 x2 1 b1 com A = . . . A unica soluo de AT A ca = y indica-nos a soluo no sentido dos ca . . b0 . . x8 1 m nimos quadrados da equao matricial, e daqui obtemos os valores de k2 e de Km . ca

4.4. RN E SEUS SUBESPACOS (VECTORIAIS)

81

0.8

E0=0.005 E0=0.01

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0 0 5 10 15 20 25 30 35

82

CAP ITULO 4.

ESPACOS VECTORIAIS

Cap tulo 5

Valores e vectores prprios o


5.1 Motivao e denies ca co
1 2 2 2 . Para b = 1 0 , obtemos Ab = 1 2 . Mas se tomarmos

Considere a matriz A = c= 2 1

, temos que Ac = 2c. Ou seja, Ac um mltiplo de c. e u

Ac

Ac

Dada uma matriz complexa A quadrada, n n, um vector x Cn no nulo diz-se um a vector prprio de A se Ax = x, para algum C. O complexo denominado valor o e prprio, e dizemos que x vector prprio associado a . O conjunto dos valores prprios de o e o o A denotado por (A) e chamado de espectro de A. e e 2 No exemplo apresentado atrs, temos que 2 (A) e que a vector prprio associado e o 1 ao valor prprio 2. o Uma questo que colocamos desde j : a ae Como encontrar (A)? Ora, sendo A uma matriz complexa n n e se valor prprio de A ento existe x e o a Cn \ {0} para o qual Ax = x. Ou seja, In x Ax = x Ax = 0, o que equivale a (In A)x = 0. Como x = 0, tal signica que a equao (In A)x = 0 consistente e que tem ca e 83

84

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

soluo no nula. Isto , a matriz quadrada In A tem caracter ca a e stica estritamente inferior ao nmero de colunas, o que acontece se e s se no invert u o a e vel, ou de forma equivalente, o seu determinante nulo. Os valores prprios de A so os escalares que tornam In A e o a uma matriz singular, ou seja, que satisfazem |In A| = 0. Ora |In A| um polinmio e o em , usando o teorema de Laplace, denominado polinmio caracter o stico de A, e denotado por A . Os valores prprios de A so as raizes do polinmio caracter o a o stico A , ou seja, as solues da equao A () = 0. Esta equao chamada a equao caracter co ca ca e ca stica de A. Determinar os valores prprios de uma matriz equivalente a determinar as raizes do seu o polinmio caracter o stico. Usando o teorema de Laplace, este polinmio tem grau igual ` o a n de () 1. Pelo ordem da matriz A, que assumimos n n, e mnico: o coeciente de e o e A Teorema Fundamental da Algebra, sendo o grau de A igual a n este tem n raizes (contando as suas multiplicidades) sobre C. Ou seja, a matriz A do tipo n n tem ento n valores a prprios (contando com as suas multiplicidades). Sabendo que se z C raiz de A ento o e a (A). Em particular, se A o conjugado z de z raiz de A , segue que se (A) ento e a tem um nmero u mpar de valores prprios (contado as suas multiplicidades) ento tem pelo o a menos um valor prprio real. Isto , (A) R = . A multiplicidade algbrica de um valor o e e prprio a multiplicidade da raiz de A . o e Vimos no que se discutiu acima uma forma de determinar os valores prprios de uma o matriz. Dado um valor prprio , o Como determinar os vectores prprios associados a (A)? o Recorde que os vectores prprios associados a (A) so as solues no-nulas de o a co a Ax = x, ou seja, as solues no nulas de (In A)x = 0. Isto , os vectores prprios co a e o de A associados a so os elementos no nulos de N (In A). Recorde que o ncleo de a a u qualquer matriz um espao vectorial, e portanto N (In A) o espao vectorial dos vectores e c e c prprios de A associados a juntamente com o vector nulo, e denomina-se espao prprio de o c o A associado a . A multiplicidade geomtrica de a dimenso do espao prprio associado e e a c o a , isto , dim N (In A). e O resultado seguinte resume o que foi armado na discusso anterior. a Teorema 5.1.1. Sejam A uma matriz n n e C. As armaes seguintes so equivaco a lentes: 1. (A); 2. (In A)x = 0 uma equao poss indeterminada; e ca vel 3. xCn \{0} Ax = x; 4. soluo de |In A| = 0. e ca Para a matriz considerada acima, A = A () = 1 2 2 2 , o seu polinmio caracter o stico e

1 2 = 2 + 6, cujas raizes so 3, 2. Portanto, (A) = {3, 2}, a 2 + 2 e cada valor prprio de A tem multiplicidade algbrica igual a 1. o e

5.2. PROPRIEDADES

85

Teorema 5.1.2. Sejam A uma matriz quadrada e (A) com multiplicidade algbrica e e multiplicidade geomtrica . Ento e a .

1 2 . O polinmio caracter o stico de A iguala A () = 2 2 2 + 6. As raizes de A so os elementos de (A) = {3, 2}. A multiplicidade algbrica a e de cada um deles 1. e Resta-nos determinar vectores prprios associados a cada um destes valores prprios. o o Recorde que os vectores prprios associados a 3 [resp. 2] so os elementos no nulos de o a a N (3I2 A) [resp. N (2I2 A)], pelo que nos basta calcular uma base para cada espao c prprio. Como a multiplicidade geomtrica (ou seja, a dimenso do espao prprio) no pode o e a c o a ser superior ` algbrica, e cada uma delas vale 1, segue que as multiplicidades algbrica e a e e geomtrica de cada um dos valores prprios so iguais. e o a Considere a matriz A =

5.2

Propriedades

Nos resultados que se seguem descrevemos algumas propriedades dos valores prpios. o Teorema 5.2.1. Dada uma matriz quadrada A, (A) = (AT ). Demonstrao. Recorde que |I A| = |(I A)T | = |I AT |. ca Teorema 5.2.2. Os valores prprios de uma matriz triangular (inferior ou superior) so os o a seus elementos diagonais. Demonstrao. Seja A = [aij ] triangular superior, n n. Ora (A) o conjunto das solues ca e co de |In A|. Mas In A de novo uma matriz triangular superior j que In diagonal. e a e Portanto |In A| o produto dos seus elementos diagonais, ou seja, (a11 )(a22 ) ( e ann ), que tem como raizes a11 , a22 , . . . , ann . Teorema 5.2.3. Uma matriz A, quadrada, invert se e s se 0 (A). e vel o Demonstrao. Sejam A uma matriz quadrada de ordem n e A () = n + c1 n1 + + ca cn1 + cn o polinmio caracter o stico de A. Ora 0 (A) se e s se 0 raiz de A , ou de o e forma equivalente, cn = 0. Por denio, A () = |In A|. Tomando = 0 obtemos (1)n |A| = | A| = cn . tal ca implica que |A| = 0 se e s se cn = 0. Portanto A no invert se e s se cn = 0 o que por o a e vel o sua vez vimos ser equivalente a 0 (A). Teorema 5.2.4. Sejam A uma matriz quadrada e k N. Se (A) e x vector prprio e o associado a ento k (Ak ) e x vector prprio de Ak associado a k . a e o

86

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

Demonstrao. Se (A) e x vector prprio associado a ento Ax = x. Desta ca e o a igualdade segue que, para qualquer k N, se tem Ak x = Ak1 Ax = Ak1 x = Ak1 x = = k x e portanto (Ak ) e x vector prprio de Ak associado a k . e o Recordamos que uma matriz N , n n, se diz nilpotente se existir um natural k para o qual N k = 0nn . Alertamos ainda para o facto de (0nn ) = {0}; isto , a matriz nula s tem um valor e o prprio: o zero. o Corolrio 5.2.5. Se N uma matriz nilpotente ento (N ) = {0}. a e a Demonstrao. Suponha que k tal que N k = 0nn . Seja (N ). Ento k valor prprio ca e a e o de N k = 0nn ; portanto, k = 0, do que segue que = 0. Terminamos esta seco com duas observaes, omitindo a sua prova: ca co (i) O determinante de uma matriz iguala o produto dos seus valores prprios. o (ii) O trao de uma matriz (ou seja, a soma dos elementos diagonais de uma matriz) iguala c a soma dos seus valores prprios. o

5.3

Matrizes diagonalizveis a

Nesta seco, vamo-nos debruar sobre dois problemas, que alis, e como veremos, esto ca c a a relacionados. Assume-se que A uma matriz n n sobre C. Essas questes so: e o a # 1. Existe uma base de Cn constitu por vectores prprios de A? da o # 2. Existe uma matriz U invert para a qual U 1 AU uma matriz diagonal? vel e Recordamos a noo de semelhana entre matrizes. As matriz A e B dizem-se semelhantes, ca c e denota-se por A B, se existir uma matriz invert U para a qual B = U 1 AU . Repare vel que as matrizes A, B so necessariamente quadradas. a bvio que se A B ento B A; de facto, se B = U 1 AU ento U BU 1 = A. Eo a a Denio 5.3.1. Uma matriz quadrada A diz-se diagonalizvel se existir uma matriz diaca a 1 , para alguma matriz U invert ` gonal D tal que A D. Isto , A = U DU e vel. A matriz U chamamos matriz diagonalizante. o E bvio que uma matriz diagonal diagonalizvel, bastando tomar a matriz identidade e a como matriz diagonalizante. O resultado seguinte no s nos caracteriza as matrizes diagonalizveis, mas tambm, ` a o a e a custa da sua prova, obtemos um algoritmo para encontrar a matriz diagonal e a a respectiva matriz diagonalizante.

5.3. MATRIZES DIAGONALIZAVEIS

87

Teorema 5.3.2. Uma matriz n n diagonalizvel se e s se tiver n vectores prprios e a o o linearmente independentes. Demonstrao. Em primeiro lugar, assumimos que A diagonalizvel; ou seja, existe uma ca e a 1 0 .. vel matriz U = u1 u2 un invert tal que U 1 AU = D = . . 0 n 1 AU = D segue que AU = U D. Portanto, Como bvio, de U eo Au1 Au2 Aun = AU = u1 u2 un 0 = e portanto Au1 = 1 u1 Au2 = 2 u2 . . . . . . . Au = u n n n Como U invert e vel, ento no pode ter colunas nulas, pelo que ui = 0. Portanto, 1 , 2 , . . . , n a a so valores prprios de A e u1 , u2 , . . . , un so respectivos vectores prprios. Sendo U invert a o a o vel, as suas colunas so linearmente independentes, e portanto A tem n vectores prprios lineara o mente independentes. Reciprocamente, suponha que A tem n vectores prprios linearmente independentes. Seo jam eles os vectores u1 , u2 , . . . , un , associados aos valores prprios (no necessariamente diso a tintos) 1 , 2 , . . . , n . Seja U a matriz cujas colunas so os vectores prprios considerados a o acima. Ou seja, U = u1 u2 un . Ora esta matriz quadrada nn tem caracter stica igual a n, pelo que invert e vel. De Au1 = 1 u1 Au2 = 2 u2 . . . . . . Au = u n n n segue que Au1 Au2 Aun = 1 u1 2 u2 n un A u1 u2 un = u1 u2 un 0 1 .. . n e portanto 0 . 1 u1 2 u2 n un 1 .. . n 0

88

CAP ITULO 5.

VALORES E VECTORES PROPRIOS u1 u2 1 .. 0 . n


1

Multiplicando ambas as equaes, ` esquerda, por co a

un

, obtemos 0 .

u1 u2

un

u1 u2

un

Realamos o facto da demonstrao do teorema nos apresentar um algoritmo de diagoc ca nalizao de uma matriz n n com n vectores ca linearmente independentes. De facto, de 1 0 1 .. A u1 u2 un = u1 u2 un obtemos . 0 A= u1 u2 un 0 1 .. . n 0 u1 u2
1

un

Uma matriz diagonalizante a matriz cujas colunas so os vectores prprios linearmente e a o independentes dados, e a matriz diagonal correspondente a matriz cuja entrada (i, i) o e e valor prprio i correspondente ` coluna i (e portanto ao isimo vector prprio) da matriz o a e o diagonalizante. 1 2 , vimos atrs que (A) = {3, 2}. Ser A diagonalizvel? a a a 2 2 Um vector prprio associado ao valor prprio 3 um elemento no nulo de N (3I2 A). o o e a Encontrar um vector prprio associado a 3 equivalente a encontrar uma soluo no nula o e ca a 1 de (3I2 A)x = 0. Fica ao cargo do leitor vericar que vector prprio associado ao e o 2 Para a matriz A = valor prprio 3, e fazendo o mesmo racioc o nio, que 2 1 vector prprio associado ao valor e o 1 2 2 1 1 2 2 1 = 2. e a

prprio 2. Ora estes dois vectores so linearmente independentes, visto car o a Portanto, a matriz A diagonalizvel, sendo a matriz diagonalizante U = e a matriz diagonal 3 0 0 2 .

0 0 . Esta matriz nilpotente, pelo que (B) = {0}. e 1 0 O espao prprio associado a 0 N (B) = N (B). Ora car(B) = 1, pelo que nul(B) = 1, c o e e portanto a multiplicidade geomtrica do valor prprio 0 1 (repare que a multiplicidade e o e Considere agora a matriz B =

5.3. MATRIZES DIAGONALIZAVEIS

89

algbrica do valor prprio 0 2). Ou seja, no poss e o e a e vel encontrar 2 vectores prprios o linearmente independentes. 2 1 , sendo triangular superior, tem como valores prprios os elementos o 0 2 diagonais da matriz. Isto , (C) = {2}. Repare que a multiplicidade algbrica do valor e e 0 1 prprio 2 2. Repare que car(2I2 C) = car o e = 1, pelo que nul(2I2 C) = 1. Logo, 0 0 no poss encontrar 2 vectores prprios de C linearmente independentes, e portanto C a e vel o no diagonalizvel. a e a A matriz C = 1 2 1 A matriz A = 2 2 2 . tem como espectro (A) = {3, 2}, sendo as multipli0 0 3 cidades algbricas de 3 e 2, respectivamente, 2 e 1. Como car(3I3 A) = 2, temos que e nul(3I3 A) = 1, e portanto a multiplicidade geomtrica do valor prprio 3 1. Portanto, e o e a matriz no diagonalizvel pois no poss encontrar 3 vectores prprios linearmente a e a a e vel o independentes. O que se pode dizer em relao a independncia linear de um vector prprio associado a ca ` e o 3 e um vector prprio associado a 2? o Teorema 5.3.3. Sejam v1 , v2 , . . . , vk vectores prprios associados a valores prprios 1 , 2 , . . . , k o o distintos entre si. Ento {v1 , v2 , . . . , vk } um conjunto linearmente independente. a e Demonstrao. Suponhamos que {v1 , v2 , . . . , vk } um conjunto linearmente dependente, sendo ca e v1 , v2 , . . . , vk vectores prprios associados a valores prprios 1 , 2 , . . . , k distintos entre si. o o Pretendemos, desta forma, concluir um absurdo. Seja r o menor inteiro para o qual o conjunto {v1 , v2 , . . . , vr } linearmente independente. e Ora r 1 j que v1 = 0 (pois v1 vector prprio) e r < k j que o conjunto dos veca e e o a tores prprios linearmente dependente. Sendo o conjunto {v1 , v2 , . . . , vr+1 } linearmente o e dependente, existem escalares 1 , 2 , . . . , r , r+1 no todos nulos para os quais a
r+1

i vi = 0
i=1

o que implica que A

r+1 i=1 i vi

r+1 i=1 i Avi r+1

= 0, e portanto

i i vi = 0.
i=1

Por outro lado,

r+1 i=1 i vi

= 0 implica que r+1


r+1

r+1 i=1 i vi

= 0 e portanto

i r+1 vi = 0.
i=1

90

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

r+1 Fazendo a diferena das duas equaes, obtemos c co i=1 i (i r+1 )vi = 0, e portanto r e i=1 i (i r+1 )vi = 0. Como {v1 , v2 , . . . , vr } linearmente independente, segue que i (i r+1 ) = 0, o que implica, e visto i r+1 = 0 j que os valores prprios so distintos, a o a r+1 que i = 0, com i = 1 . . . , r. Mas i=1 i vi = 0, o que juntamente com as igualdades i = 0, com i = 1 . . . , r, leva a que r+1 vr+1 = 0. Como vr+1 = 0 j que vector prprio, segue que a e o r+1 = 0. Tal contradiz o facto de existirem escalares 1 , 2 , . . . , r , r+1 no todos nulos a r+1 para os quais i=1 i vi = 0.

Alertamos para o facto do rec proco do teorema ser falso. Repare que a matriz identidade In tem 1 como unico valor prprio, e a dimenso de N (In In ) ser n, e portanto h n vectores o a a prprios linearmente independentes associados a 1. o Se uma matriz n n tem os seus n valores prprios distintos ento, pelo teorema, tem o a n vectores prprios linearmente independentes, o que equivalente a armar que a matriz o e e diagonalizvel. a Corolrio 5.3.4. Uma matriz com os seus valores prprios distintos diagonalizvel. a o e a Mais uma vez alertamos para o facto do rec proco do corolrio ser falso. Isto , h matrizes a e a diagonalizveis que tm valores prprios a e o com multiplicidade algbrica superior a 1. e 0 0 2 Considere a matriz A = 1 2 1 . Esta matriz tem dois valores prprios distintos, e o 1 0 3 (A) = {1, 2}. Repare que o valor prprio 2 tem multiplicidade algbrica igual a 2, enquanto o e que a multiplicidade algbrica do valor prprio 1 1. Pelo teorema anterior, um vector e o e prprio associado a 2 e um vector prprio associado a 1 so linearmente independentes. o o a Repare que a multiplicidade geomtrica de 2 tambm 2, j que car(2I3 A) = 1 implica que e e e a nul(2I3 A) = 3 car(2I3 A) = 2. Ou seja, dim N (2I3 A) = 2, e portanto existem dois vectores prprios linearmente independentes associados a 2. Como exerc o cio, determine uma base do espao prprio associado a 2. Esses dois vectores, juntamente com um vector prprio c o o associado ao valor prprio 1, formam um conjunto linearmente independente, pois vectores o prprios associados a valor prprios distintos so linearmente independentes. Ou seja, h 3 o o a a vectores prprios linearmente independentes, donde segue que a matriz A diagonalizvel. o e a Exerc cios

1 0 0 1. Considere a matriz A = 0 1 1 . 0 1 1 (a) Calcule o polinmio caracter o stico de A. (b) Calcule os valores prprios de A. o (c) Compare o determinante de A com o produto dos seus valores prprios. o

5.3. MATRIZES DIAGONALIZAVEIS (d) Compare o trao1 de A com a soma dos seus valores prprios. c o

91

(e) Calcule os valores prprios de A2 e compare-os com os quadrados dos valores prprios o o de A. (f) Indique uma base para cada um dos espaos prprios associados aos valores prprios c o o de A. (g) Seja U a matriz cujas colunas so os vectores das bases que obteve na al a nea anterior. Mostre que U invert e vel. (h) Calcule U 1 AU . (i) Troque duas colunas da matriz U e efectue, de novo, o produto U 1 AU . Comente o resultado obtido. (j) Use as al neas anteriores para calcular A5 . (k) Calcule B por forma a que B 2 = A. 2. Considere a matriz B = 1 1 1 1 .

(a) Calcule o polinmio caracter o stico e mostre que B no tem valores prprios reais. a o (b) Compare o determinante de B com o produto dos seus valores prprios. o (c) Compare o trao de B com a soma dos seus valores prprios. c o (d) Calcule os valores prprios de B 2 compare-os com os quadrados dos valores prprios o o de B. (e) Seja U a matriz cujas colunas so os vectores prprios de B linearmente independentes. a o Calcule U 1 BU . (f) Troque duas colunas da matriz U descrita na al nea anterior e efectue, de novo, o 1 BU . Comente o resultado obtido. produto U 2 1 0 3. Considere a matriz C = 0 2 0 . 0 0 3 (a) Calcule o polinmio caracter o stico e os valores prprios (e a sua multiplicidade algbrica). o e (b) Calcule a dimenso dos respectivos espaos prprios. a c o (c) Compare as multiplicidades algbrica e geomtrica. e e (d) Mostre que a matriz no diagonalizvel. a e a 4. Mostre que (a) se valor prprio de A ento k valor prprio de Ak ; e o a e o (b) uma matriz nilpotente no tem valores prprios no nulos. a o a
1

O trao de uma matriz a soma dos seus elementos diagonais. c e

92

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

5. Mostre que duas matrizes semelhantes tm o mesmo espectro. e 6. Para cada uma das seguintes matrizes, calcule os valores prprios e os respectivos espaos o c prprios (indicando uma base para os espaos prprios). o c o (a) 4 5 2 3 1 1 0 1 (b) (d) (e) (h) 2 1 1 0 1 1 1 2 0 1 2 1 1 2 3 2 3 3 4 0 1 1 (c) 0 1 1 0

3 2 4 (f) 2 0 2 4 2 3

3 1 1 (g) 7 5 1 6 6 2 3 4 5 2
9

7. Calcule

8 1 3 8. Considere a matriz A = 0 3 6 . 0 1 2 (a) Determine os valores prprios de A. o (b) Determine os vectores prprios de A e diagonalize A. o (c) Usando o resultado da al nea (b), determine uma matriz B tal que B 3 = A. 9. Considere a matriz A = 2 3 3 2 .

(a) Verique que 5, 1 so os valores prprios de A. a o (b) Verique se 1 vector prprio associado ao valor prprio 1 e se e o o 1 prprio associado ao valor prprio 5. o o 1 1 1 1 1 1 vector e

(c) Diga, justicando, se a matriz inversa.

invert e vel, e caso armativo calcule a sua

(d) Diga, justicando, se a matriz A diagonalizvel, e caso armativo, diagonalize-a. e a 10. Considere a matriz A = 1 2 2 1 .

(a) Verique que 3, 1 so os valores prprios de A. a o (b) Verique se 1 vector prprio associado ao valor prprio 3 e se e o o 1 prprio associado ao valor prprio -1. o o 1 1 vector e

5.3. MATRIZES DIAGONALIZAVEIS 1 1 1 1

93

(c) Diga, justicando, se a matriz inversa.

invert e vel, e caso armativo calcule a sua

(d) Diga, justicando, se a matriz A diagonalizvel, e caso armativo, diagonalize-a. e a 11. Considere a matriz A = 2 2 2 3 .

(a) Verique que 1, 2 so os valores prprios de A. a o (b) Verique se 2 vector prprio associado ao valor prprio 1 e se e o o 1 prprio associado ao valor prprio 2. o o 2 1 1 2 1 2 vector e

(c) Diga, justicando, se a matriz inversa.

invert e vel, e caso armativo calcule a sua

(d) Diga, justicando, se a matriz A diagonalizvel, e caso armativo, diagonalize-a. e a 12. Considere a matriz A = 1 2 2 2 .

(a) Verique que 2, 3 so os valores prprios de A. a o (b) Verique se 1 vector prprio associado ao valor prprio 3 e se e o o 2 prprio associado ao valor prprio 2. o o 1 2 2 1 2 1 vector e

(c) Diga, justicando, se a matriz inversa.

invert e vel, e caso armativo calcule a sua

(d) Diga, justicando, se a matriz A diagonalizvel, e caso armativo, diagonalize-a. e a 13. Dada a matriz real A = 1 0 1 1 ,

(a) calcule os valores prprios e respectivos espaos prprios; o c o (b) verique que a matriz dada no diagonalizvel. a e a

94

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

Cap tulo 6

Transformaes lineares co
6.1 Denio e exemplos ca

Denio 6.1.1. Sejam V, W espaos vectoriais sobre K. Uma transformao linear ou ca c ca aplicao linear de V em W uma funo T : V W que satisfaz, para u, v V, K, ca e ca 1. T (u + v) = T (u) + T (v); 2. T (u) = T (u). Para F, G : R2 R4 denidas por F (x, y) = (x y, 2x + y, 0, y) e G(x, y) = (x2 + y 2 , 1, |x|, y), tem-se que F linear enquanto G no o . De facto, para u1 = (x1 , y1 ), u2 = (x2 , y2 ) e a e e K, temos F (u1 + u2 ) = F (x1 + x2 , y1 + y2 ) = (x1 + x2 y1 y2 , 2x1 + 2x2 + y1 + y2 , 0, y1 +y2 ) = (x1 y1 , 2x1 +y1 , 0, y1 )+(x2 y2 , 2x2 +y2 , 0, y2 ) = F (u1 )+F (u2 ), e F (u1 ) = F (x1 , y1 ) = (x1 y1 , 2x1 +y1 , 0, y1 ) = (x1 y1 , 2x1 +y1 , 0, y1 ) = F (u1 ), enquanto que G((1, 1)) = G(1, 1) = ((1)2 + (1)2 , 1, | 1|, 1) = (2, 1, 1, 1) = (2, 1, 1, 1) = G(1, 1) Apresentamos alguns exemplos clssicos de transformaes lineares: a co 1. Sejam A Mmn (K) e TA : Kn Km denida por TA (x) = Ax. A aplicao TA ca e uma transformao linear. Ou seja, dada uma matriz, existe uma transformao linear ca ca associada a ela. No entanto, formalmente so entidades distintas. Mais adiante, iremos a ver que qualquer transformao linear est associada a uma matriz. ca a 2. Seja V = C (R) o espao vectorial sobre R constitu pelas funes reais de varivel c do co a real innitamente (continuamente) diferenciveis sobre R. Seja D : V V denida por a D(f ) = f . Ento, usando noes elementares de anlise, uma transformao linear. a co a e ca 95

96

CAP ITULO 6. TRANSFORMACOES LINEARES 3. A aplicao F : Kn [x] Kn1 [x] denida por F (p) = p , onde p Kn [x] e p denota a ca derivada de p em ordem a x, uma transformao linear. e ca 4. Sejam A Mnp (K) e F : Mmn (K) Mmp (K) denida por F (X) = XA. Usando as propriedades do produto matricial, F uma transformao linear. e ca 5. A aplicao T rans : Mmn (K) Mnm (K) denida por T rans(A) = AT uma ca e transformao linear. ca 6. Seja V um espao vectorial arbitrrio sobre K. As aplicaes I, O : V V denidas c a co por I(v) = v e O(v) = 0 so transformaes lineares. Denominam-se, respectivamente, a co por transformao identidade e transformao nula. ca ca

Denio 6.1.2. Seja T uma transformao linear do espao vectorial V para o espao ca ca c c vectorial W . 1. Se V = W , diz-se que T um endomorsmo de V . e 2. A um homomorsmo injectivo de V sobre W chama-se monomorsmo de V sobre W ; a um homomorsmo sobrejectivo de V sobre W chama-se epimorsmo de V sobre W ; a um homomorsmo bijectivo de V sobre W chama-se isomorsmo de V sobre W ; a um endomorsmo bijectivo de V chama-se automorsmo de V . 3. V e W so ditos isomorfos, e representa-se por V W , se existir uma transformao a ca = linear de V em W que seja um isomorsmo.

6.2

Propriedades das transformaoes lineares c

Proposio 6.2.1. Sejam V, W espaos vectoriais sobre K e T : V W uma transformao ca c ca linear. Ento a 1. T (0v ) = 0w para 0v V, 0w W ; 2. T (v) = T (v), v V ;
n n

3. T (
i=0

i vi ) =
i=1

i T (vi ), vi V, i K;

4. Se v1 , v2 , ..., vn so vectores de V linearmente dependentes, ento T (v1 ), T (v2 ), . . . , T (vn ) a a so vectores de W linearmente dependentes. a Demonstrao. As armaes 13 seguem da denio de transformao linear. Mostremos ca co ca ca (4). Se v1 , v2 , ..., vn so vectores de V linearmente dependentes ento um deles, digamos vk , a a escreve-se como combinao linear dos restantes: ca
n

vk =
i=0,i=k

i vi .

6.2. PROPRIEDADES DAS TRANSFORMACOES LINEARES Aplicando T a ambos os membros da equao, ca T (vk ) = T
i=0,i=k n

97

i vi =

i T (vi ),
i=1,i=k

e portanto T (vk ) escreve-se como combinao linear de T (v1 ), T (v2 ), T (vk1 ), . . . , T (vk+1 ), ca . . . , T (vn ). Segue que T (v1 ), T (v2 ), . . . , T (vn ) so vectores de W linearmente dependentes. a

Em geral, uma transformao no preserva a independncia linear. Por exemplo, a transca a e formao linear ca R2 R2 T : (x, y) (0, y). As imagens da base cannica de R2 no so linearmente independentes. o a a Recordamos que, apesar de indicarmos uma base como um conjunto de vectores, impore tante a ordem pela qual estes so apresentados. Ou seja, uma base um n-uplo de vectores. a e Por forma a no ser confundida por um n-uplo com entradas reais, optmos por indicar uma a a base como um conjunto. E preciso enfatizar esta incorreco (propositadamente) cometida. ca

Teorema 6.2.2. Sejam V, W espaos vectoriais com dimenso nita, dim V = n = dim W , c a {v1 , . . . , vn } uma base de V e w1 , . . . , wn W . Ento existe uma unica transformao linear a ca T : V W tal que T (v1 ) = w1 , T (v2 ) = w2 , . . . , T (vn ) = wn .

Demonstrao. Se {v1 , . . . , vn } uma base de V , ento todo o elemento de v escreve-se de ca e a forma unica como combinao linear de v1 , . . . , vn . Isto , para qualquer v V , existem ca e i K tais que
n

v=
i=1

i vi .

Seja T : V W denida por

T
i

i vi

=
i

i wi .

Obviamente, T (vi ) = wi . Observe-se que T de facto uma aplicao pela unicidade dos e ca coecientes da combinao linear relativamente ` base. Mostre-se que T assim denida ca a e

98 linear. Para K, u =
i i vi

CAP ITULO 6. TRANSFORMACOES LINEARES ew=


i i vi ,

T (u + w) = T
i

i vi +
i

i vi

= T
i

(i + i ) vi (i + i ) wi
i

= =
i

i wi +
i

i wi

= T (u) + T (w) e T (u) = T (


i

i vi ) i vi )

= T(
i

=
i

i wi i wi = T (u).
i

Portanto, T assim denida linear. e Mostre-se, agora, a unicidade. Suponhamos que T uma aplicao linear que satisfaz e ca a T (vi ) = wi , para todo o i no conjunto dos ndices. Seja v V , com v = i i vi . Ento T (v) = T
i

i vi T (vi )
i

= =
i

i wi i T (vi )
i

= T
i

i vi

= T (v).

Portanto, T = T . Teorema 6.2.3. Todo o espao vectorial de dimenso n sobre o corpo K isomorfo a Kn . c a e Demonstrao. Seja {v1 , v2 , ..., vn } uma base de V e v um vector qualquer de V . Ento ca a v = 1 v1 + 2 v2 + ... + n vn , i K. Vamos denir uma transformao T , ca

6.2. PROPRIEDADES DAS TRANSFORMACOES LINEARES

99

V T : v

Kn . (1 , 2 , ..., n )

Pretendemos mostrar que esta aplicao um isomorsmo de espaos vectoriais. ca e c (a) A aplicao T bijectiva. ca e Primeiro, vericamos que T injectiva, i.e., que e T (u) = T (v) = u = v, u, v V. Ora, T (u) = T (v) T (
i=1 n n

i vi ) = T (
i=1

i vi )

(1 , 2 , ..., n ) = (1 , 2 , ..., n ) i = i
n n

i=1

i vi =
i=1

i vi

u = v. Mostramos, agora, que T sobrejectiva, i.e., que e x Kn , w V : f (w) = x. Temos sucessivamente, f sobrejectiva x Kn , w V : f (w) = x (1 , 2 , ..., n ) Kn , w = e 1 v1 + 2 v2 + ... + n vn V : T (1 v1 + 2 v2 + ... + n vn ) = (1 , 2 , ..., n ). (b) A aplicao T linear. ca e T (u + v) = T (1 v1 + 2 v2 + ... + n vn + 1 v1 + 2 v2 + ... + n vn ) = T [(1 + 1 )v1 + (2 + 2 )v2 + ... + (n + n )vn ] = (1 + 1 , 2 + 2 , ..., n + n ) = (1 , 2 , ..., n ) + (1 , 2 , ..., n ) = T (1 v1 + 2 v2 + ... + n vn ) + T (1 v1 + 2 v2 + ... + n vn ) = T (u) + T (v) e T (u) = T ((1 v1 + 2 v2 + ... + n vn )) = T ((1 )v1 + (2 )v2 + ... + (n )vn ) = (1 , 2 , ..., n ) = (1 , 2 , ..., n ) = T (1 v1 + 2 v2 + ... + n vn ) = T (u)

100

CAP ITULO 6. TRANSFORMACOES LINEARES

Corolrio 6.2.4. Sejam U e V dois espaos vectoriais sobre mesmo corpo K. Se U e V tm a c e a mesma dimenso, ento U e V so isomorfos. a a a Por exemplo, o espao vectorial M23 (R) isomorfo a R6 . De facto, considerando a base c e de M23 (R) 1 0 0 0 0 0 as coordenadas de R6 denida por T R6 . Da mesma forma, o espao vectorial R2 [x] dos polinmios de grau no superior a 2, c o a 3 . Fixando a base de R [x] constitu juntamente com o polinmio nulo, isomorfo a R o e da 2 pelos polinmios p, q, r denidos por p(x) = 1, q(x) = x, r(x) = x2 e a base cannica de R3 a o o transformao linear que aplica p em (1, 0, 0), q em (0, 1, 0) e r em (0, 0, 1) um isomorsmo ca e 3. de R2 [x] em R Pelo exposto acima, fcil agora aceitar que Mmn (R) Rmn ou que Rn [x] Rn+1 . e a = = Para nalizar esta seco, note que C, enquanto espao vectorial sobre R, isomorfo a R2 . ca c e De facto, 1 e i formam uma base de C, enquanto espao vectorial sobre R. So linearmente c a independentes (a + bi = 0 fora a = b = 0) e todo o complexo z escreve-se como a + bi, com c a, b R. O isomorsmo pode ser dado pela transformao linear que aplica 1 em (1, 0) e i ca em (0, 1). Terminamos esta seco com uma observao que ser util na forma como se dene uma ca ca a bem conhecido que o conhecimento da imagem de um certo nmero transformao linear. E ca u de objectos por uma funo arbitrria no suciente para se conhecer a imagem de todos ca a a e os objectos. As transformaes lineares so funes especiais que satisfazem a aditividade e co a co homogeneidade. Estas duas condies permitem-nos conhecer a imagem de todos os objectos co conhecendo, ` partida, apenas a de alguns. De facto, se V e W so espaos vectoriais de a a c dimenso nita, e v1 , . . . , vn uma base de V , ento T : V W cam bem denida se se a a souber os valores de T (v1 ), T (v2 ), . . . , T (vn ). Se v V ento existem i K, unicos, para os a quais v = i vi . Sabendo que a imagem por T de uma soma a soma das imagens, e que e a imagem de um mltiplo de um vector o mltiplo da imagem do vector, obtemos u e u T (v) = T ( i vi ) = T (i vi ) = i T (vi ). 0 1 0 0 0 0 a b c d e f a b c d e f , 0 0 1 0 0 0 , 0 0 0 1 0 0 , 0 0 0 0 1 0 , 0 0 0 0 0 1 ,

o vector (a, b, c, d, e, f ). Denindo a aplicao T : M23 (R) e ca = (a, b, c, d, e, f ), linear e bijectiva. Logo, M23 (R) e e =

6.3

Matriz associada a uma transformao linear ca

Iremos concluir que todas as transformaes lineares de Kn Km podem ser representadas co por matrizes do tipo m n. Como motivao, consideramos alguns exemplos. ca

6.3. MATRIZ ASSOCIADA A UMA TRANSFORMACAO LINEAR

101

Sejam e1 , e2 , e3 elementos da base cannica B1 de R3 e e , e os elementos da base cannica o o 1 2 de R2 . Seja ainda T : R3 R2 denida por B1 T (e1 ) = a11 e + a21 e 1 2 T (e2 ) = a12 e + a22 e 1 2 T (e3 ) = a13 e + a23 e . 1 2 Recorde que a transformao linear est bem denida ` custa das imagens dos vectores de ca a a uma base. Se x = (x1 , x2 , x3 ) R3 , ento a T (x) = T (x1 e1 + x2 e2 + x3 e3 ) = x1 T (e1 ) + x2 T (e2 ) + x3 T (e3 ) = x1 a11 a21 + x2 a12 a22 x1 x2 x3 + x3 a13 a23

a11 a12 a13 a21 a22 a23

= Ax

Por outras palavras, a transformao linear denida atrs pode ser representado ` custa ca a a de uma matriz A M23 (R), que tem como colunas as coordenadas em relao a B1 das ca imagens dos vectores ei R3 , i = 1, 2, 3 por T . Desta forma, dizemos que nas condies co do exemplo anterior, a matriz A a representao matricial de T relativamente `s bases e ca a cannicas de R2 e R3 . o Por exemplo, considere a aplicao linear T denida por ca T (1, 0, 0) = (4, 1) = 4(1, 0) 1(0, 1) T (0, 1, 0) = (2, 5) = 2(1, 0) + 5(0, 1) T (0, 0, 1) = (3, 2) = 3(1, 0) 2(0, 1) A matriz que representa T em relao `s bases cannicas de R3 e R2 A = ca a o e Para todo v R3 , T (v) = Av. Repare que os clculos envolvidos foram simples de efectuar j que usmos as bases a a a cannicas dos espaos vectoriais. Tal no ser, certamente, o caso se usarmos outras bao c a a ses que no as cannicas. Neste caso, teremos que encontrar as coordenadas das imagens a o dos elementos da base do primeiro espao vectorial em relao ` base xada previamente do c ca a segundo espao vectorial. Vejamos o exemplo seguinte: c Sejam {u1 , u2 , u3 } base B2 de R3 e {v1 , v2 } base B2 de R2 . Se x R3 , ento x = a 1 u1 + 2 u2 + 3 u3 , e consequentemente T (x) = 1 T (u1 ) + 2 T (u2 ) + 3 T (u3 ). Por outro lado, T (ui ) R2 , i = 1, 2, 3, logo, podemos escrever estes vectores como combinao ca linear de v1 e v2 . Assim, T (u1 ) = b11 v1 + b21 v2 T (u2 ) = b12 v1 + b22 v2 T (u3 ) = b13 v1 + b23 v2 . 4 2 3 1 5 2 .

102 Vericamos, ento, que, a

CAP ITULO 6. TRANSFORMACOES LINEARES

T (x) = 1 (b11 v1 + b21 v2 ) + 2 (b12 v1 + b22 v2 ) + 3 (b13 v1 + b23 v2 ) = (1 b11 + 2 b12 + 3 b13 v1 ) + (1 b21 + 2 b22 + 3 b23 v2 ) = 1 v1 + 2 v2 onde b11 b12 b13 b21 b22 b23 b11 b12 b13 b21 b22 b23 3 e R2 , respectivamente. de R Dizemos, agora, que B = 1 2 = 3

1 2

a matriz de T relativamente `s bases B2 e B2 e a

Passamos de seguida a expr o caso geral. o Sejam B1 = {u1 , u2 , ..., un } uma base de U , B2 = {v1 , v2 , ..., vm } uma base de V , e T : U V
n

x T (x) =
j=1

xj T (uj )

uma transformao linear, sabendo que as coordenadas de x na base B1 (x1 , x2 , . . . , xn ). ca e O vector T (uj ) pode ser escrito de modo unico como combinao linear dos vectores ca v1 , v2 , ..., vm . Assim
m

T (uj ) =
i=1

aij vi ,
n

j = 1, ..., n.

Logo T (x) =

xj T (uj ) =
j=1 n

[
j=1 i=1

aij vi ] =
j=1

[a1j xj ]v1 +
j=1

[a2j xj ]v2 + ... +


j=1

[amj xj ]vm =

i vi , com i =
i=1 j=1

aij xj , i = 1, 2, ..., m.

Vericamos, assim, que existe entre as coordenadas (x1 , x2 , ..., xn ) de x (relativa ` base a B1 ), em U , e as coordenadas (1 , 2 , ..., m ) de T (x) (relativa ` base B2 ) em V . Tal ligao a ca exprime-se pelas seguintes equaes co
n

i =
j=1

aij xj , i = 1, 2, ..., m.

O que se pode ser escrito como a equao matricial seguinte: ca x1 1 a11 a12 ... a1n a x2 2 21 a22 ... b2n . = . . . ... ... ... ... . . am1 am2 ... bmn m xn

6.3. MATRIZ ASSOCIADA A UMA TRANSFORMACAO LINEAR Assim, conclu mos:

103

Teorema 6.3.1. Se xamos uma base de U e uma base de V , a aplicao linear T : U V ca ca perfeitamente denida por m n escalares. Ou seja, a aplicao linear T : U V ca ca perfeitamente denida por uma matriz do tipo m n MB1 ,B2 (T ) cujas colunas so as coordenadas dos transformados dos vectores da base de U , em relao ` a ca a base de V . Vimos, ento, que dada uma transformao linear G : Kn Km , existe uma matriz a ca A Mmn (K) tal que G = TA . Mais, se {e1 , . . . , en } e {f1 , . . . , fm } so as bases cannicas, a o n e Km , ento a matriz A tal que a coluna i de A so as coordenadas respectivamente, de K a e a de G(ei ) em relao ` base {f1 , . . . , fm }. No entanto, se se considerarem bases que no as ca a a cannicas, ento preciso ter um pouco mais de trabalho. o a e Por exemplo, considere1 a base B1 de R3 constitu pelos vectores (0, 1, 1), (1, 1, 0), (1, 0, 1), da 2 constitu e a base B2 de R da pelos vectores (2, 1), (1, 2). Vamos calcular a matriz G que representa T : R3 R2 , com T (x, y, z) = (x y, x + y + z), nas bases apresentadas. Em primeiro lugar, calculamos as imagens dos elementos da base escolhida: T (0, 1, 1) = (1, 2) = v1 T (1, 1, 0) = (0, 2) = v2 T (1, 0, 1) = (1, 2) = v3 Agora, encontramos as coordenadas de v1 , v2 , v3 relativamente ` base de R2 que xmos. Ou a a 2 seja, encontramos as solues dos sistemas poss co veis determinados Ax = v1 , Ax = v2 , Ax = v3 , onde A = 2 1 1 2 . A matriz que representa T em relao `s bases apresentadas G = ca a e

e ca e ca u1 u2 u3 , onde u1 a unica soluo de Ax = v1 , u2 a unica soluo de Ax = v2 e u3 a unica soluo de Ax = v3 . e ca Fixadas as bases dos espaos vectoriais envolvidos, a matriz associada ` transformao c a ca linear G ser, doravante, denotada por [G]. a Antes de passarmos ao resultado seguinte, consideremos as transformaes lineares co H : R2 R3 G : R3 R , (x, y) (x y, y, 0) (r, s, t) 2r s + t
1 2

Verique que de facto formam uma base! Consegue explicar por que razo os sistemas so poss a a veis determinados?

104 Obtemos, ento, a

CAP ITULO 6. TRANSFORMACOES LINEARES

G H(x, y) = 2(x y) 1 y + 1 0 xy = 2 1 1 y 0 1 1 = 2 1 1 0 1 0 0 = [G][H] Portanto, [G H] = [G][H]. Vejamos o que podemos armar em geral: x y

x y

Teorema 6.3.2. Sejam U, V, W espaos vectoriais sobre K e H : U V , G : V W duas c transformaes lineares. Ento co a 1. G H uma transformao linear; e ca 2. G H = T[G][H] e [G H] = [G] [H]. Demonstrao. A demonstrao de (1) ca como exerc ca ca cio. Para mostrar (2), observe-se que, para qualquer u U , G H(u) = G(H(u)) = G([H]u) = [G][H]u = T[G][H] u.

Terminamos, assim, como inicimos: a algebrizao do conjunto das matrizes. As matrizes a ca no so mais do que representantes de um certo tipo de funes (as transformaes lineares) a a co co entre conjuntos muitos especiais (espaos vectoriais). Se a soma de matrizes corresponde c a ` soma de transformaes lineares (em que a soma de funes est denida como a funo co co a ca denida pela soma das imagens), o produto de matrizes foi apresentado como uma operao ca bem mais complicada de efectuar. No entanto, a forma como o produto matricial foi denido corresponde ` composio das transformaes lineares denidas pelas matrizes. a ca co Exerc cios

1. Seja T : V W uma transformao linear entre os espaos vectoriais V e W . Mostre que ca c (a) T (0) = 0. (b) Para v1 , ..., vn V , 1 , ..., n K, T (1 v1 + ... + n vn ) = 1 T (v1 ) + ... + n (vn ).

6.3. MATRIZ ASSOCIADA A UMA TRANSFORMACAO LINEAR

105

2. Diga quais das aplicaes seguintes, entre espaos vectoriais reais, so transformaes lineco c a co ares: (a) F : R2 R3 denida por F (x, y) = (2x + y, x, y x), (x, y) R2 . (b) G : R3 R2 denida por G(x, y, z) = (y 2 , y), (x, y, z) R3 . (c) H : R2 [x] R2 denida por H(ax2 + bx + c) = (1, a + b), ax2 + bx + c R2 [x]. (d) T : R2 R denida por T (a, b) = 5a 2b, (a, b) R2 . 3. Diga, justicando, se existe (a) uma transformao linear F : R3 R3 tal que ca F (1, 0, 0) = (0, 0, 1), F (0, 0, 1) = (1, 0, 0), F (7, 0, 14) = (0, 0, 7). (b) uma transformao linear G : R2 R4 tal que ca G(1, 2) = (0, 1, 2, 3), G(2, 1) = (0, 1, 2, 3). 4. Considere as transformaes lineares co F : R4 R3 denida por F (x, y, z, w) = (x y, x + w, y + z), (x, y, z, w) R4 ; G : R4 R4 denida por G(x, y, z, w) = (x, x + z, w, 2y + z), (x, y, z, w) R4 ; H : R3 R3 denida por H(1, 1, 1) = (2, 0, 1), H(1, 1, 0) = (1, 0, 1), H(1, 0, 0) = (0, 0, 2); T : R3 R4 denida por T (x, y, z) = (x y, 0, 0, x + y + z), (x, y, z) R3 . Determine, em relao `s bases cannicas: ca a o i) [F ]. ii) [G]. iii) [H]. iv) [T ]. v) [H F ].

5. Considere a transformao linear F : R3 R3 denida por ca F (x, y, z) = (x + y, 0, y z), (x, y, z) R3 . Determine a matriz que representa F nas bases B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e na cannica. o 6. Seja G : R3 R4 a transformao linear denida por ca G(1, 0, 0) = (1, 0, 1, 0), G(0, 1, 0) = (0, 1, 2, 0), G(0, 0, 1) = (1, 1, 0, 0). (a) Determine (b) Para as bases B1 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} e B2 = {(1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)}, determine a matriz que representa G nessas bases. i) G(2, 3, 1). ii) G(1, 2, 0).

106

CAP ITULO 6. TRANSFORMACOES LINEARES

7. Considere, no espao vectorial real R3 , a base {(1, 0, 1), (1, 1, 0), (0, 1, 1)} e o endomorsmo c F denido por F (1, 0, 1) = (1, 1, 1), F (1, 1, 0) = (2, 1, 1), F (0, 1, 1) = (1, 0, 0). (a) Determine [F ]. (b) Determine F (a, b, c), (a, b, c) R3 . 8. Considere as transformaes lineares co F : R4 R3 denida por F (x, y, z, w) = (x y, x + w, y + z), (x, y, z, w) R4 ; G : R4 R4 denida por G(x, y, z, w) = (x, x + z, w, 2y + z), (x, y, z, w) R4 ; H : R3 R3 denida por H(1, 1, 1) = (2, 0, 1), H(1, 1, 0) = (1, 0, 1), H(1, 0, 0) = (0, 0, 2); T : R3 R4 denida por T (x, y, z) = (x y, 0, 0, x + y + z), (x, y, z) R3 ; e as bases B1 = {(0, 0, 0, 1), (0, 0, 1, 1), (0, 1, 1, 1), (1, 1, 1, 1)} e B2 = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} de R4 ; B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e B2 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R3 . Determine a) [F ]B1 ,B1 . b) [F ]B1 ,B2 . c) [G]B2 ,B1 . d) [G]B1 ,B2 e) [H]B1 ,B2 . f) [H]B1 ,B1 g) [T ]B2 ,B2 . h) [T ]B1 ,B1 .

Bibliograa
[1] F. R. Dias Agudo, Introduo ` lgebra linear e geometria anal ca a a tica, Escolar Editora, 1996. [2] Howard Anton, Chris Rorres, Elementary linear algebra : applications version, John Wiley & Sons, 1994. [3] Kenneth J. Beers, Numerical Methods for Chemical Engineering, Applications in Matlab, Cambridge University Press, 2007. [4] I. S. Du, A. M. Erisman, J. K. Reid, Direct methods for sparse matrices, Oxford University Press, 1989. [5] Bruce A. Finlayson, Introduction to Chemical Engineering Computing, Wiley, 2006. [6] Stephen H. Friedberg, Arnold J. Insel, Lawrence E. Spence, Linear Algebra (2nd edition), Prentice-Hall International, Inc., 1989. [7] Em Giraldes, Vitor Hugo Fernandes, M. Paula Marques Smith, Curso de lgebra lia a linear e geometria anal tica, McGraw-Hill, 1995. [8] David R. Hill, David E. Zitarelli, Linear algebra labs with MATLAB, Prentice Hall, 1996 [9] Roger Horn, Charles Johnson, Matrix Analysis, Cambridge University Press, 1985. [10] Peter Lancaster, Miron Tismenetsky, The Theory of Matrices, second edition with applications, Academic Press, 1985. [11] Christopher Lawrence, Dirk Eddelbuettel, Quantian: A Comprehensive Statistical Computing Environment, http://dirk.eddelbuettel.com/papers/quantian-tpm.pdf. [12] P.J.G. Long, Introduction to Octave, Department of Engineering, University of Cambridge, 2005, www-mdp.eng.cam.ac.uk/CD/engapps/octave/octavetut.pdf [13] Lu T. Magalhes, Algebra Linear como introduao ` matemtica aplicada, IST, 1987. s a c a a [14] Guillem Borrell i Nogueras, http://iimyo.forja.rediris.es/. Introduccin o informal a Matlab y Octave,

[15] J. M. Powers, Method of least squares, University of Notre Dame, http://www.nd.edu/~powers/ame.332/leastsquare/leastsquare.pdf 107

2003,

108

BIBLIOGRAFIA

[16] Ana Paula Santana, Joo Filipe Queir, Algebra Linear e Geometria a o Anal tica, Departamento de Matemtica, Universidade de Coimbra, 2003, a http://www.mat.uc.pt/~jfqueiro/ALGA2003.pdf [17] Hubert Selhofer, Introduction to GNU Octave, http://math.iu-bremen.de/oliver/teaching/iub/resources/octave/octave-intro.pdf. [18] Gilbert Strang, Linear algebra and its applications, Academic Press, 1976. [19] Maria Raquel Valena, Mtodos numricos, INIC, 1990. c e e

Das könnte Ihnen auch gefallen