Beruflich Dokumente
Kultur Dokumente
Espaços Rn
O conjunto Rn é definido como o conjunto de todas as n-uplas ordenadas de números reais:
R1 é simplesmente o conjunto R dos números reais, que é visualizada como uma reta; R2 é o conjunto de
pares de números reais, que pode ser visualizado como um plano e R3 é o conjunto de triplas de números
reais, comumente visualizado como o espaço. Como vimos anteriormente uma tripla (x1 , x2 , x3 ) pode ser
visualizada geometricamente tanto como representando as coordenadas de um ponto ou as coordenadas de
um vetor com ponto inicial na origem. Do mesmo modo, n-uplas (x1 , ..., xn ) podem ser visualizadas como
pontos ou vetores.
Segue portanto que dois vetores V = (v1 , ..., vn ) e W = (w1 , ..., wn ) são iguais se e somente se v1 =
w1 , ..., vn = wn .
Apesar da nossa intuição geométrica ser limitada para espaços de dimensão 4 em diante, procedemos por
analogia definindo operações e conceitos similares aos que vimos no plano e no espaço.
Definição. A soma de dois vetores V = (v1 , ..., vn ) e W = (w1 , ..., wn ) de Rn é definida por
V + W = (v1 + w1 , ..., vn + wn ).
1. U + V = V + U ;
2. U + (V + W ) = (U + V ) + W ;
3. U + 0 = 0 + U ;
4. U + (−U ) = 0;
5. α(βU ) = (αβ)U ;
6. α(U + V ) = αU + αV ;
7. (α + β)U = αU + βU ;
8. 1U = U .
Os espaços Rn são exemplos tı́picos do que chamamos espaços vetoriais. Um espaço vetorial é qualquer
conjunto V onde podemos definir operações de soma e multiplicação por escalar que satisfazem todas as
propriedades acima.
1
Exemplo 0. O conjunto das funções reais é um espaço vetorial, pois podemos definir a soma de duas funções
f + g e o produto de uma função por um escalar αf , e estas são funções reais:
Similarmente, o conjunto das funções reais contı́nuas também é um espaço vetorial, porque a soma
de funções contı́nuas e o produto de uma função contı́nua por um escalar são funções contı́nuas. Da
mesma maneira, o conjunto das funções reais diferenciáveis é um espaço vetorial.
1. Combinações Lineares
Se V e W são vetores de Rn tais que W = αV para algum escalar α, dizemos que W é um múltiplo escalar
de V .
Definição. Dizemos que V é uma combinação linear dos vetores V1 , ..., Vk se existem escalares x1 , ..., xk
tais que
V = x1 V1 + ... + xk Vk .
Ou seja, uma combinação linear de vetores é simplesmente uma soma de múltiplos escalares destes vetores.
Exemplo 1. Sejam V1 = (4, −1, 3, 5) e V2 = (1, 0, −2, 3) vetores de R4 . O vetor V = (1, 0, −1, 6) não é
combinação linear de V1 e V2 porque não podemos encontrar x1 , x2 tais que
ou seja, o sistema
4x1 + x2 = 1
−x1 = 0
3x1 − 2x2
= −1
5x1 + 3x2 = 6
não possui solução. Por outro lado, V = (5, −2, 12, 1) é combinação linear de V1 e V2 porque V =
2V1 − 3V2 , isto é,
(5, −2, 12, 1) = 2(4, −1, 3, 5) − 3(1, 0, −2, 3).
V = v1 i + v2 j + v3 k.
2. Independência Linear
Definição. Dizemos que um conjunto S = {V1 , ..., Vk } de vetores é linearmente independente (L. I.) se
os únicos escalares x1 , ..., xk que satisfazem
x1 V1 + ... + xk Vk = 0
são
x1 = ... = xk = 0.
Caso contrário, dizemos que S é linearmente dependente (L. D.).
2
Ou seja, V1 , ..., Vk são linearmente independentes se e somente se a única solução de x1 V1 + ... + xk Vk = 0
for a solução trivial.
Exemplo 4. Os vetores V1 = (1, 2, 3, 4), V2 = (5, 6, 7, 8) e V3 = (6, 8, 10, 12) são L.D., pois x1 V1 + x2 V2 +
x3 V3 = 0 tem a solução não trivial x1 = 1, x2 = 1, x3 = −1 (note que V1 + V2 = V3 ).
√
Os vetores V1 = (1, 2, 3, 4), V2 = (5, 6, 7, 8), V3 = (6, 8, 10, 12) e V4 = ( 2, eπ , π 2 , −109 ) são L.D., pois
x1 V1 + x2 V2 + x3 V3 + x4 V4 = 0 tem solução não trivial x1 = 1, x2 = 1, x3 = −1, x4 = 0. Se um conjunto
de vetores já é L. D., acrescentar mais vetores ao conjunto não alterará a situação, pois podemos
sempre obter uma solução não trivial para o novo conjunto acrescentando escalares nulos à solução não
trivial para o conjunto original.
Observe que na primeira parte do Exemplo 4, outra solução não trivial seria x1 = 2, x2 = 2, x3 = −2; na
verdade qualquer solução na forma x1 = α, x2 = α, x3 = −α para algum escalar α serviria. Quando existe
uma solução não trivial (x1 , ..., xk ), sempre existem infinitas soluções.
V1 − αV2 = 0,
Assim, dois vetores não-nulos são linearmente dependentes, se e somente se eles são colineares, isto é,
são paralelos.
Exemplo 8. Generalizando, um conjunto S = {V1 , V2 , V3 } formado por três vetores é L. D. se somente se um
é combinação linear dos outros dois. De fato, se x1 V1 +x2 V2 +x3 V3 = 0 possui uma solução {x1 , x2 , x3 }
não identicamente nula, então pelo menos algum destes escalares é diferente de zero, digamos x1 6= 0.
Então podemos escrever
x2 x3
V1 = − V2 − V3 .
x1 x1
Logo, três vetores não-nulos são linearmente dependentes se e somente se eles forem colineares (se todos
os três forem paralelos) ou se eles forem coplanares, isto é, se eles forem paralelos a um mesmo plano.
3
De modo geral, um conjunto S = {V1 , ..., Vk } de vetores é L. D. se e somente se um destes vetores pode
ser escrito como combinação linear dos outros, pois se x1 V1 + ... + xk Vk = 0 possui uma solução {x1 , ..., xk }
não identicamente nula, então pelo menos algum destes escalares é diferente de zero, digamos xi 6= 0. Então
podemos escrever
x1 xi−1 xi+1 xk
Vi = − V1 − ... − Vi−1 ... − Vi+1 − ... − Vk .
xi xi xi xi
Reciprocamente, se Vi = −α1 V1 − ... − αi−1 Vi−1 ... − αi+1 Vi+1 − ... − αk Vk , podemos escrever
α1 V1 + ... + αi−1 Vi−1 − 1Vi + αi+1 Vi+1 + ... + αk Vk = 0
e {α1 , ..., αi−1 , −1, αi+1 , ..., αk } evidentemente não é a solução trivial. Este resultado explica o nome “vetores
linearmente dependentes”.
Subespaços Vetoriais de Rn
Definição. Um subconjunto não vazio W ⊂ Rn é um subespaço vetorial de Rn se satisfaz as duas
condições seguintes:
(i) Se v, w ∈ W, então v + w ∈ W também.
(ii)Se v ∈ W e α é um escalar, então αv ∈ W também.
Em outras palavras, um subespaço vetorial de Rn é um conjunto fechado em relação às operações de
soma de vetores e multiplicação por escalar, isto é, fazendo qualquer uma destas operações com elementos do
conjunto não saı́mos dele. Note que um subespaço vetorial sempre contém o vetor nulo 0, pois por definição
um subespaço é não vazio, logo deve conter algum vetor v; mas daı́, de acordo com (ii), o vetor 0v também
deve pertencer ao subespaço.
Note também que se um subespaço contém o vetor v, então ele contém o conjunto {αv : α ∈ R}, que é
exatamente a reta que passa pela origem com direção v. [Uma reta que não passa pela origem não pode ser
nunca um subespaço vetorial de Rn , pois não contém o vetor nulo, entre outros motivos.] Mais geralmente, se
v, w ∈ W, então W contém todas as combinações lineares de v e w; ainda mais geralmente, se v1 , ..., vk ∈ W,
então W contém todas as combinações lineares de v1 , ..., vk .
Exemplo 8. A esfera S 2 não é um subespaço vetorial de R3 , pois se v ∈ S 2 , αv ∈
/ S 2 se α 6= ±1.
Exemplo 9. O subconjunto formado por duas retas que se encontram na origem não é um subespaço vetorial
de Rn , pois embora a propriedade (ii) seja satisfeita, a propriedade (i) não é satisfeita se v está em
uma reta e w na outra.
Exemplo 10. O conjunto W = {(x, y, 0) : x, y ∈ R} é um subespaço de R3 . Com efeito, se v, w ∈ W então
v e w se escrevem na forma v = (x1 , y1 , 0), w = (x2 , y2 , 0). Portanto, v + w = (x1 + x2 , y1 + y2 , 0)
e αv = (αx1 , αy1 , 0), que são vetores de W , por definição de W. Note que W é exatamente o plano
z = 0, um plano que contém a origem. Na verdade, todas as retas que passam pela origem e todos os
planos que passam pela origem são exemplos de subespaços de R3 .
De fato, um plano que passa pela origem é definido por
W = {(x, y, z) : ax + by + cz = 0},
onde a, b, c são números reais especı́ficos. Se v = (x1 , y1 , z1 ), w = (x2 , y2 , z2 ) ∈ W então ax1 +by1 +cz1 =
0 e ax2 + by2 + cz2 = 0, donde
a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) = 0
e
a(αx1 ) + b(αy1 ) + c(αz1 ) = 0,
isto é, v + w ∈ W e αv ∈ W.
4
Exemplo 11. Por outro lado, planos que não passam pela origem não são subespaços vetoriais de Rn . De
fato, tais planos são definidos por
S = {(x, y, z) : ax + by + cz + d = 0},
isto é, as coordenadas de v + w não satisfazem a equação do plano S, logo este ponto não está neste
plano.
Dentro deste espaço, o conjunto das funções polinomiais de grau menor ou igual a n, para cada n
fixado, é um subespaço vetorial.
3. Vetores Geradores
Definição. Dizemos que um conjunto S = {V1 , ..., Vk } de vetores de um subespaço W gera W se todo vetor
de W é uma combinação linear dos vetores de S.
Exemplo 13. Sabemos que os vetores i, j, k geram o espaço R3 . Os vetores V1 = (1, 1, 0), V2 = (0, 1, 1), V3 =
(1, 0, 1) e V4 = (1, 1, 2) também geram R3 . De fato,
x1 V1 + x2 V2 + x3 V3 + x4 V4 = (a, b, c)
5
cuja matriz aumentada é
1 0 1 1 a
1 1 0 1 b
0 1 1 2 c
que por sua vez tem forma escalonada reduzida
a+b−c
1 0 0 0
2
0 1 0 1 −a + b + c
,
2
a−b+c
0 0 1 1
2
ou seja, existe uma solução (x1 , x2 , x3 , x4 ). Note que na verdade existem infinitas soluções, diferente
de
x1 i + x2 j + x3 k = (a, b, c)
que possui uma solução única. Note que na verdade os vetores V1 , V2 e V3 por si só já são suficientes
para gerar R3 . Neste caso também o sistema equivalente possui solução única. Isso sugere que em R3
tomar mais que três vetores para gerar o espaço é um desperdı́cio.
Exemplo 14. Por outro lado, os vetores V1 = (1, 1, 2), V2 = (0, 1, 1) e V3 = (1, 0, 1) não geram R3 . De fato
o sistema equivalente a
x1 V1 + x2 V2 + x3 V3 = (a, b, c)
é
x1 + x3 = a
x1 + x2 = b
2x1 + x2 + x3 = c
6
representado pela matriz aumentada
1 −2 3 −4 0
−3 6 9 −6 0 .
−2 4 −6 8 0
4. Bases e Dimensão
Dado um conjunto de geradores S = {V1 , ..., Vk } para um subespaço vetorial W, alguns deste geradores
podem ser redundantes. De fato, se o conjunto S for linearmente dependente, já vimos que um dos vetores
pode ser escrito como combinação linear dos outros. Este vetor é portanto desnecessário para gerar W: os
outros vetores de S já são suficientes. Podemos então retirar este vetor do conjunto e o conjunto resultante
S1 ainda será um conjunto de geradores para W. Se o conjunto resultante S1 também for linearmente
dependente, podemos repetir este processo. Fazendo isso tantas vezes quanto necessário obteremos no final
um conjunto de geradores para W que é linearmente independente.
Definição. Dizemos que um subconjunto B = {V1 , ..., Vk } é uma base para o subespaço W se
(i) B gera W, e
(ii) B é L.I.
Exemplo 16. Os vetores i, j, k formam uma base para R3 . Os vetores E1 , ..., En formam uma base para
Rn .
Exemplo 17. Os vetores (2, 1, 0, 0) e (1, 0, 1, 1), geradores do subespaço de R4 considerado no Exemplo 15
são L. I., logo eles formam uma base para este subespaço.
Uma base para um subespaço contém o número mı́nimo de vetores necessários para gerar este subespaço.
Este número mı́nimo é uma propriedade intrı́nseca do subespaço: como provamos a seguir, duas bases para
um subespaço sempre contém o mesmo número de elementos.
Teorema 1. Se {V1 , ..., Vk } e {W1 , ..., Wl } são duas bases de um subespaço W, então k = l.
Lema. Se {U1 , ..., Um } é uma base de um subespaço W, então qualquer subconjunto de W com mais de m
vetores é linearmente dependente.
7
Prova: Seja {Z1 , ..., Zp } um subconjunto de W com p > m. Mostraremos que {Z1 , ..., Zp } é L. D., isto é,
que o sistema
x1 Z1 + ... + xp Zp = 0 (1)
possui uma solução não trivial.
Como {U1 , ..., Um } é uma base para W, cada vetor Zj pode ser escrito como combinação linear dos
vetores U1 , ..., Um . Podemos então escrever, para cada j,
Mas como {U1 , ..., Um } é uma base para W, os vetores U1 , ..., Um são linearmente independentes, portanto
Exemplo 18. Uma reta que passa pela origem tem dimensão 1, pois ela é gerada pelo seu vetor direção
e já vimos que um conjunto que contém um único vetor não nulo é L. I. Um plano que passa pela
origem tem dimensão 2. De fato, se ax + by + cz = 0 é uma equação geral para um tal plano, fazendo
1
x = t, y = s obtemos z = − (at + bs), ou seja, uma equação paramétrica para este plano é
c
x = t
y = s
z = −at − bs
c c
a b
donde (1, 0, − ) e (0, 1, − ) são vetores geradores para este plano. Como estes vetores são L. I., eles
c c
formam uma base para este subespaço.
Exemplo 0c. Como não podemos encontrar um subconjunto finito de geradores para o subespaço vetorial
P das funções polinomiais, decorre que sua dimensão é infinita. Para sermos mais precisos, o conjunto
infinito S = {1, x, x2 , x3 , ...}, além de gerar P, é também L. I., logo é uma base para P. Daı́ concluı́mos
que dim P = ℵ0 . É possı́vel provar que para o espaço vetorial F das funções reais (ou mesmo o das
funções contı́nuas, ou o das funções diferenciáveis) temos dim F > ℵ0 .
Teorema 2. Seja W um subespaço de dimensão m. Se {V1 , ..., Vm } é L.I., então {V1 , ..., Vm } é uma base
para W.
8
Prova: Basta provar que {V1 , ..., Vm } gera W. Dado V ∈ W, precisamos provar que V é uma combinação
linear de V1 , ..., Vm . E, de fato, como dim W = m, o conjunto {V1 , ..., Vm , V } é L.D., pelo lema anterior.
Logo
x1 V1 + ... + xm Vm + xm+1 V = 0
possui uma solução não trivial (x1 , ..., xm , xm+1 ). Por outro lado, não podemos ter xm+1 = 0, pois isso
implicaria que (x1 , ..., xm ) é uma solução não trivial para x1 V1 + ... + xm Vm = 0, contrariando o fato de que
estes vetores são L. I. Concluı́mos, pois, que xm+1 6= 0 e portanto podemos dividir por xm+1 , obtendo
x1 xm
V =− V1 − ... − Vm ,
xm+1 xm+1
como querı́amos.
Exemplo 19. Os vetores (1, 0, 1), (2, 1, 3) e (0, 1, −2) são L. I., porque
1 0 1
det 2 1 3 = −3 6= 0,
0 1 −2
Produto Escalar em Rn
Definição. O produto escalar de dois vetores V = (v1 , ..., vn ), W = (w1 , ..., wn ) de Rn é definido por
V · W = v1 w1 + ... + vn wn .
1. V · W = W · V
2. U · (V + W ) = U · V + U · W
3. α(V · W ) = (αV ) · W = V · (αW )
2
4. V · V = kV k ≥ 0 e kV k = 0 se e somente se V = 0.
5. Desigualdade de Cauchy-Shwartz:
|V · W | ≤ kV k kW k
6. Desigualdade Triangular:
kV + W k ≤ kV k + kW k
2
Prova: Para provar (4), note que kxV + W k ≥ 0 para qualquer número real x. Como
2 2 2
kxV + W k = (xV + W ) · (xV + W ) = x2 kV k + 2(V · W )x + kW k ,
9
2
isto é, a parábola com concavidade para cima que ele representa (pois o coeficiente de x2 é kV k ≥ 0) nunca
assume valores negativos, logo seu discriminante não pode ser positivo (se fosse, terı́amos duas raı́zes reais
distintas e portanto o vértice da parábola teria valor negativo):
2 2
4|V · W |2 − 4 kV k kW k ≤ 0
Definição. O ângulo entre dois vetores não nulos V, W de Rn é definido como o valor de θ entre 0 e 180◦
tal que
V ·W
cos θ = .
kV k kW k
Observação: Esta definição faz sentido porque pela desigualdade de Cauchy-Schwartz temos que
V ·W
−1 ≤ ≤ 1.
kV k kW k
5. Bases Ortonormais
O próximo resultado prova o fato intuitivamente sugerido que vetores mutuamente ortogonais em Rn definem
direções independentes em Rn .
Proposição. Sejam V1 , ..., Vk vetores não nulos de Rn ortogonais dois a dois, isto é, Vi · Vj = 0 para i 6= j.
Então V1 , ..., Vk são L. I.
Como por hipótese os vetores são não nulos, isso necessariamente implica xi = 0.
Definição. Dado um subespaço vetorial W de Rn , dizemos que {V1 , ..., Vk } é uma base ortogonal para
W se este conjunto de vetores for uma base para W e eles forem ortogonais dois a dois. Se além disso
eles forem unitários, dizemos que {V1 , ..., Vk } é uma base ortonormal para W.
Exemplo 21. {i, j, k} é uma base ortonormal para R3 . Mais geralmente, os vetores E1 , ..., En definidos
anteriormente, formam uma base ortonormal para Rn .
Podemos encontrar uma base ortonormal para qualquer subespaço vetorial de Rn através de um algoritmo
chamado processo de ortogonalização de Gram-Schmidt. Ele é baseado no seguinte resultado:
10
Lema. Seja W um vetor não nulo de Rn . Então, para qualquer vetor V de Rn , o vetor
V − projW V
é ortogonal a W .
Em geral, sejam W1 , ..., Wk vetores não nulos de Rn , ortogonais dois a dois. Então, para qualquer
vetor V de Rn , o vetor
V − projW1 V − ... − projWk V
é ortogonal a cada um dos vetores Wi .
Prova: Temos
!
V ·W V ·W
(V − projW V ) · W = V − 2W ·W =V ·W − 2W · W = 0.
kW k kW k
Analogamente, temos
!
V · W1 V · Wn
(V − projW1 V − ... − projWk V ) · W = V − 2 W1 − ... − 2 Wn · Wi
kW1 k kWn k
V · Wi
= V · Wi − 2 Wi · Wi = 0.
kWi k
W 1 = V1
W2 = V2 − projW1 V2
W3 = V3 − projW1 V3 − projW2 V3
..
.
Wk = Vk − projW1 Vk − ... − projWk−1 Vk .
De fato, usando o lema, vemos que W2 é ortogonal a W1 ; além disso, W2 é também não nulo (W1 claramente
é não nulo, pois W1 = V1 ) porque se tivéssemos V2 = projW1 V2 , então em particular V2 seria um múltiplo
escalar de W1 = V1 , violando a hipótese de que {V1 , V2 } são L. I. Note que W2 é uma combinação linear de
V1 , V 2 .
Em seguida, vemos que segue do lema que W3 é ortogonal a W1 , W2 . Igualmente não podemos ter W3 = 0,
pois V3 = projW1 V3 + projW2 V3 implicaria que V3 é uma combinação linear de V1 , V2 (pois projW1 V3 é um
múltiplo escalar de W1 = V1 e projW2 V3 é um múltiplo escalar de W2 que, como vimos acima, é uma
combinação linear de V1 , V2 . Mas, por hipótese, {V1 , V2 , V3 } são L. I. Note que W3 é uma combinação linear
de V1 , V2 , V3 .
E assim por diante, até o vetor Wk , que pelo lema é ortogonal a W1 , ..., Wk e é não nulo porque Vk =
projW1 Vk + ... + projWk−1 Vk implicaria que Vk é uma combinação linear de V1 , ..., Vk−1 , contradizendo a
hipótese de que {V1 , ..., Vk } é L. I.
A partir da base ortogonal {W1 , ..., Wk } é fácil obter uma base ortonormal {U1 , ..., Uk }. Basta tomar
W1 Wk
U1 = , .., Uk =
kW1 k kWk k
11
Exemplo 21. Aplique o processo de ortogonalização de Gram-Schmidt à base {(1, 1, 0), (1, 0, 1), (0, 1, 1)}
de R3 para encontrar uma base ortonormal para R3 cujo primeiro vetor seja um múltiplo escalar de
(1, 1, 0).
Resposta: Faça
W1 = (1, 1, 0).
Em seguida, faça
(1, 0, 1) · (1, 1, 0) 1 1 1 1
W2 = V2 − projW1 V2 = (1, 0, 1) − 2 (1, 1, 0) = (1, 0, 1) − ( , , 0) = ( , − , 1),
k(1, 1, 0)k 2 2 2 2
e
12