Sie sind auf Seite 1von 20

Jorge Orestes Cerdeira, Inst. Sup.

Agronomia, 2005

Produto interno, ortogonalidade

e projecções
. Se x ∈ R2 ,

x
p
x2 norma x, kxk = x21 + x22 .
x1

. Se x ∈ R3 ,

x
qp
x3
norma x, kxk = ( x21 + x22 )2 + x23 =
q x1

p
2

x1 x21 + x22 + x23 .


+
x2
2

x2

Def. Se x = (x1 , x2 , . . . , xm ) ∈ Rm , a norma de x é kxk =


p
x21 + x22 + · · · + x2m .
√ √
Ex. k(0, 1, 2)k = 02 + 12 + 22 = 5,
p √
k(1, −1, 1, 2)k = 12 + (−1)2 + 12 + 22 = 7.

Props. kxk ≥ 0 e kxk = 0 sse x = ~0,

1
kλxk = |λ|kxk, ∀λ ∈ R.

Def. Vector unitário é um vector de norma 1.

Obs. Cada um dos m vectores da base canónica de Rm é unitário.


x
Def. Se x é um vector não nulo, kxk é um vector unitário, colinear
x
e com o mesmo sentido do que x. Chama-se a kxk o versor do vector

x.

Ex. (0, √15 , √25 ) é o versor de (0, 1, 2),

( √12 , √12 ) é o versor de ( 12 , 12 ).

. Se x, y ∈ R2 ,

x x−y
x−y
y
distância entre x e y, d(x, y) = kx − yk.

Def. Se x = (x1 , x2 , . . . , xm ), y = (y1 , y2 , . . . , ym ) ∈ Rm , a distância


p
entre x e y é kx−yk = (x1 − y1 )2 + (x2 − y2 )2 + · · · + (xm − ym )2 .

Ex. A distância entre (0, 2, −2, 1) e (−2, 0−2, 2) é k(2, 2, 0, −1)k =



4 + 4 + 0 + 1 = 3.

Obs. kxk = kx − ~0k é a distância do vector x à origem.

. Se x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) são vectores não nulos perpen-

2
diculares de R3 ,

x kx − yk2 = kxk2 + kyk2


| {z }
x−y ||

90o (x1 − y1 )2 + (x2 − y2 )2 + (x3 − y3 )2 =

y kxk2 + kyk2 − 2(x1 y1 + x2 y2 + x3 y3 ).

.. . x ⊥ y sse x1 y1 + x2 y2 + x3 y3 = 0.

Def. Se x = (x1 , x2 , . . . , xm ) e y = (y1 , y2 , . . . , ym ) são vectores de

Rm , x e y são ortogonais (perpendiculares) se x1 y1 + x2 y2 + · · · +

xm ym = 0.

Ex. (1, 1, 0, 1) e (1, −1, 3, 0) são ortogonais,

(1, 0, 0) e (0, 3, 2) são ortogonais.

Def. Sejam x = (x1 , x2 , . . . , xm ) e y = (y1 , y2 , . . . , ym ) vectores

de Rm . Chama-se produto interno (escalar) de x e y ao escalar

x|y = x1 y1 + x2 y2 + · · · + xm ym .  
 y1 
 
 .. 
Obs. x|y = x1 y1 +x2 y2 +· · ·+xm ym = [x1 x2 . . . xm ]  .  = x> y.
 
 
ym
x e y são ortogonais se x|y = 0.

Props. do produto interno.

3
. x|y = y|x,

. x|(y + z) = x|y + x|z,

. λ(x|y) = λx|y = x|λy,

. x|x = kxk2 ,

. x|x = 0 sse x = ~0 (~0 é o único vector ortogonal a si mesmo).

Obs. (Teorema de Pitágoras em Rm .)

x, y ∈ Rm , kx + yk2 = (x + y)|(x + y) = kxk2 + 2(x|y) + kyk2 .

.. . kx + yk2 = kxk2 + kyk2 sse x|y = 0,

i.e., o quadrado da norma da “hipotenusa” é igual à soma dos

quadrados das normas dos lados sse os lados são ortogonais.

Def. Um conj. {v1 , v2 , . . . , vk } de vectores de Rm é ortogonal se

vi |vj = 0, com i 6= j = 1, . . . , k. Se adicionalmente kvi k = 1, para

i = 1, . . . , k, o conj. diz-se ortonormal .

Obs. A base canónica de Rm é um conj. ortonormal de m vectores.

Se {v1 , v2 , . . . , vk } é um conj. ortogonal de vectores não nulos,

{ kvv11 k , kvv22 k , . . . , kvvkk k } é ortonormal.

Teor. Um conj. {v1 , v2 , . . . , vk } ortogonal de vectores não nulos é

linearmente independente.

4
λ1 v1 + λ2 v2 + · · · + λk vk = ~0

. v1 |(λ1 v1 + λ2 v2 + · · · + λk vk ) = v1 |~0 ⇔

λ1 (v1 |v1 ) +λ2 (v1 |v2 ) + · · · + λk (v1 |vk ) = 0


| {z } | {z } | {z }
6=0 0 0
⇒ λ1 = 0.

. v2 |(λ1 v1 + λ2 v2 + · · · + λk vk ) = v2 |~0 ⇔

λ1 (v2 |v1 ) +λ2 (v2 |v2 ) + · · · + λk (v2 |vk ) = 0


| {z } | {z } | {z }
0 6=0 0
⇒ λ2 = 0.
..
.2

Corol. Um conj. ortogonal de vectores não nulos de Rm não inclui

mais do que m vectores.

Teor. (Desigualdade de Cauchy-Schwarz.)

. ∀x, y ∈ Rm , |x|y| ≤ kxkkyk,

. |x|y| = kxkkyk sse y = λx.

Se x = ~0 ou y = ~0, tem-se x|y = kxkkyk = 0 e nada mais há a

provar.

Consideremos pois x e y 6= ~0.

∀λ ∈ R, kx−λyk2 = (x−λy)|(x−λy) = kxk2 −2λx|y+λ2 kyk2 ≥ 0.


x|y
Fazendo na desigualdade anterior λ = kyk2 , obtem-se

5
2
(x|y)2
kxk2 − 2 (x|y)
kyk2 + kyk4 kyk
2
≥0⇒
(x|y)2
kxk2 − kyk2 ≥0⇒

kxk2 kyk2 ≥ (x|y)2 ⇒

kxkkyk ≥ |x|y|.

Se x 6= λy, ∀λ ∈ R ⇒ kx − λyk2 > 0 e .. . kxkkyk > |x|y|.

Se x = λy, para algum λ ∈ R ⇒ |x|y| = |λy|y| = |λ|kyk2 =


1
|λ|kykkyk = |λ|k λ1 xkkyk = |λ| |λ| kxkkyk = kxkkyk. 2

Se x, y ∈ R2 ,

x+y
x

kx + yk ≤ kxk + kyk.
y

Teor. (Desigualdade 4lar .) ∀x, y ∈ Rm , kx + yk ≤ kxk + kyk.

kx+yk2 = (x+y)|(x+y) = kxk2 +2x|y+kyk2 ≤ kxk2 +2kxkkyk+

kyk2 = (kxk + kyk)2 ⇒ kx + yk ≤ kxk + kyk. 2

6
y
z λx é a projecção de y sobre x
y = λx + z
θ
cos θ = λkxk
kyk ⇒ λkxk = kyk cos θ.
λx x

x|y = x|(λx + z) = x|λx + x|z = λx|x = λkxk2 = kxkkyk cos θ.


|{z}
0
. x|y
. . cos θ = kxkkyk .

Obs. Se x, y 6= ~0 ∈ Rm , a 6=Cauchy-Schwarz estabelece que


x|y
|x|y| ≤ kxkkyk ⇔ −1 ≤ kxk kyk ≤ 1.
x|y
∃!θ ∈ [0, π] : cos θ = kxk kyk .

Pode-se pois definir

Def. Ângulo entre dois vectores x, y ∈ Rm é o ângulo θ : x|y =

kxkkyk cos θ.

Obs. Se x, y 6= ~0, x|y = kxkkyk cos θ = 0 sse cos θ = 0, i.e., θ = π2 .

Ex. Determine o ângulo entre x = (1, 1, 0, 1) e y = (1, 1, 1, 1).

u
u

V 0 V
0

Def. Um vector u ∈ Rm é ortogonal a um subespaço V de Rm

(u ⊥ V ) se u é ortogonal a todo o vector de V , i.e., u|v = 0, ∀v ∈ V .

7
Ex. (−1, 1, 2) é ortogonal a {(x, y, z) ∈ R3 : x − y − 2z = 0}.

Obs. Se u ∈ Rm , u|x = 0, ∀x ∈ Rm sse u = ~0. (O vector nulo é o

único vector ortogonal a Rm .)

Lema Sejam u ∈ Rm e V o subespaço de Rm gerado por {v1 , v2 , . . . , vn }.

u ⊥ V sse u ⊥ vi , i = 1, . . . , n.

⇒ é óbvio.

∀v ∈ V, ∃λ1 , λ2 , . . . , λn : v = λ1 v1 + λ2 v2 + · · · + λn vn

u|v = λ1 u|v1 +λ2 u|v2 + · · · + λn u|vn


|{z} |{z} |{z}
0 0 0
.
. . u|v = 0, ∀v ∈ V , i.e., u ⊥ V . 2

Obs. u ⊥ V sse u é ortogonal a uma base do subespaço V .


 
 1 −1 −1 1 
 
 
0 0 2 1
 
Ex. Mostre que o vector (2, 1, 1, −1) é ortogonal ao C( ).
 
0 2 0 1
 
 
2 0 0 4

Como obter o conj. dos vectores ortogonais a um subespaço?

Sejam V um subespaço de Rm e {v1 , v2 , . . . , vn } um conj. gerador

de V .

8




 v1 |x = 0





 v2 |x = 0
O vector x de Rm é ortogonal a V sse

 ..

 .





 vn |x = 0
 
 v1 v2 . . . v n 
Definindo A :=  , tem-se m
| | |
A> x = ~0.

.. . O vector x é ortogonal a V = C(A) sse x ∈ N (A> ).

Tem-se assim o seguinte teorema.

Teor. Seja V um subespaço vectorial de Rm .

. O conj. dos vectores de Rm ortogonais a V , que se chama comple-

mento ortogonal de V e se representa por V ⊥ , é um subespaço

vectorial de Rm .

. dim V ⊥ = m − dim V .

. V ∩ V ⊥ = {~0}.

. Se {v1 , v2 , . . . , vr } é uma base de V e {w1 , w2 , . . . , wm−r } é uma

base de V ⊥ , então {v1 , v2 , . . . , vr , w1 , w2 , . . . , wm−r } é uma base

de Rm .

9
Para provar o último ponto, considere

λ1 v1 + λ2 v2 + · · · + λr vr + α1 w1 + α2 w2 + · · · + αm−r wm−r = ~0 ⇔

| 1 v1 + λ2 v2{z+ · · · + λr v}r = −(α


λ w + α2 w2 + · · · + αm−r wm−r ) ⇒
| 1 1 {z }
∈V ∈V ⊥


 λ1 v1 + λ2 v2 + · · · + λr vr = ~0 ⇒ λ1 = · · · = λr = 0

 α w + α w + ··· + α ~
1 1 2 2 m−r wm−r = 0 ⇒ α1 = · · · = αm−r = 0.

Obs. C ⊥ (A) = N (A> ).

Em R3 ,

. o complemento ortogonal de {~0} é R3 ;

. o complemento ortogonal de uma recta que passa na origem é o

plano que passa na origem e é perpendicular à recta;

. o complemento ortogonal de um plano que passa na origem é a

recta que passa na origem e é perpendicular ao plano;

. o complemento ortogonal de R3 é {~0}.

Ex. Determine os complementos ortogonais dos subespaços gera-

dos por {(1, 2, 2, 1), (1, 0, 2, 0)} e por {(1, 1, 2, −1)}.

Se p é a projecção ortogonal do vector b sobre um subespaço

vectorial V ,

10
b−p b
b−p b

o
o 90
90 p
0 V
0 p V

p ∈ V e b − p ∈ V ⊥.

Pode-se provar que

Teor. se V é um subespaço vectorial de Rm ,

. para todo o vector b ∈ Rm , existe um e um só vector p ∈ V , tal

que b − p ∈ V ⊥ ;

. como b = p + (b − p), os vectores p e b − p dão uma decomposição

única de b como soma de um vector em V com outro em V ⊥ .

Sejam {v1 , v2 , . . . , vr } uma base de V e {w1 , w2 , . . . , wm−r } uma

base de V ⊥ . Como {v1 , v2 , . . . , vr , w1 , w2 , . . . , wm−r } é uma base de

Rm , existem escalares λ1 , λ2 , . . . , λr , α1 , α2 , . . . , αm−r tais que

b=λ
| 1 v1 + λ2 v2{z+ · · · + λr v}r + α w + α2 w2 + · · · + αm−r wm−r
|1 1 {z }
p∈V ∈V ⊥
b−p

Suponha que, para além de p, existe q ∈ V tal que b − q ∈ V ⊥ .

11
Tem-se então p + (b − p) = q + (b − q) ⇔ p − q = (b − q) − (b − p)
| {z } | {z }
∈V ∈V ⊥

p − q = ~0, i.e., p = q.

Def. Sejam V um subespaço vectorial de Rm e b ∈ Rm . A projecção

(ortogonal) de b sobre V (projV b) é o único vector p ∈ V tal que

b − p ∈ V ⊥.

Ex. Verifique que p = (4, 2,−1) é aprojecção do vector b =

 2 1
 
 
(7, −1, 5) sobre C(A), com A =  0 1 .
 
 
−1 0

. Em primeiro lugar mostra-se que p = (4, 2, −1) ∈ C(A), i.e., que o

sistema Ax = p é possı́vel.
     
 2 1 4  2 1 4  2 1 4
     
     
[A|p] =  0 1 2  −→  0 1 2  −→  0 1 2  e .. . o
     
     
−1 0 −1 0 12 1 0 0 0
sistema é possı́vel.

12
   
 2  1
   
   
(x1 = 1, x2 = 2 é a solução. De facto,  0  + 2  1  =
   
   
−1 0
 
 4 
 
 
 2 .)
 
 
−1

. Em seguida vai-se verificar que b − p = (3, −3, 6) ∈ V ⊥ .

(3, −3, 6)|(2, 0, −1) = 0 e (3, −3, 6)|(1, 1, 0) = 0, i.e., b − p =

(3, −3, 6) é ortogonal a cada uma das colunas de A e .. . b − p ⊥

C(A) ⇔ b − p ∈ C ⊥ (A).

Obs. Se p é a projecção de b sobre V , b − p é a projecção de b



sobre V ⊥ . (b − p ∈ V ⊥ e b − (b − p) = p ∈ V = (V ⊥ ) .)

Teor. Sejam V um subespaço vectorial de Rm e b ∈ Rm . A

projecção de b sobre V é o vector de V a menor distância de b.

Sejam p a projecção de b sobre V e q um qualquer vector de V .

Como V é um subespaço vectorial, p−q ∈ V e .. . tem-se p−q ⊥ b−p.

Pelo teorema de Pitágoras (se x ⊥ y ⇒ kx + yk2 = kxk2 + kyk2 ),

k(b − p) + (p − q)k2 = kb − pk2 + kp − qk2


| {z } | {z }
∨6

13
kb − qk2 ≥ kb − pk2 . 2

Algoritmo para determinar a proj. de b sobre o subesp. V de Rm

. Construir uma base {v1 , v2 , . . . , vn } de V ;


 
 v1 v2 . . . vn 
. definir a matriz A :=  ;
| | |

. construir uma base {w1 , w2 , . . . , wm−n } de N (A> ) = V ⊥ ;


 
 v1 . . . vn w1 . . . wm−n b 
. resolver o sistema (determinado)  .
| | | | |

Seja (λ1 , . . . , λn , α1 , . . . , αm−n ) a solução do sistema. Tem-se,

b=λ
| 1 v1 + ·{z
· · + λn vn} + α1 w1 + · · · + αm−n wm−n
| {z }
p ∈V b−p ∈V ⊥
|| ||
projV b projV ⊥ b

Ex. Determine a projecção do vector (7, −1, 5) sobre o subespaço

gerado por {(2, 0, −1), (1, 1, 0)}.

V =< {(2, 0, −1), (1, 1, 0)} >. Como {(2, 0, −1), (1,
 1, 0)} 
é li-

 2 1
 
 
nearmente independente, é uma base de V . Seja A =  0 1 .
 
 
−1 0

14
 
    1
 2 x3 
1  
>  2 0 −1   1 0 −2  >  
A =  −→ · · · −→   , N (A ) = { − 21 x3 }.
 
1 1 0 0 1 21  
x3 = ∀
{(1, −1, 2)} é um a base de N (A> ) = V ⊥ .
   
 2 1 1 7  1 0 0 1 
   
   
 0 1 −1 −1  −→ · · · −→  0 1 0 2 .
   
   
−1 0 2 5 0 0 1 3
       
 7   2  1  1 
       
.        
. .  −1  = 1  0  + 2  1  + 3  −1 
       
       
5 −1 0 2
| 
{z  } |  {z  }
 4   3 
   
   
   
   
 ∈V  ∈V ⊥


2 



−3 

   
   
   
−1 6
|| ||

projV b projV ⊥ b

Obs. O vector p é a projecção de b sobre C(A) sse

(i) p ∈ C(A), i.e., ∃x̄ : p = Ax̄, e

(i)
(ii) b − p ∈ N (A> ), i.e., A> (b − p) = ~0 ⇒ A> (b − Ax̄) = ~0 ⇔

15
A> Ax̄ = A> b.

Tem-se pois a seguinte forma alternativa de determinar a pro-

jecção de b sobre C(A).

. Resolva o sistema A> Ax = A> b (equações normais). Seja x̄ uma

solução.

. p = projC(A) b = Ax̄.

Ex. Determine a projecção do vector (4, −1, 1) sobre V =<

{(1, 0, 1), (1, 1, 0)} >.

Obs. A projecção de b sobre um vector v 6= ~0 é a projecção de b

sobre o subespaço (a recta) gerado por v.


 
v > v|b
Tem-se pois, A :=   , A A> b ⇒ x̄ =
| {zA} x = |{z} v|v
| v|v v|b
v|b v|b
e .. . p = projv b = Ax̄ = v|v v = kvk kvk v = kbk kbkv|bkvk kvk
v
=
v
kbk cos θ kvk , em que θ é o ângulo entre b e v.
v|b
Ex. A projecção de b = (2, 1, 6, 3) sobre v = (1, 1, 1, 1) é v|v v =
12
4 (1, 1, 1, 1) = (3, 3, 3, 3).

Lema Se a matriz Am×n tem caracterı́stica n, A> A é invertı́vel.

Considere x ∈ N (A> A), i.e., x tal que (A> A)x = ~0 ⇔ A> (Ax) =

16
~0 ⇒ Ax ∈ N (A> ). Por outro lado, obviamente Ax ∈ C(A).

.. . Se x ∈ N (A> A), Ax ∈ N (A> ) ∩ C(A) e como N (A> ) = C ⊥ (A),


car(A)=n
tem-se Ax = ~0 ⇒ x = ~0. A equivalência N (A> A) = ~0 sse a

matriz A> A é invertı́vel, completa a demonstração. 2

Assim, se o conj. das colunas de A é linearmente independente, a

única solução das equações normais A> Ax = A> b é x̄ = (A> A)−1 A> b

e projC(A) b = A(A> A)−1 A> b.

Def. Se o conj. das colunas de A é linearmente independente

(A> A é invertı́vel), chama-se a A(A> A)−1 A> matriz de projecção

(ortogonal) sobre o espaço das colunas de A.


 
 w1 w2 . . . w n 
Obs. No caso em que o conj. das colunas de A =  
| | |
é ortonormal,
 
 w1 −− 
  
 
 w2 −−  w1 w2 . . . wn
>   
A A=   = I e .. . a matriz de
 .. 
 .  | | |
 
 
wn −−
projecção sobre C(A) é AA> .

Dado um vector arbitrário b ∈ Rm , projC(A) b = (AA> )b = A(A> b) =

17
 
 w1 |b 
 
 
 w2 |b 
 
A  = w1 |b w1 + w2 |b w2 + · · · + wn |b wn .
 ..  | {z } | {z } | {z }
 .  proj. de b sobre w1 proj. de b sobre w2 proj. de b sobre wn
 
 
wn |b

Tem-se assim o seguinte teorema.

Teor. Sejam {w1 , w2 , . . . , wn } uma base ortonormal de um sub-

espaço V de Rm e b ∈ Rm . A projecção de b sobre V é p = w1 |b w1 +

w2 |b w2 + · · · + wn |b wn , a soma das projecções de b sobre cada um

dos vectores da base.

No caso em que a base é ortogonal, tem-se um resultado seme-

lhante.

Teor. Sejam {w1 , w2 , . . . , wn } uma base ortogonal de um sub-


w1 |b
espaço V de Rm e b ∈ Rm . A projecção de b sobre V é p = w1 |w1 w1 +
w2 |b
w2 |w2 w2 + · · · + wwnn|w|bn wn , a soma das projecções de b sobre cada um

dos vectores da base.

Ex. Determine a projecção do vector b = (1, 3, 1) sobre o subespaço

V gerado por w1 = (0, 1, 1), w2 = (−1, 1, −1).

Como {(0, 1, 1), (−1, 1, −1)} é uma base ortogonal de V , tem-se

18
w1 |b w2 |b 4 1
p = projV b = w1 |w1 w1 + w2 |w2 w2 = 2 (0, 1, 1) + 3 (−1, 1, −1) =

(− 13 , 37 , 53 ).

É pois importante identificar bases ortogonais dos subespaços vec-

toriais. O método que a seguir se descreve tem esta finalidade.

Processo de ortogonalização de Gram-Schmidt

Seja V 6= {~0} um subespaço vectorial de Rm .

. Identifique v1 6= ~0 ∈ V . Se dim V > 1, então

v1 |u2
. identifique u2 ∈ V \ < {v1 } > e defina v2 := u2 − v1 |v1 v1 . (Clara-
v1 |u2
mente v2 ∈ V e v2 |v1 = u2 |v1 − v1 |v1 v1 |v1 = 0.) Se dim V > 2,

então

. identifique u3 ∈ V \ < {v1 , v2 } > e defina v3 := u3 − vv11|u v2 |u3


|v1 v1 − v2 |v2 v2 .
3

(Claramente v3 ∈ V e v3 |v1 = u3 |v1 − vv11|u v2 |u3


|v1 v1 |v1 − v2 |v2 v2 |v1 = 0 ,
3

v1 |u3 v2 |u3
v3 |v2 = u3 |v2 − v1 |v1 v1 |v2 − v2 |v2 v2 |v2 = 0.) Se dim V > 3, então

. ...

O conj. {v1 , v2 , . . . , vdim V } assim obtido é uma base ortogonal de

V.

19
Ex. Determine uma base ortogonal de R3 que inclua o vector

(1, 1, 1).

. v1 = (1, 1, 1).

. u2 = (1, 0, 0) ∈ R3 \ < {(1, 1, 1)} >.

v1 |u2
v2 := u2 − v1 |v1 v1 = (1, 0, 0) − 13 (1, 1, 1) = 1
3 (2, −1, −1) ;

(2, −1, −1).

. u3 = (1, −1, 1) ∈ R3 \ < {(1, 1, 1), (2, −1, −1)} >.

v3 := u3 − vv11|u v2 |u3 1 2
|v1 v1 − v2 |v2 v2 = (1, −1, 1)− 3 (1, 1, 1)− 6 (2, −1, −1) =
3

(0, −1, 1).

{(1, 1, 1), (2, −1, −1), (0, −1, 1)} é uma base ortogonal de R3 que

inclui o vector (1, 1, 1).

20

Das könnte Ihnen auch gefallen