Sie sind auf Seite 1von 45

UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI

INSTITUTO DE CIÊNCIA E TECNOLOGIA


BACHARELADO EM CIÊNCIA E TECNOLOGIA

TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS

Pedro Paulo Nunes Costa

Diamantina
2013
UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI
INSTITUTO DE CIÊNCIA E TECNOLOGIA

TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS

Pedro Paulo Nunes Costa

Orientador:

Leonardo Gomes

Trabalho de Conclusão de Curso apresentado


ao Curso de Bacharelado em Ciência e
Tecnologia, como parte dos requisitos exigidos
para a conclusão do curso.

Diamantina
2013
TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS

Pedro Paulo Nunes Costa

Orientador:

Leonardo Gomes

Trabalho de Conclusão de Curso apresentado


ao Curso de Bacharelado em Ciência e
Tecnologia, como parte dos requisitos exigidos
para a conclusão do curso.

APROVADO em 11 / 04 / 2013

_______________________________
Profª Mscª Mônica Valadão – UFVJM

_______________________________
Prof. Dr. Anderson Porto - UFVJM

_______________________________
Prof Dr. Leonardo Gomes – UFVJM
AGRADECIMENTOS

Agradeço em primeiro lugar ao Prof. Dr. Leonardo Gomes orientador, professor,


amigo, um muito obrigado, por esses meses de trabalho. Agradeço também a Prof. Msc.
Mônica Valadão e ao Prof. Dr. Anderson Porto pela ajuda complementar que me
ofereceram. E não deixando de agradecer a meus pais, Dimas e Jussara, a quem a quem
agradeço todas as noites a minha existência. E por último agradeço ao suporte financeiro
do CNPq que foi de grande ajuda durante o período em que o trabalho foi executado.
RESUMO

COSTA, P. P. N. Teorema Espectral para Operadores Auto-Adjuntos em Espaços


Vetoriais de Dimensão Finita. 43 p. 2013. Monografia (Bacharelado em Ciência e
Tecnologia). UFVJM. Diamantina. Minas Gerais

O objetivo deste trabalho é demonstrar, de maneira mais fácil do que os tradicionais li-
vros que tratam do assunto, um caminho detalhado para a construção do Teorema Es-
pectral para Operadores Auto-Adjuntos. A teoria dos operadores lineares constitui-se um
capítulo importante da Análise Funcional, e o Teorema Espectral é um dos resultados
fundamentais dessa teoria. Nesse trabalho tratamos de resultados realtivos ao corpo dos
números reais, fazendo algumas observações no caso do corpo dos números complexos.

Palavras-chave: Produto Interno. Espaço Vetorial. Operador Auto-Adjunto. Teorema


Espectral.
ABSTRACT

COSTA, P. P. N. Spectral Theorem for self-adjoint operators in Vector Spaces of


Finite Dimension. 43 p. 2013. Monography (Bachelor of Science and Technology).
UFVJM. Diamantina. Minas Gerais

The objective of this work is to demonstrate, more easily than traditional books dealing
with the subject, a detailed path to build the Spectral Theorem for Self-Adjoint Operators.
The theory of linear operators constitutes an important chapter in Functional Analysis
and the Spectral Theorem is one of the fundamental results of this theory. In this work we
deal with the results realtivos field of real numbers, field with some observations on the
complex field case.

Keywords: Inner Product. Vector Space. Self-adjoint Operator. Spectral Theorem.


SUMÁRIO

1 INTRODUÇÃO 7

2 REVISÃO DE LITERATURA 8
2.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Propriedades do Produto Interno . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Espaços Complexos com Produto Interno . . . . . . . . . . . . . . . . . 17
2.5 Conjunto Ortonormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6 Processo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.7 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.8 Adjunta de um Operador Linear . . . . . . . . . . . . . . . . . . . . . . 22
2.9 Matriz da Adjunta em Relação a uma Base Ortonormal . . . . . . . . . . 29
2.10 Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.11 Matrizes de Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . 30

3 METODOLOGIA 33

4 RESULTADOS E DISCUSSÕES 34
4.1 Teorema Espectral para Operadores Auto-adjuntos . . . . . . . . . . . . 34

5 CONCLUSÃO 42

REFERÊNCIAS 43
1 INTRODUÇÃO

Nos últimos anos a álgebra se transformou em uma parte essencial do conheci-


mento matemático necessário aos matemáticos, professores de matemática, engenheiros,
cientistas da computação, físicos, economistas e estatísticos, entre outros. Essa necessi-
dade reflete a importância e o vasto campo de aplicações desse conteúdo. Esse trabalho foi
desenvolvido com o objetivo de revisar e aprofundar em alguns temas da álgebra linear.
A primeira parte do trabalho será um revisão bibliográfica para o estudo da Teoria
Espectral para Operadores Auto-Adjuntos, onde utilizamos algumas ferramentas básicas
de Álgebra Linear. Com essas ferramentas de Álgebra Linear em mãos, poderemos nos
contextualizarmos com o assunto do tema principal. Na revisão estenderemos as noções
de produto escalar (que permite introduzir a idéia de distância, comprimento de um vetor
e ângulo entre dois vetores) para um espaço vetorial arbitrário, obtendo assim uma es-
trutura mais rica, denominada espaço vetorial com produto interno. Em seguida, vemos
que o fato de dotarmos um espaço vetorial com um produto interno permite-nos defi-
nir a noção de conjunto ortogonal, cujo qual sua importância aplica-se na simplificação
da representação de um elemento deste espaço bem como na representação de transfor-
mações lineares sobre este espaço através do uso de bases ortonormais. Nesse intuito,
apresentamos um processo para construir bases ortonormais. Seguindo, vemos a noção
de complemento ortogonal de um subespaço vetorial de um espaço vetorial com produto
interno, permitindo, em alguns casos, decompor este espaço como soma direta entre um
subespaço e seu complemento ortogonal. Este fato possibilita uma melhor compreensão
da estrutura de espaços vetoriais com produto interno. A definição de operador linear
adjunto permite adiante, uma classificação de operadores lineares. Veremos ainda que a
construção da adjunta de uma transformação linear é baseada no fato que para cada funci-
onal linear esteja associado um elemento do espaço vetorial, de forma que este funcional
é representado por um produto interno.
Finalmente veremos os operadores auto-adjuntos. O estudo da teoria desses ope-
radores é importante nos vastos ramos das ciências exatas, onde muitos processos podem
ser descritos por um operador, cujas propriedades variam de acordo com o espaço em
que se define. A partir daí podemos construir o teorema espectral para tais operadores
auto-adjuntos.

7
2 REVISÃO DE LITERATURA

A revisão de literatura tem papel fundamental no trabalho acadêmico, pois através


dela situamos o trabalho dentro da grande área de pesquisa da qual faz parte. Assim,
apresentamos a seguir uma série de definições, exemplos e resultados que servirão como
ponto de partida para o entendimento do resultado principal desse trabalho.

2.1 Produto Interno

Definição 2.1. Seja V um espaço vetorial sobre R. Dizemos que a aplicação h., .i : V ×
V → R que associa dois vetores u, v ∈ V a um único número hu, vi real, é um produto
interno sobre V , se satisfaz as seguintes condições:
i) Distributividade: hu + w, vi = hu, vi + hw, vi, para todos u, v, w ∈ V ;
ii) hΛu, vi = Λhu, vi, para todos u, v ∈ V e todo Λ ∈ R;
iii) Comutatividade: hu, vi = hv, ui, para todos u, v ∈ V ;
iv) Positividade: hv, vi ≥ 0 para todo v ∈ V ;
v) hv, vi = 0 se, e somente se, v = 0.

Quando munimos o espaço vetorial V de um produto interno h., .i, dizemos que
V é um espaço vetorial com produto interno h., .i.

Exemplo 2.1. Seja V = R2 o espaço vetorial com a adição de vetores e multiplicação por
escalar usuais, ou seja, (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) e Λ(x1 , x2 ) = (Λx1 , Λx2 ),
para todo λ ∈ R. Defina h., .i : R2 × R2 → R por h(x1 , x2 ), (y1 , y2 )i = x1 y1 + x2 y2 .
Afirmamos que h., .i é um produto interno sobre R2 . Com efeito, sejam u = (x1 , x2 ),
v = (y1 , y2 ), w = (z1 , z2 ) ∈ R2 e Λ ∈ R. Então:
i)

hu + w, vi = h(x1 , x2 ) + (z1 , z2 ), (y1 , y2 )i


= h(x1 + z1 , x2 + z2 ), (y1 , y2 )i
= (x1 + z1 )y1 + (x2 + z2 )y2
= x1 y1 + z1 y1 + x2 y2 + z2 y2
= (x1 y1 + x2 y2 ) + (z1 y1 + z2 y2 )
= h(x1 , x2 ), (y1 , y2 )i + h(z1 , z2 ), (y1 , y2 )i
= hu, vi + hw, vi;

8
ii)

hΛu, vi = hλ(x1 , x2 ), (y1 , y2 )i


= h(λx1 , λx2 ), (y1 , y2 )i
= (λx1 )y1 + (λx2 )y2
= λ(x1 y1 + x2 y2 )
= λh(x1 , x2 ), (y1 , y2 )i
= Λhu, vi;

iii)

hu, vi = h(x1 , x2 ), (y1 , y2 )i


= x1 y1 + x2 y2 = y1 x1 + y2 x2
= h(y1 , y2 ), (x1 , x2 )i
= hv, ui;

iv)

hv, vi = h(y1 , y2 ), (y1 , y2 )i


= y1 y1 + y2 y2
= y12 + y22 ≥ 0;

v)

hv, vi = 0
⇔ y1 y1 + y2 y2 = 0
⇔ y1 , y2 = 0
⇔ v = (y1 , y2 ) = (0, 0) = 0.

9
Em particular,

h(1, 0), (1, −1)i = 1 · 1 + 0(−1) = 1

e
h(1, 0), (0, 1)i = 1 · 0 + 0 · 1 = 0.

2.2 Propriedades do Produto Interno

Vejamos algumas propriedades do produto interno que decorrem imediatamente


de sua definição.
Proposição 2.1. Seja V um espaço vetorial sobre R com produto interno h., .i. Então as
seguintes afirmações são verdadeiras:
i) hu, λvi = λhu, ui , para todos u, v ∈ V e todo λ ∈ R;
ii) h0, vi = hv, 0i = 0, para todo v ∈ V ;
iii)hu, v + wi = hu, vi + hv, wi, para todos u, v, w ∈ V ;
iv) Se hu, vi = 0, para todo v ∈ V , então u = 0.
Exemplo 2.2. Demonstraremos as propriedades da proposição anterior. Sejam u, v, w ∈
V:
i) hu, λvi = hλv, ui = λhv, ui = λhu, vi, onde nestas igualdades utilizamos os itens iii),
ii), iii), da Definição 2.1, respectivamente;
ii)h0, vi = hv, 0i = hv, 0 · 0i = 0hv, 0i = 0, usando o item i) e a Definição 2.1;
iii) hu, v + wi = hv + w, ui = hv, ui + hw, ui = hu, vi + hu, wi, aqui usamos os itens iii),
i), iii), da Definição 2.1, respectivamente;
iv) Se hu, vi = 0, para todo v ∈ V , hu, ui = 0 (basta considerar v = u). Utilizando a
Definição 2.1, iten v), obtemos que u = 0.
Exemplos de Espaços Vetoriais com Produto Interno
Exemplo 2.3. Podemos generalizar o resultado do exemplo 2.1 para o espaço vetorial

V = Rn = {(x1 , x2 , ..., xn ) : xi ∈ R, i = 1, ..., n},

com adição de vetores e multiplicação por escalar usuais, isto é,

(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn ),

e
λ(x1 , x2 , ..., xn ) = (λx1 , λx2 , ..., λxn ),

para todo λ ∈ R. Defina h., .i : Rn × Rn → R por

h(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn )i = x1 y1 + x2 y2 + ... + xn yn .

10
Seguindo os passos do Exemplo 2.1 é possível provar que h., .i é um produto
interno sobre Rn (chamado produto interno canônico de Rn ). Em particular,

h(1, 0, ..., 0, 2), (1, 0, ..., 0, −1)i = 1 · 1 + 0 · 0 + ...0 + 2(−1) = −1.

Exemplo 2.4. Seja V = C([a, b]) o espaço vetorial das funções reais contínuas em [a, b]
com as operações de adição de funções e multiplicação por escalar usuais, ou seja,

(f + g)(t) = f (t) + g(t) e (λf )(t) = λf (t),

para todo t ∈ [a, b] e λ ∈ R. Defina a seguinte aplicação


Z b
hf, gi = f (t)g(t)dt,
a

onde f, g ∈ V . Vamos provar que h., .i é um produto interno. De fato, se f, g, h ∈


C([a, b]) e λ ∈ R, então,
i)
Z b
hf + g, hi = [f + g](t)h(t)dt
a
Z b
= [f (t) + g(t)]h(t)dt
a
Z b Z b
= f (t)h(t)dt + g(t)h(t)dt
a a
= hf, hi + hg, hi;

ii)
Z b
hλf, hi = (λf )(t)h(t)dt
a
Z b
= λf (t)h(t)dt
a
Z b
= λ f (t)h(t)dt
a
= λhf, hi;

iii)
Z b
hf, hi = f (t)h(t)dt
a
Z b
= h(t)f (t)dt
a
= hh, f i;

11
iv)
Z b
hf, f i = f (t)f (t)dt
a
Z b
= f (t)2 dt ≥ 0;
a
Rb
v) hf, f i = 0 se, somente se, a f (t)2 dt = 0. Mas isto implica que f (t) = 0, para todo
t ∈ [a, b]. Logo, f ≡ 0. Aqui utilizamos o seguinte resultado para integrais: se ϕ é
Rb
uma função contínua com ϕ(t) ≥ 0, para todo t ∈ [a, b] e a ϕ(t)dt = 0, então ϕ ≡ 0
(função identicamente nula). Embora esse resultado pareça razoável, sua prova envolve
ferramentas matemáticas mais complexas e, para tanto, recomendamos a um leitor mais
interessado a referência Lima (2009, cap. 9)

Exemplo 2.5. Seja V = R2 o espaço vetorial com adição de vetores e multiplicação por
escalar usuais. Defina h., .i : R2 × R2 → R por h(x1 , x2 ), (y1 , y2 )i = −2x1 y1 + x2 y2 .
Afirmamos que h., .i não é um produto interno sobre R2 . Com efeito, para v = (1, 0) ∈
R2 , temos que hv, vi = h(1, 0), (1, 0)i := (−2)1 · 1 + 0 · 0 = −2 < 0, e isto contradiz o
item iv) da Definição 2.1.

Exemplo 2.6 (Espaço das matrizes). Seja M = Mn×m o espaço vetorial de todas as
matrizes reais do tipo n x m. Um produto interno é definido em M por:

hA, Bi = tr(B t A),

onde tr(A) é o traço da matriz A, isto é, a soma dos seus elementos diagonais. Se A =
[aij ] e B = [bij ], então
m X
X n m X
X n
t
hA, Bi = tr(B A) = aij bij e hA, Ai = a2ij .
i=1 j=1 i=1 j=1

Isto é, hA, Bi é a soma dos elementos correspondentes de A e B, em particular, hA, Ai é


uma soma dos quadrados dos elementos de A (LIPSCHUTZ, 2004, p. 229).

Exemplo 2.7 (Espaço de Hilbert). Seja V o espaço vetorial de todas as sequências infinitas
de números reais (a1 , a2 , a3 , ...) satisfazendo

X
a2i = a21 + a22 + ... < ∞,
i=1

isto é, a soma converge. A adição e a multiplicação por escalar são definidas em V componente
a componente, isto é, se

u = (a1 + a2 + ...) e v = (b1 + b2 + ...),

12
então
u + v = (a1 + b1 , a2 + b2 , ...) e ku = (ka1 + ka2 + ...).

O produto interno é definido em V por

hu, vi = a1 b1 + a2 b2 + ....

A soma acima converge absolutamente para qualquer par de pontos de V , como será
demonstrado no Exemplo 2.19. Desta forma, o produto interno está bem definido. Este
espaço, com produto interno é chamado de espaço-l2 ou espaço de Hilbert. O espaço de
Hilbert é uma espaço que tem propriedades características e pode ser utilizado para vários
objetivos como pode ser visto em Barata (2013, cap. 36).
Exemplo 2.8. Seja A um matriz real simétrica, isto é, At = A. Então, A é dita definida
positiva se, para todo vetor não nulo u ∈ Rn ,

hu, Aui = ut Au > 0.

onde h., .i é o produto interno canônico de Rn Existem algoritimos que nos per-
mitem decidir se uma matriz A é definida positiva ou não. Contudo, para matrizes 2x2,
temos um critério simples que está mostrado no teorema abaixo.
" #
a b
Teorema 2.1. A matriz 2x2 real e simétrica A = é definida positiva se e só se
b d
seus elementos diagonais a e d são positivos e seu determinante |A| = ad − bc = ad − b2
é positivo.
A demonstração pode ser vista em Lipschutz (2008, p. 254).
Exemplo 2.9. Considere as matrizes simétricas dadas abaixo:
" # " # " #
1 3 1 −2 1 −2
A= , B= , C= .
3 4 −2 −3 −2 5

Então A não é definida positiva uma vez que |A| = −5 é negativo. B não é definida
positiva uma vez que um de seus elementos na diagonal -3 é negativo. Contudo, C é
definida positiva, uma vez que seus elementos diagonais são 1 e 5 que são positivos e seu
determinante |C| = 1 também é positivo.
Teorema 2.2. Seja A uma matriz real definida positiva. Então a função hu, viA = ut Av é
um produto interno em Rn .
A demonstração pode ser vista em Lipschutz (2008, p. 254).
Exemplo 2.10 (Representação matricial de um produto interno). O teorema anterior nos
diz que toda matriz real definida positiva determina um produto interno em Rn . Esta

13
seção pode ser vista com sendo um demonstração da recíproca deste resultado. Seja V um
espaço com produto interno real com base S = {u1 , u2 , ..., un }. A matriz

A = [aij ], onde aij = hui , uj i,

é chamada de representação matricial do produto interno de V em relação à base S. Ob-


serve que A é simétrica, uma vez que o produto interno é simétrico, isto é, hui , uj i =
huj , ui i. Temos, também, que A depende tanto do produto interno de V quanto da base S
de V.

Exemplo 2.11. Os vetores u1 = (1, 1, 0), u2 = (1, 2, 3), u3 = (1, 3, 5) formam uma base
S do espaço euclidiano R3 . Calcule a matriz A que representa o produto interno de R3 na
base S.
Em primeiro lugar, calcule hui , uj i obtendo

hu1 , u1 i = 2, hu1 , u2 i = 3, hu1 , u3 i = 4 hu2 , u2 i = 14, hu2 , u3 i = 22, hu3 , u3 i = 35.


 
2 3 4
Então A =  3 14 22 . Como era de se esperar, A é simétrica.
 

4 22 35
Teorema 2.3. Seja A a representação matricial de um produto interno em relação à base
S de V. Então, para quaisquer vetores u, v ∈ V , temos

hu, vi = [u]t A[v],

onde [u] e [v] são o vetor coluna das coordenadas em relação à base S.

Demonstração: Suponha que

u = a1 w1 + a2 w2 + ... + an wn e v = b1 w1 + b2 w2 + ... + bn wn .

Então n X
n
X
hu, vi = ai bj hwi , wj i.
i=1 j=1

Por outro lado,


  
k11 k12 . . . k1n b1
k21 k22 . . . k2n   b2
  
T
 
[u] A[v] = [a1 , a2 , ..., an ]  .. .. ... ..   .. =
. . .  .
  
 
kn1 kn2 . . . knn bn

14
 
b1
n n n n X n
b2
 
X X X   X
=[ ai ki1 , ai ki2 , ..., ai kin ]  .. = ai bj kij .
.
 
i=1 i=1 i=1   j=1 i=1
bn


Teorema 2.4. Seja A a matriz que representa um produto interno de V. Então A é uma
matriz definida positiva.

Demonstração: Como hwi , wj i = hwj , wi i para quaisquer vetores wi e wj de uma base de


V , a matriz A é simétrica. Seja X um vetor não nulo qualquer de Rn . Então [u] = X para
algum vetor não nulo u ∈ V . O Teorema 2.2 nos diz que X t AX = [u]t A[u] = hu, ui > 0.
Assim, A é definida positiva. 

2.3 Norma de um Vetor

Definição 2.2 (Norma). Seja V um espaço vetorial. Uma aplicação ||.|| : V → R que
satisfaz as três condições
i)||v|| ≥ 0, para todo v ∈ V e ||v|| = 0 se, e somente se, v = 0;
ii)||λv|| = |λ|||v||, para todo v ∈ V e todo λ ∈ R;
iii)(Desigualdade Triangular)||u + v|| ≤ ||u|| + ||v||, para todos u, v ∈ V ,
é chamada norma sobre V. Quando munimos um espaço vetorial V de uma norma, dizemos
que V é um espaço normado.

Proposição 2.2 (Norma sobre um Espaço Euclidiano). Seja V um espaço vetorial com
p
produto interno h., .i. Então a aplicação ||.|| : V → R, definida por ||v|| := hv, vi,
é uma norma sobre V. Neste caso, dizemos que a norma ||.|| provém do produto interno
h., .i.

Demonstração: Verificaremos as condições estabelecidas na Definição 2.2:


p
i)Seja v 6= 0. Então, hv, vi > 0, pela Definição 2.1. Logo ||v|| = hv, vi > 0.
ii) Sejam v ∈ V e λ ∈ R. Então, utilizamos a Definição 2.1 para concluírmos que
p p √ p p
||λv|| = hλv, λvi = λ2 hv, vi = λ2 hv, vi = |λ| hv, vi = |λ|||v||.

15
iii)Vamos provar a desigualdade triangular. Note que

||u + v||2 = hu + v, u + vi
= hu, ui + 2hu, vi + hv, vi
≤ ||u||2 + 2|hu, vi| + ||v||2
≤ ||u||2 + 2||u||||v|| + ||v||2
≤ (||u|| + ||v||)2 ,

onde na última desigualdade usamos o Teorema 2.5. Logo, pelo item i),||u + v|| ≤
||u|| + ||v||, para todo u, v ∈ V . 
Exemplo 2.12 (Norma sobre R2 ). Seja V = R2 conforme o Exemplo 2.1. Assim, ||.|| :
p p
R2 → R, dada por ||(x, y)|| = h(x, y), (x, y)i = x2 + y 2 é uma norma.
Exemplo 2.13 (Norma sobre Rn ). Seja V = Rn conforme o Exemplo 2.2. Assim ||.|| :
Rn → R, definida por
p q
||(x1 , x2 , ..., xn )|| = h(x1 , x2 , ..., xn ), (x1 , x2 , ..., xn )i = (x21 + x22 + ... + x2n ).

é uma norma
Exemplo 2.14 (Norma de funções contínuas). Seja V = C([a, b]) conforme o Exemplo
p Rb 1
2.3. Logo ||.|| : C([a, b]) → R, dada por ||f || = hf, f i = ( a f (t)2 dt) 2 , é uma norma.
Exemplo 2.15 (Não-Norma). Seja V = R2 . Defina ||.|| : R2 → R por ||(x, y)|| = x2 +y 4 .
Então ||.|| não é uma norma. Basta observar que ||2(1, 0)|| = ||(2, 0)|| = 22 + 02 = 4
e, por outro lado,|2|||(1, 0)|| = 2||(1, 0)|| = 2(12 + 02 ) = 2, de forma que ||2(1, 0)|| =
6
|2|||(1, 0)||. Isto contradiz o item ii) da Definição 2.2.
Definição 2.3 (Vetor Unitário). Seja V um espaço vetorial normado. Dizemos que um
vetor v ∈ V é unitário se ||v|| = 1.
Podemos transformar qualquer vetor não-nulo v ∈ V em um vetor unitário se
v
||v|| = 1. Basta escolher u = ||v|| . Para verificar a veracidade deste fato, basta utilizar

v 1 1
o item ii) da Definição 2.2 e obter ||u|| = ||v|| = ||v|| ||v|| = ||v|| ||v|| = 1. Em
particular, temos os seguintes exemplos:
√ √ √
Exemplo 2.16. Desde que ||(1, 0)|| = 12 + 02 = 1 e ||(1, 1)|| = 12 + 12 = 2,
temos que (1,0) é um vetor unitário e (1,1) não. Para  transformar
 (1,1) em vetor unitário,
(1,1) (1,1)
basta realizar o seguinte processo ||(1,1)|| = √2 = √12 , √12 .
Exemplo 2.17. Considere V = C([0, 1]), f (t) = 1 e g(t) = t, t ∈ [0, 1]. Assim
Z 1  21 Z 1  12
2
||f || = [f (t)] dt = 1dt = 1,
0 0

16
e
Z 1  12 Z 1  12
1
||g|| = [g(t)]2 dt = t2 dt =√ .
0 0 3
Segue que f é um vetor unitário e g não. Usando a observação acima, obtemos o vetor
g

unitário ||g|| = √1t = t 3.
3

Teorema 2.5 (Desigualdade de Cauchy-Schwarz). Seja V um espaço vetorial com produto


p
interno h., .i. Então |hu, vi| ≤ ||u||||v||, para todos u, v ∈ V , onde ||u|| := hu, ui.

Demonstração: Utilizamos na demostração deste teorema uma ferramenta auxiliar. Defina


f : R → R por f (x) = ||u − xv||2 . Observe que f (x) ≥ 0. Por outro lado, usando a
definição da aplicação ||.||, obtemos

||u − xv||2 = hu − xv, u − xvi = hu, ui − 2xhu, vi + x2 ||u||2


= ||u||2 − 2xhu, vi + x2 ||v||2 .

Logo, ||u||2 − 2xhu, vi + x2 ||v||2 ≥ 0. Note que o gráfico de f é um parábola, a qual está
acima do eixo das abscissas (o vértice desta parábola pode tocar tal eixo). Portanto, impo-
mos que 4 = 4hu, vi2 − 4||u||2 ||v||2 ≤ 0 (discriminante). Ou seja, hu, vi2 ≤ ||u||2 ||v||2 .

Por fim, |hu, vi| ≤ ||u||||v|| (aqui usamos a2 = |a|). O teorema está provado. 

Exemplo 2.18. Seja V = C([1, 0]) com produto interno canônico. Podemos mostrar
R1 R1 R1
que ( 0 f (t)g(t)dt)2 ≤ ( 0 [f (t)]2 dt)( 0 [g(t)]2 dt). Com efeito, pela desigualdade de
Cauchy-Schwarz, temos que |hf, gi| ≤ ||f || · ||g||, para todo f, g ∈ V . Com isso,
|hf, gi2 | ≤ ||f ||2 ||g||2 . Usando as definições de h., .i e ||.||, encontramos o resultado
desejado.

Exemplo 2.19. Se (a1 , a2 , ...) e (b1 , b2 , ...) são quaisquer par de vetores em um espaço
de Hilbert, a soma ∞
P
i=1 ai bi = a1 b1 + a2 b2 + ... converge absolutamente. Para ver isto,
segundo o Teorema 2.5 (desigualdade de Cauchy-Schwarz),
v v v v
u n u n u∞ u∞
uX uX 2
u X uX
|a1 b1 | + ... + |an bn | ≤ t ai 2 t bi ≤ t 2
ai t bi 2 ,
i=1 i=1 i=1 i=1

vale para todo n. Assim o somatório Sn = |a1 b1 | + |a2 b2 | + ... converge. Podemos ver
então que a soma infinita converge absolutamente, para maiores informações sobre séries
convergentes veja Elon (1999, cap. 4). Isto mostra o afirmado no Exemplo 2.7.

2.4 Espaços Complexos com Produto Interno

Esta parte do trabalho considera espaços vetoriais sobre o corpo de C dos com-
plexos. Em primeiro lugar, lembramos de alguma propriedades dos números complexos,

17
especialmente as relações entre um número complexo z = a + bi, onde a, b ∈ R, e seu
conjugado complexo z = a − bi;

zz = a2 + b2 , |z| = a2 + b 2 , z1 + z2 = z1 + z2 , z1 z2 = z2 z1 , z = z.

Além disso, z é real se e só se z = z.

Definição 2.4. Seja V um espaço vetorial sobre C. Suponha que a cada par de vetores
u, v ∈ V associamos um número complexo, denotado por hu, vi. Esta função é chamada
produto interno (complexo) sobre V se satisfaz as propriedades abaixo:
i)(Propriedade linear) hau1 + bu2 , vi = ahu1 , vi + bhu2 , vi;
ii)(Propriedade conjugado simétrico)hu, vi = hv, ui;
iii)(Propriedade definida positiva) hu, ui ≥ 0; e hu, ui = 0 se e só se u = 0.

O espaço vetorial V sobre C com um produto interno é chamado de espaço com


produto interno complexo. Observe que um produto interno complexo difere do real
apenas pela propriedade ii).
A propriedade i) é equivalente as duas condições:

hu1 + u2 , vi = hu1 , vi + hu2 , vi, hku, vi = khu, vi

Por outro lado, de i) e ii), temos

hu, kvi = hkv, ui = khv, ui = k · hv, ui = khu, vi.

Isto é, devemos tomar o conjugado de um número complexo quando ele é retirado


da segunda posição de um produto interno complexo. Na verdade, o produto interno é
conjugado linear na segunda posição, isto é,

hu, av1 + bv2 i = ahu, v1 i + bhu, v2 i.

Combinando a linearidade da primeira posição com o conjugado linear da se-


gunda, obtemos, por indução

Xn n
X n
X
h ai u i , bj vj i = ai bj hui , vj i.
i=1 j=1 i=1,j=1

As observações abaixo são oportunas.

Observação 2.1. A propriedade i), por si só, implica que h0, 0i = h0v, 0i = 0hv, 0i = 0.
Assim i),ii)e iii) são equivalentes a i), ii) e à propriedade abaixo:
iii’) Se u 6= 0, então hu, ui > 0.
Isto é, uma função que satisfaz i),ii) e iii’) é um produto interno (complexo) em V.

18
Observação 2.2. Por ii),hu, ui = hu, ui. Assim, hu, ui é real. Por iii), hu, ui é não
negativo e , portanto, possui raiz quadrada. Assim, como nos espaços com produto interno
p
real, definimos ||u|| = hu, ui como sendo norma ou comprimento de u.

2.5 Conjunto Ortonormal

Definição 2.5. Seja V um espaço vetorial com produto interno h., .i. Dizemos que um
subconjunto X ⊆ V é ortonormal se
i) u ⊥ v, ou seja, hu, vi = 0 para todo u, v ∈ X distintos;
ii) todo vetor de X é unitário, isto é, ||v|| = 1, para todo v ∈ X.
Observação 2.3 (Conjunto Ortogonal). Quando um subconjunto X satisfaz o item i) di-
zemos que X é um conjunto ortogonal.
Observação 2.4. Note que X na definição acima não precisa de ser subespaço de V.
Exemplo 2.20. A base canônica de R2 , X = {(1, 0), (0, 1)}, é um conjunto ortonormal,
pois h(1, 0), (0, 1)i = 0, ||(1, 0)|| = ||(0, 1)|| = 1. O subconjunto Y = {(1, 1), (1, −1)}
é ortogonal, mas não é ortonormal. De fato, h(1, 1), (1, −1)i = 1 − 1 = 0 e ||(1, 1)|| =

2 6= 1.
R1
Exemplo 2.21. Se X = {1, 3t2 − 1}, então h1, 3t2 − 1i = 0 [3t2 − 1]dt = 0, porém
Z 1  21 Z 1  12
9
||3t2 − 1|| = (3t2 − 1)2 dt = (9t4 − 6t2 + 1)dt = − 1 6= 1.
0 0 5

Por isso concluímos que X é um conjunto ortogonal, mas não ortonormal.


Definição 2.6 (Base Ortonormal). Seja V um espaço vetorial com produto interno e di-
mensão finita. Uma base de V é dita ortonormal se esta for um conjunto ortonormal. Ou
equivalente, se {v1 , v2 , ..., vn } é base ortonormal de V , então
(
1, i = j;
dij hvi , vj i =
0, i 6= j.

Na matemática, o delta de Kronecker, assim chamado em honra a Leopold Kronecker, é a


notação dij definida acima, note-se que, a rigor, o delta de Kronecker não é uma função,
pois ele pode ser usado com qualquer símbolo matemático.
Exemplo 2.22. Vimos no Exemplo 2.20 acima que que a base canônica de R2 é uma base
ortonormal.

2.6 Processo de Gram-Schmidt

Sempre existe uma base ortonormal para qualquer espaço vetorial com produto
interno de dimensão finita. Qualquer base de um espaço vetorial pode ser convertida numa

19
base ortogonal. Normalizando os vetores dessa nova base, obtemos uma base ortonormal.

Teorema 2.6 (Teorema de Gram-Schmidt). Seja V um espaço vetorial com produto in-
terno h., .i e dimensão finita n > 0. Seja β = {v1 , v2 , ..., vn } uma base de V. Então existe
uma base ortogonal γ = {u1 , u2 , ..., un } de V , onde u1 = v1 e
j−1
X hvj , ui i
uj = vj − ui ,
1=i
||ui ||2

para todo j = 2, ..., n.

Demonstração: Faremos a prova de indução sobre n. Se n = 1, então tomamos simples-


mente u1 = v1 . Considere agora n > 1 suponhamos que todo espaço vetorial de dimensão
n − 1 possui uma base ortogonal nos moldes do teorema. Assim, se {v1 , v2 , ...vn } é base
de V então {u1 , u2 , ...un−1 } satisfaz a expressão acima e nos resta verificar que
n−1
X hvn , ui i
un = un − ui ,
1=i
||ui ||2

é não-nulo e ortogonal aos demais elementos u1 , u2 , ..., un−1 . Ora, se un = 0, então


implica que os elementos {v1 , v2 , ..., vn } são linearmente dependentes, o que é impossível,
pois este conjunto é uma base de V. Logo, un 6= 0. Agora, como
n−1
X hvn , ui i
hun , uj i = hun − ui , uj i,
1=i
||ui ||2
n−1
X hvn , ui i
= hvn , uj i − h ui , uj i,
1=i
||ui ||2
n−1
X hvn , ui i
= hvn , uj i − hui , uj i,
1=i
||ui ||2
= hvn , uj i − hvn , uj i,
= 0,

para todo j = 1, .., n − 1, segue que un ⊥ uj , para todo j = 1, 2, ..., n − 1. Na antepe-


núltima igualdade usamos o fato que {u1 , u2 , ..., un−1 } é um conjunto ortogonal. Logo,
γ = {u1 , u2 , ..., un } é uma base ortogonal de V e isto conclui a prova. 

2.7 Complemento Ortogonal

Definição 2.7. Seja V um espaço vetorial com produto interno h., .i. Seja U ⊆ V um
subconjunto qualquer. Definimos o complemento ortogonal de U em V como sendo o
conjunto U ⊥ = {v ∈ V : hu, vi = 0, para todo u ∈ U }.

20
Exemplo 2.23. Vamos encontrar o complemento ortogonal do conjunto U = {(1, −1)}
em R2 . Seja v = (x, y) ∈ U ⊥ qualquer. Se hv, (1, −1)i = 0 então h(x, y), (1, −1)i = 0,
e daí x − y = 0. Dessa forma v = (x, y) = (y, y) = y(1, 1) e y ∈ R. Portanto,
U ⊥ = [(1, 1)], onde [(1, 1)] significa o espaço gerado pelo vetor (1,1).

Exemplo 2.24. Seja U = (x, y, 0) : x, y ∈ R. Para determinarmos U ⊥ tomemos um


elemento arbitrário v = (a, b, c) ∈ U ⊥ . Então de hv, (x, y, 0)i = 0, podemos concluir que
h(a, b, c), (x, y, 0)i = 0, para todo x, y ∈ R. Ou seja, ax + by = 0, para todo x, y ∈ R.
Em particular, fazendo x = 1 e y = 0, temos que a = 0, e para x = 0 e y = 1, obtemos
b = 0. Dessa forma, v = (a, b, c) = (0, 0, c) = c(0, 0, 1). Portanto, U ⊥ = [(0, 0, 1)].

Note que U não é necessariamente é um subespaço de V , mas U ⊥ como nos


Exemplos 2.23 e 2.23, é sempre um subespaço.

Proposição 2.3. Seja V um espaço vetorial com produto interno h., .i sobre R. Então U ⊥
é um subespaço de V.

Demonstração: Com efeito, primeiramente, note que 0 ∈ U ⊥ , pois h0, ui = 0, para todo
u ∈ U . Em seguida, sejam v, w ∈ U ⊥ e λ ∈ R. Logo, hv, ui = 0 e hw, ui = 0, para todo
u ∈ U . Consequentemente,

hv + λw, ui = hv, ui + λhw, ui = 0 + λ · 0 = 0,

para todo u ∈ U . Ou seja, v + λw ∈ U ⊥ . Isto prova que U ⊥ é um subespaço de V. 

Observação 2.5. Se o espaço vetorial tem um produto interno complexo, tal proposição
também é válida.

Teorema 2.7. Seja V um espaço vetorial com produto interno h., .i e seja U um subespaço
de dimensão finita de V. Então
V = U ⊕ U ⊥, (1)

isto é, V = U + U ⊥ e U ∩ U ⊥ = {0}.

Demonstração: Inicialmente, provemos que U ∩ U ⊥ = {0}. Ora, se U ∩ U ⊥ , então v ∈ U


e v ∈ U ⊥ . Usando a Definição 2.7, temos que hv, ui = 0, para todo u ∈ U . Como
v ∈ U , então, em particular, hv, vi = 0. Usando a Definição 2.1, concluímos que v = 0.
Provaremos que v é a soma de um vetor de U com um vetor de U ⊥ . Para isso, escolha
u = m
P
i=1 hv, ui iui ui ∈ U . Vamos demonstrar que , hv − u, uj i = 0, para todo j =

21
1, 2, ..., m..

hv − u, uj i = hv, uj i − hu, uj i
Xm
= hv, uj i − h hv, ui iui , uj i
i=1
m
X
= hv, uj i − hv, ui ihui , uj i
i=1
= hv, uj i − hv, uj i = 0

pois β é uma bse ortonormal. Consequentemente, v − u ∈ U ⊥ . Mas, v = u + (v − u),


onde u ∈ U e v − u ∈ U ⊥ . Isto prova que V = U + U ⊥ . Portanto, V = U ⊕ U ⊥ . 
Observação 2.6. Sejam w1 , ..., wr subespaços de V , e suponhamos que

{w11 , ..., w1n1 }, ..., {wr1 , ..., wrnr }

sejam bases de w1 , ..., wr , respectivamente. Então V é a soma direta dos wi se e somente


se a união B = {w11 , ..., w1n1 , ..., wr1 , ..., wrnr } é uma base de V (LIPSCHUTZ, 1994, p.
525).
Observação 2.7. Sob as hipóteses do Teorema 2.7, temos que dim V = dim U +dim U ⊥ ,
pois V = U ⊕ U ⊥ .

2.8 Adjunta de um Operador Linear

Definição 2.8 (Funcional Linear). Seja V um espaço vetorial. Dizemos que uma aplica-
ção f : V → R é um funcional linear se f (λu + v) = λf (u) + f (v), para todos u, v ∈ V
e todo λ ∈ R. O conjunto V ∗ = {f : V → R : f é linear} é um espaço vetorial chamado
espaço dual de V.
Exemplo 2.25. A aplicação f : R2 → R, dada por f (x, y) = 2x + y é um funcional
linear. De fato, tome u = (x1 , y1 ) , v = (x2 , y2 ) ∈ R2 e λ ∈ R, então

f (λu + v) = f (λ(x1 , y1 ) + (x2 , y2 ))


= f ((λx1 , λy1 ) + (x2 , y2 ))
= f ((λx1 + x2 , λy1 + y2 ))
= 2λx1 + 2x2 + λy1 + y2
= 2λx1 + λy1 + 2x2 + y2
= λf ((x1 + y1 ) + f (x2 , y2 ))
= λf ((u) + f (v)).

Portanto f é um exemplo de funcional linear.

22
Exemplo 2.26 (Funcional não linear). Considere a aplicação f : R2 → R, dada por
f (x, y) = 5. Para quaisquer u = (x1 , y1 ) e v = (x2 , y2 ) ∈ R2 e para λ = 5, temos

f (λu + v) = f (5(x1 , y1 ) + (x2 , y2 ))


= f ((5x1 , 5y1 ) + (x2 , y2 ))
= f (5x1 + x2 , 5y1 + y2 )
= 5,

λf (u) + f (v) = 5f (x1 , y1 ) + f (x2 , y2 )


= 5 · 5 + 5 = 25 + 5 = 30.

Como, f (5u + v) 6= 5f (u) + f (v) para todos u, v ∈ R2 , então a função dada não é um
funcional linear.

Seja V um espaço com produto interno e seja w ∈ V . A função g : V → R


definida por g(v) = hv, wi, para todo v ∈ V , é um funcional linear.

Teorema 2.8 (Teorema da Representação de Riesz). Seja V um espaço vetorial com pro-
duto interno h., .i de dimensão finita. Dado um funcional linear f : V → R, existe um
único v ∈ V tal que f (u) = hu, vi, para todo u ∈ V .

Demonstração: Pelo Teorema 2.6, sabemos que existe uma base ortogonal de V , que pode
ser normalizada. Digamos que {v1 , v2 , .., vn } é esta base. Dado u ∈ V , pela definição de
base, temos que existem λ1 , ..., λn ∈ R tais que

u = λ1 v1 + λ2 v2 + ... + λn vn .

Note que
hu, v1 i = λ1 hv1 , v1 i + λ2 hv2 , v1 i + ... + λn hvn , v1 i = λ1 .

Analogamente, prova-se que λi = hu, vi i, para todo i = 1, 2, ..., n. Assim sendo,

u = hu, v1 iv1 + hu, v2 iv2 + ... + hu, vn ivn .

Consequentemente, usando a Definição 2.8,

f (u) = f (hu, v1 iv1 + hu, v2 iv2 + ... + hu, vn ivn )


= hu, v1 if (v1 ) + hu, v2 if (v2 ) + ... + hu, vn if (vn )
= hu, f (v1 )v1 i + hu, f (v2 )v2 i + ... + hu, f (vn )vn i
= hu, f (v1 )v1 + f (v2 )v2 + ... + f (vn )vn i.

23
Defina v = f (v1 )v1 + f (v2 )v2 + ... + f (vn )vn . Portanto, f (u) = hu, vi, para todo
u ∈ V . Agora, vamos provar a unicidade de v ∈ V . Suponha que existe w ∈ V tal que
f (u) = hu, wi, para todo u ∈ V Com isso, hu, wi = f (u) = hu, vi, para todo u ∈ V .
Daí, hu, w − vi = 0, para todo u ∈ V . Usando o item iv) da Proposição 2.1, chegamos a
w − v = 0. Logo, w = v. Isso prova a unicidade. 

Exemplo 2.27. Seja f (x, y) = 2x+y o funcional visto no Exemplo 2.25. Então podemos
escrever f (x, y) = h(x, y), (2, 1)i, para todo (x, y) ∈ R2 . Logo, v = (2, 1) é o vetor
relatado no Teorema 2.8.

Definição 2.9 (Adjunta). Seja T : U → V uma transformação linear, onde U e V são


espaços vetoriais com produtos internos h., .iU e h., .iV , respectivamente. Dizemos que
uma aplicação T ∗ : V → U é uma adjunta de T se satisfaz

hv, T (u)iV = hT ∗ (v), uiU ,

para todo u ∈ U , v ∈ V .

Observação 2.8. Quando não houver possibilidade de confusão escreveremos, simples-


mente, h., .i para representar h., .iU e h., .iV , mas deve estar claro que estes produtos são
definidos sobre U e V , respectivamente.

Exemplo 2.28. Seja V o espaço dos polinômios sobre R com produto interno canônico de
C([1, 0]). Fixe g ∈ V . Defina T : V → V pondo T (f ) = f · g, para todo f ∈ V . Vamos
procurar a adjunta de T (caso esta exista). Observe que
Z 1 Z 1
hf, T (h)i = hf, h·gi = f (t)h(t)g(t)dt = f (t)g(t)h(t)dt = hf ·g, hi = hT (f ), hi,
0 0

para todos f, h ∈ V . Portanto, T ∗ (f ) = T (f ) para todo f ∈ V . Ou seja, T ∗ = T.

A adjunta nem sempre existe, mas quando ela existe é única e linear, como vere-
mos nas seguintes proposições.

Proposição 2.4 (Unicidade da Adjunta). Seja T : U → V uma transformação linear,


onde U e V são espaços vetoriais com produtos internos hu, viU e hu, viV , respectivamente.
Caso exista T ∗ , esta é única.

Demonstração: Suponha que uma transformação linear S : V → U tal que

hv, T (u)iV = hS(v), uiU ,

para todo u ∈ U e v ∈ V . Então,

hT ∗ (v), uiU = hv, T (u)iV = hS(v), uiU ,

24
para todo u ∈ U e v ∈ V . Ou seja,

hT ∗ (v) − S(v), uiU = 0,

para todo u ∈ U e v ∈ V . Assim, T ∗ (v) − S(v) = 0, para todo v ∈ V e, portanto,


S = T ∗ . Isto garante a unicidade de T ∗ . 

O próximo resultado nos diz que se T é linear podemos concluir que T é linear.
Proposição 2.5. Seja T : U → V uma transfonação linear, onde U e V são espaços
vetoriais com produtos internos h., .iU e h., .iV , respectivamente. Caso exista T ∗ , esta é
uma transformação linear.
Demonstração: Sejam v, w ∈ V e λ ∈ R. Então, obtemos

hT ∗ (λv + w), uiU = hλv + w, T (u)iV


= λhv, T (u)iV + hw, T (u)iV
= λhT ∗ (v), uiU + hT ∗ (w), uiU
= hλT ∗ (v) + T ∗ (w), uiU ,

para todo u ∈ U . Ou seja,

hT ∗ (λv + w), uiU = hλT ∗ (v) + T ∗ (w), uiU ,

para todo u ∈ U . Portanto,

hT ∗ (λv + w) − (λT ∗ (v) + T ∗ (w)), uiU = 0,

para todo u ∈ U . Utilizando o item iv) da Proposição 2.1, concluimos que

T ∗ (λv + w) − (λT ∗ (v) + T ∗ (w)) = 0,

Donde, T ∗ (λv + w) = λT ∗ (v) + T ∗ (w). Isto nos diz que T ∗ é linear. 


Teorema 2.9 (Existência e Unicidade da Adjunta). Seja T : U → V uma transformação
linear, onde U e V são espaços vetoriais com produtos internos h., .iU e h., .iV , respectiva-
mente, e de dimensões finitas. Então T ∗ existe, é única e linear.
Demonstração: Para cada v ∈ V , definimos fv (u) = hv, T (u)iV , para todo u ∈ U . Note
que f : U → R é um funcional linear. De fato, através da linearidade de T e da Definição
2.1, obtemos

fv (λu + w) = hv, T (λu + w)iV = hv, λT (u)iV + hv, T (w)iV


= λhv, T (u)iV + hv, T (w)iV
= λfv (u) + fv (w),

25
para todo u, w ∈ U . Ou seja, fv (λu + w) = λfv (u) + fv (w), para todo u, w ∈ U . Isto
nos diz que fv é linear. Pelo Teorema da Representação de Riesz, existe um único w ∈ U
tal que fv (u) = hu, wiU = hw, uiU , para todo u ∈ U . Daí,

hv, T (u)iV = fv (u) = hw, uiU ,

para todo u ∈ U . Defina T ∗ (v) = w. Logo,

hv, T (u)iV = hT ∗ (v), uiU ,

para todo u ∈ U e v ∈ V . Logo, T ∗ é uma adjunta de T. A unicidade está garantida pela


Proposição 2.4 e a linearidade através da Proposição 2.5 

Observação 2.9. No caso de espaços vetoriais de dimensão infinita pode ocorrer a não
existência da adjunta de certos operadores. Por exemplo: Seja V = P (R) o espaço dos
R1
polnômios sobre R com um produto interno dado por hf, gi = 0 f (t)g(t). Considere D
como o operador diferencial agindo sobre V , onde D(f (t)) = f 0 (t), é possível mostrar
que não existe D∗ , isto é, que D não possui adjunta (LIPSCHUTZ, 1994, p.630).

Exemplo 2.29. Seja T : R2 → R3 dado por T (x, y) = (x, 2x + y, −y). Vamos achar a
adjunta da transformação linear T:

h(a, b, c), T (x, y)i = h(a, b, c), (x, 2x + y, −y)i


= ax + b(2x + y) − cy
= (a + 2b)x + (b − c)y
= h(a + 2b, b − c), (x, y)i.

Logo, T ∗ (a, b, c) = (a + 2b, b − c), para todo (a, b, c) ∈ R3 , define a adjunta de T.

Exemplo 2.30. Defina T : R2 → R2 por T (x, y) = (−y, x). Daí, para todo (a, b) ∈ R2
e (x, y) ∈ R2

h(a, b), T (x, y)i = h(a, b), (−y, x)i = −ay + bx = bx + (−a)y = h(b, −a), (x, y)i.

Logo, T ∗ (a, b) = (b, −a),∀(a, b) ∈ R2 , define a adjunta de T. Neste caso, T ∗ = −T um


operador chamado de anti-auto-adjunto.

Exemplo 2.31. Seja T : R2 → R2 dada por T (x, y) = (y, x). Note que

h(a, b), T (x, y)i = h(a, b), (y, x)i = ay + bx = bx + ay = h(b, a), (x, y)i,

para todo (x, y), (a, b) ∈ R2 . Então T ∗ (a, b) = (b, a). Logo, T ∗ = T , um operador
auto-adjunto.

26
A seguir será demonstrado algumas propriedades da adjunta.

Proposição 2.6. Sejam T, S : U → V e P : V → W transformações lineares, onde U ,V


e W são espaços vetoriais com produto interno e dimensão finita. Seja λ ∈ R. Então:
i) I ∗ = I, onde I é a transformação linear identidade, isto é, I(v)=v, para todo v;
ii)(T + S)∗ = T ∗ + S ∗ , em palavras, a adjunta de uma soma é a soma das adjuntas;
iii)(λT )∗ = λT ∗ , em palavras, a adjunta de uma multiplicação por escalar é multiplicação
por escalar com a adjunta;
iv)(P ◦T )∗ = T ∗ ◦P ∗ , em palavras, a adjunta de uma composta é a composta das adjuntas
com fatores comutados;
v)T ∗∗ := (T ∗ )∗ = T , em palavras, a adjunta da adjunta de uma transformação linear é a
própria transformação linear.

Demonstração: A existência e a unicidade destas adjuntas estão garantidas pelo Teorema


2.9. Essas propriedades decorrem imediatamente da Definção 2.9. De fato,
i)I ∗ = I segue diretamente do fato que

hv, I(u)iV = hv, uiU = hI(v), uiU ,

para todo u, v.
ii) (T + S)∗ = T ∗ + S ∗ é uma consequência do fato que

hv, (T + S)(u)i = hv, T (u) + S(u)i


= hv, T (u)i + hv, S(u)i
= hT ∗ (v), ui + hS ∗ (v), ui
= hT ∗ (v) + S ∗ (v), ui,

para todo u ∈ U e v ∈ V .
iii) Também concluímos que

hv, (λT )(u)i = hv, λT (u)i = λhv, T (u)i = λhT ∗ (v), ui = hλT ∗ (v), ui,

para todo u ∈ U e v ∈ V . Assim, (λT )∗ = λT ∗ .


iv)

hw, (P ◦ T )(u)i = hw, P (T (u))i


= hP ∗ (w), T (u)i
= hT ∗ (P ∗ (w)), ui
= h(T ∗ ◦ P ∗ )(w), ui,

para todo u ∈ U e w ∈ W . Portanto, (P ◦ T )∗ = T ∗ ◦ P ∗ .

27
v) Por fim, T ∗∗ = T segue do fato que

hv, T ∗ (u)i = hT (v), ui,

para todo u ∈ U e v ∈ V . 

Exemplo 2.32. Seja S : R2 → R3 , definido por S(x, y) = (2x, 4x+2y, −2y). Desejamos
encontrar a adjunta de S. Observe que S = 2T , onde T (x, y) = (x, 2x + y, −y). Vimos
no Exemplo 2.30 que T ∗ (a, b, c) = (a + 2b, b − c). Logo, pelo item iii) da Proposição 2.6,
obtemos

S ∗ (a, b, c) = (2T )∗ (a, b, c) = 2T ∗ (a, b, c) = 2(a + 2b, b − c) = (2a + 4b, 2b − 2c).

Exemplo 2.33. Seja S : R2 → R2 dado por S(x, y) = (x − y, x + y). Note que,

S(x, y) = (x − y, x + y) = (x, y) + (−y, x) = I(x, y) + T (x, y) = (I + T )(x, y),

para todo (x, y) ∈ R2 , onde T está definida no Exemplo 2.31 e I é a identidade de R2 .


Vimos que T ∗ (a, b) = (b, −a). Portanto, usando so itens i) e ii) da Proposição 2.6,
encontramos

S ∗ (a, b) = (I + T )∗ (a, b)
= (I ∗ + T ∗ )(a, b)
= I ∗ (a, b) + T ∗ (a, b)
= (a, b) + (b, −a)
= (a + b, b − a).

Proposição 2.7 (Adjunta da inversa). Seja T : V → V um isomorfismo, onde V é um


espaço vetorial com produto interno. Então T ∗ (caso exista) também o é. Neste caso,
[T ∗ ]−1 = [T −1 ]∗ .

Demonstração: Como T é um isomorfismo, existe aplicação linear T −1 : V → V satis-


fazendo T ◦ T −1 = T −1 ◦ T = I, onde I : V → V é a identidade de V . Portanto,
utilizando os itens i) e iv) da Proposição 2.6, obtemos [T ◦ T −1 ]∗ = [T −1 ◦ T ]∗ = I ∗ . Com
isso, [T −1 ]∗ ◦ T ∗ = T ∗ ◦ [T −1 ]∗ = I. Isto nos diz que T ∗ é inversível, ou seja, T ∗ é um
isomorfismo. Além disso, [T ∗ ]−1 = [T −1 ]∗ . 

Proposição 2.8. Seja T : V → V um operador linear, onde V é um espaço vetorial com


produto interno h., .i. Seja U um subespaço T-invariante, isto é, T (U ) ⊆ U . Suponha que
T ∗ : V → V existe, então U ⊥ é um subespaço T ∗ -invariante, ou seja, T ∗ (U ⊥ ) ⊆ U ⊥ .

Demonstração: Seja u ∈ T ∗ (U ⊥ ), então existe v ∈ U ⊥ tal que u = T ∗ (v). Dado w ∈ U,


temos que hu, wi = hT ∗ (v), wi = hv, T (w)i. Como w ∈ U , então T (w) ∈ U , pois

28
T (U ) ⊆ U . Por conseguinte,hu, wi = hv, T (w)i = 0, pois v ∈ U ⊥ e T (w) ∈ U . Assim
sendo, u ∈ U ⊥ . Portanto T ∗ (U ⊥ ) ⊆ U ⊥ . 

2.9 Matriz da Adjunta em Relação a uma Base Ortonormal

Teorema 2.10. Seja T : V → V uma transformação linear, onde V é um espaço veto-


rial com produto interno h., .i e de dimensão finita. Seja β = {v1 , v2 , ..., vn } uma base
ortonormal de V . Então [T ∗ ]β = [T ]tβ .

Demonstração: Seja [T ]β = (Aij ). Note que T (vj ) = A1 v1 + A2 v2 + ... + An vn . Conse-


quentemente,

hT (vj ), vi i = hA1j v1 + A2j v2 + ...Anj , vi i = A1j hv1 , vi i + A2j hv2 , vi i + ... + Anj hvn , vi i.

Como β é uma base ortonormal, então hT (vj ), vi i = Aij hvi , vi i = Aij . Portanto,
hT (vj ), vi i = Aij, para todo i, j = 1, 2, ..., n. Seja [T ∗ ]β = (Bij ). Analogamente ao
que foi feito nesta demonstração, temos que

Bij = hT ∗ (vj ), (vi )i = hvj , T (vi )i = hT (vi ), vj i = Aji ,

para todo i,j=1,2,...,n. Isto nos diz que [T ∗ ]β = [T ]tβ . 


!
0 −1
Exemplo 2.34. Seja T(x,y)=(-y,x). Então [T ]c = é a matriz de T em relação
1 0
à base canônica de R2 . Como esta base ortonormal, em relação ao produto interno canô-
!
0 1
nico de R2 , usando o Teorema 2.10 para concluirmos que [T ∗ ]c = [T ]tc = .
−1 0
Portanto, T ∗ (a, b) = (b, −a).

2.10 Operadores Auto-adjuntos

Definição 2.10. Seja V um espaço vetorial com produto interno h., .i. Dizemos que um
operador linear T : V → V é auto-adjunto se T = T ∗ . Esse operador também pode ser
chamado de Hermitiano.

Exemplo 2.35. Seja T : R2 → R2 , dada por T (x, y) = (y, x). Vimos, no Exemplo 2.31,
que T ∗ = T , logo, T é um operador auto-adjunto.

Exemplo 2.36 (Operador não auto-adjunto). Seja T : R2 → R2 , dada por T (x, y) =


(−y, x). Vimos que T ∗ (a, b) = (b, −a). Em particular,

T ∗ (1, 1) = (1, −1) 6= T (1, 1) = (−1, 1).

Ou seja, T ∗ 6= T . Isto nos diz que T não é auto-adjunto ou Hermitiano.

29
Exemplo 2.37. Seja V um espaço vetorial com produto interno h., .i. Seja v ∈ V um vetor
fixo. Seja T : V → V definida por T (u) = hv, uiv, para todo u ∈ V . Vamos mostrar que
T é auto-adjunto. De fato,

hv, T (u)i = hv, hv, uivi = hv, uihv, vi = hhv, viv, ui = hT (v), ui,

ou seja, T ∗ = T . Isto nos diz que T é auto-adjunto.

Proposição 2.9. Seja V um espaço vetorial com produto interno e seja T : V → V um


operador auto-adjunto e um isomorfismo. Então T −1 também o é.

Demonstração: A Proposição 2.6 nos diz que (T −1 )∗ = (T ∗ )−1 = T −1 , já que T é auto-


adjunto. Ou seja, T −1 é auto-adjunto e claramente um isomorfismo. 

Exemplo 2.38. Seja T (x, y) = (x + y, x − y). Então T é auto-adjunto. De fato,

h(a, b), T (x, y)i = h(a, b), (x + y, x − y)i


= a(x + y) + b(x − y)
= x(a + b) + y(a − b)
= h(a + b, a − b), (x, y)i

implica que T ∗ (a, b) = (a + b, a − b), e isto mostra que T ∗ = T .

Em um espaço vetorial E com produto interno, seja T : E → E um operador


linear. Supondo que T ∗ exista, dizemos que T é unitário, se T ∗ T = T T ∗ = I. Operadores
unitários também são chamados de ortogonais, especialmente no caso onde E é um espaço
vetorial real, enquanto operadores simétricos, isto é, quando T ⊥ = T , são chamados de
hermitianos. Essa última denominação é mais empregada no caso de E ser um espaço
vetorial complexo. Dizemos ainda que T é anti-simétrico se T ∗ = −T . A denominação
anti-hermitiano também é usada para um operador anti-simétrico. Para maiores detalhes
veja Bueno (2009, p.11).

2.11 Matrizes de Operadores Auto-adjuntos

É possível verificar quando um operador é auto-adjunto através da matriz deste


em relação a uma base ortonormal. Lembre que uma matriz A é simétrica se A = At .

Teorema 2.11 (Caracterização de Operadores Auto-adjuntos). Seja V um espaço vetorial


com produto interno h., .i e de dimensão finita. Seja T : V → V um operador linear.
Então T é auto-adjunto se, e somente se, [T ]β é simétrica, onde β é base ortonormal de V .

Demonstração: Suponha que T é auto-adjunto. Seja β base ortonormal de V. Vimos


no Teorema 2.10 que [T ∗ ]β = [T ]tβ . Como T é auto-adjunto, então T ∗ = T . Logo,

30
[T ]β = [T ∗ ]β = [T ]tβ . Isto nos diz que [T ]β é simétrica.
Reciprocamente, suponha que [T ]β = [T ]tβ , onde β = {v1 , v2 , ..., vn } é uma base ortonor-
mal de V. Consequentemente, hT (vi ), vj i = hT (vj ), vi i, para todo i, j variando de 1 a n.
Essas são as entradas das matrizes [T ]β e [T ]tβ , respectivamente. Se u, v ∈ V , então, pela
definição de base, u = ni=1 xi vi e v = nj=1 yj vj . Portanto,
P P

Xn Xn
hu, t(v)i = h xi v i , T ( yj vj i
i=1 j=1
n
X n
X
= xi yj hvi , T (vj )i
i=1 j=1
n
X n
X
= xi yj hT (vj ), vi i
i=1 j=1
n
X n
X
= xi yj hT (vi ), vj i,
i=1 j=1

onde hT (vi ), vj i = hvi , T (vj )i. Por fim,

Xn n
X Xn n
X
hu, T (v)i = h xi T (vi ), yj vj i = hT ( xi vi ), yi vj i = hT (u), vi.
i=1 j=1 i=1 j=1

Logo, usando a Proposição 2.1, temos que T ∗ = T . Pela Definição 2.10, T é auto-adjunto.

A hipótese de ortonormalidade da base não pode ser desconsiderada.

Exemplo 2.39. Seja T (x, y, z) = (2x+2z, x+z, x+z) um operador linear sobre V = R3
e seja β = {(1, 1, 0), (1, 0, 0), (0, 0, 1)} uma base de V. Note que
 
1 1 1
[T ]β =  1 1 1  .
 

1 1 1

Assim sendo, [T ]β é simétrica mas T não é auto-adjunto. Com efeito,

hT (1, 0, 0), (0, 1, 0)i = h(2, 1, 1), (0, 1, 0)i = 1

e
h(1, 0, 0), T (0, 1, 0)i = h(1, 0, 0), (0, 0, 0)i = 0.

Logo, hT (1, 0, 0), (0, 1, 0)i =


6 h(1, 0, 0), T (0, 1, 0)i.

31
Exemplo 2.40. Seja T : R2 → R2 dado por T (x, y) = (−y, x). Note que,
!
0 −1
[T ]c = ,
1 0

onde c é a base canônica de R2 . Veja que [T ]c não é simétrica. Então T não é auto-adjunto,
pelo Teorema 2.11.

Exemplo 2.41. Seja T : R2 → R2 dado por T (x, y) = (y, x). Veja que
!
0 1
[T ]c = ,
1 0

é uma matriz simétrica, onde c é a base canônica de R2 . Dessa forma, pelo Teorema 2.11,
T é auto-adjunto.

32
3 METODOLOGIA

Este trabalho foi elaborado com as informações obtidas através de documentos


bibliográficos. Com uma pesquisa acurada, empregou-se a maneira tradicional de leitura e
reescrita dos fatos e resultados já existentes buscando um melhor entendimento da referida
matéria, do estudo Teorema Espectral para Operadores Adjuntos. As etapas realizadas
em busca da compreensão dos referidos temas acima relacionados podem ser listados em
ordem cronológica como:
a. Estudo rigoroso das definições e métodos do produto interno e norma em
um espaço vetorial;
b. Estudo rigoroso das definições e métodos sobre complemento ortogonal e
conjunto ortonormal;
c. Estudo rigoroso das definições e métodos da adjunta de um operador linear
e dos operadores auto-adjuntos;
d. Estudo rigoroso das definições e métodos para o entendimento do Teorema
Espectral para operadores auto-adjuntos em um subespaço de dimensão finita;
e. Aplicação do teorema espectral para solucionar alguns exemplos.

33
4 RESULTADOS E DISCUSSÕES

4.1 Teorema Espectral para Operadores Auto-adjuntos

Para operadores auto-adjuntos sobre um espaço vetorial V de dimensão finita existe


uma base ortonormal desse espaço formada por autovetores. Isto garante que a reapre-
sentação matricial do operador é uma matriz diagonal. Tal resultado é conhecido como
Teorema Espectral para o operadores auto-adjuntos.
Lema 4.1. Seja T um operador linear auto-adjunto sobre um espaço vetorial real V com
um produto interno. Então autovetores associados a autovalores distintos são ortogonais.
Demonstração: Sejam v, w ∈ V autovetores associados a autovalores distintos λ e µ,
respectivamente, ou seja, T (v) = λv e T (w) = µw. Então, por ser T auto-adjunto, segue
que hv, T (w)i = hT (v), wi. Assim, hv, µwi = hλv, wi. Consequentemente, µhv, wi =
λhv, wi e (λ−µ)hv, wi = 0. Como λ 6= µ temos que hv, wi = 0. Concluímos que v ⊥ w.

Lema 4.2. Seja T um operador auto-adjunto sobre um espaço vetorial com produto in-
terno e de dimensão finita V . Se U é um subespaço T-invariante, então U ⊥ também o é
.
Demonstração: Seja u ∈ T ∗ (U ⊥ ), então existe v ∈ U ⊥ tal que u = T ∗ (v). Dado w ∈ U,
temos que hu, wi = hT ∗ (v), wi = hv, T (w)i. Como w ∈ U , então T (w) ∈ U , pois
T (U ) ⊆ U . Por conseguinte,hu, wi = hv, T (w)i = 0, pois v ∈ U ⊥ e T (w) ∈ U . Assim
sendo, u ∈ U ⊥ . Como T = T ∗ , T (U ⊥ ) ⊆ U ⊥ . 
Lema 4.3. Seja T : V → V um operador linear auto-adjunto sobre um espaço vetorial
real com produto interno e de dimensão finita. Então existe autovalores de T e os mesmos
são números reais.
Demonstração: Seja β uma base ortonormal de V . Considere que dim V = n > 0.
Então, pelo Teorema 2.11, [T ]β = A = (Aij ) é simétrica, pois T é um operador auto-
adjunto. Considere o polinômio característico de T , pA (x) = det(xI − A) = 0, onde
I é a matriz identidade n × n. Então λ é autovalor de T se, e somente se, pA (λ) =
det(λI − A) = 0. Pelo Teorema Fundamental da Álgebra, este polinômio tem pelo
menos uma raiz complexa λ. Vamos mostrar que λ ∈ R. Como det(λI − A) = 0, segue
que o sistema linear AX = λX possui infinitas soluções não nulas (X é uma matriz n × 1
com entradas complexas). Digamos que
 
y1
 y2 
 
n
Y =  ..  ∈ R ,

 . 
yn

34
é uma solução não-nula de AX = λX. Ou seja, AY = λY e Y 6= 0. Escrevendo esta
equação matricial como sistema linear, obtemos as equações
n
X
Aij yj = λyi , (i = 1, 2..., n).
j=1

n
X
Com isso, multiplicando por yi , encontramos Aij yj yi = λyi yi , (i = 1, 2, ..., n).
j=1
Somando estes resultados, obtemos
n
X n
X n
X
Aij yj yi = λ yi yi = λ |yi |2 .
i,j=1 i=1 i=1

(este síbolo || é o módulo de um número complexo). Observe que esta última soma resulta
Xn
em um número real. Vamos, agora, verificar Aij yj yi ∈ R. Ou em outras palavras,
i,j=1
vamos mostrar que:
n
X n
X
Aij yj yi = Aij yj yi .
i,j=1 i,j=1

De fato,
n
X n
X n
X
Aij yj yi = Aij yj yi = Aij yj yi ,
i,j=1 i,j=1 i,j=1

na última igualdade usamos o fato que A é uma matriz real. Como A é simétrica, então
n
X n
X n
X n
X
Aij yj yi = Aji yj yi = Aij yi yj = Aij yj yi ,
i,j=1 i,j=1 i,j=1 i,j=1

onde na penúltima igualdade fizemos uma mudança de índices de i para j. Consequen-


Xn
Aij yj yi ∈ R. Como, ni=1 |yi |2 ∈ R e é não nulo pois yw 6= 0 para algum
P
temente,
i,j=1
indice w ∈ {1, ..., n}, tem-se que
n
X
Aij yj yi
i,j=1
λ= ∈ R,
|yi |2

como queriamos provar. 

Teorema 4.1 (Teorema Espectral para Operadores Auto-adjuntos). Seja T um operador


linear sobre espaço vetorial com produto interno e de dimensão finita. Então T é auto-
adjunto se, e somente se, existe uma base ortonormal de V formada por autovetores de
T.

35
Demonstração: Admita que T seja auto-adjunto. Seja dim V = nn. Faremos o a prova por
v
indução sobre n. Se n = 1 e {v} é uma base de V , segue que ||v|| é uma base orto-
normal de V formada por um autovetor, pois nesse caso, todo elemento não-nulo de V é
um autovetor já que T (v) ∈ V implica, que pela definição de base, que T (v) = λv para
algum λ ∈ R.
Agora considere n > 1 e suponha que o Teorema seja válido para todo subespaço de
V com dimensão menor que n. Como n > 1, segue do Lema 4.3 que existe v1 ∈ V au-
tovetor unitário de T associado a um autovalor α. Seja U = [v1 ]. Assim, pela Obervação
2.7, temos que dim U ⊥ = dim V − dim U = n − 1 < n. Além disso, para qualquer
elemento w = µv1 em U temos que T (µv1 ) = µT (v1 ) = (µα)v1 ∈ U . Isto nos diz que
U é T-invariante e , em consequência, do Lema 4.2 , concluímos que U ⊥ é um subespaço
de dimensão menos que n e T-invariante. Por hipótese de indução, existe uma base or-
tonormal {v2 , v3 , ..., vn } de U ⊥ . Logo, pela Observação 2.6, {v1 , v2 , .., vn } é uma base
ortonormal de V formada por autovetores de T , digamos que T (vi ) = λi vi , para todo
i = 1, 2, ..., n. Vamos provar que T é auto-adjunta. Como na base β, T tem representação:
 
λ1 0 . . . 0
 0 λ2 . . . 0 
 
[T ]β = 

..
,
 0 0 . 0 
0 0 . . . λn

segue que T é uma matriz simétrica, ou seja, [T ]β = [T ]tβ , segue o Teorema 2.11 que T é
auto-adjunto. 
Abaixo uma aplicação do Teorema Espectral para matrizes.

Corolário 4.1 (Teorema Espectral para Matrizes Simétricas). Seja

A ∈ Mn (R) = {matrizes n × n com coef icientes reais}

uma matriz simétrica. Então existe P ∈ Mn (R) ortogonal tal que D = P t AP , onde
D é uma matriz diagonal, constituída dos autovalores de A na diagonal (lembre que P é
ortogonal se P −1 = P t , isto é, P P t = P t P = I).

Demonstração: Sejam V = Rn e c a base canônica desse espaço vetorial. Seja T : V → V


o operador linear tal que [T ]c = A. Como c é ortonormal A é simétrica, então, pelo
Teorema 2.11, T é um operador auto-adjunto. Pelo Teorema 4.1, existe base ortonormal
β = {v1 , v2 , ..., vn } de V formada por autovetores de T , digamos T (vi ) = λi vi , para todo

36
i = 1, 2, ..., n. Logo,  
λ1 0 ... 0
 0 λ2 ... 0 
 
D = [T ]β =  ..
.
 0 0
 . 0 

0 0 . . . λn
Mas, D = [T ]β = P −1 AP , onde P é a matriz mudança de base de β para c. Isto é, P possui
como colunas os vetores da base β. Seja vi = (xi1 , xi2 , ..., xin ), para todo i = 1, 2, ..., n.
Logo,
  
x11 x12 . . . x1n x11 x21 . . . xn1
 2
 x1 x22 . . . x2n   x12 x22 . . . xn2 
 
t
P P =     
 ... ... ... ...  ... ... ... ... 
  
xn1 xn2 . . . xnn x1n x2n . . . xnn
 
hv1 , v1 i hv1 , v2 i . . . hv1 , vn i
 
 hv2 , v1 i hv2 , v2 i . . . hv2 , vn i 
=  
 . . . . . . . . . . . . 

hvn , v1 i hvn , v2 i . . . hvn , vn i
 
1 0 ... 0
 
 0 1 ... 0 
=   = I,
 . . . . . . . . . . . . 

0 0 ... 1

a penútima igualdade segue da ortonormalidade de β. Ou seja, P é ortogonal (P −1 = P t ),


basta utilizar o Teorema do núcleo e imagem. 
!
1 2
Exemplo 4.1. Seja A = . Vamos encontrar An para todo n ∈ N. Note que A
2 −2
é uma matriz simétrica. Vamos encontrar os autovalores de A. Para isto, basta encontrar
as raízes do polinômio característico. Veja que
!
x − 1 −2
pA (x) = det(xI − A) = det
−2 x + 2
= (x − 1)(x + 2) − 4
= (x + 3)(x − 2),

(I é a matriz identidade 2 × 2 ) é o polinômio característico de A. Logo, os autovalores


de A são λ1 = −3 e λ2 = 2. Agora, vamos encontrar os autovetores ! associados a estes
x
autovalores. Comecemos com o autovalor λ1 = −3. Seja v = um vetor qualquer
y

37
de A associado ao autovalor λ1 = −3. Então Av = −3v, ou seja,
! ! !
1 2 x x
= −3 .
2 −2 y y

Em forma de sistemas lineares, obtemos


(
x + 2y = −3x;
2x − 2y = −3y.

Este sistema é equivalente ao sistema


(
4x + 2y = 0;
2x + y = 0.

A solução deste sistema é y = −2x, para todo x ∈ R. Desta forma,


! ! !
x x 1
v= = =x .
y −2x −2

Logo o auto-espaço associado ao autovalor


! λ1 = −3 é V−3 = [(1, −2)]. Agora, considere
x
o autovalor λ2 = 2. Seja v = um autovetor qualquer de A associado do autovalor
y
λ2 = 2. Logo, Av = 2v. Isto é,
! ! !
1 2 x x
=2 .
2 −2 y y

Em forma sistema linear, obtemos


(
x + 2y = 2x;
2x − 2y = 2y.

Este sistema é equivalente ao sistema


(
−x + 2y = 0;
2x − 4y = 0.

Portanto, a solução deste sistema é x = 2y, para todo y ∈ R. Assim sendo,


! ! !
x 2y 2
v= = =y .
y y 1

Logo o auto-espaço associado ao autovalor é λ2 = 2 é V2 = [(2, 1)]. Consequentemente,


obtemos uma base formada por autovetores {v1 = (1, −2), v2 = (2, 1)} do operador A.

38
Ora, esses autovetores são associados a autovalores distintos, donde pelo Lema 4.1 eles
são ortogonais.
n Resta
  então o
normalizá-los para obtermos uma base ortonormal. Dessa
1 −2
√ , √ 2 1
forma, 5 5
, √5 , √5 é uma base ortonormal formada por autovetores de A.
Colocando estes vetores em coluna encontramos a matriz ortogonal
!
√1 √2
5 5
P = −2
.
√ √1
5 5

A matriz diagonal !
−3 0
D= ,
0 2
(autovalores de A na diagonal) satisfaz D = P −1 AP , onde P −1 = P t . Consequente-
mente, A = P DP −1 . Logo,

A2 = (P DP 1 )(P DP −1 ) = P D2 P −1 ,
A3 = A2 A = (P D2 P −1 )(P DP −1 ) = P D3 P −1
..
.
An = P Dn P −1 .

Ou seja,
! ! !
√1 √2 n √1 −2

(−3) 0
An = P Dn P −1 = P Dn P t = −2
5 5 5 5
.
√ √1 0 2n √2 √1
5 5 5 5

Exemplo 4.2. Seja  


1 −2 0
A =  −2 1 0 .
 

0 0 −1
Veja que A é uma matriz simétrica. Vamos encontrar os autovalores de A. Note que
 
x−1 2 0
pA (x) = det(xI − A) = det  2 x−1 0  = (x + 1)2 (x − 3).
 

0 0 x+1

onde (I é a matriz identidade 3 × 3) e pA (x) é o polinômio característicos de A. Logo, os


autovalores de A são λ1 = −1 ( com multiplicidade algébrica 2) e λ2 = 3. Agora, vamos
encontrar os autovetores
  associados a estes autovalores. Comecemos com o autovalor
x
λ1 = −1. Seja v =  y  um autovetor qualquer de A associado ao autovalor λ1 = −1.
 

39
Daí, Av = −v. Ou seja,
    
1 −2 0 x x
 −2 1 0  y  = − y .
    

0 0 −1 z z

Em forma de sistema linear, obtemos



 x − 2y = −x;

−2x + y = −y;

−z = −z.

Este sistema é equivalente ao sitema


(
2x − 2y = 0;
−2x + 2y = 0.

A solução deste sistema é x = y, para todo y ∈ R. Com isso,


       
x y 1 0
v =  y  =  y  = y 1  + z 0 .
       

z z 0 1

Logo o autoespaço associado ao autovalorλ1 =  −1 é V−1 = [(1, 1, 0), (0, 0, 1)]. Agora,
x
considere o autovalor λ2 = 3. Seja v =  y  um autovetor qualquer de A associado
 

z
ao autovalor λ2 = 3. Logo, Av = 3v. Isto é,
    
1 −2 0 x x
 −2 1 0  y  = 3 y .
    

0 0 −1 z z

Em forma de sistema linear, temos que



 x − 2y = 3x;

−2x + y = 3y;

−z = 3z.

Este sistema é equivalente ao sistema



 −2x − 2y = 0;

−2x − 2y = 0;

z = 0.

40
Portanto, a solução deste sistema é x = −y, ∀y ∈ R. Assim sendo,
   
−y −1
v =  y  = y 1 .
   

0 0

Logo o auto-espaço associado ao autovalor λ2 = 3 é V3 = [(−1, 1, 0)]. Por conseguinte,


{v1 = (1, 1, 0), v2 = (0, 0, 1), v3 = (−1, 1, 0)} é uma base formada por autovetores de A.
Mais uma vez, como v3 é autovetor associado ao autovalor λ2 = 3 e v1 e v2 são autovetores
associados ao autovalor λ1 = −1, segue que v3 ⊥ v1 e v3 ⊥ v2 . Agora, hv1 , v2 i = 0.
Assim, a base {v1 , v2 , v3 } é ortogonal. Resta entãon
normalizá-la, multiplicando
 cada o
vetor
√1 , √1 , 0 , (0, 0, 1), √−1 √1
base pelo inverso de sua norma. Dessa forma, 2 2 2
, 2, 0 é
uma base ortonormal formada por autovetores de A. Colocando estes vetores em coluna
encontramos a matriz ortogonal
−1
 
√1 0 √
2 2
P = √1 0 √1 .
 
2 2
0 1 0

A matriz diagonal ´D é dada por:


 
−1 0 0
D =  0 −1 0 
 

0 0 3

(autovalores de A estão na diagonal) satisfaz D = P −1 AP, onde P −1 = P t .

41
5 CONCLUSÃO

Em geral concluímos que num espaço vetorial com produto interno há modos efi-
cientes de manipular seus elementos possibilitando definir comprimentos e distâncias.
Dessa forma, sempre é possível decompor um espaço vetorial de dimensão finita com
um produto interno numa soma de dois subespaços, e assim definir uma projeção orto-
gonal sobre este espaço. Além disso, para operadores lineares sobre um espaço vetorial
de dimensão finita associamos um outro operador linear, chamado de operador adjunto,
o qual relaciona elementos do espaço dual com elementos do espaço vetorial. Sobre es-
ses operadores, podemos definir ainda os operadores auto-adjuntos: operadores lineares
diagonalizáveis onde o conjunto de autovalores do operador é não vazio e é constituído
por números reais. Como aplicação, esses operadores nos permitem calcular qualquer
potência de uma matriz simétrica real.

42
REFERÊNCIAS

BARATA, J. C. A. Curso de Física-Matemática. 2013. Disponível em:


< http : //denebola.if.usp.br/ jbarata/N otasd ea ula/capitulos.html >. Acesso em:
mar. 2013.

BARBOZA, D. F.; MELO, W. G. Álgebra Linear II. 2011. Disponível em:


< http : //www.scribd.com/doc/88493178/Algebra − Linear − II − Livro − de −
Danilo >. Acesso em: jan. 2013.

BOLDRINI, J. L. Álgebra Linear. 3. ed. São Paulo: HARBRA, 1986.

FALEIROS, A. C. Álgebra Linear Aplicada. 2010. Disponível em:


< http : //pt.scribd.com/doc/86591659/043 − notasdeaulaalgebralinearaplicada −
f aleiros >. Acesso em: jan. 2013.

LIMA, E.L. Curso de Análise.12. ed. Rio de Janeiro: IMPA, 2009. v.1.

LIMA, E. L. Análise Real. 1. ed. Rio de Janeiro: IMPA, 1999.

LIMA, E. L. Álgebra Linear. 7. ed. Rio de Janeiro: IMPA, 2012.

LIPSCHUTZ, S.; LIPSON, M. Álgebra Linear. 3. ed. Porto Alegre: Bookman, 2008.

LIPSCHUTZ, S. Álgebra Lineal. 2. ed. Madrid: McGraw-Hill, 1992.

LIPSCHUTZ, S. Álgebra Linear. 3. ed. São Paulo: Makron Books, 1994.

43
AUTORIZAÇÃO

Autorizo a reprodução e/ou divulgação total ou parcial do presente trabalho, por

qualquer meio convencional ou eletrônico, desde que citada a fonte.

_________________________________

Pedro Paulo Nunes Costa

pedrocostasje@hotmail.com

Universidade Federal dos Vales do Jequitinhonha e Mucuri

Diamantina/MG - Rodovia MGT 367 - Km 583, nº 5000 - Alto da Jacuba

Das könnte Ihnen auch gefallen