Sie sind auf Seite 1von 30

EA932 – Prof. Fernando J.

Von Zuben
DCA/FEEC/Unicamp

Fundamentos Básicos de Álgebra Linear e Otimização


Índice Geral
1 Escalar ...........................................................................................................................................................................................................3
2 Vetor .............................................................................................................................................................................................................3
3 Matriz ............................................................................................................................................................................................................5
4 Conjuntos e operações com conjuntos ..........................................................................................................................................................6
4.1 Conjuntos especiais de números reais.................................................................................................................................................8
5 Espaço Vetorial Linear..................................................................................................................................................................................9
5.1 Axiomas ..............................................................................................................................................................................................9
5.2 Propriedades adicionais ....................................................................................................................................................................10
5.3 Exemplos...........................................................................................................................................................................................11
5.4 Produto cartesiano.............................................................................................................................................................................11
5.5 Subespaço vetorial linear ..................................................................................................................................................................12
5.6 Conjuntos convexos ..........................................................................................................................................................................13
5.7 Combinação linear e combinação convexa .......................................................................................................................................14
5.8 Dependência linear e dimensão de um espaço vetorial.....................................................................................................................15
5.9 Produto externo .................................................................................................................................................................................16
5.10 Produto interno..................................................................................................................................................................................17
5.11 Norma, semi-norma e quase-norma ..................................................................................................................................................18
5.12 Ângulo entre dois vetores .................................................................................................................................................................21
5.13 Ortogonalidade e ortonormalidade entre dois vetores ......................................................................................................................21
5.14 Espaços ortogonais............................................................................................................................................................................22
5.15 Projeção de um vetor em uma determinada direção .........................................................................................................................22
5.16 Vetores ortonormais gerados a partir de vetores linearmente independentes...................................................................................23
6 Transformações e funcionais.......................................................................................................................................................................25

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 1

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp
6.1Transformações lineares ...................................................................................................................................................................25
6.2Operadores lineares...........................................................................................................................................................................26
6.3Posto de uma matriz ..........................................................................................................................................................................27
6.4Matrizes idempotentes ......................................................................................................................................................................28
6.5Definições adicionais para matrizes..................................................................................................................................................28
6.6Matrizes singulares e não-singulares ................................................................................................................................................31
6.7Autovalores e autovetores .................................................................................................................................................................31
6.8Formas Quadráticas...........................................................................................................................................................................32
6.8.1 Cálculo diferencial aplicado a formas quadráticas.................................................................................................................33
6.8.2 Normas ponderadas e a medida de distância de Mahalanobis ...............................................................................................34
6.9 Matrizes simétricas: positividade e autovalores ...............................................................................................................................35
6.10 A inversa de uma matriz....................................................................................................................................................................39
6.11 O lema de inversão de matrizes ........................................................................................................................................................40
6.12 A pseudo-inversa de uma matriz.......................................................................................................................................................40
6.12.1 Exemplos de pseudo-inversas.................................................................................................................................................41
6.12.2 Uso de pseudo-inversão para a solução de sistemas lineares.................................................................................................42
6.13 Operadores de projeção ortogonal ....................................................................................................................................................43
6.13.1 Um exemplo de operador simétrico e idempotente................................................................................................................44
6.14 Decomposição em valores singulares ...............................................................................................................................................46
6.15 Transformações contínuas.................................................................................................................................................................50
6.16 Funcional...........................................................................................................................................................................................51
6.17 Funcional convexo ............................................................................................................................................................................51
6.18 Funcional convexo diferenciável ......................................................................................................................................................53
7 Mínimos Locais...........................................................................................................................................................................................54
8 Expansão em Série de Taylor......................................................................................................................................................................55
9 Condição Necessária de Otimalidade..........................................................................................................................................................56
10 Condição Suficiente de Otimalidade...........................................................................................................................................................57
11 Referências bibliográficas ...........................................................................................................................................................................60

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 2


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

1 Escalar
• uma variável que assume valores no eixo dos números reais é denominada escalar.
Os escalares são descritos por letras minúsculas do alfabeto romano expressas em
itálico, ou do alfabeto grego. O conjunto de todos os escalares reais é representado
por ℜ ou ℜ1.
 x se x ≥ 0
• o módulo de um escalar real x é dado na forma: x = 
− x se x < 0

2 Vetor

• um arranjo ordenado de n escalares xi ∈ ℜ (i=1,2,...,n) é denominado vetor de


dimensão n. Os vetores são descritos por letras minúsculas do alfabeto romano
expressas em negrito, e assumem a forma de vetores-coluna ou vetores-linha.
Neste estudo, todos os vetores são representados por vetores-coluna, na forma:

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 3

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

 x1 
x 
x =  2 ou x = [x1 x2  xn ] .
T

x 
 n

• o conjunto de todos os vetores de dimensão n com elementos reais é representado


por ℜn. Diz-se então que x ∈ ℜn.

• um escalar é um vetor de dimensão 1.


• vetor 0n: é o vetor nulo de dimensão n, com todos os elementos iguais a zero. O
subscrito n é suprimido quando não há margem à dúvida.
• vetor 1n: é o vetor de dimensão n com todos os elementos iguais a 1.
• vetor ei: é o vetor normal unitário de dimensão n (a dimensão deve ser indicada
pelo contexto) com todos os elementos iguais a 0, exceto o i-ésimo elemento que é
igual a 1. Neste caso, 1 ≤ i ≤ n.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 4


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

3 Matriz

• um arranjo ordenado de m.n escalares xij (i=1,2,...,m; j=1,2,...,n) é denominado


matriz de dimensão m×n. As matrizes são descritas por letras maiúsculas do
alfabeto romano expressas em itálico, e assumem a forma:

 x11 x12  x1n 


x x 22  x2n 
X = .
21
     
x  x mn 
 m1 xm 2

• o conjunto de todas as matrizes m×n com elementos reais é representado por


ℜm × ℜn ou ℜm×n. Diz-se então que X ∈ ℜm×n.

 x1i 
x 
• as colunas da matriz X são vetores-coluna descritos por x i =   , i=1,...,n.
2i
  
x 
 mi 
Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 5

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• as linhas da matriz X são vetores-linha descritos por x ( j ) = [x j1 x j 2  x jn ] ,


j=1,...,m.
• um vetor é uma matriz com número unitário de linhas e/ou colunas.

4 Conjuntos e operações com conjuntos

• um conjunto pode ser definido como uma agregação de objetos. Os conjuntos são
descritos por letras maiúsculas do alfabeto romano expressas em itálico. Por
conveniência de notação, alguns conjuntos especiais são descritos por símbolos
específicos. Exemplos:

• ℵ: conjunto dos números naturais


• ℜ: conjunto dos números reais
• : conjunto dos números complexos

• o estado lógico ou associação de um elemento x a um conjunto X qualquer é


representado por

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 6


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

x ∈ X: x pertence a X
x ∉ X: x não pertence a X

• um conjunto pode ser especificado listando-se seus elementos entre colchetes

X = {x1 , x 2 ,..., x n }

ou evidenciando uma ou mais propriedades comuns aos seus elementos

X2 = {x ∈ X1 tal que P(x) é verdade} ou X2 = {x ∈ X1: P(x)}

• as principais operações entre conjuntos são:

Y União: X 1 ∪ X 2 = {x : x ∈ X 1 ou x ∈ X 2 };
Y Interseção: X 1 ∩ X 2 = {x : x ∈ X 1 e x ∈ X 2 };
• X 1 ∩ X 2 = ∅ (conjunto vazio) se X1 e X2 são conjuntos disjuntos.

• o complemento de um conjunto X é representado por X e é definido na forma:

X = {x : x ∉ X }.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 7

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• S é um subconjunto de X, se x ∈ S implica x ∈ X. Neste caso, diz-se que S está


contido em X (S ⊂ X) ou que X contém S (X ⊃ S). Se S ⊂ X e S não é igual a X,
então S é um subconjunto próprio de X.

4.1 Conjuntos especiais de números reais

• se a e b são números reais (a,b ∈ ℜ), define-se:

[a, b] = {x : a ≤ x ≤ b}
(a, b] = {x : a < x ≤ b}
[a, b ) = {x : a ≤ x < b}
(a, b ) = {x : a < x < b}
• se X é um conjunto de números reais, então o menor limitante superior de X, dado
por
x = sup x = sup{x : x ∈ X },
x∈X

é o supremo de X, e o maior limitante inferior de X, dado por

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 8


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

x = inf x = inf {x : x ∈ X },
x∈X

é o ínfimo de X. Se x = +∞ então X não é limitado superiormente. De forma


análoga, se x = −∞ então X não é limitado inferiormente.

5 Espaço Vetorial Linear

• um espaço vetorial X, associado a um campo F, consiste de um conjunto de


elementos (vetores) sobre os quais estão definidas 2 operações:
1. Adição (X × X → X): (x + y) ∈ X, ∀ x, y ∈ X;
2. Multiplicação por escalar (F × X → X): (α⋅x) ∈ X, ∀ x ∈ X e α ∈ F.

5.1 Axiomas

• x + y = y + x (propriedade comutativa)

x + ( y + z) = (x + y ) + z 
•  (propriedade associativa)
α ⋅ (β ⋅ x ) = ( α ⋅ β) ⋅ x 

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 9

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

α ⋅ (x + y ) = α ⋅ x + α ⋅ y 
•  (propriedade distributiva)
( α + β) ⋅ x = α ⋅ x + β ⋅ x 

• x + 0 = x (vetor nulo)

• 1⋅x = x (elemento neutro)

5.2 Propriedades adicionais

• 0⋅x = 0
• α⋅0 = 0
• x + y= x+ z ⇒ y = z
• α⋅x = α⋅y, α ≠ 0 ⇒ x = y
• α⋅x = β⋅x, x ≠ 0 ⇒ α = β
α ⋅ (x − y ) = α ⋅ x − α ⋅ y 
•  (propriedade distributiva)
( α − β) ⋅ x = α ⋅ x − β ⋅ x 

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 10


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

5.3 Exemplos
• considere o campo F como sendo o conjunto dos números reais (ℜ):
1. conjunto dos números reais: X ≡ ℜ
2. conjunto dos vetores n-dimensionais, com elementos reais: X ≡ ℜn
3. conjunto das matrizes m × n com elementos reais: X ≡ ℜm × ℜn ou X ≡ ℜm×n

5.4 Produto cartesiano


• o produto cartesiano de dois espaços vetoriais X e Y (os dois espaços vetoriais
devem estar associados ao mesmo campo) é dado por X × Y e é definido como o
conjunto de pares ordenados (x,y), com x ∈ X e y ∈ Y. As operações de adição e
multiplicação são definidas na forma:
¾ (x1 , y 1 ) + (x 2 , y 2 ) = (x1 + x 2 , y 1 + y 2 )
¾ α ⋅ (x, y ) = (α ⋅ x, α ⋅ y )

• por convenção, X n ≡ ×
X X
×
×
X
n vezes

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 11

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

5.5 Subespaço vetorial linear

• um subconjunto não-vazio S de um espaço vetorial linear X é um subespaço de X


se α ⋅ x + β ⋅ y ∈ S sempre que x e y ∈ S.

• dito de outra forma, seja (X,F) um espaço vetorial linear e S um subconjunto de X.


Diz-se então que (S,F) é um subespaço vetorial de (X,F) se S forma um espaço
vetorial sobre F através das mesmas operações definidas sobre (X,F).

• exemplos: 1. S ≡ {0}

2. S ≡ ℜn é subespaço de X ≡ n

• se M e N são subespaços de X, então M ∩ N ≠ ∅ também é um subespaço de X.

• todo espaço é um subespaço de si mesmo.

• subespaço próprio é um subespaço que não é igual ao espaço inteiro.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 12


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

5.6 Conjuntos convexos

• um conjunto X de elementos de um espaço vetorial é convexo se, dados


x1, x2 ∈ X, todos os pontos na forma α⋅x1 + (1−α)⋅x2, com α ∈ [0,1], pertencem
também a X.

x2
x2

x1
x1
X
X
Convexo Não-Convexo
• exemplos:
1. normalmente, (sub-)espaços vetoriais lineares são convexos.
2. o conjunto vazio ∅ é convexo, por definição.
3. dados X e Y convexos, então X ∩ Y é convexo.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 13

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

5.7 Combinação linear e combinação convexa

• seja S = {x1, x2, ..., xn} um conjunto de vetores de um espaço vetorial linear (X,ℜ).
Combinações lineares de elementos de S são formadas através de

a1x1 + a 2 x 2 +  + a n x n ,

onde a1, a2, ..., an ∈ ℜ.

• se os escalares a1, a2, ..., an ∈ ℜ são tais que ai ≥ 0 (i=1,2,...,n) e ∑i =1 ai = 1, então


n

a combinação linear é chamada combinação convexa dos elementos


x1, x2, ..., xn ∈ X.

• combinação cônica: ai ≥ 0 (i=1,2,...,n) e ∑i =1 ai


n
qualquer

• combinação afim: ai (i=1,2,...,n) quaisquer e ∑i =1 ai = 1


n

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 14


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

5.8 Dependência linear e dimensão de um espaço vetorial

• considere {x1, x2, ..., xn} um conjunto de vetores pertencentes a X. O conjunto


S ≡ [x1, x2, ..., xn], chamado subespaço gerado pelos vetores {x1, x2, ..., xn},
consiste de todos os vetores em X escritos como combinação linear de vetores em
{x1, x2, ..., xn}. Neste caso, S é um subespaço vetorial de X.
• um vetor x é linearmente dependente em relação a um conjunto de vetores
{x1, x2, ..., xn} se x ∈ S ≡ [x1, x2, ..., xn].
• um vetor x é linearmente independente em relação a um conjunto de vetores
{x1, x2, ..., xn} se x ∉ S ≡ [x1, x2, ..., xn].
• um conjunto de vetores {x1, x2, ..., xn} é linearmente independente se e somente se
n
∑ ai x i = 0 implica ai = 0, i=1,...,n.
i =1

• um conjunto de vetores linearmente independentes {x1, x2, ..., xn} forma uma base
para X se X ≡ [x1, x2, ..., xn].
• neste caso, diz-se que X tem dimensão n. Se n é finito, então X é um espaço
vetorial de dimensão finita.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 15

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

5.9 Produto externo

• o produto externo entre dois vetores x ∈ ℜn e y ∈ ℜm é uma matriz de dimensão

n × m de posto unitário. Sendo x = [x1 x 2  x n ] e y = [y1 y2  ym ] ,


T T

o produto externo assume a forma:

 x1 y1 x1 y 2  x1 y m 
x y x2 y2  
xy T =  2 1 
   
x y  x n y m 
 n 1

• em contraste com o caso do produto interno, os vetores x e y podem ter dimensões


distintas.
• mesmo quando as dimensões são as mesmas, ou seja, n = m, a matriz quadrada
resultante pode não ser simétrica.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 16


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

5.10 Produto interno

• considere x,y ∈ X e α ∈ ℜ. O produto interno 〈x,y〉 é um número real que


satisfaz:

¾ 〈x,y〉 = 〈y,x〉

¾ 〈x+y,z〉 = 〈x,z〉 + 〈y,z〉

¾ 〈α⋅x,y〉 = α⋅〈x,y〉

¾ 〈x,x〉 ≥ 0 ∀ x ∈ X, e 〈x,x〉 = 0 ⇔ x = 0

• para X ≡ ℜn e x,y ∈ X, tem-se que x = [x1 x2  xn ]


T
e

y = [y1 y 2  y n ] , e o produto interno assume a forma:


T

n
x, y = ∑ xi y i = x T y
i =1

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 17

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

5.11 Norma, semi-norma e quase-norma

• as definições até agora apresentadas permitem relacionar propriedades algébricas.


Introduzindo-se a noção de norma (medida de distância), podemos então tratar
propriedades topológicas, como continuidade e convergência.
• norma é uma função ⋅ que associa a cada elemento x ∈ X um número real x ,
obedecendo aos seguintes axiomas:
1. x ≥ 0, ∀x ∈ X ; x = 0 ⇔ x = 0;
2. x + y ≤ x + y , ∀x, y ∈ X (desigualdade triangular);
3. α ⋅ x = α ⋅ x , ∀x ∈ X , ∀α ∈ ℜ .

• toda vez que se associa uma norma a um espaço vetorial (sendo que a este espaço
já está associado um campo), diz-se que se tem um espaço vetorial normado.
• uma semi-norma satisfaz todas as propriedades de norma, com exceção do
primeiro axioma. Para X ≡ ℜn, o subespaço linear X0 ⊂ ℜn, cujos elementos
obedecem x = 0, é denominado espaço nulo da semi-norma.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 18


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• uma quase-norma satisfaz todas as propriedades de norma, com exceção do


segundo axioma (desigualdade triangular), o qual assume a forma:
x + y ≤ b ⋅ ( x + y ), ∀x, y ∈ X , com b ∈ ℜ .

• Exemplos de normas e relações entre normas: X ≡ ℜn


1
 n pp
Y x p
=  ∑ xi  , p ≥ 1 é um número real.
 i =1 
Y x 2
≤ x1≤ nx 2

Y x ∞
≤ x 2
≤ nx ∞

Y x ∞
≤ x 1 ≤ n x ∞.
1
1
 n
2 1
Y x, x 2 é a conhecida norma euclidiana, pois x 2
= ∑ xi2  = x, x 2 .
 i =1 
Y relação entre produto interno e norma euclidiana (desigualdade de Cauchy-
2
Schwartz-Buniakowsky): x, y ≤ x, x ⋅ y , y ⇒ x , y ≤ x 2 ⋅ y 2

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 19

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

x2
+1 1
p=1
 n pp
x p
=  ∑ xi 
−1 +1 x1  i =1 
−1

x2 n
+1 p=2 p = 1 ⇒ x 1 = ∑ xi
i =1

−1 +1 x1
−1
n
∑ xi
2
p=2⇒ x 2
=
x2 i =1
+1
p=+∞

x1
−1 +1 p = +∞ ⇒ x ∞
= max xi
i
−1

x p
≤1

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 20


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

5.12 Ângulo entre dois vetores

• para qualquer inteiro n ≥ 2, dados dois vetores x,y ∈ X ⊂ ℜn, x,y ≠ 0, o co-seno
do ângulo θ formado pelos vetores x e y é dado na forma:

xT y
cos(θ) = .
x2⋅ y 2

5.13 Ortogonalidade e ortonormalidade entre dois vetores

• se cos(θ) = 0 , isto implica que x, y = x T y = 0 . Então diz-se que x e y são


ortogonais entre si, condição representada na forma: x ⊥ y .

• além disso, se 〈x,x〉 = 〈y,y〉 = 1, então os vetores x, y ∈ X ⊂ ℜn são ortonormais


entre si.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 21

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

5.14 Espaços ortogonais

• um vetor x é ortogonal a um espaço vetorial Y se for ortogonal a todos os vetores


pertencentes a Y, condição representada na forma: x ⊥ Y .
• os espaços vetoriais X e Y são ortogonais entre si se cada vetor pertence a X for
ortogonal a todos os vetores pertencentes a Y, condição representada na forma:
X ⊥Y .

5.15 Projeção de um vetor em uma determinada direção

• dado um espaço vetorial linear X, seja y ∈ X um vetor que fornece uma


determinada direção. A projeção de qualquer vetor x ∈ X na direção de y é dada
na forma:
x, y y xT y
projy ( x ) = 1/ 2
⋅ 1/ 2
= T ⋅y
y, y y, y y y

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 22


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

5.16 Vetores ortonormais gerados a partir de vetores linearmente


independentes

• apesar de todo conjunto de vetores ortonormais não-nulos ser linearmente


independente, nem todo conjunto de vetores linearmente independentes é
ortonormal, mas pode passar por um processo de ortonormalização, como segue.
• dado um conjunto de m vetores n-dimensionais (m ≤ n) linearmente independentes
{x1, x2, ..., xm}, é sempre possível estabelecer uma combinação linear adequada
destes vetores que produza m vetores n-dimensionais mutuamente ortogonais
{u1, u2, ..., um} que geram o mesmo espaço. Além disso, se os vetores ui (i=1, ...,
m) apresentarem norma unitária, eles são mutuamente ortonormais.
• um conjunto de vetores ortonormais {u1, u2, ..., um} pode ser obtido a partir de um
conjunto de vetores linearmente independentes {x1, x2, ..., xm} através do processo
de ortogonalização de Gram-Schmidt, o qual é dividido em duas etapas:

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 23

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

Etapa (1) y 1 = x1

i −1 xi , y j
yi = xi − ∑ ⋅ y j , i = 2, ..., m
j =1 y j,y j

yi
Etapa (2) u i = 1/ 2
, i = 1, ..., m
yi , yi

• com isso, resulta:


u1 = a11⋅x1
u2 = a21⋅x1 + a22⋅x2
u3 = a31⋅x1 + a32⋅x2 + a33⋅x3
   

onde aii > 0 (i=1,...,m). Certamente existem outros processos de ortonormalização


mais gerais, que não impõem qualquer tipo de restrição aos coeficientes aij (i ≥ j;
i,j=1,...,m).

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 24


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

6 Transformações e funcionais

• sejam X e Y espaços vetoriais lineares, e seja D um subconjunto de X. A regra que


associa cada elemento x ∈ D ⊆ X a um elemento y ∈ Y é chamada de
transformação de X para Y com domínio D. Notação: T: D ⊆ X → Y.

• y = T(x) é a imagem de x sob a transformação T(⋅).

• a coleção de vetores y ∈ Y para os quais existe um x ∈ D tal que y = T(x) é


chamada de range de T.

6.1 Transformações lineares

• uma transformação T: X → Y é linear se, ∀ x,y ∈ D ⊆ X e ∀ α,β ∈ ℜ, é válida a


seguinte equação:
T (α ⋅ x + β ⋅ y ) = α ⋅ T (x ) + β ⋅ T (y ).

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 25

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

6.2 Operadores lineares


• são as transformações que podem ser descritas por formas matriciais, de modo que
D ≡ X. Um operador linear, que mapeia vetores do ℜn no ℜm, pode ser descrito
por uma matriz A ∈ ℜm × ℜn, ou A ∈ ℜm×n, tal que
y = Ax, x ∈ ℜn e y ∈ ℜm.
• a norma de um operador linear A ∈ ℜm×n é dada na forma:
Ax
A = max , com x ∈ ℜn.
x ≠0 x

• o range de um operador linear A ∈ ℜm×n é dado na forma:


{
τ( A) = y ∈ ℜ m : y = Ax, para algum x ∈ ℜ n }
correspondendo, portanto, ao espaço gerado pelas colunas de A.
• o espaço nulo de um operador linear A ∈ ℜm×n é dado na forma:
{
η( A) = x ∈ ℜ n : Ax = 0 }

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 26


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• τ(A) e η(A) são subespaços de ℜm e ℜn, respectivamente.


• dim(τ( A) ) + dim(η( A) ) = n
• η(A) ⊥ τ(AT) no ℜn e η(AT) ⊥ τ(A) no ℜm

6.3 Posto de uma matriz

• o posto de uma matriz A ∈ ℜm×n é dado pelo número de colunas (ou linhas) LI, de
modo que posto(A) ≤ min(m,n).
• se posto(A) = min(m,n), então diz-se que a matriz tem posto completo.
• uma matriz quadrada de posto completo é inversível (matrizes inversas serão
discutidas mais adiante).
• posto(A) = dim(τ( A) )
• posto(A) = posto(AT) = posto(ATA) = posto(AAT)
• a matriz resultante do produto de duas matrizes quaisquer nunca vai ter um posto
maior que o menor posto das matrizes que participam do produto.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 27

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

6.4 Matrizes idempotentes

• uma matriz quadrada A ∈ ℜn×n é dita ser idempotente se A r =


A ⋅
A
⋅ ... ⋅
A = A,
r vezes
para qualquer potência inteira r ≥ 1.
• se A é idempotente, então I − A também será.

6.5 Definições adicionais para matrizes

Cofator
• dada uma matriz A de dimensão n×n, o cofator do elemento aij (i,j=1,2,...,n) é
dado na forma:

cij = (− 1) + mij ,
i j

onde mij é o determinante da matriz formada eliminando-se a i-ésima linha e a j-


ésima coluna da matriz A.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 28


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

Determinante
• dada uma matriz A de dimensão n×n, o determinante de A é dado na forma:

∑n aij cij , para qualquer j


 i =1
A = det ( A) =  ou

 ∑ j =1 ij ij
n
a c , para qualquer i

onde cij é o cofator do elemento aij.


• com isso, se B é uma matriz obtida de A pela troca de duas de suas colunas, então
det(B) = −det(A).
• seja A = [a1  a j  a n ] (1 ≤ j ≤ n). O determinante de A possui as

seguintes propriedades:

Y Invariância: det ([a1  a j  a n ]) = det ([a1  a j + a k  a n ]),

j ≠ k, 1≤ j,k ≤n;
Y Homogeneidade: det ([a1  ba j  a n ]) = b.det ([a1  a j  a n ])

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 29

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

Traço
• dada uma matriz A de dimensão n×n, o traço de A, representado por tr(A), é a
soma dos elementos da diagonal de A, ou seja:
n
tr ( A) = ∑ a ii
i =1

Adjunta
• dada uma matriz A de dimensão n×n, a adjunta de A, representada por adj(A), é
dada na forma:

adj(A) = { aij′ }

onde aij′ = cji, o cofator do elemento aji.

 A.adj( A) = det ( A). I adj( A)


• são válidas as seguintes igualdades:  ⇒ A −1 =
adj( A). A = det ( A). I det ( A)

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 30


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

6.6 Matrizes singulares e não-singulares

• uma matriz A de dimensão n×n é dita ser singular quando dim(η( A) ) ≠ 0 , ou seja,
quando det(A) = 0.
• A ∈ ℜn×n é não-singular se e somente se dim(η( A) ) = 0 .

• como A −1 = adj( A) / det (A), A admite inversa se e somente se det(A) ≠ 0, ou seja,


quando A é não-singular.

6.7 Autovalores e autovetores

• seja uma matriz A de dimensão n×n. Diz-se que um escalar λ ∈  (conjunto dos
números complexos) é um autovalor de A se existe um vetor não-nulo x ∈ n,
chamado de autovetor associado a λ, tal que

Ax = λx.

• Ax = λx pode ser reescrito como (λI − A)x = 0;

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 31

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• ∃ x ∈ n, x ≠ 0 tal que (λI − A)x = 0 se e somente se det (λI − A) = 0 ;



• ∆ (λ ) = det (λI − A) é o polinômio característico de A;
• Como o grau de ∆(λ) é n, a matriz A possui n autovalores.

6.8 Formas Quadráticas

Definição: Para qualquer y ∈ ℜ n e A = AT ∈ ℜ n ×n , Q A ( y ) = y T Ay é uma forma


quadrática associada a A.

Propriedades:
• ∇Q A ( y ) = 2 A y

• ∇ 2Q A ( y ) = 2 A
• A e QA são chamadas de:
¾ semi-definida positiva se Q A ( y ) = y T Ay ≥ 0, ∀ y ∈ ℜ n .

¾ definida positiva se Q A ( y ) = y T Ay > 0, ∀ y ∈ ℜ n , y ≠ 0 .

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 32


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

¾ semi-definida negativa se Q A ( y ) = y T Ay ≤ 0, ∀ y ∈ ℜ n .

¾ definida negativa se Q A ( y ) = y T Ay < 0, ∀ y ∈ ℜ n , y ≠ 0 .

6.8.1 Cálculo diferencial aplicado a formas quadráticas

Dados x ∈ ℜ n , y ∈ ℜ n e A ∈ ℜ n ×n :


∂y
(
∂ T
y Ax = Ax)

• y T Ax = x T AT y ⇒
∂ T
∂x
(
y Ax =
∂ T T
∂x
) (
x A y = AT y )

∂ T
∂x
( )
x Ax = AT x + Ax

• para AT = A ,
∂ T
∂x
(
x Ax = 2 Ax )

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 33

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

6.8.2 Normas ponderadas e a medida de distância de Mahalanobis


• já foi apresentada a relação existente entre norma e produto interno. Com a
introdução de formas quadráticas, é possível recorrer ao conceito de norma
ponderada.
• sejam x,y ∈ ℜn, então é possível expressar a distância ponderada entre x e y por:
2 2
ρ Ψ ( x, y ) = x − y Ψ
= (x − y )T Ψ(x − y ) = x Ψ
+ y Ψ
− 2 x T Ψy

onde Ψ ∈ ℜn×n é uma matriz simétrica e semidefinida positiva, geralmente sendo


uma matriz diagonal que pondera diferentemente cada coordenada.
• para Ψ = I, resulta a norma euclidiana.
• quando os elementos de x e y são variáveis aleatórias geradas a partir de uma
distribuição normal, e sabendo haver uma dependência estatística entre os
elementos de x e y, então tomando a matriz Ψ como sendo a inversa da matriz de
covariância entre x e y resulta a medida de distância de Mahalanobis.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 34


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

6.9 Matrizes simétricas: positividade e autovalores

• uma matriz quadrada A ∈ ℜn×n é dita ser simétrica se AT = A (ℜn×n ou n×n).

• se a matriz quadrada é tal que A ∈ n×n, então ela será hermitiana se ( A *)T = A ,
ou seja, se A for idêntica ao transposto de seu complexo conjugado.
• matrizes simétricas só admitem autovalores reais.
• autovetores associados a autovalores distintos de uma matriz simétrica com
elementos reais (A ∈ ℜn×n) são ortogonais.
• mesmo que os autovalores não sejam distintos, é possível obter autovetores
ortogonais para matrizes simétricas A ∈ ℜn × ℜn. Sendo assim, dados os
autovetores ortogonais v1, ..., vn, é possível construir a matriz T abaixo:
v v2 vn 
T = 1   , onde ⋅ ≡ ⋅ 2 .
 v1 v2 vn 
• a matriz T é ortogonal, pois T −1 = T T , como pode ser verificado a seguir:

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 35

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

 v1T 
 v  1  0 
 1   v1 vn  
T TT =     =     = I n ×n
 vn
T
  v1 v n   
0  1
v 
 n 
• com a matriz T, é possível obter uma matriz diagonal a partir da matriz A, tendo
os autovalores de A na diagonal, como a seguir:
1. da definição de autovalores tem-se: Avi = λivi, i=1,...,n.
  v1 v n   Av 1 Av n   λ 1 v 1 λnvn 
 AT = A   =   =  =
  v1 v n   v1 v n   v1 v n 

2.  λ 1  0 
=  v1  v n 
    = TΛ
 v v n   
  1  0  λ n 
Λ = T −1 AT = T T AT
3. AT = TΛ ⇒ 
 A = TΛT −1 = TΛT T

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 36


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• este resultado é muito útil no caso da matriz A estar presente em formas


quadráticas:

( )T
Q A ( x ) = x T Ax = x T TΛT T x = T T x Λ (T T x )

• fazendo y = T T x ⇒ x = Ty , resulta:

Q A ( x ) x =Ty = y T Λy = λ 1 y 12 + λ 2 y 22 +  + λ n y 2n

• como a matriz T tem posto completo, então y ∈ ℜn pode ser qualquer. Logo:
¾ A > 0 ⇒ λi > 0 para i=1,...,n
¾ A ≥ 0 ⇒ λi ≥ 0 para i=1,...,n
¾ A < 0 ⇒ λi < 0 para i=1,...,n
¾ A ≤ 0 ⇒ λi ≤ 0 para i=1,...,n
• se A ∈ ℜn×n é uma matriz simétrica definida positiva, então são condições
equivalentes:
¾ A é definida positiva;

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 37

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

¾ A−1 é definida positiva;


¾ todos os autovalores de A são reais positivos;
¾ y T Ay > 0, ∀ y ∈ ℜ n , y ≠ 0 ;
¾ é possível decompor A na forma: A = BTB, com B não-singular;
¾ det(Ak) > 0, k=1,...,n, onde Ak é a k-ésima sub-matriz principal líder.
• se ocorrer λi > 0 e λj < 0 para i ≠ j e i,j ∈ {1,...,n}, então a matriz é dita ser
indefinida.
• se A ∈ ℜn×n é uma matriz simétrica com autovalores λ1, λ2, ..., λn, então a matriz
A + αIn terá como autovalores λ1+α, λ2+α, ..., λn+α, e os autovetores de A e de
A + αIn serão os mesmos.
• sendo assim, é possível “corrigir” os autovalores de uma matriz simétrica
indefinida ou singular, sem alterar seus autovetores, deixando a matriz definida
positiva ou definida negativa, na forma:

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 38


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

α = ε − min λ i , para deixar a matriz definida positiva


 i∈{1,..., n }

α = − ε − i∈max
{1,..., n }
λ i , para deixar a matriz definida negativa

• seja uma matriz A de dimensão n × m (A ∈ ℜn×m) e uma matriz B de dimensão


m × n (B ∈ ℜm×n). Então, os autovalores não-nulos de AB e BA são os mesmos e
têm as mesmas multiplicidades. Além disso, se x é um autovetor de AB para
algum autovalor λ ≠ 0, então y = Bx é um autovetor de BA. Isto implica que AAT e
ATA têm os mesmos autovalores e todos são positivos.

6.10 A inversa de uma matriz

• a inversa de uma matriz A ∈ ℜn×n é uma matriz M ∈ ℜn×n tal que


AM = MA = I
• a notação adotada para a matriz M é: M = A−1 .
• para que uma matriz seja inversível, ela tem que ser quadrada e não-singular.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 39

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• vale a seguinte propriedade: A −1 ( ) = (A )


T T −1
.

6.11 O lema de inversão de matrizes

• assuma que A e C são matrizes quadradas arbitrárias para as quais existe a inversa,
e B é uma terceira matriz tal que BCBT tem a mesma dimensão de A. Então o
chamado lema de inversão de matrizes é dado na forma:

(A + BCB ) T −1
(
= A−1 − A −1 B B T A −1 B + C −1 )
−1
B T A−1
• a matriz C geralmente tem dimensões menores que a matriz A.

6.12 A pseudo-inversa de uma matriz

• a pseudo-inversa de uma matriz A ∈ ℜm×n é uma matriz M ∈ ℜn×m tal que valem
as seguintes propriedades:
Y AMA = A
Y MAM = M

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 40


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

Y AM e MA são matrizes simétricas


• a notação adotada para a matriz M é: M = A+ .
• pode-se demonstrar que existe uma única pseudo-inversa para cada matriz.
• valem as seguintes propriedades:
¾ 0+ = 0 T ¾ (αA)+ = α−1A+, se α ≠ 0
¾ (A+)+ = A ¾ A+ = (ATA)+AT = AT(AAT)+
¾ (A+)T = (AT)+ ¾ A+ = A−1, se A é quadrada e não-singular
¾ (AA+)T = AA+ e (A+A)T = A+A ¾ ATAA+ = AT e AAT(A+)T = A

6.12.1 Exemplos de pseudo-inversas

 A + = a −1 , se a ≠ 0
• caso escalar (m = n = 1): A = a ⇒ 
 A + = 0, se a = 0

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 41

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

 + aT
 A = T , se a ≠ 0
• caso vetorial (m > 1 e n = 1): A = a ⇒  a a
 A + = 0 T , se a = 0

6.12.2 Uso de pseudo-inversão para a solução de sistemas lineares


• considere o seguinte sistema linear de equações na forma matricial
Ax = b (1)
onde A ∈ ℜm×n, x ∈ ℜn e b ∈ ℜm.
• supondo que posto(A) = m ≤ n, então a seguinte expressão representa uma solução

para a equação matricial (1): x = AT AAT ( )


−1
( )
b + I − AT ( AAT ) −1 A y , onde y ∈ ℜn

é um vetor arbitrário. Repare que, sob a condição posto(A) = m ≤ n, AT AAT ( )−1


é
a pseudo-inversa de A, de modo que é possível expressar a solução na forma:
(
x = A+ b + I − A+ A y . ) (2)

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 42


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• quando múltiplas soluções são possíveis, como no caso acima, pode-se adotar
aquela solução que otimiza algum critério. Por exemplo, a solução com norma
euclidiana mínima é aquela que toma y = 0.

• supondo que posto(A) = n ≤ m, então a seguinte expressão representa uma solução


para a equação matricial (1): x = AT A ( )
−1
AT b . Repare que, sob a condição
posto(A) = n ≤ m, AT A ( )−1
AT é a pseudo-inversa de A, de modo que é possível
expressar a solução na forma:
x = A+ b (3)
• no entanto, para posto(A) = n < m, a equação matricial (1) nem sempre tem
solução exata, e nestes casos o que se obtém é o mínimo de Ax − b 2 .

6.13 Operadores de projeção ortogonal

• seja X ⊂ ℜn um subespaço vetorial e seja x ∈ ℜn. Então é possível expressar x na


forma:

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 43

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

x = xˆ + ~
x
onde x̂ ∈ X e ~
x⊥X .
• neste caso, diz-se que x̂ é a projeção ortogonal de x em X.
• de todas as decomposições na forma x = x ′ + x ′′ , onde x ′ ∈ X , aquela em que
x ′′ ⊥ X é tal que x ′′ 2 é mínima.

• existe sempre uma matriz simétrica P ∈ ℜn×n, chamado operador de projeção


ortogonal em X, tal que
x = (I − P )x
xˆ = Px e ~

• (I − P) é o operador de projeção ortogonal em X ⊥ (complemento ortogonal de X).

6.13.1 Um exemplo de operador simétrico e idempotente


• todo operador de projeção ortogonal é idempotente, sendo que a seguir iremos
apresentar um exemplo de operador de projeção ortogonal que também é
simétrico.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 44


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• as projeções ortogonais podem ser expressas através de transformações lineares,


de modo que sempre é possível obter P.
• assuma que X ≡ [x1, x2, ..., xk] é um subespaço do ℜn, gerado pelos vetores
xi ∈ ℜn, i = 1,...,k < n. Seja A uma matriz que tem como colunas os vetores
xi ∈ ℜn, i = 1,...,k < n. O objetivo é obter o operador P de projeção ortogonal ao
subespaço X, de modo que sua aplicação a um vetor qualquer x ∈ ℜn produza
x = (I − P )x , onde x̂ ∈ X e ~
xˆ = Px e ~ x⊥X .

• como, por definição, ~


x ⊥ X , então tem-se que AT ~
x = 0.
• a solução desta equação matricial é dada pela expressão (2) acima, produzindo
( ) ( )
x = I − ( AT ) + AT y = I − AA+ y , para um y ∈ ℜn arbitrário e sabendo que a
~

matriz ( AT ) + AT é simétrica.
• y = x é uma escolha possível, e como ~
x é único, então a expressão
(
x = I − AA+ x
~ )
Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 45

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

leva a que I − P = I − AA + e P = AA+ .


• conclusão:
¾ AA+ é o operador de projeção ortogonal ao subespaço gerado pelas colunas
de A, ou seja, ao subespaço X.
¾ as matrizes I − AA+ e I − A+ A são operadores de projeção ortogonal aos
subespaços que são os complementos ortogonais dos subespaços gerados pelas
colunas e linhas de A, respectivamente.

6.14 Decomposição em valores singulares

• a decomposição em valores singulares é uma poderosa ferramenta matemática


para a solução de problemas de quadrados mínimos, pois fornece informações
quantitativas importantes acerca da estrutura de um sistema de equações lineares
do tipo: Ax = b. Ela vale tanto para matrizes quadradas quanto retangulares.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 46


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• além disso, a matriz A pode ter elementos reais ou complexos. Neste estudo,
iremos considerar apenas matrizes com elementos reais.
• em termos geométricos, os valores singulares de uma matriz A correspondem aos
comprimentos dos semi-eixos do hiperelipsóide E = {Ax : x 2
= 1}

• seja uma matriz A de dimensão n × m (A ∈ ℜn×m) e de posto r, com r ≤ min(n,m).


Então, A pode ser expressa na forma:
Σ 0  T
A=U  V
 0 0
onde U ∈ ℜn×n e V ∈ ℜm×m são matrizes unitárias, tais que UTU = UUT = In e
VTV = VVT = Im, e Σ ∈ ℜr×r é uma matriz diagonal, com elementos
σ1 ≥ σ2 ≥ ... ≥ σr > 0, denominados valores singulares da matriz A.
• repare que esta decomposição é sempre possível, independente de se ter n = m,
n < m ou n > m.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 47

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• note também que o número de valores singulares positivos coincide com o posto
da matriz A, o que implica que a decomposição em valores singulares representa
um método prático para se obter o posto da matriz A.
Σ 0 
• é possível verificar também que UTAV =   e que as colunas de U são
 0 0
autovetores de AAT, enquanto que as colunas de V são autovetores de ATA.
Σ 0 
• como UUT = In, então , AV = U   o que implica que:
 0 0
 Av i = σ i u i , i = 1,..., r

 Av i = 0, i = r + 1,..., m
onde vi e ui são, respectivamente, as i-ésimas colunas de V e U.
• sendo assim, é possível expressar a matriz A na forma:
r
A = ∑ σ i u i v Ti
i =1

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 48


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

• se a matriz A for simétrica, então seus valores singulares correspondem aos


valores absolutos de seus autovalores não-nulos (ver seção 6.9).
• para os propósitos deste curso, a principal motivação para o estudo de
decomposição em valores singulares é a possibilidade de propor um método
prático de cálculo da pseudo-inversa de uma matriz, independente de se ter n < m
ou n > m.
• seja uma matriz A de dimensão n × m (A ∈ ℜn×m) e de posto r, com r ≤ min(n,m),
Σ 0 
que tenha uma decomposição em valores singulares tal que UTAV =  .
 0 0
Então, a pseudo-inversa da matriz A pode ser obtida na forma:
Σ −1 0 T
A+ = V  U
 0 0

onde Σ −1 = diag( σ1−1 , σ 2−1 ,..., σ −r 1 ) .

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 49

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• quando a matriz A tem posto completo, ou seja, quando r = min(n,m), então é


possível mostrar que:
Σ −1 0 T T −1 T
A+ = V   U = (A A) A , quando n > m
 0 0

+ Σ −1 0 T T T −1
A =V   U = A (AA ) , quando n < m
 0 0

6.15 Transformações contínuas

• uma transformação T: X → Y é contínua em x0 ∈ X se para todo ε > 0 existe um


δ > 0 tal que x − x 0 < δ implica que T ( x ) − T ( x 0 ) < ε . Obviamente assume-se
que X e Y são espaços vetoriais sobre os quais está definida uma mesma norma.

• diz-se que T é contínua se ela for contínua para todo x ∈ X.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 50


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

6.16 Funcional

• uma transformação T: X → ℜ é chamada de funcional sobre X.

6.17 Funcional convexo

• um funcional f: X → ℜ é convexo sobre um subconjunto convexo X de um espaço


vetorial linear se e somente se

f (α ⋅ x1 + (1 − α ) ⋅ x 2 ) ≤ α ⋅ f ( x1 ) + (1 − α ) ⋅ f ( x 2 )

para todo x1, x2 ∈ X e α ∈ [0,1].

• Extensão 1: O funcional f é estritamente convexo se a desigualdade acima for


estrita, com α ∈ (0,1).

• Extensão 2: Um funcional f é (estritamente) côncavo se −f é (estritamente)


convexo, de modo que max f ≡ min (− f ) .

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 51

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

Interpretação Geométrica

α⋅f(x1) + (1−α)⋅f(x2)

f(x1)

f(x2)

x1 x2

α⋅x1 + (1−α)⋅x2

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 52


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

6.18 Funcional convexo diferenciável

• um funcional diferenciável f: X → ℜ é convexo sobre um subconjunto convexo X


de um espaço vetorial linear se e somente se

f (y ) ≥ f (x ) + ∇f (x ) (y − x )
T

para todo x, y ∈ X.
Interpretação Geométrica

f(y)

∇f(x)T(y−x)
f(x)

x y

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 53

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

7 Mínimos Locais

• seja f um funcional definido sobre Ω ⊂ X. Um ponto x0 ∈ Ω é chamado MÍNIMO


LOCAL de f sobre Ω se existe uma esfera
N (x 0 , ε ) = {x : x − x 0 < ε}

tal que f(x0) ≤ f(x), ∀ x ∈ Ω ∩ N (x 0 , ε ).

• x0 é um MÍNIMO GLOBAL se f(x0) ≤ f(x), ∀ x ∈ Ω.


Interpretação Geométrica

f(x)

x01 x02 x

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 54


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

8 Expansão em Série de Taylor

• f: ℜn → ℜ x ∈ ℜn
• expansão em série de Taylor em torno do ponto x* ∈ ℜn:
1
f ( x ) = f ( x*) + ∇f ( x*)T (x − x *) + (x − x *)T ∇ 2 f (x*)(x − x *) + O (3)
2

 ∂ 2 f ( x*) ∂ 2 f ( x*) ∂ 2 f ( x*) 


 ∂f ( x*)   
 ∂x  ∂x1∂x 2 ∂x1∂x n 
 2 ∂x1
2

 ∂f ( x1*)   ∂ f ( x*) ∂ 2 f ( x*) 
  
• ∇f ( x*) =  ∂x 2  ∇ f ( x*) =  ∂x 2 ∂x1
2
∂x 22 
 
     
 ∂f ( x*)   ∂ 2 f ( x*) ∂ 2 f ( x*) 
 ∂x   ∂x ∂x 
 n 
 n 1 ∂x n2 

vetor gradiente matriz hessiana

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 55

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

9 Condição Necessária de Otimalidade

• Teorema: Assuma que f: ℜn → ℜ e f ∈ C2[ℜn] (conjunto das funções com


derivadas contínuas até 2a ordem). Se x* ∈ ℜn é um mínimo local de f(x), então
∇f ( x*) = 0 .

Prova: Por absurdo, suponha que x* é mínimo local de f(x) e que ∇f ( x*) ≠ 0 . Para
ε > 0 suficientemente pequeno, é possível definir um x ∈ ℜn tal que
x = x * − ε∇f ( x*) . Portanto:

f ( x ) ≅ f ( x*) + ∇f ( x*)T (x − x *) = f ( x*) + ∇f ( x*)T (− ε∇f ( x*)) =


2
= f ( x*) − ε∇f ( x*)T ∇f ( x*) = f ( x*) − ε ∇f ( x*)

Logo, em uma vizinhança de x*, ∃ x tal que f(x) < f(x*). ← ABSURDO!

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 56


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

10 Condição Suficiente de Otimalidade

• Teorema: Assuma que f: ℜn → ℜ e f ∈ C2[ℜn] (conjunto das funções com


derivadas contínuas até 2a ordem). Se x* ∈ ℜn é tal que ∇f ( x*) = 0 e

∇ 2 f ( x*) > 0 , então x* resolve min f ( x ) .


x

Prova: Para ε > 0 suficientemente pequeno, é possível definir um x ∈ ℜn tal que


x = x * − εd , onde d ∈ ℜn é uma direção arbitrária. Portanto:

1
f ( x ) ≅ f ( x*) + ∇f ( x*)T (x − x *) +(x − x *)T ∇ 2 f (x*)(x − x *) =
2
1 ε2
= f ( x*) + (− εd )T ∇ 2 f ( x*)(− εd ) = f ( x*) + d T ∇ 2 f ( x*)d
2 2

>0

Como d ∈ ℜn é qualquer, então existe uma vizinhança de x* tal que f(x) > f(x*).
Logo, x* é um mínimo local.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 57

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

• Conclusão: Suponha que x* ∈ ℜn é tal que ∇f ( x*) = 0 . Então x* é

(a) um mínimo global de f(x) se ∇ 2 f ( x ) ≥ 0 ∀ x ∈ ℜn, ou seja, f(x*) ≤ f(x) ∀


x ∈ ℜn.

(b) um mínimo global estrito de f(x) se ∇ 2 f ( x ) > 0 ∀ x ∈ ℜn, ou seja, f(x*) < f(x) ∀
x ∈ ℜn, x ≠ x*.

(c) um máximo global de f(x) se ∇ 2 f ( x ) ≤ 0 ∀ x ∈ ℜn, ou seja, f(x*) ≥ f(x)


∀x ∈ ℜn.

(d) um máximo global estrito de f(x) se ∇ 2 f ( x ) < 0 ∀ x ∈ ℜn, ou seja, f(x*) > f(x)
∀ x ∈ ℜn, x ≠ x*.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 58


EA932 – Prof. Fernando J. Von Zuben
DCA/FEEC/Unicamp

Exemplo:

1
• Resolva o problema min x T Ax + b T x , onde A = AT > 0 e x ∈ ℜ n .
x 2

Solução:

1
• Definindo f ( x ) = x T Ax + b T x , a aplicação da condição necessária de
2
otimalidade ao problema min f ( x ) produz:
x

∇f ( x ) = Ax + b = 0 ⇒ x* = − A−1b

• Como, por hipótese, ∇ 2 f ( x ) = A > 0 (condição suficiente de otimalidade), então


x * é um ponto de mínimo global, portanto solução do problema.

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 59

EA932 – Prof. Fernando J. Von Zuben


DCA/FEEC/Unicamp

11 Referências bibliográficas
ANDERSON, B.D.O. & MOORE, J.B. “Optimal Control – Linear Quadratic Methods”, Prentice-Hall, 1989.
ATHANS, M. & FALB, P.L. “Optimal Control: An Introduction to the Theory and Its Application”, McGraw Hill, 1966.
BAZARAA, M. S., SHERALY, H. D. & SHETTY, C. “Nonlinear Programming: Theory and Algorithms”, 2nd edition, John Willey
& Sons, 1992.
BRONSON, R. “Theory and Problems of Matrix Operations”, Schaum’s Outline Series, McGraw Hill, 1989.
FERREIRA, P.A.V. “Notas de Aula - Curso EA932: Sistemas de Controle II”, 1997.
FRANKLIN, G.F., POWELL, J.D. & EMAMI-NAEINI, A. “Feedback Control of Dynamic Systems”, 3rd. edition, Addison-Wesley
Publishing Company, 1994.
GOLUB, G.H. & VAN LOAN, C.F. “Matrix Computations”, Johns Hopkins Series in the Mathematical Sciences, Johns Hopkins
University Press, 3rd edition, 1996.
HAYKIN, S. “Adaptive Filter Theory”, Prentice Hall, Third Edition, 1996.
KIRK, D.E. “Optimal Control: An Introduction”, Prentice-Hall, 1970.
KWAKERNAAK, H. & SIVAN, R. “Linear Optimal Control Systems”, John Wiley & Sons, 1972.
LEVINE, W.S. (ed.) “The Control Handbook”, CRC Press, 1996.
LEWIS, F.L. & SYRMOS, V.L. “Optimal Control”, 2nd edition, John Wiley & Sons, 1995.
LUENBERGER, D. G. “Linear and Nonlinear Programming”, 2nd edition, Addison Wesley, 1984.
LUENBERGER, D.G. “Optimization by Vector Space Methods”, John Wiley & Sons, 1969 (Paperback, 1997).
LUENBERGER, D.G. “Introduction to Dynamic Systems – Theory, Models, and Applications”, John Wiley & Sons, 1979.
MARDIA, K.V., KENT, J.T. & BIBBY, J.M. “Multivariate Analysis”, Academic Press, 1979.
OGATA, K. “Modern Control Engineering”, Third Edition, Prentice Hall, 1997.
PERES, P.L.D. “Notas de Aula - Curso IA600: Controle Ótimo”, 1993.
SAGE, A.P. & WHITE III, C.C. “Optimum Systems Control”, 2nd edition, Prentice-Hall, 1977.
SKELTON, R.E. “Dynamic Systems Control: Linear Systems Analysis and Synthesis”, John Wiley & Sons, 1988.
STRANG, G. “Linear Algebra and Its Applications”, Harcourt Brace College Publishers, 1988 (4th edition, 2000).

Tópico 1 − Fundamentos Básicos de Álgebra Linear e Otimização 60

Das könnte Ihnen auch gefallen