Sie sind auf Seite 1von 82

Optimierung I

Vortragender: Bredies, Univ.-Prof. Dipl.-Math. Dr.

Mitschrift von Andreas Wenger

Sommersemester 2014

Inhaltsverzeichnis

I Lineare Optimierung

 

3

1 Einleitung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3

 

1.1

Anwendungsbeispiele für lineare Programmierung

 

5

2 Basislösungen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

3 Konvexität .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9

4 Pivotelemente

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

5 Der Simplex Algorithmus

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

16

6 Künstliche Variablen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

18

 

6.1

2 Phasenmethode

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

19

7 Matrix-Form der Simplex-Methode

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

19

8 Revidierter Simplex-Algorithmus

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

20

9 Duale lineare Programme

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

23

 

9.1 Beispiele zu dualen Programmen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

24

9.2 Zusammenhang zwischen revidiertem Simplex Algorithmus und Satz 6

 

27

9.3 Sensitivität

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

28

9.4 Optimalitätsbedingungen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

10 Darstellung der zulässigen Vektoren

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

30

 

10.1 Nullvariablen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

31

10.2 Nichtextremale Variablen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

32

II Innere-Punkt-Verfahren für lineare Programme

 

33

1

Allgemeine Innere-Punkt-Verfahren

 

37

III Unrestringierte nichtlineare Programmierung

 

44

1 Allgemiene Theorie

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

44

2 Optimalitätsbedingungen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

45

3 Abstiegsverfahren und Schrittweitensteuerung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

51

 

3.1 Schrittweitenstrategie

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

53

3.2 Armijo und polynomiale Modelle

 

.

.

.

.

.

.

.

.

.

.

.

.

.

55

4 Konvergenzgeschwindigkeit

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

59

 

4.1

Q- und R-Konvergenz

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

60

5 Gradientenverfahren

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

66

 

5.1 Verfahren des steilsten Abstiegs

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

66

5.2 Gradientenähnliche Verfahren

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

69

6 Verfahren der konjugierten Gradienten für quadratische Probleme

 

69

 

6.1

Präkonditionierung

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

72

7 Newton-Verfahren

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

74

 

7.1 Ungenauigkeiten in Funktions-, Gradiente- und Hessematrixauswertung .

75

7.2 Varianten des Newton-Verfahrens

 

77

7.3 Nichtlineare Ausgleichsprobleme

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

78

Literaturempfehlungen

 

82

2

I Lineare Optimierung

1 Einleitung

Ein lineares Programm ist die Aufgabe, ein lineares Funktional unter linearen Gleichheits- und

Ungleichheitsbedingungen zu minimieren.

Definition 1 (Lineares Programm in Standardform). text

Seien

m, n N , A R m×n , b R m , c R.

Dann ist die Aufgabe (1)

min c x

xR n

mit

Ax = b

x 0

ein lineares Programm in Standardform.

Notation:

Wir schreiben:

n

c x =

i=1 c i x i

Die Gleichung Ax = b gilt in R n .

x 0 gilt komponentenweise: x i 0

i {1,

,

n}

Die Standardform lässt allgemeine lineare Programme zu!

Betrachte (2)

min c x

xR n

mit

Ax b

x 0

Dann:

Gleichheitsbedingungen und Ungleichheitsbedingungen für

Ax b

y R m y 0 Ax + y = b

(1 )

T R n+m ̃c

min

x

y

(x,y)

wobei

̃c =

c

0

und

A =(A

̃

mit

I)

̃

A

⎛ ⎞

x

y

= b

⎛ ⎞

x

y

0

Bemerkung: y heißt Schlupfvariable

x

y .

Dann gilt: x̃ ist Lösung von (2)

(x,̃ b Ax̃) T ist Lösung von (1 )

3

Beweis. text

̃

Ist x̃ Lösung von (2)

x̃ 0 klar und

ỹ = b Ax̃

da

und

Ax̃ b.

c x̂< c x̃

A

ỹ = b Ax̃ 0

Angenommen (x,̂ ŷ) mit

Ax̂+ ŷ= b

x̂0

ŷ0

x̃ ⎞

ỹ

= Ax̃+ b Ax̃= b

Dann:

Damit ist (x,̃ b Ax̃) T Lösung von (1 )

Ax̂ b

x̂ 0

da

x̃ Lösung von (2)

Analog: Ist (x,̃ ỹ) Lösung von (1 )

x̃ ist Lösung von (2)

text

Betrachte (3)

⎪ ⎧ ⎪ min c x

⎪ ⎪ ⎪ xR n

Ax b

mit

x 0

Dann:

Standardform ergibt sich Analog zu obigen Beispiel mit A =(A I)

Ax b

y R m

y 0

Ax y = b

̃

Beispiel: min c x

xR n

⎪ ⎪

mit

Ax = b

(x 2 x n ) T 0

(4)

Keine Ungleichheitsbedingung an x 1

Nun sei für x 1 R eine

x 1 freie Variable.

Darstellung x 1 = u 1 v 1 u 1 v 1

n

mit A

x

x

2

n

mit u 1 ,v 1 0. Setze ein in (4)

= b

u 1 0

v 1 0

x i 0

i =2,

,

min x n R c 1 (u 1 v 1 )+ i=2 c i x i

,

u 1 ,v 1 ,x 2 ,

n

Standardform ergibt sich mit: ̃c =

c 1

c 2

c 1

c

n

A =(A 1

̃

A 1 A 2 A n )

Alternative: Betrachte Aufgabe (4)

Angenommen a i1 0 für

Dann Ax = b

Einsetzen in (4) x 1 kann eliminiert werden Standardform (1)

ein i {1 ,

1 i1 [b i

a

, m}

j=2 a ij x j ]

n

x 1 =

x̃=

4

u 1

v

1

x

2

x

n

qed

Konkretes Beispiel:

min 3 R x 1 +3x 2 +4x 3

x 1 ,x 2 ,x

x 1 +2x 2 + x 3 =5

⎪ ⎪

2x 1 +3x 2 + x 3 =6

x 2 0 x 3 0

x 1 =52x 2 x 3

äquivalentes Problem:

min R x 2 +3x 3

x 2 ,x 3

mit

x 2 + x 3 =4

x 2 0 x 3 0

1.1 Anwendungsbeispiele für lineare Programmierung

Anwendungsbeispiel 1: [Diätproblem]

Aufgabe: „Kostengünstigste“ Versorgung mit Nährstoffen

„Kosten“: Preis im Supermarkt, Energie, etc.

Gegeben:

n Nahrungsmittel mit Kosten c 1 ,

,

c n

m Nährstoffe mit b 1 ,

,

b m erforderlichen Einheiten in der Diät

Wissen: Nahrungsmittel i enthält a ji Einheiten des Nährstoffes j

Damit x 1 ,

,

x n Einheiten des jeweiligen Nahrungsmittels:

x 1 ,

,

x n 0

n

i=1 a ji x i b j

Nahrung kann nur zugeführt werden

die Diät muss eingehalten werden

Gesamtkosten:

n

c i x i

i=1

Diätproblem damit

min c x

xR n

Ax b

mit

x 0

1i n

1j m

Anwendungsbeispiel 2: [Transportproblem]

Aufgabe: Kostengünstigster Transport eines Produkts vom Produzenten an den Verbraucher

Gegeben:

1 Produkt

a 1 ,

,

a m Einheiten des Produkts in m Produktionsstätten

Bedarf: b 1 ,

,

b n Einheiten für n Käufer

Transportkosten c ij von Produktionsstätte i zum Käufer j

5

Gesucht: x ij optimaler Frachteinsatz für Transport i j

Bedingungen:

n

x 11

x 1n

a

1

 

x m1

x mn

a

m

b 1

b n

 

j=1 x ij = a i

für i

=

1

,

.

.

.

,

m

alles muss weg

m

i=1 x ij = b j

für

j

=

1

,

.

.

.

,

n

Bedarf muss gedeckt werden

 

m

n

Zuatzbedingung:

i=1 a i = j=1 b j

 

x ij 0

Gesamtkosten:

1i m

1j m

n

m

∑ ∑

j=1

i=1 c ij x ij

nur Transport von Produktionsstätte zum Käufer

Lineares Programm ergibt sicht damit durch:

x̃=(x 11 x 1n x 21 x 2n x mn ) T R mn

A ̃ =

⎜ ⎜

⎜ ⎜

T

0

0

I

T

0

0

I

0

0

T

I

⎟ ⎟

⎟ ⎟

⎟ ⎟

R (m+n)×(mn)

̃ =(a 1 a m b 1 b n ) T

b

⎛ ⎞

⎟ ⎟ ⎟

⎝ ⎠

1

1

= R n

I R n×n

̃c =(c 11 c 1n c 21 c 2n c mn ) T

⎪ ⎪

⎪ ⎪ ⎪

Transportproblem damit

min mn ̃c x̃

x̃R

mit

Ax̃= ̃ ̃

⎪ ⎩ ⎪ x̃0

b

Anwendungsbeispiel 3: [Lagerhallenproblem]

Aufgabe: Plane Einkauf und Verkauf eines Produkts bei begrenzter Lagerkapazität

Gegeben:

n Zeiteinheiten

6

Lagerkapazität c

Lagerhaltungskosten r pro Zeiteinheit und Stück

Kosten für Kauf/Verkauf p i pro Stück zum Zeitpunkt i

Bedingung: Zu Beginn und am Ende soll das Lager leer sein

Gesucht:

Einkaufsplan: u i Einheiten zum Zeitpunkt i

Verkaufsplan: s i Einheiten zum Zeitpunkt i

Modell: x i Lagerauslastung zum Zeitpunkt i

Dann: x i+1 = x i + u i s i

Klar:

1i n

2i n

x 1 = x n =0

x i 0

x i c

Profit:

n

i=1 p i s i p i u i rx i

n

Damit Profitmaximierung: max i=1 p i s i p i u i rx i mit

x i+1 = x i + u i x i

x 1 =0

0x i c

u 1 ,

1i n 1

x n + u n s n =0

2i n 1

s n 0

,

,

u n ,s 1 ,

2 Basislösungen

Sei im folgenden x R n ,

Betrachte die Gleichung: Ax = b (5). Annahme: rang(A) = m (H)

Sei m n, ansonsten können Zeilen von A eliminiert werden, ohne das sich die Lösungsmenge

von (5) ändert. o. B. d. A. seien die ersten m Spalten von A linear unabhängig (ansonsten

vertausche Indizes von x). Damit A = (B C) B GL m (R).

b R m , A R m×n .

Also ist Bx B = b eindeutig lösbar 0

x

B

ist Lösung von (5).

Definition 2 (Basislösungen). text

Gegeben Ax = b mit A R m×n rang(A) = m b R m .

Es sei B R m×m eine reguläre Untermatrix von A, d. h.

zes

für Indi-

det(B) 0. Dann heißt B Basis. Die Lösung x B von Bx B = b heißt

B = (a j 1 a j m )

j 1 ,

,

j m

und

⎪ (x B ) j i

Basisvariable. Der Vektor x R n , gegeben durch x k =

heißt Basislösung bezüglich B.

0

k = j für ein i {1 ,

sonst

, m}

Eine Basislösung x heißt degeneriert, falls mindestens eine Komponente der Basisvariable gleich

0 ist.

7

Definition 3 (zulässige Lösungen). text

In der Situation von Def inition 2 heißt x̃ R n zulässig für Ax = b

Ax̃ = b

Basislösungen.

x 0, falls

Analog definiert man zulässige Basislösungen und zulässige, degenerierte

x̃ 0.

Satz 1 (Fundamentalsatz der linearen Programmierung). text

min c