Sie sind auf Seite 1von 116

Einfuhrung¨

in die

Mathematik des Operations Research

Ulrich Faigle

Skriptum zur Vorlesung

Sommersemester 2011 Universitat¨ zu K oln¨

Universitat¨ zu K oln¨ Mathematisches Institut Weyertal 80

faigle@zpr.uni-koeln.de

www.zaik.uni-koeln.de/AFS

Inhaltsverzeichnis

Kapitel 0. Notationen und Terminologie

3

1. Lineare Algebra

3

2. Ordnungsrelationen

5

3. Topologie

6

4. Mathematische Optimierungsprobleme

8

Kapitel 1. Lineare Theorie

11

1. Lineare Funktionale, Polyeder, Konvexit at¨

11

2. Die St utzfunktion¨

13

3. St utzpunkte¨

und Seitenfl achen¨

16

4. Dualit at¨ und Kegel

19

Kapitel 2. Lineare Ungleichungen und die Struktur von Polyedern

25

1. Zeilen- und Spaltenoperationen

25

2. Elimination nach Fourier-Motzkin

25

3. Die Struktur von Polyedern

31

Kapitel 3. Optimalitatsbedingugen¨

41

1. Notwendige Bedingung

41

2. Strafmethoden und Lagrangefunktion

46

3. Lagrange-Dualit at¨

54

4. Barrieremethoden

57

Kapitel 4. Methoden der Linearen Programmierung

59

1. Rationale lineare Programme

59

2. Die Methode innerer Punkte (IPM)

62

3. Die Ellipsoidmethode

68

4. Die Simplexmethode

76

Kapitel 5. Unimodulare lineare Programme

89

1. Unimodulare und total unimodulare Matrizen

89

2. Total unimodulare lineare Programme

93

3. Zirkulationen und das MAX-Flow-MIN-Cut-Theorem

97

4. Kombinatorische Optimierung

101

Kapitel 6. Schnittebenenverfahren und Heuristiken

105

1

2

INHALTSVERZEICHNIS

1. Schnittebenen

105

2. Heuristische Verfahren

111

3. Enumeration

113

4. Relaxierung

114

KAPITEL 0

Notationen und Terminologie

1. Lineare Algebra

F ur¨ beliebige Mengen R und N notiert man die Menge aller Abbildungen von N nach R so:

R N = {f : N R}. F ur¨ f R N und i N setzt man auch f i = f (i) und nennt f i die i te Koordinate von f .

Besonders anwendungsrelevant sind die Skalarbereiche R = N, R = Z , R = Q oder R = R, wo man die Elemente (Funktionen) in R N koordina- tenweise miteinander addieren und mit Skalaren mutliplizieren kann.

Im Fall N = {1,

1.1. Vektoren und Matrizen. Die Elemente von R n heissen n -dimen-

sionale Parametervektoren . Im Skriptum wird ein solches x R n typi-

scherweise fett notiert und als Spaltenvektor verstanden:

, n} schreibt man oft kurz: R n = R N .

x =  

x

.

.

.

x

1

n

(x i R).

Als Zeilenvektor wird der Parametervektor meistens transponiert notiert:

x T = [x 1 ,

,

x n ].

, 0] T ist der Nullvektor . Wenn der formale Unterschied zwischen

Spalten- und Zeilenvektor nicht so wichtig ist, wird ein Parametervektor auch mit runden Klammern notiert:

0 = [0,

x

= (x 1 ,

,

x n ).

R m×n ist die Menge aller (m × n) -Matrizen. Ein A = [a ij ] R m×n kann man entweder als n -Tupel von m -dimensionalen Spaltenvektoren A ·j oder als m -Tupel von n -dimensionalen Zeilenvektoren A i· auffassen:

[A ·1 ,

,

A ·n ] =

a 11

.

.

.

a m1

3

.

.

.

.

.

.

a 1n

.

a mn

=

A

1·

A

.

.

.

m·

4

0. NOTATIONEN UND TERMINOLOGIE

F ur¨ A = [a 1 ,

entsprechende Linearkombination der Spaltenvektoren als

, a n ] R m×n und x = [x 1 ,

, x n ] T R n notiert man die

Ax = x 1 a 1 +

+

x n a n =

n

j=1

x j a j .

F ur¨ y R m ist y T A = (A T y) T die analoge Linearkombination der Zeilen- vektoren von A.

Ist B = [b 1 ,

Matrixprodukt bilden:

, b k ] R n×k eine weitere Matrix, so kann man das folgende

AB = [Ab 1 ,

,

Ab k ] R m×k .

1.2. Analytische Geometrie. R n kann man auch als Menge der Koor-

von Punkten“ anse-

hen. Geometrische Punkte P, Q kann man eigentlich“ nicht addieren oder

subtrahieren. Die Differenz QP der entsprechenden Koordinatenvektoren ist aber mathematisch sinnvoll. Man fasst −→ PQ = Q P

dinatenvektoren eines n-dimensionalen Universums“

dann als einen Vektor auf, der eine Wirkung“ beschreibt, die den Ortszu- stand P in den Ortszustand Q ver andert.¨

1.3. Affine und lineare Teilr aume.¨

Teilmenge der Form

Ein Hyperebene in R n ist eine

H = {x R n | a T x = b}

(a R n \ {0}, b R).

Ein affiner Teilraum A ist ein Durchschnitt von Hyperebenen. Insbesondere ist ∅ ⊆ R n ein affiner Teilraum. Aus der linearen Algebra weiss man:

L EMMA 0.1. F ur¨ eine beliebige nichtleere Teilmenge S R n sind die Aussagen aquivalent:¨ (0) S ist ein affiner Teilraum. (1) Es gibt ein m N und eine Matrix A R m×n und einen Vektor

(2)

b R m so dass S = {x R n | Ax = b}.

Es gibt Vektoren v 0 , v 1 ,

, v k R n so, dass

k

S = {v 0 + i=1 λ i v i | λ i R}.

(3) F ur¨ beliebige u, v S und Skalare α R gilt:

z = αu + (1 α)v

S.

Ein affiner Teilraum A heisst linear im Fall 0 A.

2. ORDNUNGSRELATIONEN

5

2. Ordnungsrelationen

[y 1 ,

2.1.

Koordinatenordnung. F ur¨ , y n ] T schreibt man

Vektoren x = [x 1 ,

, x n ] T und y =

 

x

y

⇐⇒

x i y i

fur¨

alle i = 1,

, n

und

 

x

< y

⇐⇒

x i < y i

fur¨ alle

i = 1,

, n .

N OTA B ENE : Bei dieser Ordnungsrelation gibt es (im Fall n 2 ) immer Vektoren a, b R n , die nicht miteinander vergleichbar sind, d.h.

a ̸≤ b

und b ̸≤ a.

2.2. Lexikographische Ordnung. x ist lexikographisch kleiner (Nota-

tion: x y ) als y , wenn es einen Index 1 n gibt mit der Eigenschaft

x < y

und x j = y j

fur¨ alle j < ℓ .

L EMMA 0.2. Fur¨ beliebige a, b R n gilt genau eine der drei Aussagen:

(0)

(1)

(2)

a = b a b b a .

2.3. Mengenoperationen.

2.3.1. Minkowski-Summe. Man kann Mengen im R n z.B. folgender- massen addieren. Die Minkowski-Summe der Teilmengen S, T R n ist die

Teilmenge

S + T = {s + t | s S, t T } ⊆ R n .

Im Spezialfall einer einelementigen Menge T = {t} erh alt¨ man die Trans- lation von S um den Vektor t :

S + t = S + {t} = {s + t | s S}.

L EMMA 0.3. Die Minkowski-Summe zweier affiner Teilraume¨ ber ein affiner Teilraum.

in R n ist sel-

6

0. NOTATIONEN UND TERMINOLOGIE

2.3.2. Koordinatenprojektionen. Sei N = {1,

, n} und ∅ ̸= I N .

F ur¨ x R N bezeichnet x I die Restriktion von x auf die Koordinaten in I .

In einer etwas lockeren (aber bequemen) Schreibweise haben wir dann:

x = x N = [

x

x

J ]

I

mit J = N \ I .

Diese Schreibweise ist auch vorteilhaft bei allgemeiner Matrixnotation:

Ax = A N x N = A I x I + A N\I x N\I .

(Hier ist A I nat urlich¨ ten.)

die Restriktion von A auf die I entsprechenden Spal-

F ur¨ beliebiges S R n erhalten wir die Projektion π I (S) von S auf die Koordinatenmenge I als die Menge

π I (S) = {x I | x S} ⊆ R I .

B EISPIEL 0.1. Sei I = {2, 3,

, n} . Dann gilt f ur¨ S R n :

π I (S) = {(x 2 , x 3 ,

, x n ) | ∃x 1 R : (x 1 , x 2 , x 3 ,

, x n ) S}.

3. Topologie

Sei (x k ) eine Folge von Vektoren x k R. Wir schreiben

x k x

bzw.

x =

k→∞ x k ,

lim

wenn (x k ) (komponentenweise) gegen x R n konvergiert. Bzgl. der eukli- dischen Norm

x= x T x = x 2 +

1

+ x

2

n

kann man das auch so ausdrucken:¨

x k x

⇐⇒

x k x2 0.

Eine Menge S R n heisst abgeschlossen, wenn f ur¨ jede Folge (x k ) mit x k S gilt:

x k x

=

x S.

S ist beschrankt¨ , wenn es eine Schranke c > 0 mit der Eigenschaft

x∥ ≤ c

x S

gibt. Eine beschr ankte¨ und abgeschlossene Menge S R n ist kompakt.

3. TOPOLOGIE

7

3.1. Stetigkeit. Eine Funktion f : S R heisst stetig, wenn f ur¨ alle

x S und Folgen (x k ) mit x k S gilt:

x k x

=

Aus der Analysis weiss man:

f(x k ) f(x).

L EMMA 0.4. Sei ∅ ̸= S

existieren Punkte (Vektoren) x min , x max S mit der Eigenschaft

R n kompakt und f : S R stetig. Dann

f(x min ) f(x) f(x max ) fur¨ alle x S .

Quadratische und lineare Funktionen. Offenbar sind Summen und Pro- dukte stetiger Funktionen wieder stetig. Also ist insbesondere jede quadra- tische Funktion f : R n R , d.h. Funktion mit der Darstellung

f(x 1 ,

,

x n ) =

n

n

∑ ∑

i=1

j=1

a ij x i x j

n

k=1

c k x k

fur¨ geeignete skalare Koeffizienten a ij und c k , stetig. Im Fall a ij = 0 fur¨ alle i, j heisst eine quadratische Funktion linear.

In Matrixschreibweise kann man mit A = [a ij ] R n×n die Funktion f auch so notieren:

f(x) = x T Ax c T x.

3.2. Gradienten und Differenzierbarkeit. Sei S R n eine offene

Menge, f : S R eine Funktion und x 0 S ein Punkt, wo alle partiellen

Ableitungen von f existieren. Dann bezeichnet man den (Zeilen-)Vektor der partiellen Ableitungen

f(x 0 ) = [ f(x 0 ) , ∂x 1

,

f(x 0 ) ∂x 1

]

als den Gradienten von f an der Stelle x 0 .

Sind die partiellen Ableitungen x ∂f (x)/∂x j stetige Funktionen (und somit x → ∇f (x) eine stetige vektorwertige Funktion auf S ), dann kann man in jedem Punkt x 0 zu jedem d R n (mit den Komponenten d j ) die Richtungsableitung von f mit Hilfe der Kettenregel berechnen:

f(x 0 + td) f(x 0 )

n

∂f(x 0 )

d f(x 0 ) = lim

t0

 

 

d j = f(x 0 )d.

t

=

∂x j

 

j=1

 

8

0. NOTATIONEN UND TERMINOLOGIE

B EISPIEL 0.2. Sei A = [a ij ] R n×n eine symmetrische Matrix. Dann ist die quadratische Funktion

x f(x) = x T Ax =

n

n

∑ ∑

i=1

j=1

a ij x i x j

auf R n stetig differenzierbar und hat den Gradienten

f(x) = 2x T A = [

n

i=1

2a i1 x i ,

,

n

i=1

2a in x i ] .

4. Mathematische Optimierungsprobleme

Ein Optimierungsproblem“ ist im allgemeinen umgangssprachlich nicht so pr azise¨ formuliert, dass man es ohne weiteres mathematisch analysieren (und l osen)¨ kann. Es muss zuallerst in ein mathematisches“ Optimierungs- problem umformuliert werden.

Zu einem mathematischen Optimierungsproblem gehoren:¨

(1) eine Menge (der sog. Zul assigkeitsbereich¨

(2) eine Menge W (der sog. Wertebereich) und ausserdem eine Funk-

tion f : Ω W (die sog. Zielfunktion), welche die Elemente des Zul assigkeitsbereichs¨ bewertet.

);

In dieser Vorlesung nehmen wir meist an:

W = R und R n (fur¨ ein geeignetes n ). Die Optimierungsaufgabe ist dann so ausgedr uckt:¨

max f (ω) oder min f(ω).

ω

ω

Um mit “ uberhaupt¨ rechnerisch umgehen zu k onnen,¨ muss der Zul assig-¨ keitsbereich numerisch spezifiziert werden. Oft sucht man dazu Funktionen g i : R n R (i I ), wobei I eine geeignete (endliche oder unendliche) Indexmenge ist, mit der Eigenschaft

Ω = {x R n | g i (x) 0 i I}.

Die Funktionen g i (x) heissen in diesem Fall Restrikitionsfunktionen und das mathematische Optimierungsproblem wird dann z.B.

max f (x)

xR n

s.d.

g i (x) 0 i = 1,

, m.

Die Forderungen g i (x) 0 sind die sog. Nebenbedingungen des Problems.

B EMERKUNG . Die Formulierung eines Optimierungsproblems aus dem Anwen- dungsbereich als mathematisches Optimierungsproblem ist im allgemeinen auf

4. MATHEMATISCHE OPTIMIERUNGSPROBLEME

9

sehr viel verschiedene Arten m oglich.¨ ste“ ist.

Es ist nicht immer klar, welches die be-

, a n . Es sollen m og-¨

lichst viele Objekte gewahlt¨ werden, deren Gesamtgewicht die gegebene

B EISPIEL 0.3. Es gibt n Objekte mit Gewichten a 1 ,

Schranke b aber nicht uberschreiten¨ darf.

1. Formulierung: Reprasentiere¨

die Objekte mit (0, 1) -Variablen x i und

der Zielfunktion

 

f(x 1 ,

, x n ) = x 1 +

+ x n =

und erhalte

 

n

n

 

max

x i

s.d.

a i x i

 

i=1

i=1

x 1 ,

, x n

n

i=1

x i

b

{0, 1}.

2. Formulierung:

max

xR n

n

i=1

x i

s.d.

n

i=1

a i x i

x i (1 x i )

=

b

0

(i = 1,

, n).

In dieser Formulierung hat man 2n + 1 viele auf dem gesamten R n differen- zierbare Restriktionsfunktionen (und damit entsprechend viele Nebenbedin- gungen):

g 0 (x 1 ,

x n )

=

g i (x 1 ,

,

x n )

=

,

h i (x 1 ,

x n )

=

,

(

n

i=1

a i x i ) b

+x i (1

x i )

(i

= 1,

, n)

x i (1 x i )

(i = 1,

, n).

KAPITEL 1

Lineare Theorie

1. Lineare Funktionale, Polyeder, Konvexitat¨

Eine skalarwertige Funktion f : R n R ist ein Funktional. Eine vektor- wertige Funktion f : R n R m besteht aus m Komponentenfunktionen f i : R n R , die selber Funktionale sind:

f(x) =

f 1 (x)

.

.

.

f m (x)

.

Ein lineares Funktional auf R n ist (bekanntlich) von der Form

f(x 1 ,

,

x n ) = c 1 x 1 +

+ c n x n = c T x

fur¨

tige Funktion. Also gilt f ur¨ jedes z R n :

einen geeigneten Koeffizientenvektor c = (c 1 ,

, c n ) und ist eine ste-

H(c, z) := {x R n | c T x = z} = f 1 (z) ist eine abgeschlosse- ne Menge.

P (c, z) := {x R n | c T x z} = f 1 (−∞, z] ist eine abge- schlossene Menge.

f 1 (z, ) = {x R n | c T x > z} ist eine offene Menge.

und Polyeder. Im Fall c ̸= 0 ist H(c, z) eine Hy-

perebene, P (c, z) ist ein (abgeschlossener) Halbraum. f 1 (z, ) ist ein

1.1. Halbr aume¨

offener Halbraum.

B EMERKUNG . Vereinbarungsgemass¨ werden der gesamte Raum R n = P (0, 0) und die leere Menge = P (0, 1) als triviale Halbr aume¨ mitgezahlt.¨

Geometrische Terminologie. Ein affiner Raum ist ein Durchschnitt von endlich vielen Hyperebenen. Auch R n = H(0, 0) wird als affiner Raum betrachtet.

Ein Polyeder ist ein Durchschnitt von endlich vielen Halbraumen.¨ So sind z.B. R n und insbesondere Polyeder.

11

12

1. LINEARE THEORIE

Algebraische Terminologie. Ein affiner Raum ist die L osungsmenge¨ linearen Gleichungssystems

+

+

a 11 x 1 a 21 x 1

.

.

.

+ a 12 x 2 + a 22 x 2

+

+

.

.

.

.

.

.

a 1n x n a 2n x n

=

=

.

b

b

1

2

a m1 x 1 + a m2 x 2 +

+ a mn x n = b m

eines

In Matrixnotation mit A = [a ij ] R m×n und b R m notieren wir den affinen L osungsraum¨ auch als

H(A, b) := {x R n | Ax = b} =

m

i=1

wobei die a T die Zeilenvektoren der Matrix A sind.

i

H(a T , b i ),

i

Analog erhalten wir ein Polyeder als L osungsmenge¨ ren Ungleichungssystems

+ a 12 x 2 + a 22 x 2

a 11 x 1 a 21 x 1

.

.

.

+

+

+

+

.

.

.

.

.

.

a 1n x n a 2n x n

eines endlichen linea-

.

b

b

1

2

a m1 x 1 + a m2 x 2 +

Wir notieren das Polyeder entsprechend auch als

+ a mn x n b m

P (A, b) := {x R n | Ax b} =

m

i=1

P(a T , b i ).

i

B EMERKUNG . Aus der linearen Algebra weiss man, dass ein unendliches lineares Gleichungssystem in n Variablen x j immer zu einem endlichen linearen Teilsystem aquivalent¨ ist (d.h. denselben L osungsraum¨ hat).

Vorsicht: Bei unendlichen linearen Ungleichungssystemen ist dies nicht notwen- digerweise der Fall !!!

1.2. Konvexitat.¨ Eine Menge S R n ist konvex, wenn gilt

x, y S

λx + (1 λ)y S

fur¨ alle reellen Paramter 0 λ 1 .

Man macht sich leicht klar (Beweis?):

Jeder Halbraum des R n ist konvex.

Beliebige Durchschnitte konvexer Mengen ergeben eine konvexe Menge. Da ebensolches auch f ur¨ abgeschlossen“ gilt, finden wir:

¨

2. DIE ST UTZFUNKTION

13

Beliebige Durchschnitte von Halbr aumen¨ ergeben konevexe abge- schlossene Mengen. Insbesondere ist jedes Polyeder konvex und abgeschlossen.

Zur Illustration betrachen wir ein (m oglicherweise¨ Ungleichungssystem:

a 11 x 1

+

a 21 x 1

+

.

.

.

.

a m1 x 1

+

.

.

.

.

a 12 x 2 a 22 x 2

.

a m2 x 2

.

+

+

.

+

.

.

.

.

.

.

.

.

.

.

+

+

.

+

.

a 1n x n a 2n x n

.

a mn x n

.

unendliches) lineares

.

.

b

b

1

2

.

b m

.

Die L osungsmenge¨ des Systems besteht aus all den Parametervektoren x R n , die jede einzelne dieser Ungleichungen erf ullen,¨ also aus denjenigen x , die im Durchschnitt s amtlicher¨ entsprechender Halbr aume¨ liegen. Wir sehen:

Die L osungsmenge¨

eine beliebigen linearen Ungleichungssystems

mit n Variablen bildet eine konvexe abgeschlossene Teilmenge des

euklidischen Raums R n .

B EMERKUNG . Die Losungsmengen¨ beliebiger linearer Ungleichungssysteme sind nicht notwendigerweise Polyeder. Hier liegt der entscheidende Unterschied zur li- nearen Algebra:

Zu jedem n -dimensionalen linearen Gleichungssystem gibt es ein endliches Teilsy-

stem mit demselben L osungsraum.¨ nicht immer der Fall.

Bei linearen Ungleichungs systemen ist das aber

2. Die St utzfunktion¨

Sei S R n eine gegebene Menge. Wir untersuchen nun Optimierungspro- bleme mit linearer Zielfunktion. Das sind Probleme vom Typ

max c T x (mit c R n ).

(1)

xS

Wir interessieren uns f ur¨ die Optimalwerte und betrachten dazu die sog.

Stutzfunktion¨

−∞

δ(S, ·) : R n R := R ∪ {−∞, +∞} von S , wobei

δ(S, c) :=

{

wenn S =

sup c T x sonst,

xS

14

1. LINEARE THEORIE

B EISPIEL 1.1 (Minkowskisummen). Minkowskisummation von Mengen re- flektiert sich einfach in der Summation der St utzfunktionen:¨

δ(S + T, c)

=

sup{c T (s + t) | s S, t T }

=

sup c T s + sup c T t

 

sS

tT

 

=

δ(S, c) + δ(T, c).

Allgemein setzen wir weiter

S 0

:=

{c R n | δ(S, c) < ∞}

=

{c R n | s T c δ(S, c) < ∞ ∀s S}

und

S :=

{x R n | c T x δ(S, c) c R n }

= {x R n | c T x δ(S, c) c S 0 }.

Aus der Definition ersieht man sofort:

S 0 und S sind L osungsmengen¨

linearer Ungleichungssysteme und

folglich konvex und abgeschlossen.

Ausserdem gilt fur¨ alle Teilmengen S, T R n :

S T

=

S S T

und T 0 S 0 .

Mengen dieses Typs spielen eine zentrale Rolle in der Optimierungstheorie. Insbesondere f ur¨ die (sp ater¨ noch zu diskutierende) diskrete Optimierung ist die folgende einfache Beobachtung von enormer Wichtigkeit.

L EMMA 1.1. δ(S, c) = δ(S, c) f ur¨

alle c R n .

Beweis.

Definition!)

Wegen S S gilt sicher δ(S, c) δ(S, c) . Andererseits gilt (nach der

c T x δ(S, c)

fur¨ alle x S

und deshalb δ(S, c) δ(S, c) .

2.1. Der Fundamentalsatz.

S ATZ 1.1 ( Fundamentalsatz“). Sei S R n nichtleer und c R n . Dann ist das Optimierungsproblem

max c T x

xS

¨

2. DIE ST UTZFUNKTION

15

entweder nach oben unbeschrankt¨ Eigenschaft c T x = sup

xS

oder es existiert ein x S mit der

c T x = δ(S, c).

Beweis. Sei 0 = {(x 0 , x) R n+1 | x S, x 0 = c T x} der Graph der Funk- tion f (x) = c T x . 0 ist eine abgeschlossene Menge (Beweis?). Wir nehmen das Optimierungsproblem als beschr ankt¨ an und setzen

δ :=

sup

x0

x 0 = δ(S, c) < .

Betrachten wir nun die Projektion von 0 auf R :

Π 0 := {x 0 | (x 0 , x 1 ,

, x n ) 0 } ⊆ R.

Π 0 ist als Projektion des Graphen der linearen Funktion f (x) abgeschlossen (Be- weis?). Ausserdem ist Π 0 nicht leer, da es (nach Annahme) einen Parametervektor xˆ 0 gibt. Also ist

Ω ˆ 0 = Π 0 x 0 , δ ] eine kompakte Menge und enth alt¨ somit das Element

x =

sup

ˆ

x 0

0

x 0 = δ

ˆ

(d.h. 0 = [ˆx 0 , δ ] ).

Folglich existiert ein x S mit c T x = δ .

2.2. Der Trennungssatz. Sei S R n beliebig und y / S . Dann gibt es ein c R n mit der Eigenschaft

(i)

c T y > δ(S, c) .

(ii)

c T x δ(S, c) fur¨ alle x S (d.h. S P (c, δ(S, c)) ).

In diesem Sinn trennt die Hyperebene

H(c, δ(S, c)) = {x R n | c T x = δ(S, c)}

den Punkt y von der Menge S . Nach dem Fundamentalsatz existiert ausser-

dem ein x S mit c T x = δ(S, c) . Wegen seiner grundlegenden Bedeu- tung formulieren wir diesen Zusammenhang als Satz.

S ATZ 1.2 ( Trennungssatz“). Sei S ̸= und y R n \ S ein beliebiger

Punkt. Dann existiert ein Vektor c R n und der Punkt x S derart, dass

(i)

c T y

>

c T x , d.h.

y / P (c, c T x ) .

(ii)

c T x c T x fur¨

alle x S , d.h.

S P (c, c T x ) .

S ATZ 1.3. S ist die kleinste konvexe und abgeschlossene Menge, die S enth alt.¨

16

1. LINEARE THEORIE

˜

Beweis. Sei S die kleinste konvexe abgeschlossene Menge, die S enthalt.¨ Dann

˜

gilt S S (denn Durchschnitte von konvexen und abgeschlossenen Mengen sind immer konvex und abgeschlossen). Ausserdem ist sicherlich ist die Aussage des

˜

Satzes im Fall S = richtig (denn es gilt ja: = = ).

˜

˜

Nehmen wir also S ̸= an und unterstellen, dass ein y S \ S existiert. Wir wollen diese Unterstellung zu einem Widerspruch f uhren.¨ Dazu w ahlen¨ wir ein R > 0 so gross, dass

S R = {x S | ∥y x∥ ≤ R} ̸= .

˜

˜

˜

Die Funktion f (x) = x yist stetig und S R kompakt (warum?). Also existiert

˜

ein x S , das f (x) minimiert und wir haben

0 < y x 2 ≤ ∥y x2

Mit c := y x ergibt sich daraus

0 < (y x ) T (y x ) = c T (y x )

fur¨ alle x S .

und somit c T x < c T y.

Wenn wir nun δ(S, c) = c T x nachweisen k onnen,¨

somit c T y δ(S, c) ) einen Widerspruch konstruiert.

Zu diesem Nachweis betrachten wir ein beliebiges x S \ {x }, schreiben es in der Form

x = x + λd mit d= 1 und λ > 0,

erschliessen

c2 ≤ ∥y x2 = (c λd) T (c λd) = c2 2λc T d + λ 2

und folgern (nach Division durch 2λ )

haben wir (wegen y S und

λ/2 c T d 0

und deshalb (mit λ 0)

c T d 0.

Das bedeutet aber c T x = c T x + λc T d c T x . Da x beliebig war, finden wir

c T x c T x

fur¨ alle x S .

Aus Satz 1.3 ergibt sich insbesondere: Die konvexen abgeschlossenen Men- gen des R n sind genau die L osungsmengen¨ von (endlichen oder unendli- chen) linearen Ungleichungssystemen mit n Variablen.

3. St utzpunkte¨

und Seitenfl achen¨

Wir nennen eine Hyperebene H(c, z) eine Stutzhyperebene¨ R n , wenn gilt:

zur Menge S

(1) S P (c, z) (d.h. S liegt ganz im entsprechenden Halbraum P (c, z) .

(2)

S H(c, z) ̸= .

¨

¨

3. ST UTZPUNKTE UND SEITENFL ACHEN

17

Die Punkte x S H(c, z) heissen dann Stutzpunkte¨ und sind Opti- mall osungen¨ des Problems

max

xS

c T x.

Insbesondere gilt c T x = z = δ(S, c) .

Generell nennen wir eine Teilmenge F S eine Seitenfl ache¨ es eine Hyperebene H = (c, z) gibt mit den Eigenschaften

von S , wenn

F = S H

und S P (c, z).

Damit schliessen wir und S als triviale Seitenflachen¨ der Sicht der Optimierung ist wichtig:

Seitenfl achen¨ von S sind genau die Teilmengen F S , die als L osungsmengen¨ von linearen Optimierungsproblemen uber¨ S auf- treten k onnen.¨

(In der Sichtweise von Satz 1.2 ist also z.B. H(c, c T x ) eine St utzhyper-¨

ebene und x ein Stutzpunkt¨

von S mit ein. Aus

der Menge S .)

Ein Punkt x S heisst Randpunkt