Sie sind auf Seite 1von 232

Nico Tauchnitz

arXiv:1610.02829v1 [math.OC] 10 Oct 2016

Notwendige Bedingungen in der


Optimalen Steuerung

Schwache und starke lokale Minima in Steuerungsproblemen


mit endlichem und unendlichem Zeithorizont
Vorwort i

Vorwort

Das vorliegende Manuskript ist das Resultat meiner Untersuchungen notwendiger Opti-
malitätsbedingungen für Steuerungsprobleme, insbesondere mit unendlichem Zeithorizont.
Die Methoden und Argumente, die ich für die Aufgabenklasse über dem unbeschränkten
Intervall entwickelt habe, benötigen ein umfassendes Vorwissen über die Herleitung der
grundlegenden notwendigen Bedingungen für schwache und starke lokale Minimalstellen
in Aufgaben mit einem endlichen Zeithorizont. Mit dieser Arbeit gebe ich einen detaillier-
ten Zugang zu bekannten Resultaten und erweitere sie um die nötigen Verallgemeinerun-
gen, die für die Aufgaben über einem unbeschränkten Zeitintervall erforderlich sind. Mein
Augenmerk gilt dabei vorallem den mathematischen Grundlagen in der Herleitung von
notwendigen Optimalitätsbedingungen. Anhand einer Vielzahl an Beispielen demonstriere
ich die Optimalitätsprinzipien, wodurch die Ergebnisse auch für den rein anwendungsori-
entierten Leser von Interesse sind.
Die fundamentalen Begriffe der schwachen und starken lokalen Optimalität entstammen
der Klassischen Variationsrechnung. Sie stellen Qualitätsangaben dar. Denn eine lokale Mi-
nimalstellen muss sich innerhalb einer gewissen Konkurrentenmenge behaupten. Je größer
diese Menge ist, desto höher ist die Qualität der Optimalität einzustufen.
Diesbezüglich ist hervorzuheben, dass nicht das Aussehen der notwendigen Bedingungen
den Optimalitätsprinzipien ihren Namen gibt. Erst die Qualität der starken lokalen Opti-
malität verleiht in der Theorie der Optimalen Steuerung dem Satz notwendiger Optima-
litätsbedingungen die Bezeichnung eines Pontrjaginschen Maximumprinzips.
Die schwache lokale Optimalität bezieht sich im Grunde auf die Topologie des Raumes
der stetig differenzierbaren Funktionen. An dieser Stelle sind die Richtungsvariationen ei-
ne geeignete Methode zur Herleitung notwendiger Bedingungen. Demgegenüber basiert
die starke lokale Optimalität auf Variationen in der gleichmäßigen Topologie des Raum-
es der stetigen Funktionen. Eine allgemeine Herangehensweise bildet hier die Methode
der Nadelvariationen. Ich habe mich in dem vorliegenden Manuskript zu notwendigen
Bedingungen auf die Richtungs- und Nadelvariationen konzentriert. Die Beweisstrategien
wurden von mir so ausgewählt, dass sie aufeinander aufgebaut sind: In der Herleitung der
notwendigen Bedingungen für schwache lokale Minimalstellen stelle ich die wesentlichen
Grundlagen, Argumente und die Beweisphilosophie vor. Mit dieser Vorbereitung liegt der
Akzent bei der Herleitung der notwendigen Bedingungen für starke lokale Minimalstellen
auf die Einbindung der Methode der mehrfachen Nadelvariation und den damit einherge-
henden aufwendigen, technisch anspruchsvollen Hürden.
Wie eingangs erwähnt, ist mein besonderes Augenmerk den Steuerungsproblemen mit
unendlichem Zeithorizont gewidmet. Sie ist meiner Meinung nach weitestgehend missver-
standen: Das unbeschränkte Zeitintervall stellt weder ein formal sehr langes dar, noch ist
es im Allgemeinen durch die Betrachtung eines langen Zeithorizontes bzw. als Grenzwert
adäquat beschrieben. Der unendliche Zeithorizont selbst ist eine Singularität in der Aufga-
benstellung. Und das nicht nur als unbeschränktes Integrationsintervall im Zielfunktional,
ii Vorwort

sondern in jedem einzelnen Element der Aufgabe. Erst mit der Entwicklung der vorliegen-
den Methoden und den entsprechenden Resultaten ist mir die Tragweite dieser Singularität
bewusst geworden. Für mich stellen die Aufgaben mit unendlichem Zeithorizont eine Ver-
allgemeinerung der klassischen Probleme dar und erfordern eigens entwickelte Ansätze.
Jede Analogie, die ich zu Aufgaben mit endlichem Horizont gezogen habe, hat sich als
naiv erwiesen. Die stiefmütterliche Einbindung bekannter Resultate hat zum Scheitern
der angestrebten Beweisstrategien geführt. Schließlich musste ich jeden Schritt kritisch
hinterfragen und geeignete Anpassungen an das unbeschränkte Intervall entwickeln.
Das Hauptziel dieser Arbeit besteht in einem innovativen Zugang zu den Steuerungspro-
blemen mit unendlichem Zeithorizont. Dazu stelle ich in den ersten beiden Kapiteln die
Grundlagen zur Untersuchung von schwachen und starken lokalen Minimalstellen auf der
Basis von Richtungs- und Nadelvariationen vor. Ein kurzer Blick in das Inhaltsverzeichnis
verrät, dass der ausgewählte Themenkreis sich sehr weitläufig entwickeln kann.
Das dritte Kapitel über Multiprozesse stellt eine interessante Ergänzung zu der Nadelvaria-
tionsmethode dar: Eine Wechselstrategie ist eine Steuerungsvariable, die sich aus verschie-
denen, untypischen und schwierig zu modellierenden Parametern zusammensetzt. Gibt
man ihr aber eine passende Form, dann sind notwendige Bedingungen global bezüglich
aller Wechselstrategien in Form eines Pontrjaginschen Maximumprinzips herleitbar.
Das vierte Kapitel setzt sich mit der Philosophie des unendlichen Zeithorizonts auseinan-
der. Hier habe ich wesentliche Grundgedanken zusammengefasst. Der wesentliche Punkt
ist dabei die Einordnung der Aufgaben mit endlichem und unendlichem Zeithorizont.
Im fünften und sechsten Kapitel präsentiere ich die Ergebnisse zu den Aufgaben mit un-
endlichem Zeithorizont. In der Darstellung war es mir wichtig bereits bekannte Resultate
wie die Transversalitätsbedingung nach Michel, die eindeutige Darstellung der Adjungier-
ten, sowie hinreichende Bedingungen nach Arrow und Mangasarian einzubinden.
Dieses Manuskript muss nicht in der vorgegebenen Reihenfolge gelesen werden. Ich emp-
fehle sich bei der Einarbeitung in die Theorie zunächst auf die Kapitel 1, 4 und 5 über
schwache lokale Minimalstellen zu konzentrieren. In den Kapiteln 2, 3 und 6 setze ich je-
weils das Vorwissen aus den vorhergehenden Kapiteln voraus. Insbesondere im sechsten
Kapitel sollte man mit den gesamten Vorbereitungen gut vertraut sein.
Das vorliegende Manuskript basiert wesentlich auf meiner Forschungsarbeit vor und nach
meiner Promotion. An der BTU Cottbus fand ich die Rahmenbedingungen vor, um diesen
Zugang zu den Steuerungsproblemen mit unendlichem Zeithorizont zu entwickeln.
Mein besonderer Dank gilt meiner gesamten Familie. Nur durch eure Unterstützung konnte
ich unter den widrigen Umständen der letzten eineinhalb Jahre dieses Manuskript skizzie-
ren, ausarbeiten und aufpolieren.

Nico Tauchnitz
Oktober 2016
Inhaltsverzeichnis iii

Inhaltsverzeichnis

Einleitung 1

1. Richtungsvariationen und Schwaches lokales Minimum 9


1.1. Die Euler-Lagrangesche Gleichung . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1. Die Herleitung der Euler-Lagrange-Gleichung . . . . . . . . . . . . . 11
1.1.2. Die Euler-Lagrangesche Gleichung in der Wirtschaftstheorie . . . . . 16
1.1.3. Notwendige Bedingungen in der einfachsten Bolza-Aufgabe . . . . . 18
1.2. Die Lagrange-Aufgabe und das Isoperimetrische Problem . . . . . . . . . . 20
1.2.1. Notwendige Bedingungen in der Lagrange-Aufgabe . . . . . . . . . . 20
1.2.2. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 23
1.2.3. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 26
1.2.4. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.5. Das Isoperimetrische Problem . . . . . . . . . . . . . . . . . . . . . . 30
1.3. Ein Schwaches Optimalitätsprinzip für ein Steuerungsproblem . . . . . . . . 33
1.3.1. Notwendige Optimalitätsbedingungen . . . . . . . . . . . . . . . . . 33
1.3.2. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 36
1.3.3. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 39
1.3.4. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.3.5. Freier Anfangs- und Endzeitpunkt . . . . . . . . . . . . . . . . . . . 43
1.3.6. Hinreichende Bedingungen nach Mangasarian . . . . . . . . . . . . . 47

2. Nadelvariationen und Starkes lokales Minimum 49


2.1. Die Nadelvariation der Klassischen Variationsrechnung . . . . . . . . . . . . 50
2.2. Das Maximumprinzip für die Aufgabe mit freiem rechten Endpunkt . . . . 51
2.2.1. Formulierung der Aufgabe und das Maximumprinzip . . . . . . . . . 51
2.2.2. Der Beweis des Maximumprinzips . . . . . . . . . . . . . . . . . . . 53
2.2.3. Ökonomische Deutung des Maximumprinzips . . . . . . . . . . . . . 56
2.2.4. Kapitalismusspiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.3. Mehrfache Nadelvariationen . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3.1. Die Konstruktion der Trägerfamilien . . . . . . . . . . . . . . . . . . 61
2.3.2. Die Definition der mehrfachen Nadelvariation . . . . . . . . . . . . . 64
2.3.3. Eigenschaften der mehrfachen Nadelvariation . . . . . . . . . . . . . 65
2.4. Das Pontrjaginsche Maximumprinzip für das Standardproblem . . . . . . . 70
2.4.1. Notwendige Optimalitätsbedingungen . . . . . . . . . . . . . . . . . 70
2.4.2. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 73
2.4.3. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 74
2.4.4. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.4.5. Hinreichende Bedingungen nach Arrow . . . . . . . . . . . . . . . . . 83
iv Inhaltsverzeichnis

2.5. Aufgaben mit Zustandsbeschränkungen . . . . . . . . . . . . . . . . . . . . 86


2.5.1. Die Aufgabenstellung und das Maximumprinzip . . . . . . . . . . . 86
2.5.2. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 89
2.5.3. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 90
2.5.4. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.5.5. Hinreichende Bedingungen nach Arrow . . . . . . . . . . . . . . . . . 95
2.6. Freier Anfangs- und Endzeitpunkt . . . . . . . . . . . . . . . . . . . . . . . 104

3. Optimale Multiprozesse 109


3.1. k-fache Zerlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.2. Die Aufgabenstellung und das Maximumprinzip . . . . . . . . . . . . . . . . 111
3.3. Ein Investitionsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.4. Zeitoptimale Steuerung gekoppelter Kompartimente . . . . . . . . . . . . . 119

4. Die Vorstellung der Aufgabe mit unendlichem Zeithorizont 123


4.1. Zur Approximation durch eine Aufgabe über endlichem Horizont . . . . . . 124
4.2. Zur Einordnung der Aufgabenklasse in die Steuerungstheorie . . . . . . . . 128
4.3. Einfache Nadelvariationen über dem unendlichen Zeithorizont . . . . . . . . 131
4.4. Parameter und Freiheitsgrade in der Aufgabe mit unendlichem Horizont . . 136

5. Schwaches lokales Minimum über unendlichem Zeithorizont 139


5.1. Die Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.2. Ein Schwaches Optimalitätsprinzip über dem unendlichem Zeithorizont . . 141
5.2.1. Notwendige Optimalitätsbedingungen . . . . . . . . . . . . . . . . . 141
5.2.2. Bemerkungen und Hinweise zur Extremalaufgabe . . . . . . . . . . . 143
5.2.3. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 145
5.2.4. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 149
5.2.5. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.3. Zur normalen Form der notwendigen Optimalitätsbedingungen . . . . . . . 153
5.4. Hinreichende Bedingungen nach Mangasarian . . . . . . . . . . . . . . . . . 156

6. Starkes lokales Minimum über unendlichem Zeithorizont 159


6.1. Die Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.2. Die Standardaufgabe mit unendlichem Zeithorizont . . . . . . . . . . . . . . 161
6.2.1. Das Pontrjaginsche Maximumprinzip . . . . . . . . . . . . . . . . . . 161
6.2.2. Mehrfache Nadelvariationen . . . . . . . . . . . . . . . . . . . . . . . 164
6.2.3. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 167
6.2.4. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 168
6.2.5. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.2.6. Hinreichende Optimalitätsbedingungen nach Arrow . . . . . . . . . . 172
6.3. Die Aufgabe mit Zustandsbeschränkungen . . . . . . . . . . . . . . . . . . . 173
6.3.1. Definition und Eigenschaften der Extremalaufgabe . . . . . . . . . . 177
Inhaltsverzeichnis v

6.3.2. Lagrangesche Multiplikatorenregel . . . . . . . . . . . . . . . . . . . 179


6.3.3. Beweisschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
6.3.4. Hinreichende Bedingungen nach Arrow . . . . . . . . . . . . . . . . . 183

7. Zusammenfassung und Ausblick 187

A. Grundzüge der Maß- und Integrationstheorie 195


A.1. Maßtheoretische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . 195
A.2. Integration bezüglich eines Maßes . . . . . . . . . . . . . . . . . . . . . . . . 196
A.3. Funktionen beschränkter Variation und Stieltjes-Integral . . . . . . . . . . . 197

B. Funktionalanalytische Hilfsmittel 199


B.1. Stetige lineare Operatoren auf normierten Räumen, Ableitungsbegriffe . . . 199
B.2. Grundprinzipien der Funktionalanalysis . . . . . . . . . . . . . . . . . . . . 201
B.3. Der Darstellungssatz von Riesz . . . . . . . . . . . . . . . . . . . . . . . . . 203
B.4. Zum Verhalten von Funktionen der Sobolev-Räume im Unendlichen . . . . 204
B.5. Der Satz von Ljusternik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

C. Elemente der Konvexen Analysis 206


C.1. Das Subdifferential konvexer Funktionen . . . . . . . . . . . . . . . . . . . . 207
C.2. Lokalkonvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
C.3. Das Subdifferential der Funktion G x(·) = max g t, x(t) . . . . . . . . . 209
 t∈[t0 ,t1 ] 
C.4. Das Subdifferential der Funktion G x(·) = sup g t, x(t) . . . . . . . . . . 211
t∈R+

D. Differentialgleichungen 212
D.1. Lineare Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 212
D.2. Carathéodory-Gleichung, Existenz- und Eindeutigkeitssatz . . . . . . . . . . 214

Literatur 215

Symbolverzeichnis 221

Sachverzeichnis 223
Einleitung 1

Einleitung
Die Theorie der Optimalen Steuerung entwickelte sich aus der Klassischen Variationsrech-
nung. Notwendig wurde die Weiterentwicklung der Methoden der Klassischen Variations-
rechnung durch Problemstellungen aus verschiedensten Fachbereichen, z. B. der Physik,
der Biologie, der Chemie, den Ingenieurwissenschaften und vorallem der Luft- und Raum-
fahrt. Diese Aufgabenstellungen haben gemein, dass sie steuerbar, d. h. durch den Men-
schen beeinflussbar, sind. Es ergibt sich damit die Frage nach derjenigen Steuerung, die
im gewünschten Sinn die beste, wir sagen die optimale, ist. Diese optimale Steuerung zeigt
dem Anwender Handlungsweisen auf, wie auf den Zustand des steuerbaren Objektes ein-
gewirkt werden muss, damit sich dieser entsprechend der Zielvorstellungen auf die beste
Art und Weise verhält.
Historisch gilt als Geburtsstunde der Klassischen Variationsrechnung das Jahr 1696, als
Johann Bernoulli (1667–1748) seine Zeigenossen mit der Aufgabe der Brachistochrone her-
ausforderte. Aber es gibt weitaus ältere Variationsprobleme.
Vergil (70–19 v. Chr.) berichtet in seinem antiken Epos der Aeneis die Sage von der
Gründung Karthagos etwa 900 v. Chr. durch die phönizische Prinzessin Dido. Aus Furcht
vor ihrem Bruder Pygmalion, der ihren Gemahl erschlagen hatte, floh Dido und gelangte
an die Küste Nordafrikas. Man wollte ihr dort jedoch nur soviel Land überlassen, wie sie
mit einer Ochsenhaut begrenzen könne. Dido schnitt die Haut in feine Streifen, nähte diese
zusammen und konnte damit ein nicht unerhebliches Landstück an der Küste eingrenzen,
auf dem sie die Burg Byrsa errichten ließ.
Das Problem der Dido wirft die Frage nach der Gestalt derjenigen geschlossenen, ebenen
Kurve gegebener Länge auf, die den Bereich mit größtem Flächeninhalt berandet.
Der (orientierte) Inhalt I des Bereiches B, der von einer geschlossenen, ebenen und stetig
differenzierbaren Kurve mit der Parameterdarstellung

t → x(t) = x1 (t), x2 (t) , t ∈ [a, b],

umrandet wird, kann durch


Z b
1
I= [x1 (t)ẋ2 (t) − x2 (t)ẋ1 (t)] dt
2 a

bestimmt werden (das Vorzeichen der Zahl I hängt vom Durchlaufsinn der Kurve ab).
Dabei muss die Kurve die isoperimetrische Beschränkung der vorgegebenen Länge l,
Z bq
ẋ21 (t) + ẋ22 (t) dt = l,
a

erfüllen. Zudem betrachten wir ausschließlich geschlossene Kurven, was wir durch die Be-
dingung x(a) = x(b) erreichen. Das Problem der Dido auf der Menge der geschlossenen,
2 Einleitung

glatten Kurven gegebener Länge führt zu der Aufgabe


 1 b
Z 
J x(·) = [x1 (t)ẋ2 (t) − x2 (t)ẋ1 (t)] dt → sup,



Z bq 2 a (1)
ẋ21 (t) + ẋ22 (t) dt = l,

x(a) = x(b). 

a

Die Lösung des Problems der Dido wird durch die isoperimetrische Eigenschaft des Kreises
geliefert: Unter allen möglichen geschlossenen Kurven gegebener Länge ist diejenige, deren
Innengebiet den größtmöglichen Flächeninhalt besitzt, die Kreislinie.
Variationsaufgaben unterscheiden sich grundlegend zu der Extremwertsuche einer Funk-
tion, bei der man diejenige Stelle sucht, an der die Funktion einen kleinsten oder größten
Wert annimmt. Im Gegensatz dazu ist man im Variationsproblem (1) bestrebt diejenige
Funktion zu finden, die dem Zielfunktional J den optimalen Wert zuordnet. Die Maximie-
rung des Funktionals J drücken wir durch die Suche nach einem Supremum aus, da wir
über die Existenz eines Maximum a priori keine Kenntnis besitzen.
Der Raketenpionier Robert H. Goddard (1882–1945) formulierte in der ersten Hälfte des
20. Jahrhunderts die Aufgabe, dass eine Höhenrakete mit einer vorgegebenen Treibstoff-
menge eine möglichst große Flughöhe erreichen soll. Das besondere Merkmal daran ist, dass
die Schubleistung gewissen Schranken unterliegt und Grenzlagen annehmen darf. Diese be-
sondere Charakteristik ist in der Klassischen Variationsrechnung nicht vorgesehen. Damit
wird die Frage nach einer passenden Verallgemeinerung der Klassischen Variationsrech-
nung aufgeworfen, die zur Antwort die Entwicklung der Steuerungstheorie erhielt.
In einer “einfachen” Formulierung einer Rakete maximaler Flughöhe seien
h(t) – die Höhe der Rakete zur Zeit t,
v(t) – die Geschwindigkeit der Rakete zur Zeit t,
m(t) – die Masse der Rakete zur Zeit t,
u(t) – Kraftstoffverbrauch zur Zeit t,
D(h, v) – der Luftwiderstand,
g(h) – die Gravitation,
c – der spezifische Impuls pro Einheit Treibstoff.
Nach dem Luftwiderstands- und dem Gravitationsgesetz gelten
r02
D(h, v) = αv 2 e−βh , g(h) = g0 ,
r02 + h2
wobei α, β spezifische Konstanten des Modells, r0 den Erdradius und g0 die Gravitati-
onskonstante auf der Erdoberfläche bezeichnen. Die Dynamik des Systems wird durch die
Differentialgleichungen

cu(t) − D h(t), v(t) 
ḣ(t) = v(t), v̇(t) = − g h(t) , ṁ(t) = −u(t)
m(t)
Einleitung 3

gegeben. Die Randbedingungen lauten

h(0) = 0, v(0) = 0, m(0) = m0 (Startmasse), m(T ) = mT (Leermasse)

und es treten Steuerungsbeschränkungen der Form

u(t) ∈ [0, umax ]

auf. Schließlich ist das Optimierungskriterium


Z T
h(T ) = v(t) dt → sup .
0

Als naheliegende Lösung könnte man die Steuerung


(
umax , t ∈ [0, τ ),
u(t) =
0, t ∈ [τ, T ],

erwarten, die im Goddard-Problem ohne Luftwiderstand optimal wäre. Jedoch wird die
dadurch erreichte Flughöhe um fast 40% übertroffen, wenn man eine Steuerung anwendet,

Abbildung 1: Optimale Steuerung mit Luftwiderstand.

deren charakteristischer Verlauf in Abbildung 1 dargestellt ist.


Weitere Einsatzmöglichkeiten der mathematischen Methoden für die Optimierung einer
Höhenrakete ergeben sich, wenn gegensätzliche Ziele gleichzeitig beachtet werden müssen.
Gewicht und Sicherheit sind Beispiele dafür. Einerseits sollte das Gesamtgewicht so gering
wie möglich sein, um weniger Treibstoff zu verbrauchen. Andererseits ist die Explosions-
gefahr bei dickeren Wänden der Brennstoffkammern geringer, dabei aber das Gewicht der
Rakete höher. Die optimale Abstimmung dieser gegenläufigen Bestrebungen ist gesucht.
Wir geben eine allgemeine Standardgestalt der Variations- und Steuerungsprobleme an,
die wir betrachten werden. Ohne Einschränkung sei die Standardform stets als Minimie-
rungsaufgabe gestellt. Es bezeichne ferner x(·) : R → Rn den Zustand des steuerbaren
Objektes und u(·) : R → Rm die Steuerung, mit der auf den Zustand Einfluss genommen
werden kann. Die Einschränkung, dass die Steuerungsparameter u(t) nur Werte aus einer
4 Einleitung

vorgegebenen Menge U (dem Steuerungsbereich) annehmen dürfen, nennen wir Steue-


rungsbeschränkungen. Das Optimierungskriterium wird durch das Zielfunktional
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt
t0

mit dem Integranden f : R × Rn × Rm → R beschrieben. Dabei bezeichnet die Variable t


oft die Zeit. Die Dynamik, d. h. das dynamische Verhalten des Zustandes x(·) über dem
Zeitraum [t0 , t1 ], ist durch das Differentialgleichungssystem

ẋ(t) = ϕ t, x(t), u(t)

mit der rechten Seite ϕ : R × Rn × Rm → Rn beschrieben. Schließlich liegen durch


 
h0 x(t0 ) = 0, h1 x(t1 ) = 0

Randbedingungen an die Start- und Zielwerte für den Zustand x(·) im Anfangs- und
Endpunkt des Betrachtungszeitraumes [t0 , t1 ] vor.
Zusammenfassend ergibt sich folgende Standardaufgabe, in die sich das Goddard-Problem
und das Problem der Dido einordnen lassen:
Z t1 
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, 



t0  

ẋ(t) = ϕ t, x(t), u(t) ,

  (2)
h0 x(t0 ) = 0, h1 x(t1 ) = 0,






u(t) ∈ U, U 6= ∅.

Dabei sind die Zeitpunkte t0 < t1 fest vorgegeben. Wird das Problem mit freiem Anfangs-
und Endzeitpunkt t0 , t1 betrachtet, so lauten die Randbedingungen
 
h0 t0 , x(t0 ) = 0, h1 t1 , x(t1 ) = 0.

Liegen zusätzliche Beschränkungen des Zustandes x(·) der Form



gj t, x(t) ≤ 0 für alle t ∈ [t0 , t1 ], j = 1, ..., l,

vor, so sprechen wir von der Aufgabe mit Zustandsbeschränkungen.


Im Jahr 1928 stellte Frank P. Ramsey (1903–1930) die Frage nach der optimalen Sparquo-
te, die einer Ökonomie langfristiges und wohlfahrtsoptimiertes Wachstum garantiert. Das
besondere an der Modellierung des Variationsproblems war die Einführung des unendli-
chen Zeithorizonts. Die Philosophie dahinter ist die Vorstellung, dass kein natürliches Ende
für den Betrachtungszeitraum existiert. Möchte man sämtlichen nachfolgenden Generatio-
nen Beachtung schenken, dann ist die Idealisierung in Form des zeitlich unbeschränkten
Rahmens die einzig mögliche Konsequenz.
Einleitung 5

Die Aufgabe mit unendlichem Zeithorizont stellt sich für uns wie folgt dar:
Z ∞ 
 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf, 



0  

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 ,

 (3)
gj t, x(t) ≤ 0 für alle t ∈ R+ , j = 1, ..., l,  




u(t) ∈ U, U 6= ∅. 

Dabei ist ω(·) eine Dichtefunktion, die häufig durch die Diskontierung ω(t) = e−%t gege-
ben ist. Das Problem (3) untersuchen wir über unendlichem Zeithorizont sowohl ohne als
auch mit Zustandsbeschränkungen. Die Anfangsbedingung ist stets durch x(0) = x0 fest
gegeben. Auf Randbedingungen im Unendlichen gehen wir nicht ein.
Die Literatur zur Theorie der Optimalen Steuerung und zur Herleitung notwendiger Opti-
malitätsbedingungen ist sehr umfangreich. Unser Verzeichnis spiegelt nur diejenigen wider,
die die vorliegende Monographie am stärksten beeinflusst haben. Ein vollständige Angabe
der Quellen und die Würdigung der einzelnen Beiträge, die maßgeblich zur Entwicklung
der Optimalen Steuerung beigetragen haben, ist im Rahmen der vorliegenden Arbeit nicht
möglich und ist auch nicht angestrebt.
Hervorheben möchten wir zunächst den fundamentalen Beitrag von Pontrjagin et al. [55].
Weiterhin beziehen sich unsere Darstellungen zur Theorie der Extremalaufgaben auf die
Arbeiten von Dubovickii & Milyutin [19], Girsanov [27], Halkin [29], Hestenes [32], Ioffe
& Tichomirov [38], Kurcyusz [40] und Neustadt [49]. Wesentlichen Einfluss auf die Ent-
wicklung der Optimalen Steuerung haben u. a. Bellman [9], Isaacs [37], Gamkrelidze [25],
McShane [46] und Young [71] genommen.
Aus dem umfassenden Vorrat an Lehrbüchern und Übersichtsartikeln zählen wir Bolt-
janski [10], Carlson et al. [12], Hartl et al. [31], Sethi & Thompson [62] und Vinter [68]
auf. Eine Vielzahl von Anwendungsbeispielen haben wir den Lehrbüchern Feichtinger &
Hartl [21], Grass et al. [28] und Seierstad & Sydsæter [61] entnommen. Abschließend wei-
sen wir auf die Arbeiten Pesch & Plail [50] und Plail [54] zur histroischen Entwicklung der
Optimalen Steuerung als eigenständiges mathematisches Fachgebiet hin.
Das Anliegen dieser Arbeit besteht in der Präsentation notwendiger Optimalitätsbedin-
gungen für schwache und starke lokale Minimalstellen in der Standardaufgabe (2) sowohl
ohne als auch mit Zustandsbeschränkungen. Dabei folgen wir Ioffe & Tichomirov [38].
Weiterhin wollen wir diese Darstellungen um eigene Ergebnisse zu schwachen und starken
lokalen Minimalstellen für das Steuerungsproblem (3) über dem unendlichen Zeithorizont,
insbesondere für Aufgaben mit Zustandsbeschränkungen, erweitern. Dabei geben wir kei-
ne allumfassende Abhandlung zur Herleitung von notwendigen Optimalitätsbedingungen.
Z. B. gehen wir auf die Methode der variablen Zeittransformation zur Herleitung des Pon-
trjaginschen Maximumprinzips nach Dubovickii & Milyutin nicht ein.
Die ersten beiden Kapitel widmen wir den klassischen Richtungs- und Nadelvariationen
und der Herleitung von notwendigen Optimalitätsbedingungen für schwache und starke
6 Einleitung

lokale Minimalstellen der Standardaufgabe (2). Die Bedeutung der Methode der Nadel-
variationen in den Anwendungen heben wir in dem eigenständigen Kapitel zu Optimalen
Multiprozessen hervor. Im vierten Kapitel schlagen wir die Brücke zu der Aufgabe (3)
über unendlichem Zeithorizont, die wir um fünften und sechsten Kapitel auf schwache
bzw. starke lokale Minimalstellen untersuchen. Dabei greifen wir auf die gründlichen Vor-
bereitungen in den ersten Kapiteln zurück und fokussieren uns auf die tiefgreifenden und
folgenreichen Schwierigkeiten, die sich durch die auf Aufgabe mit einem unbeschränkten
Zeitintervall ergeben. Im Detail bestehen die Beiträge der einzelnen Kapitel:
Im ersten Kapitel wollen wir die klassischen Richtungsvariationen zur Herleitung der Euler-
Lagrangeschen Gleichung betrachten. Für die Standardaufgabe (2) als Lagrange-Aufgabe
der Klassischen Variationsrechnung bzw. als ein Steuerungsproblem bilden diese Variatio-
nen die Grundlage zur Auswertung notwendiger Optimalitätsbedingungen.
Wesentliche Punkte sind dabei das Verständnis der Probleme als eine Extremalaufga-
be in Funktionenräumen und der Nachweis der Gültigkeit des Lagrangeschen Prinzips.
In diesem abstrakten Rahmen gehören die Lagrangeschen Multiplikatoren entsprechen-
den Dualräumen an. Die Optimalitätsbedingungen, die sich für die Standardaufgabe (2)
daraus ergeben, beinhalten eine Darstellungsformel für den Multiplikator in Gestalt der
adjungierten Gleichung. Wir haben den Einstieg auf der Basis der Richtungsvariationen
gewählt, da die Beweisführung umfassende Vorkenntnisse an mathematischen Werkzeugen
erfordert. Demgegenüber sind die konstruktiven Argumente zunächst weniger aufwendig
als diejenigen, auf die wir im Nachweis starker lokaler Optimalität zurückgreifen.
Auf der Basis der Vorarbeit im ersten Kapitel liegt der Fokus im zweiten Kapitel auf
der Konstruktion geeigneter Trägerfamilien, auf denen eine mehrfache Nadelvariation ein-
geführt wird. Diese Konstruktion, sowie die daraus resultierenden funktionalanalytischen
Eigenschaften der Extremalaufgabe, stellen eine neue Herausforderung dar. Es bleibt zwar
die grundlegende Beweisstrategie, die wir im ersten Kapitel präsentierten, unverändert,
doch der Aufwand und die Komplexität der Argumente ist deutlich höher. Das Resultat
sind notwendige Optimalitätsbedingungen für ein starkes lokales Minimum in der Stan-
dardaufgabe (2) in Form des Pontrjaginschen Maximumprinzips.
Im dritten Kapitel leiten wir das Pontrjaginsche Maximumprinzip für optimale Multipro-
zesse her. Im strengen Sinn der starken lokalen Optimalität führen wir eine Wechselstra-
tegie als Steuerungsvariable ein. Mit dem gewählten Zugang können wir im Gegensatz zu
den bekannten Resultaten Multiprozesse vergleichen, die nicht aus gleichartigen Wechsel-
strategien hervorgehen.
Im vierten Kapitel steht im Fokus die Korrespondenz zwischen einem langfristigen Pla-
nungszeitraum und dem unendlichen Zeithorizont. Dementsprechend stellen wir die fol-
gende zentrale Frage: Wie ordnen sich die Steuerungsprobleme mit endlichem und unend-
lichem Zeithorizont einander zu? Wir werden aufzeigen, dass die Aufgabenklasse (3) eine
Verallgemeinerung der Steuerungsprobleme über endlichem Horizont mit freiem rechten
Endpunkt darstellt.
Einleitung 7

Dementsprechend sind wir der Auffassung, dass die populärsten Methoden, mit denen die
Aufgaben mit unendlichem Zeithorizont behandelt werden, nämlich einerseits die Appro-
ximation durch Aufgaben über einem endlichen Zeitintervall und andererseits die Substi-
tution der Zeit, im Allgemeinen keine geeigneten Herangehensweisen sein können.
Im fünften Kapitel widmen wir uns den schwachen lokalen Minimalstellen der Aufgabe
(3) ohne Zustandsbeschränkungen. Dabei liegt der Hauptaugenmerk auf den Anpassun-
gen der Argumente, die wir über dem endlichen Zeithorizont im ersten Kapitel vorgestellt
haben, um einen vollständigen Satz an notwendigen Optimalitätsbedingungen zu gewin-
nen. Zu diesen Anpassungen zählen die Wahl des gewichteten Sobolev-Raumes für die
zulässigen Trajektorien des Steuerungsproblems. Allerdings kann in dessen Rahmen die
zugehörige Extremalaufgabe im Allgemeinen nicht variiert werden. Deswegen muss ein ge-
eigneter funktionalanalytischer Zugang für das dynamischen Systems gefunden werden. Zu
den Resultaten dieses Abschnitts zählen das Schwache Optimalitätsprinzip, die Gültigkeit
der “natürlichen” Transversalitätsbedingungen, Bedingungen zum normalen Fall und die
Einbindung von hinreichenden Bedingungen vom Mangasarian-Typ.
Die Theorie zu starken lokalen Minimalstellen der Aufgabe (3) stellen wir im sechsten
Kapitel vor. Abermals im Fokus ist dabei die Konstruktion der Trägerfamilien, auf denen
die mehrfachen Nadelvariation ausgeführt werden. Dabei müssen wir im Gegensatz zu den
Ausführungen des zweiten Kapitels den unbeschränkten Zeithorizont und außerdem eine
lokal unbeschränkte Dichtefunktionen ω(·) ins Kalkül ziehen.
Auf der Basis der mehrfachen Nadelvariationen und den Vorbereitungen im zweiten und
fünften Kapitel weisen wir für die Aufgabe (3) notwendige Optimalitätsbedingungen in
Form des Pontrjaginschen Maximumprinzips nach. Die Beweisstrategie liefert die Grundla-
ge zur Betrachtung der Aufgabe über unendlichem Zeithorizont mit Zustandsbeschränkun-
gen. Da kein kompaktes Zeitintervall vorliegt, können an dieser Stelle die Vorarbeiten des
zweiten Kapitels nicht unmittelbar übernommen werden. Erstens sind die benötigten Ele-
mente der Konvexen Analysis aufzuarbeiten, die unserer Kenntnis nach für Zustandsbe-
schränkungen über dem unbeschränkten Intervall in der Literatur noch nicht vorgestellt
wurden. Zweitens geht die Eigenschaft verloren, dass die stetigen Trajektorien ein Mi-
nimum und Maximum besitzen. Es ensteht damit die Frage nach der Festlegung einer
aktiven Zustandsbeschränkung und das Problem, wie man mit einer nichtaktiven Unglei-
chung verfährt.
Das zentrale Ergebnis des sechsten Kapitels und der gesamten vorliegenden Monogrophie
ist das Pontrjaginsche Maximumprinzip für die Aufgabe (3) ohne und mit Zustandsbe-
schränkungen. Weiterhin zeigen wir die Gültigkeit der “natürlichen” Transversalitätsbe-
dingungen, weisen Bedingungen zum normalen Fall in der Aufgabe ohne Zustandsbe-
schränkungen nach und binden hinreichende Bedingungen vom Arrow-Typ ein.
Schwaches lokales Minimum 9

1. Richtungsvariationen und Schwaches lokales Minimum


Die Entdeckungen der Variationsprinzipien der Optik und der Mechanik im 17. und 18.
Jahrhundert stehen für den Beginn eines neuen Kapitels im Verständnis grundlegen-
der Vorgänge in Natur und Technik. Angeregt durch das Problem der Brachistochrone,
nämlich der Frage nach der Kurve kürzester Fallzeit, entstand die Variationsrechnung.
Im Problem der Brachistochrone ist diejenige Kurve gesucht, auf der ein Massenpunkt
allein unter der Wirkung der Schwerkraft unter Vernachlässigung der Reibung am schnell-
sten von einem Punkt A zu einem tieferliegenden Punkt B gelangt.

Abbildung 2: Kurve kürzester Fallzeit von A nach B.

Die Lösung ist eine nach oben geöffnete Zykloide mit der Parameterdarstellung

x(t) = r(t − sin t), y(t) = r(1 − cos t), 0 ≤ t ≤ π.

Den bedeutendsten Einfluss auf die Entwicklung der Klassischen Variationsrechnung nah-
men im 18. Jahrhundert Leonhard Euler (1707–1783) und Joseph-Louis Lagrange (1736–
1813), die die grundlegende notwendige Bedingung in Form einer Differentialgleichung,
der Euler-Lagrange-Gleichung, entdeckten.
Wir werden zu Beginn dieses Abschnitts die Euler-Lagrangesche Gleichung ausführlich dis-
kutieren. Als nächstes gehen wir zur Untersuchung der Lagrange-Aufgabe der Klassischen
Variationsrechnung über. Die Lagrange-Aufgabe ist das Standardproblem
Z t1 
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, 



t0  

ẋ(t) = ϕ t, x(t), u(t) ,

 
h0 x(t0 ) = 0, h1 x(t1 ) = 0,






u(t) ∈ U, U =R . m 

für Paare x(·), u(·) ∈ C1 ([t0 , t1 ], Rn )×C([t0 , t1 ], Rm ), die die Nebenbedingungen erfüllen.


Als Optimalitätsbegriff verwenden wir das schwache lokale Minimum. Darunter verstehen
10 Schwaches lokales Minimum


wir ein zulässiges Paar x∗ (·), u∗ (·) der Lagrange-Aufgabe, zu dem eine Zahl ε > 0 derart
existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle zulässigen Paare x(·), u(·) mit kx(·) − x∗ (·)kC1 ≤ ε, ku(·) − u∗ (·)k∞ ≤ ε gilt.
Der Übergang von der Lagrange-Aufgabe der Klassischen Variationsrechnung zu einem
Steuerungsproblem durch die Wahl der zulässigen Paare

x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ),




die die Nebenbedingungen und u(t) ∈ U ⊆ Rm erfüllen, erscheint zunächst formalen Cha-
rakter zu besitzen. Doch die Untersuchung des Standardproblems (2) auf eine schwaches
lokales Minimum im Rahmen der Optimalen Steuerung enthält signifikante Unterschiede,
die durch die Steuerungsbeschränkungen
 u(t) ∈ U hervorgerufen werden. Dabei heißt ein
zulässiges Paar x∗ (·), u∗ (·) ein schwaches lokales Minimum im Steuerungsproblem, wenn
eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle zulässigen Paare x(·), u(·) mit kx(·) − x∗ (·)k∞ ≤ ε, ku(·) − u∗ (·)kL∞ ≤ ε gilt.
Die Umgebungsbegriffe in der Definition eines schwachen lokalen Minimum erfordern ge-
eignete Annahmen an das Standardproblem. Wir fordern in unseren Betrachtungen über
schwache lokale Minimalstellen, dass die Abbildungen f (t, x, u), ϕ(t, x, u), h0 (x), h1 (x)
stetig differenzierbar bezüglich ihrer Variablen sind;
 und das auf einer gleichmäßigen Um-
gebung des ausgezeichneten Paares x∗ (·), u∗ (·) .
Die Zykloide als Lösung der Brachistochrone mit der oben angegebenen Parameterdar-
stellung besitzt im Anfangspunkt eine unbeschränkte Ableitung. Wir stehen damit vor
der Frage, ob die angegebene Zykloide im Problem der Brachistochrone variierbar ist. Im
Rahmen der vorliegenden Arbeit können wir diese Frage nicht klären. Obwohl dieser Um-
stand stets in der Literatur auftaucht und eingehend bekannt ist, wurde unserer Kenntnis
nach noch keine einwandfreie Analyse der Brachistochrone vorgestellt.
Wir skizzieren zu Beginn am Beispiel der Lagrange-Aufgabe die grundlegende Herange-
hensweise an das Standardproblem: Mit den Abbildungen
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt
t0
 
F x(·), u(·) (t) = ẋ − ϕ t, x(t), u(t) , t ∈ [t0 , t1 ],
   
H0 x(·) = h0 x(t0 ) , H1 x(·) = h1 x(t1 ) ,

überführen wir die Lagrange-Aufgabe in die Extremalaufgabe


  
J x(·), u(·) → inf, F x(·), u(·) = 0, Hi x(·) = 0, i = 0, 1,
Euler-Lagrangesche Gleichung 11

auf dem Raum C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ). Dabei bilden J, F, Hi in die Mengen R,


C([t0 , t1 ], Rn ) bzw. Rsi ab. Die Lagrange-Funktion L zur Extremalaufgabe lautet

L = λ0 J x(·), u(·) + y ∗ , F x(·), u(·) + l0T H0 x(·) + l1T H1 x(·)



  

mit den Lagrangeschen Multiplikatoren λ0 ∈ R, y ∗ ∈ C ∗ ([t0 , t1 ], Rn ) und li ∈ Rsi .


Nach dem Rieszschen Darstellungssatz ist der Raum C ∗ ([t0 , t1 ], Rn ) isometrisch isomorph
zu den regulären Borelschen Maßen. Aber es zeigt sich, dass wir dem Multiplikator y ∗ eine
C1 -Funktion p(·) zuordnen dürfen, die der Euler-Lagrange-Gleichung in der Hamiltonschen
Form genügt. Damit folgen die notwendigen Bedingungen in ihrer endgültigen Form.
Zusammenfassend besteht die Beweisstrategie im Wesentlichen aus folgenden Schritten:

(1) Überführe das Problem in eine geeignete Extremalaufgabe.

(2) Zeige die Existenz nichttrivialer Lagrangescher Multplikatoren und die Gültigkeit
des Lagrangeschen Prinzips.

(3) Leite eine Darstellungsformel für den abstrakten Lagrangeschen Multiplikator y ∗ ab.

Das Ergebnis dieser aufwendigen Prozedur ist der Nachweis eines vollständigen Satzes von
notwendigen Optimalitätsbedingungen.

1.1. Die Euler-Lagrangesche Gleichung


1.1.1. Die Herleitung der Euler-Lagrange-Gleichung
Die Grundaufgabe der Klassischen Variationsrechnung besteht in der Minimierung des
Zielfunktionals Z t1
 
J x(·) = f t, x(t), ẋ(t) dt → inf (1.1)
t0
unter den Nebenbedingungen

x(t0 ) = x0 , x(t1 ) = x1 . (1.2)

Dabei sind in (1.1) und (1.2) die Punkte t0 < t1 und x0 , x1 fest vorgegeben. Ferner setzen
wir voraus, dass in (1.1) die Funktion f : R × R × R → R in einem gewissen Gebiet U ⊆ R3
einmal stetig differenzierbar ist.
Wir nennen die Funktion x(·) : [t0 , t1 ] → R zulässig in der Aufgabe (1.1)–(1.2), wenn x(·)
stetig differenzierbar ist und die Randbedingungen (1.2) erfüllt. Die zulässige Funktion
x∗ (·) ∈ C1 ([t0 , t1 ], R) ist eine schwache lokale Minimalstelle in der Aufgabe (1.1)–(1.2),
falls ein ε > 0 derart existiert, dass die Ungleichung
 
J x(·) ≥ J x∗ (·)

für alle zulässigen Funktionen x(·) mit kx(·) − x∗ (·)kC1 < ε gilt.
12 Schwaches lokales Minimum

Zur Bestimmung einer notwendigen Optimalitätsbedingung für eine schwache lokale Mini-
malstelle x∗ (·) in der Aufgabe (1.1)–(1.2) betrachten wir die Funktion einer Veränderlichen
Z t1
 
ϕ(λ) = J x∗ (·) + λx(·) = f t, x∗ (t) + λx(t), ẋ∗ (t) + λẋ(t) dt, (1.3)
t0

die durch die Variation xλ (·) = x∗ (·) + λx(·) von x∗ (·) bezüglich der Richtung x(·) erzeugt
wird. Dies wirft die naheliegende Frage auf, ob xλ (·) die Randbedingungen (1.2) erfüllt.
Fordern wir für die Richtung x(·) die Bedingung

x(·) ∈ M0 = {y(·) ∈ C1 ([t0 , t1 ], R) | y(t0 ) = y(t1 ) = 0},

so ist die Variation xλ (·) stets ein zulässiges Element in der Aufgabe (1.1)–(1.2).
Unter unseren Voraussetzungen über die Funktionen f , x∗ (·), x(·) ist in (1.3) die Differen-
tiation unter dem Integralzeichen zulässig, und es gilt für die erste Variation
Z t1
0
 
ϕ (0) = δJ x∗ (·) x(·) = q(t)x(t) + p(t)ẋ(t) dt
t0

mit den Funktionen


 
q(t) = fx t, x∗ (t), ẋ∗ (t) , p(t) = fẋ t, x∗ (t), ẋ∗ (t) .

Da zu x(·) ∈ M0 für hinreichend kleine λ > 0 die Variation xλ (·) die Bedingung

kxλ (·) − x∗ (·)kC1 = kλx(·)kC1 < ε

erfüllt, erhalten wir folgende notwendige Bedingung für eine schwache lokale Minimalstelle:

ϕ0 (0) = δJ x∗ (·) x(·) = 0



für alle x(·) ∈ M0 . (1.4)

Satz 1.1. Es sei die Funktion f stetig differenzierbar. Dann genügt ein schwaches lokales
Minimum x∗ (·) der Aufgabe (1.1)–(1.2) auf [t0 , t1 ] der Euler-Lagrange-Gleichung
 
d d  
− fẋ + fx = − fẋ t, x∗ (t), ẋ∗ (t) + fx t, x∗ (t), ẋ∗ (t) = 0. (1.5)
dt x∗ (t) dt

Definition 1.2. Jede Lösung x∗ (·) ∈ C1 ([t0 , t1 ], R) von (1.5) nennen wir eine Extremale.

Beweis Wir zeigen Satz 1.1 auf zweierlei Weisen: Im ersten Vorgehen führen wir in (1.4)
bezüglich dem Term p(t)ẋ(t) eine partielle Integration durch und wenden das Fundamen-
tallemma von Lagrange an. Dies erfordert die zusätzliche Annahme, dass die Funktion f
zweimal stetig differenzierbar ist. Im Gegensatz dazu erfordert die partielle Integration
bezüglich dem Term q(t)x(t) in (1.4) keine zusätzlichen Voraussetzungen. Das Fundamen-
tallemma von du Bois-Reymond liefert dann in vollständiger Übereinstimmung mit Satz
Euler-Lagrangesche Gleichung 13

1.1 die Euler-Lagrangesche Gleichung.


Wegen der zweimaligen stetigen Differenzierbarkeit von f und wegen x(·) ∈ M0 erhalten
wir nach partieller Integration des Terms p(t)ẋ(t) für (1.4) die Darstellung
Z t1

q(t) − ṗ(t) x(t) dt = 0 für alle x(·) ∈ M0 .
t0

Daraus schließen wir mit dem Fundamentallemma von Lagrange, dass die stetige Funk-
tion ϕ(t) = q(t) − ṗ(t) auf [t0 , t1 ] identisch verschwinden muss. Das bedeutet ausführlich
geschrieben, dass die Gleichung (1.5) gilt.
Führen wir demgegenüber in (1.4) die partielle Integration bezüglich dem Term q(t)x(t)
durch, erhalten wir für alle x(·) ∈ M0 die Darstellung
Z t1 Z t

− Q(t) + p(t) ẋ(t) dt = 0, Q(t) = q(s) ds.
t0 t0

Es folgt dann aus dem Fundamentallemma von du Bois-Reymond, dass die stetige Funktion
ψ(t) = −Q(t) + p(t) auf [t0 , t1 ] konstant sein muss. Dies bedeutet ferner, dass ψ(·) stetig
differenzierbar ist und die Ableitung auf [t0 , t1 ] verschwindet. Da nun Q(·) eine stetige
Ableitung besitzt, muss das auch für p(·) gelten. Damit ist (1.5) gezeigt. 
Lemma 1.3 (Fundamentallemma von Lagrange). Es sei ϕ(·) auf [t0 , t1 ] stetig mit
Z t1
ϕ(t)x(t) dt = 0 für alle x(·) ∈ M0 .
t0

Dann gilt ϕ(t) ≡ 0 auf [t0 , t1 ].


Beweis Angenommen, es ist ϕ(τ ) 6= 0 für ein τ ∈ (t0 , t1 ). Es sei ϕ(τ ) > 0. Dann gibt es
ein ε > 0 mit ϕ(t) > 0 auf ∆ = [τ − ε, τ + ε] ⊆ [t0 , t1 ]. Wir wählen
(
(t − τ + ε)2 (t − τ − ε)2 , t ∈ ∆,
z(t) =
0, t 6∈ ∆.

Dann gehört z(·) offenbar zur Menge M0 und es gilt


Z t1 Z
ϕ(t)z(t) dt = ϕ(t)z(t) dt > 0,
t0 ∆

im Widerspruch zur Annahme des Fundamentallemma von Lagrange. 


Lemma 1.4 (Fundamentallemma von du Bois-Reymond). Es sei ψ(·) eine stetige Funk-
tion mit Z t1
ψ(t)ẋ(t) dt = 0 für alle x(·) ∈ M0 .
t0
Dann ist ψ(·) auf [t0 , t1 ] konstant.
14 Schwaches lokales Minimum

Beweis Wir betrachten die Funktion


Z t Z t1
 1
z(t) = ψ(s) − c0 ds, c0 := ψ(t) dt.
t0 t1 − t0 t0

Dann gelten z(t0 ) = z(t1 ) = 0, also z(·) ∈ M0 , ż(t) = ψ(t) − c0 und wir erhalten
Z t1 Z t1 Z t1 Z t1
2
0= ψ(t)ż(t) dt = ψ(t)ż(t) dt − c0 ż(t) dt = ψ(t) − c0 dt.
t0 t0 t0 t0

Daher muss ψ(·) auf [t0 , t1 ] konstant sein. 

Bemerkung 1.5. Statt x(·) ∈ M0 wird das Lemma von du Bois-Reymond oft für stetige
Funktionen y(·) mit Integralmittelwert Null, d. h.
Z t1
y(t) dt = 0,
t0

formuliert. Offensichtlich besitzt ẋ(·) für jedes x(·) ∈ M0 den Integralmittelwert Null. 

Beispiel 1.6. Wir betrachten eine Aufgabe mit quadratischem Zielfunktional:


Z 1
2
x(t) − 1 + ẋ2 (t) dt → inf,
  
J x(·) = x(0) = 0, x(1) = 2.
0

Mit f (t, x, ẋ) = (x − 1)2 + ẋ2 erhalten wir aus der Euler-Lagrange-Gleichung (1.5), dass
eine schwache lokale Minimalstelle x∗ (·) der Differentialgleichung

ẍ(t) − x(t) = −1

genügen muss. Die Anpassung an die Randbedingungen x(0) = 0, x(1) = 2 liefert


1 t e −t
x∗ (t) = 1 + e − e
e−1 e−1
als Kandidaten für ein schwaches lokales Minimum. 

Folgerung 1.7. Wir geben Spezialfälle der Euler-Lagrange-Gleichung (1.5) an, die sich
für eine Lösung x∗ (·) des Variationsproblems ergeben.

(a) Hängt die Funktion f nicht von ẋ ab, dann muss auf [t0 , t1 ] gelten:

fx t, x∗ (t) = 0.

(b) Hängt die Funktion f nicht von x ab, dann folgt auf [t0 , t1 ]:

p(t) = fẋ t, ẋ∗ (t) = konstant.
Euler-Lagrangesche Gleichung 15

(c) Hängt die Funktion f nicht von t ab, so erhält man mit (1.5), dass die Ableitung
nachstehender Funktion H(·) auf [t0 , t1 ] identisch verschwindet; oder gleichbedeutend
 
H(t) = fẋ x∗ (t), ẋ∗ (t) · ẋ∗ (t) − f x∗ (t), ẋ∗ (t) = konstant auf [t0 , t1 ].

An die Betrachtungen zur Grundaufgabe (1.1)–(1.2) schließt sich die Frage nach notwen-
digen Optimalitätsbedingungen für eine schwache lokale Minimalstelle in der Aufgabe mit
freiem rechten Endpunkt an:
Z t1
 
J x(·) = f t, x(t), ẋ(t) dt → inf, x(t0 ) = x0 , x(t1 ) frei. (1.6)
t0

Unter den gleichen Voraussetzungen und mit dem gleichen Vorgehen wie in der Grund-
aufgabe (1.1)–(1.2) erhalten wir für eine schwache lokale Minimalstelle
Z t1
 
δJ x∗ (·) x(·) = q(t)x(t) + p(t)ẋ(t) dt = 0 für alle x(·) ∈ M1 . (1.7)
t0

Dabei bezeichnen M1 = {y(·) ∈ C1 ([t0 , t1 ], R) | y(t0 ) = 0} und q(·), p(·) die Funktionen
 
q(t) = fx t, x∗ (t), ẋ∗ (t) , p(t) = fẋ t, x∗ (t), ẋ∗ (t) .

Integrieren wir in (1.7) zunächst partiell den Term q(t)x(t), so folgt


Z t1 Z t

Q(t1 )x(t1 ) + − Q(t) + p(t) ẋ(t) dt = 0 für alle x(·) ∈ M1 , Q(t) = q(s) ds.
t0 t0

Für x(·) ∈ M0 erhalten wir nach dem Lemma von du Bois-Reymond die Euler-Lagrange-
Gleichung (1.5). Außerdem liefert die Argumentation nach du Bois-Reymond, dass die
Funktion p(·) stetig differenzierbar ist. Daher dürfen wir ohne weitere Annahmen in (1.7)
den Term p(t)ẋ(t) partiell integrieren. Damit folgt
Z t1

p(t1 )x(t1 ) + q(t) − ṗ(t) x(t) dt = 0 für alle x(·) ∈ M1 .
t0

Darin verschwindet ϕ(t) = q(t) − ṗ(t) identisch auf [t0 , t1 ]. Damit diese Gleichung auf M1
erfüllt ist, muss also p(t1 ) = 0 gelten.
Satz 1.8. Es sei f stetig differenzierbar. Ist x∗ (·) ein schwaches lokales Minimum in der
Aufgabe (1.6), dann ist notwendig, dass auf [t0 , t1 ] die Euler-Lagrange-Gleichung
 
d d  
− fẋ + fx = − fẋ t, x∗ (t), ẋ∗ (t) + fx t, x∗ (t), ẋ∗ (t) = 0 (1.8)
dt x∗ (t) dt

zur Randbedingung 
p(t1 ) = fẋ t1 , x∗ (t1 ), ẋ∗ (t1 ) = 0 (1.9)
erfüllt ist.
16 Schwaches lokales Minimum

Folgerung 1.9. Es folgt auf die gleiche Weise, dass in der Aufgabe freier Randpunkte,
d. h. x(t0 ), x(t1 ) sind frei, folgende Randbedingungen gelten:
 
p(t0 ) = fẋ t0 , x∗ (t0 ), ẋ∗ (t0 ) = 0, p(t1 ) = fẋ t1 , x∗ (t1 ), ẋ∗ (t1 ) = 0.

Bemerkung 1.10. Sämtliche Ausführungen im Abschnitt 1.1 lassen sich unmittelbar auf
den Vektorfall x(·) ∈ C1 ([t0 , t1 ], Rn ) erweitern. 

1.1.2. Die Euler-Lagrangesche Gleichung in der Wirtschaftstheorie


Beispiel 1.11 (Isoelastische Nutzenfunktion ). Es bezeichnen K(·) das Vermögen einer
Ökonomie, Y (·) das Nationaleinkommen und C(·) die Konsumption.  Mit einer streng
wachsenden und konkaven Produktionsfunktion f sei Y (t) = f K(t) . Zu jedem Zeitpunkt
wird die Produktion Y in Konsumption und Investition aufgeteilt, d. h.

f K(t) = C(t) + K̇(t).

Das Wohlbefinden der Gesellschaft wird durch die zweimal stetig differenzierbare, streng
wachsende und streng konkave Nutzenfunktion U dargestellt.
Die Aufgabe der Ökonomischen Wachstumstheorie lautet dann: Man bestimme über dem
Zeitrahmen [0, T ] die optimale Konsumption C(·), die den Gesamtnutzen der Gesellschaft,
Z T Z T
−%t
e−%t U f K(t) − K̇(t) dt,
   
J K(·) = e U C(t) dt =
0 0

unter den gegebenen Randbedingungen K(0) = K0 , K(T ) = KT maximiert.


In dieser Form lässt sich keine qualitative Aussage über eine optimale Konsumptionspolitik
finden. Stattdessen leiten wir die Form der sogenannten isoelastischen Nutzenfunktionen
mit Hilfe der Euler-Lagrangeschen Gleichung ab und gewinnen daraus die Fundamental-
gleichung für die Wachstumsraten einer optimalen Konsumption: Es gelten
∂  −%t
= e−%t U 0 f (K) − K̇ f 0 (K) = e−%t U 0 (C)f 0 (K),
 
e U f (K) − K̇
∂K
∂  −%t
= −e−%t U 0 f (K) − K̇ = −e−%t U 0 (C).
 
e U f (K) − K̇
∂ K̇
Die Anwendung der Euler-Lagrange-Gleichung (1.5) liefert
d
− e−%t U 0 C∗ (t) + e−%t U 0 C∗ (t) f 0 K∗ (t)
  
0 = −
dth
−%t
i
U 00 C∗ (t) Ċ∗ (t) + f 0 K∗ (t) − % U 0 C∗ (t) .
   
= e

Nach einfachen Umformungen erhalten wir daraus die optimale Wachstumsrate


U 0 C∗ (t)

Ċ∗ (t)
 % − f 0 K∗ (t) .
 
=
C∗ (t) C∗ (t)U 00 C∗ (t)
Euler-Lagrangesche Gleichung 17

Eine isoelastische Nutzenfunktion genügt der Differentialgleichung der konstanten relati-


ven Risikoaversion
CU 00 (C)
−σ = , C > 0.
U 0 (C)
Dabei gilt σ > 0, da die Funktion U streng monoton wachsend und streng konkav ist.
Mit den Integrationskonstanten k0 , k1 lautet die Lösung der Differentialgleichung
C 1−σ
U (C) = k0 + k1 für σ 6= 1, U (C) = k0 ln(C) + k1 für σ = 1.
1−σ
Die Festlegung k0 = 1, k1 = −1/(1 − σ) für σ 6= 1 liefert für alle σ > 0
C 1−σ − 1
U (C) = ,
1−σ
denn der Spezialfall U (C) = ln(C) für σ = 1 ergibt sich darin im Grenzübergang σ → 1
mit Hilfe der Regel von l’Hospital.
Damit erhalten wir bei einer isoelastischen Nutzenfunktion die Fundamentalgleichung
f 0 K∗ (t) − %

Ċ∗ (t)
= (1.10)
C∗ (t) σ
für die Wachstumsrate einer optimalen Konsumptionspolitik. 
Beispiel 1.12. Wir verwenden die Bezeichnungen aus Beispiel 1.11 und es seien
f (K) = rK − ω, r, ω > 0, K(T ) frei.
Dies führt zu der Aufgabe
Z T
e−%t U rK(t) − ω − K̇(t) dt → sup,
 
J K(·) = K(0) = K0 , K(T ) frei.
0

Die Nutzenfunktion sei isoelastisch. Daher gelten U ∈ C2 , U 0 > 0, U 00 < 0 für C > 0.
Die Fundamentalgleichung (1.10) und die Randbedingung (1.9) liefern
Ċ∗ (t) r−%
0 = −e−%T U 0 C∗ (T ) .

= ,
C∗ (t) σ
Da U 0 > 0 gilt, gibt es keinen Parameter C > 0, der die Gleichung U 0 (C) = 0 löst. Des-
wegen erhalten wir keinen Kandidaten für eine schwache lokale Minimalstelle.
Bei näherer Betrachtung ist das wenig überraschend: Da keine Beschränkung an die Ent-
wicklung des Kapitalstocks vorliegen, liefert die Maximierung des Zielfunktionals
Z T
e−%t U C(t) dt
 
J K(·) =
0

die wenig brauchbare Lösung C∗ (t) ≡ ∞. 


18 Schwaches lokales Minimum

Beispiel 1.13. Wir fahren mit dem vorherigen Beispiel fort, indem wir dem Gesamtnutzen
der Gesellschaft den Rückkaufswert zum Abschluss der Planungsperiode gegenüberstellen:
Z T
e−%t U C(t) dt + e−%T K(T ) → sup .

0

Da die zulässigen Trajektorien K(·) stetig differenzierbar sind, können wir dies in äquiva-
lenter Form so ausdrücken:
Z T
e−%t U rK(t) − ω − K̇(t) + K̇(t) − %K(t) dt → sup .
   
J K(·) =
0

Die Euler-Lagrange-Gleichung führt wieder zur Konsumption mit Wachstumsrate

Ċ∗ (t) r−%


= .
C∗ (t) σ
Ferner wird durch die Randbedingung (1.9) bei freiem rechten Endpunkt,

0 = e−%T 1 − U 0 C∗ (T ) U 0 C∗ (T ) = 1,
  

die optimale Konsumption eindeutig festgelegt. 

1.1.3. Notwendige Bedingungen in der einfachsten Bolza-Aufgabe


Wir geben nun den Weg zur Herleitung von notwendigen Bedingungen für eine schwache
lokale Minimalstelle in der einfachsten Bolza-Aufgabe,
Z t1
   
B x(·) = ψ0 x(t0 ) + ψ1 x(t1 ) + f t, x(t), ẋ(t) dt → inf (1.11)
t0

an, wo im Unterschied zur Aufgabe (1.1)–(1.2) keine Randbedingungen auftreten, aber


dafür die Terminalfunktionale ψ0 , ψ1 vorkommen. Wir setzen die stetige Differenzierbar-
keit der Abbildungen ψ0 , ψ1 und f voraus. Dann erhalten wir für die erste Variation des
Funktionals B die Darstellung

δB x∗ (·) x(·) = ψ00 x∗ (t0 ) x(t0 ) + ψ10 x∗ (t1 ) x(t1 ) + δJ x∗ (·) x(·)
   
Z t1
0 0
  
= ψ0 x∗ (t0 ) x(t0 ) + ψ1 x∗ (t1 ) x(t1 ) + q(t)x(t) + p(t)ẋ(t) dt
t0

mit den vertrauten Bezeichnungen


 
q(t) = fx t, x∗ (t), ẋ∗ (t) , p(t) = fẋ t, x∗ (t), ẋ∗ (t) .

Ist x∗ (·) ein schwaches lokales Minimum der Bolza-Aufgabe (1.11), dann muss gelten:

δB x∗ (·) x(·) = 0 für alle x(·) ∈ C1 ([t0 , t1 ], R). (1.12)
Euler-Lagrangesche Gleichung 19

 
Auf dem Teilraum M0 ⊂ C1 ([t0 , t1 ], R) stimmen δB x∗ (·) und δJ x∗ (·) überein. Damit
ist nach Lemma 1.1 die Euler-Lagrangesche Gleichung (1.5) erfüllt. Das Vorgehen nach du
Bois-Reymond liefert zudem die stetige Differenzierbarkeit der Funktion p(·). Integrieren
wir im Ausdruck für die erste Variation des Funktionals B den Term p(t)ẋ(t) partiell und
berücksichtigen die Euler-Lagrange-Gleichung, so erhalten wir
δB x∗ (·) x(·) = ψ00 x∗ (t0 ) − p(t0 ) x(t0 ) + ψ10 x∗ (t1 ) + p(t1 ) x(t1 ).
      

Wegen (1.12) gelten somit die zusätzlichen Bedingungen


p(t0 ) = ψ00 x∗ (t0 ) , p(t1 ) = −ψ10 x∗ (t1 ) .
 

Satz 1.14. Es seien ψ0 , ψ1 und f stetig differenzierbar. Ist x∗ (·) ein schwaches lokales
Minimum in der Aufgabe (1.11), dann ist notwendig, dass auf [t0 , t1 ] die Euler-Lagrange-
Gleichung
 
d d  
− fẋ + fx = − fẋ t, x∗ (t), ẋ∗ (t) + fx t, x∗ (t), ẋ∗ (t) = 0 (1.13)
dt x∗ (t) dt
mit den Randbedingungen
 )
p(t0 ) = fẋ t0 , x∗ (t0 ), ẋ∗ (t0 ) = ψ00 x∗ (t0 ) ,

(1.14)
p(t1 ) = fẋ t1 , x∗ (t1 ), ẋ∗ (t1 ) = −ψ10 x∗ (t1 )
 

erfüllt ist.
Unter geeigneten Regularitätsvoraussetzungen lassen sich Terminal- und Integralfunktio-
nale ineinander überführen. Sei
 d 
f t, x(t), ẋ(t) = ψ t, x(t) ,
dt
dann sind folgendes Terminal- und Integralfunktional äquivalent:
Z t1
 
ψ t1 , x(t1 ) → inf ⇔ f t, x(t), ẋ(t) dt → inf .
t0

Umgekehrt entsteht aus einem Integralfunktional ein äquivalentes Terminalfunktional


Z t1

f t, x(t), ẋ(t) dt → inf ⇔ y(t1 ) → inf
t0

unter der dynamischen Nebenbedingung



ẏ(t) = f t, x(t), ẋ(t) , y(t0 ) = 0.
Aufgrund dessen gehen wir auf Aufgaben mit einem Zielfunktional in gemischter Form
nicht weiter ein. Stattdessen widmen wir unsere Aufmerksamkeit dem Standardproblem
mit einem Zielfunktional in Integralform und untersuchen als nächstes die Lagrange-
Aufgabe.
20 Schwaches lokales Minimum

1.2. Die Lagrange-Aufgabe und das Isoperimetrische Problem


1.2.1. Notwendige Bedingungen in der Lagrange-Aufgabe

Als Lagrange-Aufgabe der Klassischen Variationsrechnung bezeichnen wir das Problem


Z t1 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (1.15)
t0

ẋ(t) = ϕ t, x(t), u(t) , (1.16)
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0, (1.17)
m
u(t) ∈ U = R . (1.18)

In der Lagrange-Aufgabe seien x(·), u(·) ∈ C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ) und




f : R × Rn × Rm → R, ϕ : R × Rn × Rm → Rn , hi : Rn → Rsi , i = 0, 1.

Zu x(·), u(·) ∈ C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ) bezeichne Uγ die Menge




Uγ = {(t, x, u) ∈ [t0 , t1 ] × Rn × Rm | kx − x(t)k ≤ γ, ku − u(t)k ≤ γ}.

Dann gehören zur Menge ALip diejenigen x(·), u(·) ∈ C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ), für


die es eine Zahl γ > 0 derart gibt, dass auf der Menge Uγ

(A) die Abbildungen f (t, x, u), ϕ(t, x, u), h0 (x), h1 (x) stetig differenzierbar sind.

Das Paar x(·), u(·) ∈ C1 ([t0, t1 ], Rn ) × C([t0 , t1 ], Rm ) nennen wir zulässig in der Aufgabe


(1.15)–(1.18), falls x(·), u(·) dem System (1.16) genügt und die Randbedingungen (1.17)
erfüllt. Die Menge Aadm bezeichnet die Menge der zulässigen Paare x(·), u(·) .


Ein zulässiges Paar x∗ (·), u∗ (·) ist in der Aufgabe (1.15)–(1.18) ein schwaches lokales
Minimum, falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle x(·), u(·) ∈ Aadm mit kx(·) − x∗ (·)kC1 ≤ ε, ku(·) − u∗ (·)k∞ ≤ ε gilt.


Für die Aufgabe (1.15)–(1.18) bezeichnet L : R×Rn ×Rn ×Rm ×Rn ×R → R die Funktion

L(t, x, ẋ, u, p, λ0 ) = λ0 f (t, x, u) + hp, ẋ − ϕ(t, x, u)i.

Theorem 1.15. Es sei x∗ (·), u∗ (·) ∈ Aadm ∩ALip . Ist x∗ (·), u∗ (·) ein schwaches lokales
 

Minimum der Aufgabe (1.15)–(1.18), dann existieren nicht gleichzeitig verschwindende


Multiplikatoren λ0 ≥ 0, l0 ∈ Rs0 , l1 ∈ Rs1 und p(·) ∈ C1 ([t0 , t1 ], Rn ) derart, dass auf [t0 , t1 ]
Lagrange-Aufgabe 21

(a) die Euler-Lagrangesche Gleichung für die Funktion L bezüglich x,


 
d
− Lẋ + Lx =0 (1.19)
dt (x∗ (t),u∗ (t))

mit den Randbedingungen


T T
Lẋ (x∗ (t0 ),u∗ (t0 )) = h00 x∗ (t0 ) l0 , Lẋ (x∗ (t1 ),u∗ (t1 )) = −h01 x∗ (t1 ) l1
 
(1.20)

erfüllt ist;

(b) die Euler-Lagrangesche Gleichung für die Funktion L bezüglich u gilt:



Lu (x∗ (t),u∗ (t)) = 0. (1.21)

Besitzen außerdem die Matrizen h0i x∗ (ti ) maximalen Rang, d. h. rank h0i x∗ (ti ) = si für
 

i = 0, 1, dann gilt λ0 6= 0 und wir dürfen λ0 = 1 wählen.

Bemerkung 1.16. Ausführlich geschrieben nehmen die Bedingungen (1.19)–(1.21) in


Hamiltonscher Form die folgende Gestalt an: Die Gleichung (1.19) stellt eine Differential-
gleichung, die sogenannte adjungierte Gleichung,

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 fx t, x∗ (t), u∗ (t) ,


 

für den Multiplikator p(·) ∈ C1 ([t0 , t1 ], Rn ) dar. Die Randbedingungen (1.20) treten als
die Transversalitätsbedingungen
T T
p(t0 ) = h00 x∗ (t0 ) l0 , p(t1 ) = −h01 x∗ (t1 ) l1 ,
 

für die Adjungierte p(·) auf. Schließlich ist die Gleichung

ϕTu t, x∗ (t), u∗ (t) p(t) = λ0 fu t, x∗ (t), u∗ (t)


 

die ausführlich geschriebene Darstellung der Bedingung (1.21). 

Bemerkung 1.17. In der Lagrange-Aufgabe geben die Randbedingungen (1.17) Ein-


schränkungen der zulässigen Trajektorie x(·) in den Punkten t = t0 und t = t1 vor. Wir
schließen dabei den Fall nicht aus, dass diese Einschränkungen nicht für alle Koordina-
ten der Punkte x(t0 ) und x(t1 ) gelten. Sind die Komponenten xi (t0 ), xj (t1 ) für gewisse
i, j ∈ {1, ..., n} frei, so gelten die Transversalitätsbedingungen pi (t0 ) = 0 und pj (t1 ) = 0.
Liegt die Lagrange-Aufgabe mit freiem linken bzw. rechten Endpunkt vor, d. h. durch
wenigstens eine der Abbildung h0 (x), h1 (x) sind keine Einschränkungen an die Punkte
x(t0 ) bzw. x(t1 ) definiert, dann ergeben sich die Transversalitätsbedingungen p(t0 ) = 0
bzw. p(t1 ) = 0. Wegen der Nichttrivialität der Multiplikatoren folgt in diesem Fall aus der
adjungierten Gleichung unmittelbar der normale Fall, d. h. λ0 = 1. 
22 Schwaches lokales Minimum

Während die Euler-Lagrangesche Gleichung (1.5) für die Aufgabe  (1.1)–(1.2) der Variati-
0
onsrechnung das Analogon zur Fermatschen Gleichung J x∗ (·) = 0 darstellt, findet im
Satz 1.15 das Lagrangesche Prinzip seine Bestätigung. Dazu versehen wir die Nebenbedin-
gungen mit geeigneten Lagrangeschen Multiplikatoren und bilden die Lagrange-Funktion
L,
L : C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ) × C1 ([t0 , t1 ], Rn ) × R × Rs0 × Rs1 ,
mit Hilfe der zur Aufgabe (1.15)–(1.18) definierten Funktion L auf folgende Weise:

L = L x(·), u(·), p(·), λ0 , l0 , l1



Z t1



= L t, x(t), ẋ(t), u(t), p(t), λ0 dt + l0 , h0 x(t0 ) + l1 , h1 x(t1 ) .
t0

Gemäß dem Lagrangeschen Prinzip betrachten wir die Aufgabe ohne Nebenbedingungen:

inf L.
(x(·),u(·))

Halten wir u∗ (·) fest, so führt dies zu einer Bolza-Aufgabe (1.11) in Vektorform,
Z t1 


L t, x(t), ẋ(t), u∗ (t), p(t), λ0 dt + l0 , h0 x(t0 ) + l1 , h1 x(t1 ) → inf,
t0

und (1.19), (1.20) ergeben sich in voller Übereinstimmung mit Satz 1.14.
Wird in der Lagrange-Funktion L die Trajektorie x∗ (·) festgehalten, dann ergibt sich
bezüglich u(·) ∈ C([t0 , t1 ], Rm ) die Aufgabe
Z t1 
Z t1 
f1 t, u(t) dt := L t, x∗ (t), ẋ∗ (t), u(t), p(t), λ0 dt → inf .
t0 t0

Setzen wir darin u(t) = ẇ(t) mit der Funktion w(·) ∈ C1 ([t0 , t1 ], Rm ), dann entsteht die
Grundaufgabe mit freien Endpunkten
Z t1

f1 t, ẇ(t) dt → inf .
t0

Aufgrund Teil (b) in Folgerung 1.7 und Folgerung 1.9 erhalten wir (1.21).

Beispiel 1.18. Wir betrachten ein einfaches Vorsorgemodell über dem gegebenen Zeit-
rahmen [0, T ] und wollen das optimale Konsumptionsverhalten charakterisieren. Dabei
bezeichne K(·) den Kapitalstock, L(·) die Entlohnung für die erbrachte Arbeitsleistung
und C(·) die Konsumption. Weiterhin seien U eine zweimal stetig differenzierbar, monoton
wachsende und streng konkave Nutzenfunktion, d. h. U ∈ C2 , U 0 > 0, U 00 < 0, und es seien
r, % > 0 die Zins- bzw. Diskontrate. Die Lohnfunktion L(·), sowie der Kapitalbestand K0
zu Beginn und das angestrebte Vermögen KT zum Zeitpunkt T sind vorgegeben.
Lagrange-Aufgabe 23

Das Modell lautet mit diesen Größen


Z T
e−%t U C(t) dt → sup,
 
J K(·), C(·) =
0
K̇(t) = L(t) − C(t) + rK(t), K(0) = K0 , K(T ) = KT , C(t) ∈ R.

Als zulässige Paare fassen wir K(·), C(·) ∈ C1 ([0, T ], R) × C([0, T ], R) auf.
Wir wenden die notwendigen Bedingungen (1.19)–(1.21) in der Form nach Bemerkung
1.16 an: Die adjungierte Gleichung und die Transversalitätsbedingungen liefern

ṗ(t) = −rp(t), p(t) = l0 e−rt .

Weiterhin erhalten wir aus der Euler-Lagrange-Gleichung bezüglich C die Bedingung

p(t) = λ0 e−%t U 0 C∗ (t) .




Der Fall λ0 = 0 kann ausgeschlossen werden, da ansonsten sämtliche Multiplikatoren


verschwinden würden. Ferner muss l0 > 0 gelten. Das Konsumptionsverhalten reduziert
sich damit auf die Auswertung der Bedingung

U 0 C∗ (t) = l0 e(%−r)t .


(a) r = %: In diesem Fall ist C∗ (t) über [0, T ] konstant.

(b) r > %: Da U konkav ist, ist C∗ (t) über [0, T ] monoton wachsend.

(c) r < %: Es ist C∗ (t) über [0, T ] monoton fallend.

Ist daher die Teuerungsrate % kleiner bzw. größer als die Zinsrate r, so wird in stetig höher
bzw. geringer werdendem Maße konsumiert. Das eindeutige Konsumptionsverhalten C∗ (·)
ergibt sich abschließend aus den Randbedingungen K∗ (0) = K0 und K∗ (T ) = KT . 

1.2.2. Definition und Eigenschaften der Extremalaufgabe


Sei x∗ (·), u∗ (·) ∈ ALip . Die zugehörige Menge Uγ ist wie folgt festgelegt


Uγ = {(t, x, u) ∈ [t0 , t1 ] × Rn × Rm | kx − x∗ (t)k ≤ γ, ku − u∗ (t)k ≤ γ}.


n m

 den Ursprungn des Raumes C1m([t0 , t1 ], R ) × C([t0 , t1 ], R ). Wir
Es bezeichne ξ0 (·), v0 (·)
definieren für ξ(·), v(·) ∈ C1 ([t0 , t1 ], R ) × C([t0 , t1 ], R ) die Abbildungen
Z t1
˜
 
J ξ(·), v(·) = f t, x∗ (t) + ξ(t), u∗ (t) + v(t) dt,
t0
˙ − ϕ t, x∗ (t) + ξ(t), u∗ (t) + v(t) ,
 
F ξ(·), v(·) (t) = ẋ∗ (t) + ξ(t) t ∈ [t0 , t1 ],
 
Hi ξ(·) = hi x∗ (ti ) + ξ(ti ) , i = 0, 1.
24 Schwaches lokales Minimum

Dabei fassen wir sie als Abbildungen zwischen folgenden Funktionenräumen auf:
J˜ : C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ) → R,
F : C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ) → C([t0 , t1 ], Rn ),
Hi : C1 ([t0 , t1 ], Rn ) → Rsi , i = 0, 1.

Offensichtlich sind die Abbildungen Hi ξ(·) , i = 0, 1, stetig differenzierbar.
Lemma 1.19. J˜ ξ(·), v(·) ist im Punkt ξ0 (·), v0 (·) Fréchet-differenzierbar und es gilt
 

Z t1
˜ 0
 

J ξ0 (·), v0 (·) ξ(·), v(·) = fx t, x∗ (t), u∗ (t) , ξ(t) dt
t0
Z t1

+ fu t, x∗ (t), u∗ (t) , v(t) dt.
t0

Beweis Nach Voraussetzung (A) der Lagrange-Aufgabe (1.15)–(1.18) ist die Abbildung
f auf der Menge Uγ stetig differenzierbar. Daher ist J˜ auf Uγ wohldefiniert. Ferner ist der
lineare Operator J˜ ξ0 (·), v0 (·) stetig. Sei ε > 0 gegeben. Aufgrund der Stetigkeit von fx
0


und fu auf Uγ gibt es eine Zahl λ0 > 0 mit


 
fx t, x∗ (t) + λξ(t), u∗ (t) + λv(t) − fx t, x∗ (t), u∗ (t) ≤ ε
,
2(t1 − t0 )
 
fu t, x∗ (t) + λξ(t), u∗ (t) + λv(t) − fu t, x∗ (t), u∗ (t) ≤ ε
2(t1 − t0 )
für alle t ∈ [t0 , t1 ], kξ(·)kC1 ≤ 1, kv(·)k∞ ≤ 1 und alle 0 < λ ≤ λ0 .
Die Funktion g(s) = f t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) ist nach Voraussetzung (A) stetig
differenzierbar und besitzt die Ableitung
g 0 (s) = fx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) , λξ(t)




+ fu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) , λv(t) .
Ferner gilt nach dem Hauptsatz der Differential- und Integralrechnung
Z 1
g(1) − g(0) = g 0 (s) ds.
0

Damit können wir den Ausdruck


J˜ ξ0 (·) + λξ(·), v0 (·) + λv(·) − J˜ ξ0 (·), v0 (·)
 

λ
in die Form
Z t1 Z 1 h

fx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) , ξ(t)
t0 0


 i
+ fu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) , v(t) ds dt
Lagrange-Aufgabe 25

bringen. Damit erhalten wir


˜
J ξ0 (·) + λξ(·), v0 (·) + λv(·) − J˜ ξ0 (·), v0 (·)
 
0
− J˜ ξ0 (·), v0 (·) ξ(·), v(·)
 

λ
Z t1  Z 1 

 
≤ fx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − fx t, x∗ (t), u∗ (t) , ξ(t) ds dt
t 0
Z0 t1  Z 1 

 
+ fu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − fu t, x∗ (t), u∗ (t) , v(t) ds dt
t0 0
Z t1
ε 
≤ kξ(t)k + kv(t)k dt ≤ ε
t0 t1 − t0

für alle kξ(·)kC1 ≤ 1, kv(·)k∞ ≤ 1 und alle 0 < λ ≤ λ0 . 



Lemma 1.20. Die Abbildung F ist in ξ0 (·), v0 (·) Fréchet-differenzierbar und es gilt
 0  
F ξ0 (·), v0 (·) ξ(·), v(·) (t)
˙ − ϕx t, x∗ (t), u∗ (t) ξ(t) − ϕu t, x∗ (t), u∗ (t) v(t),
 
= ξ(t) t ∈ [t0 , t1 ].

Beweis Aufgrund der gleichen Argumente wie im Beweis des letzten Lemma ist die Ab-
bildung F auf der Menge Uγ wohldefiniert. Zudem ist der lineare Operator F 0 ξ0 (·), v0 (·)
stetig. Ferner lässt sich mit einfachen Umformungen die Differenz
 
F ξ0 (·) + λξ(·), v0 (·) + λv(·) − F ξ0 (·), v0 (·)
 
0
 
− F ξ0 (·), v0 (·) ξ(·), v(·) (t)
λ

in die folgende Gestalt bringen:


Z 1
  
− ϕx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − ϕx t, x∗ (t), u∗ (t) ξ(t)ds
0
Z 1
  
− ϕu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − ϕu t, x∗ (t), u∗ (t) v(t)ds.
0

Aufgrund der Stetigkeit von ϕx und ϕu nach (A) gibt es eine Zahl λ0 > 0 mit
  
F ξ0 (·) + λξ(·), v0 (·) + λv(·) − F ξ0 (·), v0 (·)

0
 
− F ξ0 (·), v0 (·) ξ(·), v(·) (·)
λ

Z 1
 
≤ max ϕx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − ϕx t, x∗ (t), u∗ (t) ds

t∈[t0 ,t1 ] 0
Z 1 
 
+ ϕu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − ϕu t, x∗ (t), u∗ (t) ds ≤ ε

0

für alle kξ(·)kC1 ≤ 1, kv(·)k∞ ≤ 1 und alle 0 < λ ≤ λ0 . 


26 Schwaches lokales Minimum


Lemma 1.21. Die Abbildung F ist in ξ0 (·), v0 (·) stetig differenzierbar.
Beweis Mit den gleichen Argumenten, mit denen im vorhergehenden
 Beweis die Fréchet-
Differenzierbarkeit der Abbildung F im Punkt ξ0 (·), v0 (·) gezeigt wurde,
 lässt sich die
Fréchet-Differenzierbarkeit der Abbildung F in allen Punkten ξ(·), v(·) mit

ξ(·), v(·) <γ
C1 ×C

zeigen. Da x∗ (·), u∗ (·) stetig und nach Voraussetzung (A) die Abbildung ϕ stetig differen-
zierbar ist, sind ϕx ϕu auf der kompakten Menge Uγ gleichmäßig stetig. Daher gibt es zu
jedem ε > 0 ein δ > 0 derart, dass bezüglich der Operatornorm die Beziehung
0
F ξ(·), v(·) − F 0 ξ0 (·), v0 (·)
 
h  
≤ max ϕx t, x∗ (t) + ξ(t), u∗ (t) + v(t) − ϕx t, x∗ (t), u∗ (t)
t∈[t0 ,t1 ]
  i
+ ϕu t, x∗ (t) + ξ(t), u∗ (t) + v(t) − ϕu t, x∗ (t), u∗ (t) ≤ ε

für alle kξ(·)kC1 ≤ δ ,kv(·)k∞ ≤ δ gilt. 


Lemma 1.22. Für jedes v(·) ∈ C([t0 , t1 ], Rm ) ist der lineare Operator

ξ(·) → F 0 ξ0 (·), v0 (·) ξ(·), v(·)


 


surjektiv. Ferner ist daher die Abbildung F im Punkt ξ0 (·), v0 (·) regulär.
 
Beweis Wir setzen A(t) =ϕx t, x∗ (t), u∗ (t) und a(t) = ϕu t, x∗ (t), u∗ (t) v(t). Da wir
den Operator F 0 ξ0 (·), v0 (·) als Abbildung in den Raum C([t0 , t1 ], Rn ) auffassen, ist der
Nachweis von Lemma 1.22 äquivalent zur Aussage, dass es zu jedem z(·) ∈ C([t0 , t1 ], Rn )
ein ξ(·) ∈ C1 ([t0 , t1 ], Rn ) gibt mit
˙ = A(t)ξ(t) + z(t),
ξ(t) t ∈ [t0 , t1 ].

Dies besagt aber gerade Satz D.3. 

1.2.3. Lagrangesche Multiplikatorenregel


In der Lagrange-Aufgabe (1.15)–(1.18) sei x∗ (·), u∗ (·) ∈ Aadm ∩ ALip .


Auf C1 ([t0 , t1 ], Rn ) × C([t0 , t1 ], Rm ) × C ∗ ([t0 , t1 ], Rn ) × R × Rs0 × Rs1 definieren wir zur


Extremalaufgabe

J˜ ξ(·), v(·) → inf,


  
F ξ(·), v(·) = 0, Hi ξ(·) = 0, i = 0, 1, (1.22)

die Lagrange-Funktion L = L ξ(·), v(·), y ∗ , λ0 , l0 , l1 ,




L = λ0 J˜ ξ(·), v(·) + y ∗ , F ξ(·), v(·) + l0T H0 ξ(·) + l1T H1 ξ(·) .



  
Lagrange-Aufgabe 27

Theorem 1.23 (Extremalprinzip). Sei x∗ (·), u∗ (·) ∈ ALip ∩ Aadm . Ist x∗ (·), u∗ (·) ein
 

schwaches lokales Minimum der Aufgabe (1.15)–(1.18), dann existieren nicht gleichzeitig
verschwindende Lagrangesche Multiplikatoren λ0 ≥ 0, y ∗ ∈ C ∗ ([t0 , t1 ], Rn ), l0 ∈ Rs0 und
l1 ∈ Rs1 derart, dass folgende Beziehungen gelten:

Lξ ξ0 (·), v0 (·), λ0 , y ∗ , l0 , l1 = 0, Lv ξ0 (·), v0 (·), λ0 , y ∗ , l0 , l1 = 0.


 
(1.23)
 
Sind zudem die Abbildungen H0 ξ(·) , H1 ξ(·) im Punkt ξ0 (·) regulär, dann gilt λ0 = 1.
Beweis Wir fassen die Gleichungsrestriktionen in der Abbildung
    
Φ ξ(·), v(·) = F ξ(·), v(·) , H0 ξ(·) , H1 ξ(·)

zusammen. Gemäß Lemma 1.21 ist diese Abbildung in ξ0 (·), v0 (·) stetig differenzierbar
mit dem Ableitungsoperator
  
Φ0 ξ0 (·), v0 (·) = F 0 ξ0 (·), v0 (·) , H00 ξ0 (·) , H10 ξ0 (·) .
 

 
Aufgrund von Lemma 1.22 ist die Abbildung F ξ(·), v(·) im Punkt ξ0 (·), v0 (·) regulär.
Ferner sind Im Hi0 ξ(·) abgeschlossene Teilmengender endlich-dimensionalen Räume Rsi .
Daher stimmt das Bild des Operators Φ0 ξ0 (·), v0 (·) mit Z = C([t0 , t1 ], Rn )×Rs0 ×Rs1 oder
mit einem abgeschlossenen Teilraum von Z überein. Es bezeichne L = Im Φ0 ξ0 (·), v0 (·) .


Im entarteten Fall, in dem L ein echter abgeschlossener Teilraum von Z ist, gilt

Im H00 ξ0 (·) × Im H10 ξ0 (·) ⊂ Rs0 × Rs1 .


 

Daher gibt es Vektoren l0 ∈ Rs0 , l1 ∈ Rs1 mit (l0 , l1 ) 6= 0 und

0 = l0T v0 + l1T v1 für alle v0 ∈ Im H00 , v1 ∈ Im H10 .

Setzen wir λ0 = 0 und y ∗ = 0, dann gelten die Bedingungen des Extremalprinzips.


Im regulären Fall, d. h. L = Z, dürfen wir den Satzes von Ljusternik (Theorem B.14)
auf die Abbildung
 Φ im Punkt ξ0 (·), v0 (·) anwenden. Demzufolge stimmt im Punkt
ξ0 (·), v0 (·) der lokale Tangentialkegel an die Menge
  
M = ξ(·), v(·) Φ ξ(·), v(·) = 0

mit dem Kern des Operators Φ0 ξ0 (·), v0 (·) überein. Für ξ(·), v(·) ∈ Ker Φ0 ξ0 (·), v0 (·)
  

existiert eine Variation


   kr(ε)k
ξε (·), vε (·) = ξ0 (·), v0 (·) + ε ξ(·), v(·) + r(ε), lim = 0,
ε→0 ε

derart, dass für alle |ε| ≤ ε0 , ε0 > 0, die Gleichung Φ ξε (·), vε (·) = 0 gilt. Dabei dürfen wir
das Intervall [0, ε0 ] in der Definition des lokalen Tangentialkegels auf [−ε0 , ε0 ] erweitern,
28 Schwaches lokales Minimum

da Ker Φ0 ξ0 (·), v0 (·) ein linearer Teilraum ist.




Die Funktion ϕ(ε) = J˜ ξε (·), vε (·) besitzt in ε = 0 ein lokales Minimum. Daher gilt


ϕ0 (0) = J˜0 ξ0 (·), v0 (·) ξ(·), v(·) = 0.


 

Diese Beziehung muss für alle ξ(·), v(·) ∈ Ker Φ0 ξ0 (·), v0 (·) gelten. Daher ist
 

   ⊥
J˜0 ξ0 (·), v0 (·) ∈ Ker Φ0 ξ0 (·), v0 (·) .

Nach dem Satz vom abgeschlossenen Bild (Theorem B.4) existiert ein z ∗ ∈ Z ∗ mit

0 = J˜0 ξ0 (·), v0 (·) + Φ0 ξ0 (·), v0 (·) z ∗
 

∗ T T
= J˜0 ξ0 (·), v0 (·) + F 0 ξ0 (·), v0 (·) y ∗ + H00 ξ0 (·) l0 + H10 ξ0 (·) l1 .
   

Damit ist der reguläre Fall mit λ0 = 1 in Satz 1.23 gezeigt. 

1.2.4. Beweisschluss
Wir schließen den Beweis von Theorem 1.15 in diesem Abschnitt ab. Dazu zeigen wir,
dass wir dem abstrakten Multiplikator y ∗ ∈ C ∗ ([t0 , t1 ], Rn ) im Extremalprinzip 1.23 eine
Funktion p(·) zuordnen können, mit der die notwendigen Bedingungen (1.19)–(1.21) in der
Lagrange-Aufgabe gelten. Die Lagrange-Funktion L zur Extremalaufgabe (1.22) ist

L = λ0 J˜ ξ(·), v(·) + y ∗ , F ξ(·), v(·) + l0T H0 ξ(·) + l1T H1 ξ(·) .



  

Dabei ist y ∗ ∈ C ∗ ([t0 , t1 ], Rn ). Nach dem Rieszschen  Darstellungssatz (Folgerung B.7)


existiert eine Vektorfunktion µ(·) = µ1 (·), ..., µn (·) , wobei die µi (·) von beschränkter
Variation und mit eventueller Ausnahme des Punktes t0 rechtsseitig stetig sind, mit
Z t1 h

∗ i T
˙ − ϕ t, x∗ (t) + ξ(t), u∗ (t) + v(t)

y , F ξ(·), v(·) = ẋ∗ (t) + ξ(t) dµ(t).
t0

Dann liefert die erste Gleichung in (1.23) des Extremalprinzips


Z t1 Z t1 h iT
˙ − ϕx t, x∗ (t), u∗ (t) ξ(t) dµ(t)

 
0 = λ0 fx t, x∗ (t), u∗ (t) , ξ(t) dt + ξ(t)
t0 t0
+ l0 , h00 x∗ (t0 ) ξ(t0 ) + l1 , h01 x∗ (t1 ) ξ(t1 )



(1.24)

für alle ξ(·) ∈ C1 ([t0 , t1 ], Rn ). Wir setzen der Übersichtlichkeit halber

Γi = h0i x∗ (ti ) .
  
a(t) = fx t, x∗ (t), u∗ (t) , A(t) = ϕx t, x∗ (t), u∗ (t) ,

Nach der Regel der partiellen Integration gilt


Z t1 Z t1  Z t1 T Z t1 T
hλ0 a(t), ξ(t)i dt = ˙
λ0 a(s) ds ξ(t) dt + λ0 a(t) dt ξ(t0 ).
t0 t0 t t0
Lagrange-Aufgabe 29

Im zweiten Summanden verfahren wir mit der Dichtefunktion A(t) wie folgt:
Z t1 Z t1 Z t
[A(t)ξ(t)]T dµ(t) = [ξ(t)]T dν(t), ν(t) = A(s) dµ(s).
t0 t0 t0

Die Funktion ν(·) ist von beschränkter Variation und wir erhalten nach den Regeln für
Stieltjes-Integrale
Z t1 Z t1 Z t1 T Z t1 T
T
[A(t)ξ(t)] dµ(t) = T ˙
A (s) dµ(s) ξ(t) dt + T
A (t) dµ(t) ξ(t0 ).
t0 t0 t t0

Außerdem erinnern wir an Z t1


ξ(t1 ) = ξ(t0 ) + ˙ dt.
ξ(t)
t0

Mit diesen Beziehung können wir (1.24) in folgende Form bringen:


Z t1 Z t1 Z t1 T Z t1
0 = λ0 a(s) ds − T
A (s) dµ(s) + ΓT1 l1 ˙ dt +
ξ(t) ˙ T dµ(t)
[ξ(t)]
t0 t t t0
 Z t1 Z t1 T
T T T
+ Γ0 l0 + Γ1 l1 + λ0 a(t) dt − A (t) dµ(t) ξ(t0 ). (1.25)
t0 t0

Die rechte Seite in (1.25) ist ein stetiges lineares Funktional im Raum C1 ([t0 , t1 ], Rn ):
Z t1
∗ ˙ T dν(t) + ha, ξ(t0 )i
hx , ξ(·)i = [ξ(t)]
t0

mit
Z tZ t1  Z tZ t1 
ν(t) = µ(t) + λ0 a(τ ) dτ ds − A (τ ) dµ(τ ) ds + ΓT1 l1 t, (1.26)
T
t0 s t0 s
Z t1 Z t1
a = ΓT0 l0 + ΓT1 l1 + λ0 a(t) dt − AT (t) dµ(t). (1.27)
t0 t0

Wegen der eindeutigen Darstellung (Folgerung B.9) eines stetigen linearen Funktionals im
Raum C1 ([t0 , t1 ], Rn ) und aus der Gleichung Lξ = 0 ergeben sich

ν(t) ≡ 0, a = 0. (1.28)

Aus (1.26) und (1.28) ist ersichtlich, dass die Vektorfunktion µ(·) absolutstetig ist. Setzen
wir nun p(t) = µ̇(t), so folgt mit (1.26) und (1.28):
Z t1 Z t1
p(t) + λ0 a(s) ds − AT (s)p(s) d(s) + ΓT1 l1 = 0. (1.29)
t t
30 Schwaches lokales Minimum

Für t = t0 bzw. für t = t1 liefert diese Gleichung zusammen mit (1.27) die Beziehungen
T T
p(t0 ) = ΓT0 l0 = h00 p(t1 ) = −ΓT1 l1 = −h01
 
x∗ (t0 ) l0 , x∗ (t1 ) l1 .

Differenzieren wir schließlich (1.29), so erhalten wir die adjungierte Gleichung

ṗ(t) = −AT (t)p(t) + λ0 a(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 fx t, x∗ (t), u∗ (t) .
 

Damit sind (1.19) und (1.20) in Theorem 1.15 gezeigt.


Setzen wir in der Lagrange-Funktion L anstelle von dµ(t) jetzt p(t) dt ein, so liefert die
zweite Gleichung in (1.23) für alle v(·) ∈ C([t0 , t1 ], Rm ):
Z t1 h iT
λ0 fu t, x∗ (t), u∗ (t) − ϕTu t, x∗ (t), u∗ (t) p(t) v(t) dt.
 
0= (1.30)
t0

Die rechte Seite definiert im Raum C([t0 , t1 ], Rm ) ein stetiges lineares Funktional. Nach
dem Rieszschen Darstellungssatzes (Satz B.6) folgt hieraus

ϕTu t, x∗ (t), u∗ (t) p(t) = λ0 fu t, x∗ (t), u∗ (t) .


 

Damit ist (1.21) gezeigt und Theorem 1.15 vollständig bewiesen. 

1.2.5. Das Isoperimetrische Problem


Das Isoperimetrische Problem der Klassischen Variationsrechnung ist folgende Aufgabe:


Z t1 
J x(·) = f0 t, x(t), ẋ(t) dt → inf, (1.31)
t0
Z t1 
fi t, x(t), ẋ(t) dt = αj , j = 1, ..., m, (1.32)
t0
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0. (1.33)

Dabei seien fj : R × Rn × Rn → R, j = 0, ..., m, und hi : Rn → Rsi , i = 0, 1.


In der Aufgabe (1.31)–(1.33) sind diejenigen Funktionen x(·) ∈ C1 ([t0 , t1 ], Rn ) zulässig, die
die isoperimetrischen Beschränkungen (1.32) und die Randbedingungen (1.33) erfüllen. Die
Menge Aadm bezeichnet wieder die Menge der zulässigen Trajektorien x(·). Ferner ist ALip 0

die Menge aller x(·) ∈ C1 ([t0 , t1 ], Rn ), für die die Abbildungen

(A0 ) fj (t, x, ẋ), j = 0, ..., m, und h0 (x), h1 (x) stetig differenzierbar sind auf der Menge

Uγ0 = {(t, x, v) ∈ [t0 , t1 ] × Rn × Rn | kx − x(t)k ≤ γ, kv − ẋ(t)k ≤ γ}.


Lagrange-Aufgabe 31

In der Aufgabe (1.31)–(1.33) bezeichnet L : R × Rn × Rn × R × Rm → R die Funktion


m
X m
X
L(t, x, ẋ, λ0 , λ) = λ0 f0 (t, x, ẋ) + λj fj (t, x, ẋ) = λj fj (t, x, ẋ).
j=1 j=0

Satz 1.24. Es sei x∗ (·) ∈ Aadm ∩ ALip 0 . Ist x (·) ein schwaches lokales Minimum der

Aufgabe (1.31)–(1.33), dann existieren nicht gleichzeitig verschwindende Multiplikatoren
λj ∈ R, j = 0, ..., m, und li ∈ Rsi , i = 0, 1, derart, dass für die Funktion L die Euler-
Lagrange-Gleichung  
d
− Lẋ + Lx =0 (1.34)
dt x∗ (t)

auf [t0 , t1 ] erfüllt ist und folgende Randbedingungen gelten:


T T
Lẋ x∗ (t0 ) = h00 x∗ (t0 ) l0 , Lẋ x∗ (t1 ) = −h01 x∗ (t1 ) l1 .
 
(1.35)

Beweis Im Isoperimetrischen Problem (1.31)–(1.33) setzen wir

f = (f1 , ..., fm )T , α = (α1 , ..., αm )T , u = ẋ, ẏ = f (t, x, u).

Damit ensteht die Lagrange-Aufgabe


Z t1
J˜ x(·), y(·), u(·) =
 
f0 t, x(t), u(t) dt → inf,
t0

ẋ(t) = u(t), ẏ(t) = f t, x(t), u(t) ,
u(t) ∈ Rn .
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0, y(t0 ) = 0, y(t1 ) − α = 0,

Die dazugehörende Funktion L̃ lautet

L̃(t, x, y, ẋ, ẏ, u, p, q, λ0 ) = λ0 f0 (t, x, u) + hp, ẋ − ui + hq, ẏ − f (t, x, u)i.

Betrachten wir zunächst (1.19) bezüglich y, so erhalten wir für q(·) ∈ C1 ([t0 , t1 ], Rn ):

d
− q(t) = 0 ⇒ q(t) ≡ −λ = −(λ1 , ..., λm )T ∈ Rm auf [t0 , t1 ].
dt
Damit folgt unmittelbar für (1.19) bezüglich x die Bedingung
m
d d X
L̃ẋ (x∗ (t),y∗ (t),u∗ (t)) = p(t) = λj fjx t, x∗ (t), u∗ (t)) = L̃x (x∗ (t),y∗ (t),u∗ (t)) .
dt dt
j=0

Aus den Randbedingungen (1.20) ergibt sich


T T
p(t0 ) = h00 p(t1 ) = −h01 q(t0 ) = q(t1 ) = −λ = ˜l0 = −˜l1 .
 
x∗ (t0 ) l0 , x∗ (t1 ) l1 ,
32 Schwaches lokales Minimum

Abschließend folgt mit ẋ∗ (t) = u∗ (t) aus (1.21) der Zusammenhang

L̃u (x∗ (t),y∗ (t),u∗ (t)) = −p(t) + Lẋ x∗ (t) = 0.
Beachten wir in sämtlichen Bedingungen die Beziehungen

ẋ∗ (t) = u∗ (t), p(t) = Lẋ x∗ (t) ,
dann ist Satz 1.24 aus Satz 1.15 vollständig abgeleitet. 
Beispiel 1.25 (Kettenlinie). Eine homogene schwere Kette der Länge l ist an ihren Enden
in den Punkten (t0 , x0 ) und (t1 , x1 ) aufgehängt. Welche Form besitzt sie?
Der Einfachheit halber besitzen die Aufhängepunkte die gleiche Höhe x0 = x1 = h und es
seien t0 = −a, t1 = a mit einem a > 0. Damit die Aufgabe sinnvoll gestellt ist, dürfen die
Punkte nicht weiter voneinander entfernt sein als die Länge l der Kette, d. h. l ≥ 2a.
Die Aufgabe der Kettenlinie führt zur Minimierung der gesamten potentiellen Energie,
Z a p

J x(·) = x(t) 1 + ẋ2 (t) dt → inf,
−a
unter der Isoperimetrischen Beschränkung
Z ap
1 + ẋ2 (t) dt = l, l ≥ 2a,
−a
und den Randbedingungen
x(−a) = x(a) = h.
Die Euler-Lagrange-Gleichung (1.34) liefert für die Funktion
p p
L(x, ẋ, λ0 , λ) = λ0 x 1 + ẋ2 + λ 1 + ẋ2 ,
bei Beachtung des Spezialfalles (c) in Folgerung 1.7, die Differentialgleichung
1p
λ0 x∗ (t) + λ = 1 + ẋ2∗ (t).
k
Ist dabei λ0 = 0, so muss ẋ∗ (t) konstant sein. Dies kann nur für die direkte Verbindungs-
strecke gelten, also im Fall l = 2a. Es sei nun l > 2a und λ0 = 1. Dann erhalten wir aus
der Differentialgleichung durch Differentation nach t:
p 1
ẍ∗ (t) = k 1 + ẋ2∗ (t) ⇒ x∗ (t) + λ = cosh(kt + D).
k
Aus physikalischen Gründen ist dabei k > 0. Wegen der Symmetrie der Randbedingungen
gilt ferner D = 0. Die Länge der Kurve x∗ (t) über [−a, a] ist gleich 2 sinh(ka)/k und es
gibt genau eine positive Konstante k0 mit 2 sinh(k0 a)/k0 = l. Dies ergibt abschließend
1
x∗ (t) = cosh(k0 t) − λ,
k0
wobei sich λ aus der Randbedingung x∗ (a) = h ermitteln lässt. 
Schwaches Optimalitätsprinzip 33

1.3. Ein Schwaches Optimalitätsprinzip für ein Steuerungsproblem


1.3.1. Notwendige Optimalitätsbedingungen
Wir betrachten als Steuerungsproblem die Aufgabe
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (1.36)
t0

ẋ(t) = ϕ t, x(t), u(t) , (1.37)
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0, (1.38)
m
u(t) ∈ U ⊆ R , U 6= ∅, U konvex, (1.39)

wobei entsprechend zur Lagrange-Aufgabe wieder gelte

f : R × Rn × Rm → R, ϕ : R × Rn × Rm → Rn , hi : Rn → Rsi , i = 0, 1.

Die Aufgabe (1.36)–(1.39) betrachten wir allerdings bezüglich der Paare

x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ).




Wir nennen die Trajektorie x(·) eine Lösung der Gleichung (1.37) zur Steuerung u(·), falls
x(·) auf [t0 , t1 ] definiert ist und die Dynamik im Sinn von Carathéodory löst.

Zu x(·), u(·) bezeichne Uγ wie in der Lagrange-Aufgabe die Menge

Uγ = {(t, x, u) ∈ [t0 , t1 ] × Rn × Rm | kx − x(t)k ≤ γ, ku − u(t)k ≤ γ}.

Dann gehören zur Menge ALip diejenigen x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ),


für die es eine Zahl γ > 0 derart gibt, dass auf der Menge Uγ gelten:
(A) Die Abbildungen f (t, x, u), ϕ(t, x, u), h0 (x), h1 (x) sind stetig differenzierbar.
Das Paar x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ],U ) heißt ein zulässiger Steuerungs-


prozess in der Aufgabe (1.36)–(1.39), falls x(·), u(·) dem System (1.37) genügt und die
Randbedingungen (1.38) erfüllt. Die Menge Aadm bezeichnet die Menge der zulässigen
Steuerungsprozesse.

Ein zulässiger Steuerungsprozess x∗ (·), u∗ (·) ist eine schwache lokale Minimalstelle der
Aufgabe (1.36)–(1.39), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle x(·), u(·) ∈ Aadm mit kx(·) − x∗ (·)k∞ ≤ ε, ku(·) − u∗ (·)kL∞ ≤ ε gilt.


Für die Aufgabe (1.36)–(1.39) bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-


Funktion, die wir wie folgt definieren:

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 f (t, x, u).


34 Schwaches lokales Minimum

Theorem 1.26. Es sei x∗ (·), u∗ (·) ∈ Aadm ∩ALip . Ist x∗ (·), u∗ (·) ein schwaches lokales
 

Minimum der Aufgabe (1.36)–(1.39), dann existieren nicht gleichzeitig verschwindende


Multiplikatoren λ0 ≥ 0, l0 ∈ Rs0 , l1 ∈ Rs1 und p(·) ∈ W21 ([t0 , t1 ], Rn ) derart, dass

(a) die Funktion p(·) der adjungierten Gleichung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 fx t, x∗ (t), u∗ (t)


 
(1.40)

genügt und die folgenden Transversalitätsbedingungen erfüllt:


T T
p(t0 ) = h00 p(t1 ) = −h01
 
x∗ (t0 ) l0 , x∗ (t1 ) l1 ; (1.41)

(b) in fast allen Punkten t ∈ [t0 , t1 ] und für alle u ∈ U die Variationsungleichung

 
Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0 (1.42)

gilt.

Bemerkung 1.27. Ohne Einschränkung lässt sich an dieser Stelle die Bemerkung 1.17
über die Transversalitätsbedingungen bei fehlenden Randbedingungen übernehmen. 

Die Aufgabe (1.36)–(1.39) besitzt formal die Gestalt der Lagrange-Aufgabe. Im Vergleich
dazu bestehen die wesentlichen Verallgemeinerungen darin, dass erstens die Zustandstra-
jektorie nicht stetig differenzierbar sein muss. Sie braucht also nur stückweise der Euler-
Lagrangeschen Gleichung genügen. Eine derartige Trajektorie heißt geknickte Extremale.
Zweitens dürfen im Unterschied zur Lagrange-Aufgabe die Steuerungen u(·) aufgrund der
Wahl des Raumes L∞ ([t0 , t1 ], U ) unstetig sein. Aber insbesondere kann drittens der Fall ei-
nes kompakten Steuerungsbereiches vorliegen, d. h. die Steuerungsparameter u ∈ U dürfen
gewisse Grenzlagen annehmen. Der Umstand, dass der Steuerungsbereich U kompakt sein
darf, hebt die Aufgabe (1.36)–(1.39) aus dem Rahmen der Klassischen Variationsrechnung
heraus. In den Anwendungen sind die Aufgaben mit kompaktem Steuerungsbereich von
zentraler Bedeutung.
Wir demonstrieren die Sachverhalte und beginnen mit der geknickten Extremale:

Beispiel 1.28. Wir suchen eine Lösung des Variationsproblems


Z 1 2
ẋ2 (t) − 1 dt → inf, x(0) = x(1) = 0.
0

Die Lösungen dieser Aufgabe bestehen aus allen “Zick-Zack-Kurven”, die nur die An-
stiege ±1 besitzen und die Punkte (0, 0) und (1, 0) miteinander verbinden. Zwischen den
Stellen, in denen der Anstieg das Vorzeichen wechselt, genügen diese Kurven der Euler-
Lagrangeschen Gleichung. 
Schwaches Optimalitätsprinzip 35

Beispiel 1.29. Es bezeichne K(t) das Kapital und u(t) die Investitions- bzw. 1 − u(t) die
Konsumptionsrate zum Zeitpunkt t. Wir betrachten das lineare Investitionsmodell
Z T
 
J K(·), u(·) = 1 − u(t) · K(t) dt → sup,
0
K̇(t) = u(t) · K(t), K(0) = K0 > 0,
u(t) ∈ [0, 1], T > 1 fest.

Nach Bemerkung 1.27 dürfen wir Theorem 1.26 mit λ0 = 1 anwenden und erhalten als
optimalen Steuerungsprozess

K0 · et
 
1 für t ∈ [0, T − 1), t ∈ [0, T − 1),
u∗ (t) = K∗ (t) =
0 für t ∈ [T − 1, T ], K0 · eT −1 t ∈ [T − 1, T ],

und für die Adjungierte

eT −(1+t) , t ∈ [0, T − 1),



p(t) =
T − t, t ∈ [T − 1, T ].

Außerdem ergibt sich für den Wert des Zielfunktionals


Z T
1 − u∗ (t) · K∗ (t) dt = K0 · eT −1 .
 
J K∗ (·), u∗ (·) =
0

In diesem Beispiel ist die optimale Steuerung u∗ (·) unstetig und nimmt ausschließlich
Werte auf dem Rand des Steuerungsbereiches U = [0, 1] an. 

Beispiel 1.30. Im Gegensatz zum vorherigen linearen Modell wird die Produktion durch
die Cobb-Douglas-Funktion f (K) = K α mit α ∈ (0, 1) angegeben. Damit erhalten wir
folgende Aufgabe
Z T
1 − u(t) · K α (t) dt → sup,
 
J K(·), u(·) =
0
K̇(t) = u(t) · K α (t), K(0) = K0 > 0,
u(t) ∈ [0, 1], α ∈ (0, 1) konstant, T fest mit αT − K01−α > 0.

Der Term K α führt zur Einschränkung γ < K0 bei der Festlegung der Menge Uγ .
Wir wenden Theorem 1.26 mit λ0 = 1 an und erhalten als optimalen Steuerungsprozess
(   1
(1 − α)t + K01−α 1−α

1 für t ∈ [0, τ ), t ∈ [0, τ ),
u∗ (t) = K∗ (t) =  1
0 für t ∈ [τ, T ], 
α(1 − α)T + αK 1−α 1−α
t ∈ [τ, T ],
0

mit dem Umschaltpunkt


τ = αT − K01−α .
36 Schwaches lokales Minimum

Die adjungierte Funktion lautet dabei


  α
1−α  1−α
 α(1 − α)T + αK 0
für t ∈ [0, τ ),


1−α

p(t) = (1 − α)t + K0
 T −t

 für t ∈ [τ, T ].
(1 − α)T + K01−α

Im Beispiel mit Cobb-Douglas-Produktionsfunktion ergibt sich


α  1
J x∗ (·), u∗ (·) = α 1−α · (1 − α)T + K01−α 1−α
 

für den Wert des Zielfunktionals. 

1.3.2. Definition und Eigenschaften der Extremalaufgabe


Seien x∗ (·), u∗ (·) ∈ ALip und x∗ (·) ∈ C([t0 , t1 ], Rn ). Die Menge Uγ ist wie folgt definiert:


Uγ = {(t, x, u) ∈ [t0 , t1 ] × Rn × Rm | kx − x∗ (t)k ≤ γ, ku − u∗ (t)k ≤ γ}.


Es bezeichne ξ0 (·), v0 (·) den Ursprung des Raumes C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ). Wir


definieren für ξ(·), v(·) ∈ C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) die Abbildungen


Z t1
˜
 
J ξ(·), v(·) = f t, x∗ (t) + ξ(t), u∗ (t) + v(t) dt,
t0
  
F ξ(·), v(·) (t) = x∗ (t) + ξ(t) − x∗ (t0 ) + ξ(t0 )
Z t

− ϕ s, x∗ (s) + ξ(s), u∗ (s) + v(s) ds, t ∈ [t0 , t1 ],
t0
 
Hi ξ(·) = hi x∗ (ti ) + ξ(ti ) , i = 0, 1.
Da x∗ (·) zu C([t0 , t1 ], Rn ) gehört, gilt für diese Abbildungen
J˜ : C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) → R,
F : C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) → C([t0 , t1 ], Rn ),
Hi : C([t0 , t1 ], Rn ) → Rsi , i = 0, 1.
Wir untersuchen im Weiteren die Eigenschaften der Extremalaufgabe
J˜ x(·), u(·) → inf,
  
F x(·), u(·) = 0, Hi x(·) = 0, i = 0, 1. (1.43)

Dabei sind die Abbildungen Hi x(·) offenbar stetig differenzierbar.
Lemma 1.31. J˜ ξ(·), v(·) ist im Punkt ξ0 (·), v0 (·) Fréchet-differenzierbar und es gilt
 

Z t1
˜0
 

J ξ0 (·), v0 (·) ξ(·), v(·) = fx t, x∗ (t), u∗ (t) , ξ(t) dt
t0
Z t1

+ fu t, x∗ (t), u∗ (t) , v(t) dt.
t0
Schwaches Optimalitätsprinzip 37

Beweis Nach Voraussetzung (A) ist die Abbildung fauf der Menge Uγ stetig differenzier-
bar. Daher ist J˜ auf einer Umgebung von ξ0 (·), v0 (·) wohldefiniert. Ferner ist der lineare
Operator J˜0 ξ0 (·), v0 (·) stetig. Sei ε > 0 gegeben. Aufgrund der gleichmäßigen Stetigkeit


von fx und fu auf der Menge Uγ gibt es eine Zahl λ0 > 0 mit

 
fx t, x∗ (t) + λξ, u∗ (t) + λv − fx t, x∗ (t), u∗ (t) ≤ ε
,
2(t1 − t0 )
 
fu t, x∗ (t) + λξ, u∗ (t) + λv − fu t, x∗ (t), u∗ (t) ≤ ε
2(t1 − t0 )

für fast alle t ∈ [t0 , t1 ], für alle kξk ≤ 1, kvk ≤ 1 und alle 0 < λ ≤ λ0 . Damit erhalten wir

˜
J ξ0 (·) + λξ(·), v0 (·) + λv(·) − J˜ ξ0 (·), v0 (·)
 
˜0
 
− J ξ0 (·), v0 (·) ξ(·), v(·)
λ
Z t1  Z 1 
 
≤ hfx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − fx t, x∗ (t), u∗ (t) , ξ(t)ids dt
t 0
Z0 t1  Z 1 
 
+ hfu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − fu t, x∗ (t), u∗ (t) , v(t)ids dt
t0 0
Z t1
ε 
≤ kξ(t)k + kv(t)k dt ≤ ε
t0 2(t1 − t0 )

für alle kξ(·)k∞ ≤ 1, kv(·)kL∞ ≤ 1 und alle 0 < λ ≤ λ0 . 


Lemma 1.32. Die Abbildung F ist in ξ0 (·), v0 (·) Fréchet-differenzierbar und es gilt

 0  
Z t 
F ξ0 (·), v0 (·) ξ(·), v(·) (t) = ξ(t) − ξ(t0 ) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds
t0
Z t 
− ϕu s, x∗ (s), u∗ (s) v(s) ds, t ∈ [t0 , t1 ].
t0


Beweis Die Abbildung F ist auf einer Umgebung von ξ0 (·), v0 (·) wohldefiniert. Zudem
ist der lineare Operator F 0 ξ0 (·), v0 (·) stetig. Da die Abbildungen ϕx , ϕu auf der Menge
Uγ gleichmäßig stetig sind, gibt es eine Zahl λ0 > 0 mit

 
ϕx t, x∗ (t) + λξ, u∗ (t) + λv − ϕx t, x∗ (t), u∗ (t) ≤ ε
,
2(t1 − t0 )
 
ϕu t, x∗ (t) + λξ, u∗ (t) + λv − ϕu t, x∗ (t), u∗ (t) ≤ ε
2(t1 − t0 )
38 Schwaches lokales Minimum

für fast alle [t0 , t1 ], für alle kξk ≤ 1, kvk ≤ 1 und alle 0 < λ ≤ λ0 . Damit folgt
 
F ξ0 (·) + λξ(·), v0 (·) + λv(·) − F ξ0 (·), v0 (·)

0
 
− F ξ0 (·), v0 (·) ξ(·), v(·)
λ
Z t1  Z 1 ∞
 
≤ ϕx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − ϕx t, x∗ (t), u∗ (t) ds dt
t0 0
Z t1 Z 1  

ϕu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − ϕu t, x∗ (t), u∗ (t) ds dt ≤ ε
t0 0

für alle kξ(·)k∞ ≤ 1, kv(·)kL∞ ≤ 1 und alle 0 < λ ≤ λ0 . 



Lemma 1.33. Die Abbildung F ist in ξ0 (·), v0 (·) stetig differenzierbar.
Beweis Mit den gleichen Argumenten,
 mit denen die Fréchet-Differenzierbarkeit der Ab-
bildung F im Punkt ξ0 (·), v0 (·) gezeigt wurde, lässt sich die Differenzierbarkeit auf einer
Umgebung des Punktes ξ0 (·), v0 (·) im Raum C([t0 , t1 ], Rn )×L∞ ([t0 , t1 ], Rm ) zeigen. Nut-


zen wir die gleichmäßige Stetigkeit von ϕx , ϕu auf der Menge Uγ , dann gibt es zu jedem
ε > 0 ein δ > 0 derart, dass
0
F ξ(·), v(·) − F 0 ξ0 (·), v0 (·) =
 

sup F 0 ξ(·), v(·) − F 0 ξ0 (·), v0 (·) ξ 0 (·), v 0 (·) ∞ ≤ ε


   
k(ξ 0 ,v 0 )k=1

für alle kξ(·)k∞ ≤ δ und kv(·)kL∞ ≤ δ gilt. 


Lemma 1.34. Für jedes v(·) ∈ L∞ ([t0 , t1 ], U ) ist der lineare Operator

ξ(·) → F 0 ξ0 (·), v0 (·) ξ(·), v(·)


 


surjektiv. Ferner ist daher die Abbildung F im Punkt ξ0 (·), v0 (·) regulär.
Beweis Wir haben zu zeigen, dass die Gleichung

z(·) = F 0 ξ0 (·), v0 (·) ξ(·), v(·)


 

für jedes z(·) ∈ C([t0 , t1 ], Rn ) ein Lösung


 ξ(·) ∈ C([t0 , t1 ], Rn ) besitzt.

Wir setzen A(t) = ϕx t, x∗ (t), u∗ (t) und a(t) = ϕu t, x∗ (t), u∗ (t) v(t). Da wir den Ope-
rator F 0 ξ0 (·), v0 (·) als Abbildung in den Raum C([t0 , t1 ], Rn ) auffassen, ist der Nach-
weis von Lemma 1.22 äquivalent zur Aussage, dass es zu jedem z(·) ∈ C([t0 , t1 ], Rn ) ein
ξ(·) ∈ C([t0 , t1 ], Rn ) gibt mit
Z t
 
z(t) = ξ(t) − A(s)ξ(s) + a(s) ds, t ∈ [t0 , t1 ].
t0

Das folgt unmittelbar aus Lemma D.2 


Schwaches Optimalitätsprinzip 39

1.3.3. Lagrangesche Multiplikatorenregel


In der Aufgabe (1.36)–(1.39) sei x∗ (·), u∗ (·) ∈ Aadm ∩ ALip und x∗ (·) ∈ C([t0 , t1 ], Rn ).


Auf C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) × C ∗ ([t0 , t1 ], Rn ) × R × Rs0 × Rs1 definieren wir zur


Extremalaufgabe (1.43) die Lagrange-Funktion L = L ξ(·), v(·), y ∗ , λ0 , l0 , l1 ,


L = λ0 J˜ ξ(·), v(·) + y ∗ , F ξ(·), v(·) + l0T H0 ξ(·) + l1T H1 ξ(·) .



  

x∗ (·), u∗ (·) ∈ ALip ∩ Aadm und sei außerdem



Theorem 1.35 (Extremalprinzip). Sei
x∗ (·) ∈ C([t0 , t1 ], Rn ). Ist x∗ (·), u∗ (·) eine schwache lokale Minimalstelle der Aufgabe


(1.36)–(1.39), dann existieren nicht gleichzeitig verschwindende Lagrangesche Multiplika-


toren λ0 ≥ 0, y ∗ ∈ C ∗ ([t0 , t1 ], Rn ), l0 ∈ Rs0 und l1 ∈ Rs1 derart, dass gelten:

(a) Die Lagrange-Funktion besitzt bezüglich ξ(·) in ξ0 (·) einen stationären Punkt, d. h.

Lξ ξ0 (·), v0 (·), λ0 , y ∗ , l0 , l1 = 0.

(1.44)

(b) Die Lagrange-Funktion erfüllt bezüglich v(·) in v0 (·) die Variationsungleichung

Lv ξ0 (·), v0 (·), λ0 , y ∗ , l0 , l1 , v(·) − u∗ (·) ≥ 0




(1.45)

für alle v(·) ∈ L∞ ([t0 , t1 ], U ).


 
Beweis Aufgrund von Lemma 1.34 ist die Abbildung F ξ(·), v(·) im Punkt ξ0 (·), v0 (·)
regulär. Ferner sind Im Hi0 ξ0 (·) abgeschlossene Teilmengen der endlich-dimensionalen


Räume Rsi . Daher stimmt das Bild des stetigen lineare Operators
 
Λ = F 0 ξ0 (·), v0 (·) , H00 ξ0 (·) , H10 ξ0 (·)
 

entweder mit Z = C([t0 , t1 ], Rn ) × Rs0 × Rs1 oder mit einem abgeschlossenen Teilraum von
Z überein. Wir bezeichnen mit L die Bildmenge Im Λ.
Im entarteten Fall, in dem L ein echter abgeschlossener Teilraum von Z ist, gilt

Im H00 ξ0 (·) × Im H10 ξ0 (·) ⊂ Rs0 × Rs1 .


 

Daher gibt es Vektoren l0 ∈ Rs0 , l1 ∈ Rs1 mit (l0 , l1 ) 6= 0 und

0 = l0T v0 + l1T v1 für alle v0 ∈ Im H00 , v1 ∈ Im H10 .

Setzen wir λ0 = 0 und y ∗ = 0, dann gelten die Bedingungen des Extremalprinzips 1.35.
Der Übersichtlichkeit halber ist der Beweis für den regulären Fall in drei Schritte gegliedert.
1. Schritt (Die Menge C der Variationen). Wir betrachten die Menge C derjenigen

η0 , y(·), µ0 , µ1 ∈ R × C([t0 , t1 ], Rn ) × Rs0 × Rs1 ,



40 Schwaches lokales Minimum

zu denen es ein ξ(·) ∈ C([t0 , t1 ], Rn ) und ein v(·) ∈ L∞ ([t0 , t1 ], U ) gibt mit

η0 > J˜0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) ,


 

y(·) = F 0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) , µi = Hi0 ξ0 (·) ξ(·), i = 0, 1.


  

Die Menge C ist konvex, da der Steuerungsbereich U nach (1.39) konvex ist. Ferner ist das
Innere der Menge C nach dem Satz  von deroffenen Abbildung nichtleer, da die stetigen
0 0
linearen Operatoren F ξ0 (·), v0 (·) , Hi ξ0 (·) surjektiv sind. Zum Nachweis von Theorem
1.35 genügt es 0 6∈ C zu zeigen, denn aus dem Satz von Hahn-Banach folgt die Existenz
eines nichttrivialen Funktionals (λ0 , y ∗ , l0 , l1 ) ∈ R × C ∗ ([t0 , t1 ], Rn ) × Rs0 × Rs1 mit

0 ≤ λ0 η0 + hy ∗ , y(·)i + hl0 , µ0 i + hl1 , µ1 i

für alle η0 , y(·), µ0 , µ1 ∈ C . Diese Ungleichung liefert λ0 ≥ 0 und bedeutet ferner, dass


0 ≤ λ0 J˜0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) + y ∗ , F 0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·)
 
 

+ l0 , H00 ξ0 (·) ξ(·) + l1 , H10 ξ0 (·) ξ(·)






für alle ξ(·), v(·) ∈ C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ) gilt. Betrachten wir diese Ungleichung


nacheinander für ξ(·) = ξ0 (·) bzw. v(·) = u∗ (·), so folgen (1.44) und (1.45).
Angenommen, es ist 0 ∈ C . Dann existieren ξ(·) ∈ C([t0 , t1 ], Rn ), v(·) ∈ L∞ ([t0 , t1 ], U )
und eine Zahl c > 0 mit

−c ≥ J˜0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) ,


 

0 = F 0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) , 0 = Hi0 ξ0 (·) ξ(·), i = 0, 1.


  

2. Schritt (Die Definition und die Eigenschaften des Operators Φ). Auf einer Umgebung
des Punktes ξ0 (·), 0 ∈ C([t0 , t1 ], Rn ) × R betrachten wir die Abbildung


    
Φ ξ(·), α = F ξ(·), α[v(·) − u∗ (·)] , H0 ξ(·) , H1 ξ(·) .

Aus den Eigenschaften  der Abbildungen F und H0 , H1 folgt, dass Φ auf einer Umgebung
n
des Punktes ξ0 (·), 0 ∈ C([t0 , t1 ], R ) × R wohldefiniert und stetig, außerdem in ξ0 (·), 0
stetig differenzierbar mit der Ableitung
  
Φ0 ξ0 (·), 0 ξ(·), α = F 0 ξ0 (·), v0 (·) , H00 ξ0 (·) , H10 ξ0 (·)
   
ξ(·), α[v(·) − u∗ (·)]
 
ist. Ferner ist Φ in ξ0 (·), 0 nach Lemma 1.34 regulär. Zudem gehört  ξ(·), 1 aufgrund
unserer Annahme im ersten Schritt dem Kern des Operators Φ0 ξ0 (·), 0 an:
  
Φ0 ξ0 (·), 0 ξ(·), 1 = F 0 ξ0 (·), v0 (·) , H00 ξ0 (·) , H10 ξ0 (·)
   
ξ(·), v(·) − u∗ (·) = 0.
Schwaches Optimalitätsprinzip 41

3. Schritt (Die Existenz zulässiger Richtungen und 0 6∈ C ). Nach dem Satz von Ljusternik
(Theorem B.14) existieren eine Zahl ε0 > 0 und Abbildungen r(ε) und o(ε) mit

Φ ξ0 (·) + εξ(·) + r(ε), ε + o(ε) = 0

für alle ε ∈ [0, ε0 ]. Ferner können wir ε0 > 0 so wählen, dass 0 ≤ ε + o(ε) ≤ 1 für alle
ε ∈ [0, ε0 ] gilt. Da der Steuerungsbereich U konvex ist, gehört u∗ (·)+[ε+o(ε)] v(·)−u∗ (·)
für alle ε ∈ [0, ε0 ] dem Raum L∞ ([t0 , t1 ], U ) an. Aus der Definition der Abbildung Φ
erhalten wir für die Richtungsvariationen

ξε (·) = ξ0 (·) + εξ(·) + r(ε), vε (·) = v0 (·) + [ε + o(ε)] v(·) − u∗ (·) ,

dass für alle ε ∈ [0, ε0 ] die Beziehungen


  
F ξε (·), vε (·) = 0, H0 ξε (·) = 0, H1 ξε (·) = 0

gelten. Die erste Gleichung liefert, dass x∗ (·) + ξε (·) der Dynamik (1.37) zur Steuerung
u∗ (·) + vε (·) genügt. Dies zeigt, dass für alle ε ∈ [0, ε0 ] die Steuerungsprozesse

x∗ (·) + ξε (·), u∗ (·) + vε (·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U )




zulässig in der Aufgabe (1.36)–(1.39) sind. Damit erhalten wir aber wegen

J˜ ξε (·), vε (·) ≤ J˜ ξ0 (·), v0 (·) − εc + o(ε)


 

bzw. dazu äquivalent für das Zielfunktional in (1.36)


 
J x∗ (·) + ξε (·), u∗ (·) + vε (·) ≤ J x∗ (·), u∗ (·) − εc + o(ε),

dass der Steuerungsprozess x∗ (·), u∗ (·) im Widerspruch zur Voraussetzung von Theorem
1.35 kein schwaches lokales Minimum der Aufgabe (1.36)–(1.39) sein könnte. 

1.3.4. Beweisschluss
Zu y ∗ ∈ C ∗ ([t0 , t1 ], Rn ) gibt es ein eindeutig bestimmtes reguläres Borelsches Vektormaß
µ derart, dass nach (1.44) für alle ξ(·) ∈ W21 ([t0 , t1 ], Rn ) die Variationsgleichung
Z t1
λ0 fx t, x∗ (t), u∗ (t) , ξ(t) dt + l0 , h00 x∗ (t0 ) ξ(t0 ) + l1 , h01 x∗ (t1 ) ξ(t1 )




0 =
t0
Z t1  Z t T

+ ξ(t) − ξ(t0 ) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds dµ(t) (1.46)
t0 t0
 
erfüllt ist. Der Kürze halber seien a(t) = fx t, x∗ (t), u∗ (t) und A(t) = ϕx t, x∗ (t), u∗ (t) .
Durch vertauschen der Integrationsreihenfolge,
Z t1  Z t T Z t1  Z t1 T
T
A(s)ξ(s) ds dµ(t) = A (t) dµ(s) ξ(t) dt,
t0 t0 t0 t
42 Schwaches lokales Minimum

bringen wir (1.46) in die Gestalt


Z t1 Z t1 Z t1
T
[ξ(t)]T dµ(t)


0 = λ0 a(t) − A (t) dµ(s), ξ(t) dt +
t0 t t0
D Z t1 E
0T T
dµ(t), ξ(t0 ) + hh01 x∗ (t1 ) l1 , ξ(t1 )i.
 
+ h0 x∗ (t0 ) l0 − (1.47)
t0
Z t1
Setzen wir p(t) = dµ(s) in (1.47), so folgen wegen der eindeutigen Darstellung eines
t
stetigen linearen Funktionals im Raum C([t0 , t1 ], Rn )
Z t1 
0T

ϕTx s, x∗ (s), u∗ (s) p(s) − λ0 fx s, x∗ (s), u∗ (s) ds,
 
p(t) = −h1 x∗ (t1 ) l1 +
t
0T T
p(t1 ) = −h01 x∗ (t1 ) l1 .
 
p(t0 ) = h0 x∗ (t0 ) l0 ,
Die Vektorfunktion p(·) ist über [t0 , t1 ] quadratisch integrierbar und besitzt die verallge-
meinerte Ableitung
ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 fx t, x∗ (t), u∗ (t) .
 

Wegen der wesentlichen Beschränktheit der Abbildungen


 
t → fx t, x∗ (t), u∗ (t) , t → ϕx t, x∗ (t), u∗ (t)
gehört ebenso ṗ(·) dem Raum L2 ([t0 , t1 ], Rn ) an. Damit sind (1.40) und (1.41) gezeigt.
Gemäß (1.45) gilt für alle v(·) ∈ L∞ ([t0 , t1 ], U ) die Ungleichung
Z t1


Hu t, x∗ (t), u∗ (t), p(t), λ0 , v(t) − u∗ (t) dt ≤ 0.
t0

Es seien u ∈ U , λ > 0 und τ ∈ [t0 , t1 ) ein Lebesguescher Punkt der Abbildungen t → u∗ (t)
und t → Hu t, x∗ (t), u∗ (t), p(t), λ0 . Wir setzen für 0 < λ < t1 − τ
(
u, t ∈ [τ, τ + λ],
vλ (t) =
u∗ (t), t 6∈ [τ, τ + λ].
Dann gilt vλ (·) ∈ L∞ (R+ , U ). Wir erhalten damit
1 t1

Z

Hu t, x∗ (t), u∗ (t), p(t), λ0 , vλ (t) − u∗ (t) dt
λ t0
1 τ +λ

Z
 
= Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) dt ≤ 0.
λ τ
Da τ ∈ [t0 , t1 ) ein beliebiger Lebesguescher Punkt ist, folgt daraus für fast alle t ∈ [t0 , t1 ]:

 
Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0.
Ferner, weil u ∈ U willkürlich gewählt war, gilt diese Ungleichung für alle u ∈ U . Damit
ist (1.42) gezeigt und der Beweis von Theorem 1.26 ist abgeschlossen. 
Schwaches Optimalitätsprinzip 43

1.3.5. Freier Anfangs- und Endzeitpunkt


Wir betrachten in diesem Abschnitt die Aufgabe mit freiem Anfangs- und Endzeitpunkt.
Im Gegensatz zur Aufgabe (1.36)–(1.39) bedeutet dies, dass die Abbildungen h0 bzw. h1 ,
die die Start- und Zielmannigfaltigkeit definieren, zeitabhängig sind:
hi (t, x) : R × Rn → Rsi , i = 0, 1.
Zur Behandlung dieser Aufgaben gehen wir analog zu Ioffe & Tichomirov [38] vor und
überführen das Problem mit freiem Anfangs- und Endzeitpunkt mittels einer Substitution
der Zeit in eine Aufgabe auf festem Zeitintervall.
Wir übernehmen alle bisher getroffenen Bezeichnungen und untersuchen die Aufgabe:
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (1.48)
t0

ẋ(t) = ϕ t, x(t), u(t) , (1.49)
 
h0 t0 , x(t0 ) = 0, h1 t1 , x(t1 ) = 0, (1.50)
u(t) ∈ U ⊆ Rm , U 6= ∅, U konvex. (1.51)
Die Aufgabe (1.48)–(1.51) betrachten wir für Paare
x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ).


Außerdem bezeichnet Uγ die Menge


Uγ = {(t, x, u) ∈ [t0 , t1 ] × Rn × Rm | kx − x(t)k ≤ γ, ku − u(t)k ≤ γ}.
Dann gehören zur Menge ALip diejenigen x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ),


für die es eine Zahl γ > 0 derart gibt, dass die Abbildungen
(A) f (t, x, u), ϕ(t, x, u), hi (t, x) auf Uγ stetig differenzierbar sind.

In der Aufgabe (1.48)–(1.51) nennen wir ein Tripel [t0 , t1 ], x(·), u(·) mit [t0 , t1 ] ⊂ R,
x(·) ∈ W21 ([t0 , t1 ], Rn ) und u(·) ∈ L∞ ([t0 , t1 ], U ) einen Steuerungsprozess. Ein Steuerungs-
prozess heißt in der Aufgabe (1.48)–(1.51) zulässig, wenn auf dem Intervall [t0 , t1 ] die
Funktion x(·) fast überall der Gleichung (1.49) genügt und die Randbedingungen (1.50)
erfüllt. Die Menge Aadm bezeichnet die Menge der zulässigen Steuerungsprozesse.

Einen zulässigen Steuerungsprozess [t0∗ , t1∗ ], x∗ (·), u∗ (·) nennen wir ein schwaches loka-
les Minimum, wenn eine Zahl ε > 0 derart existiert, dass für jeden anderen zulässigen
Steuerungsprozess [t0 , t1 ], x(·), u(·) mit den Eigenschaften
|t0 − t0∗ | ≤ ε, |t1 − t1∗ | ≤ ε
und
max kx(t) − x∗ (t)k ≤ ε, ess sup ku(t) − u∗ (t)k ≤ ε, I = [t0∗ , t1∗ ] ∩ [t0 , t1 ]
t∈I t∈I
44 Schwaches lokales Minimum

die folgende Ungleichung gilt:


 
J x(·), u(·) ≥ J x∗ (·), u∗ (·) .

Wir werden nun zeigen, wie man mit Hilfe des Theorems 1.26 für Aufgaben mit fester Zeit
unter Verwendung der Substitution der Zeit die notwendigen Optimalitätsbedingungen für
die Aufgabe mit freiem Anfangs- und Endzeitpunkt erhält:

Es sei [t0∗ , t1∗ ], x∗ (·), u∗ (·) ein schwaches lokales Minimum der Aufgabe (1.48)–(1.51).
Wir führen eine neue unabhängige Veränderliche s ein, die das Intervall [0, 1] durchläuft,
und betrachten folgendes Differentialgleichungssystem:

t0 (s) = v(s), y 0 (s) = v(s) · ϕ t(s), y(s), w(s) .



(1.52)

Es sei v(s) > 0 für alle s ∈ [0, 1]. Ist t(·), y(·) eine Lösung dieses Systems, die der
Steuerung v(·), w(·) entspricht, so ist s → t(s) eine streng wachsende stetige Funktion.
Die zu ihr inverse Funktion  t → s(t) ist ebenfalls stetig und streng wachsend. In diesem Fall
ist x(·) mit x(t) = y s(t)  für t ∈ [t(0), t(1)] Lösung der Gleichung (1.49) zur Steuerung
u(·) mit u(t) = w s(t) für t ∈ [t(0), t(1)], wobei
Z t(1) 
Z 1 
f t, x(t), u(t) dt = v(s) · f t(s), y(s), w(s) ds (1.53)
t(0) 0

gilt. Weil v(·) auf [0, 1] stets positiv ist, sind diese Behauptungen klar.
Ist umgekehrt x(·) eine auf dem Intervall [t0 , t1 ] definierte Lösung der Gleichung (1.49),
die der Steuerung u(·) entspricht, so ist t(·), y(·) mit t(s) = t0 + (t1 − t0 )s, y(s) = x t(s)
 Systems (1.52), die den Steuerungen v(·), w(·) mit v(s) ≡ t1 − t0 ,
eine Lösung des
w(s) = u t(s) zugeordnet ist. Dabei gilt die Beziehung (1.53). Daher ist

t∗ (·), y∗ (·), w∗ (·), v∗ (·) ,

wobei für s ∈ [0, 1]



t∗ (s) = t0∗ + (t1∗ − t0∗ )s, y∗ (s) = x∗ t∗ (s) ,
v∗ (s) ≡ v∗ = t1∗ − t0∗ , w∗ (s) = u∗ t∗ (s) ,

sind, ein schwaches lokales Minimum der Aufgabe:


Z 1

v · f t(s), y(s), w(s) ds → inf, (1.54)
0
0
y 0 (s) = v · ϕ t(s), y(s), w(s) ,

t (s) = v, (1.55)
 
h0 t(0), y(0) = 0, h1 t(1), y(1) = 0, (1.56)
v > 0, w(s) ∈ U, U 6= ∅, U konvex. (1.57)

Dies ist bereits eine Aufgabe mit fester Zeit, auf die wir Theorem 1.26 anwenden können.
Schwaches Optimalitätsprinzip 45

Die Pontrjaginsche Funktion der Aufgabe (1.54)–(1.57) lautet

H̃(t, x, u, v, p, q, λ0 ) = hp, v · ϕ(t, x, u)i + qv − λ0 v · f (t, x, u)


= v · [H(t, x, u, p, λ0 ) + q], (1.58)

wobei H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i−λ0 f (t, x, u) die Pontrjagin-Funktion zu der Aufgabe
(1.48)–(1.51) ist. Dann existieren nach Theorem 1.26 nicht gleichzeitig verschwindende
Multiplikatoren λ0 ≥ 0, l0 ∈ Rs0 , l1 ∈ Rs1 , p̃(·) ∈ W21 ([0, 1], Rn ) und q̃(·) ∈ W21 ([0, 1], R)
derart, dass die Beziehungen

p̃0 (s) = −H̃x t∗ (s), y∗ (s), w∗ (s), v∗ , p̃(s), q̃(s), λ0 ,




p̃(0) = hT0x t∗ (0), y∗ (0) l0 , p̃(1) = −hT1x t∗ (1), y∗ (1) l1


 

und

q̃ 0 (s) = −H̃t t∗ (s), y∗ (s), w∗ (s), v∗ , p̃(s), q̃(s), λ0 ,






q̃(0) = h0t t∗ (0), y∗ (0) , l0 , q̃(1) = − h1t t∗ (1), y∗ (1) , l1

gelten. Weiterhin sind die Variationsungleichungen



 
H̃u t∗ (s), y∗ (s), w∗ (s), v∗ , p̃(s), q̃(s), λ0 , w − w∗ (s) ≤ 0,


H̃v t∗ (s), y∗ (s), w∗ (s), v∗ , p̃(s), q̃(s), λ0 , (v − v∗ ) ≤ 0

für alle v > 0, w ∈ U und für fast alle s ∈ [0, 1] erfüllt.


Es sei s∗ (·) die zu t∗ (·) inverse Funktion, d. h.
t − t0∗
s∗ (t) = , t ∈ [t0∗ , t1∗ ].
t1∗ − t0∗
Wir führen die Bezeichnungen
 
p(t) = p̃ s∗ (t) , q(t) = q̃ s∗ (t)

ein. So lassen sich die obigen Beziehungen unter Berücksichtigung von (1.58) auf folgende
Form bringen:

ṗ(t) = −Hx t, x∗ (t), u∗ (t), p(t), λ0 ,
p(t0∗ ) = hT0x t0∗ , x∗ (t0∗ ) l0 , p(t1∗ ) = −hT1x t1∗ , x∗ (t1∗ ) l1 ,
 

q̇(t) = −Ht t, x∗ (t), u∗ (t), p(t), λ0 , (1.59)



q(t0∗ ) = h0t t0∗ , x∗ (t0∗ ) , l0 , q(t1∗ ) = − h1t t1∗ , x∗ (t1∗ ) , l1 (1.60)

und wir erhalten die Variationsungleichungen



 
v∗ · Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0,


H t, x∗ (t), u∗ (t), p(t), λ0 + q(t), (v − v∗ ) ≤ 0.
46 Schwaches lokales Minimum

Wegen 0 < v∗ < ∞ folgen daraus für alle u ∈ U die Variationsungleichung



 
Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0

und die Beziehung



H t, x∗ (t), u∗ (t), p(t), λ0 = −q(t).
Durch Vergleich mit (1.59) und (1.60) erhalten wir weiter

d  
H t, x∗ (t), u∗ (t), p(t), λ0 = Ht t, x∗ (t), u∗ (t), p(t), λ0 ,
dt 

H t0∗ , x∗ (t0∗ ), u∗ (t0∗ ), p(t0∗ ), λ0 = − h0t t0∗ , x∗ (t0∗ ) , l0 ,


H t1∗ , x∗ (t1∗ ), u∗ (t1∗ ), p(t1∗ ), λ0 = h1t t1∗ , x∗ (t1∗ ) , l1 .

Wr fassen alle Bedingungen zusammen und formulieren das Schwache Optimalitätsprinzip


für die Aufgabe mit freiem Anfangs- und Endzeitpunkt:

Theorem 1.36. In der Aufgabe (1.48)–(1.51) sei [t0∗ , t1∗ ], x∗ (·), u∗ (·) ∈ Aadm ∩ ALip .


Ist [t0∗ , t1∗ ], x∗ (·), u∗ (·) ein schwaches lokales Minimum der Aufgabe (1.48)–(1.51), dann
existieren nicht gleichzeitig verschwindende Multiplikatoren λ0 ≥ 0, l0 ∈ Rs0 , l1 ∈ Rs1 und
p(·) ∈ W21 ([t0∗ , t1∗ ], Rn ) derart, dass

(a) die Vektorfunktion p(·) der adjungierten Gleichung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 fx t, x∗ (t), u∗ (t)


 
(1.61)

genügt und die Transversalitätsbedingungen

p(t0∗ ) = hT0x t0∗ , x∗ (t0∗ ) l0 , p(t1∗ ) = −hT1x t1∗ , x∗ (t1∗ ) l1


 
(1.62)

erfüllt;

(b) für fast alle t ∈ [t0∗ , t1∗ ] und alle u ∈ U die Variationsungleichung

 
Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0 (1.63)

gilt;

(c) für die Funktion t → H t, x∗ (t), u∗ (t), p(t), λ0 folgende Bedingungen gelten:

d  
H t, x∗ (t), u∗ (t), p(t), λ0 = Ht t, x∗ (t), u∗ (t), p(t), λ0 , (1.64)
dt 

H t0∗ , x∗ (t0∗ ), u∗ (t0∗ ), p(t0∗ ), λ0 = − h0t t0∗ , x∗ (t0∗ ) , l0 , (1.65)


H t1∗ , x∗ (t1∗ ), u∗ (t1∗ ), p(t1∗ ), λ0 = h1t t1∗ , x∗ (t1∗ ) , l1 . (1.66)
Schwaches Optimalitätsprinzip 47

1.3.6. Hinreichende Bedingungen nach Mangasarian


Die Darstellung der hinreichenden Bedingungen nach Mangasarian [45] für das folgende
Steuerungsproblem ist Seierstad & Sydsæter [61] entnommen:
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (1.67)
t0

ẋ(t) = ϕ t, x(t), u(t) , (1.68)
x(t0 ) = x0 , x(t1 ) = x1 , (1.69)
m
u(t) ∈ U ⊆ R , U 6= ∅, U konvex. (1.70)

Wir schließen in der Aufgabenstellung nicht aus, dass durch die Randbedingungen (1.69)
gewisse Komponenten der Punkte x0 und x1 nicht einschränkt werden.

Theorem 1.37. Sei x∗ (·), u∗ (·) ∈ ALip ∩ Aadm . Ferner gelte:





(a) Das Tripel x∗ (·), u∗ (·), p(·) erfüllt (1.40)–(1.42) in Theorem 1.26 mit λ0 = 1.

(b) Für jedes t ∈ [t0 , t1 ] ist die Funktion H t, x, u, p(t), 1 konkav bezüglich (x, u) auf
Uγ .

Dann ist x∗ (·), u∗ (·) ein schwaches lokales Minimum der Aufgabe (1.67)–(1.70).

Beweis Es sei x(·), u(·) ∈ Aadm mit kx(·) − x∗ (·)k∞ ≤ γ, ku(·) − u∗ (·)kL∞ ≤ γ. Wir


betrachten die Differenz


Z t1
  
∆ = f t, x(t), u(t) − f t, x∗ (t), u∗ (t) dt
t0
Z t1   
= H t, x∗ (t), u∗ (t), p(t), 1 − H t, x(t), u(t), p(t), 1 dt
t0
Z t1
+ hp(t), ẋ(t) − ẋ∗ (t)i dt.
t0

Aus den elementaren Eigenschaften konkaver Funktionen folgt


 
H t, x∗ (t), u∗ (t), p(t), 1 − H t, x(t), u(t), p(t), 1


≥ − Hx t, x∗ (t), u∗ (t), p(t), 1 , x(t) − x∗ (t)


− Hu t, x∗ (t), u∗ (t), p(t), 1 , u(t) − u∗ (t) .

Damit, sowie mit der adjungierten Gleichung (1.40) und der Ungleichung (1.42) gilt
Z t1
∆ ≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)idt
t0
= hp(t1 ), x(t1 ) − x∗ (t1 )i − hp(t0 ), x(t0 ) − x∗ (t0 )i.
48 Schwaches lokales Minimum

Im Fall fester Endbedingungen verschwinden die Differenzen x(ti ) − x∗ (ti ). Sind jedoch
gewisse Komponenten im Anfangs- oder Endpunkt x0 bzw. x1 frei, dann liefern die Trans-
versalitätsbedingungen, dass die entsprechenden Komponenten der Adjungierten p(·) zum
Zeitpunkt t0 bzw. t1 verschwinden. Daher folgt die Beziehung ∆ ≥ 0 für alle zulässigen
x(·), u(·) mit kx(·) − x∗ (·)k∞ ≤ γ, ku(·) − u∗ (·)kL∞ ≤ γ. 

Beispiel 1.38. Das Beispiel 1.6 überführen wir in die Form


Z 1
2
x(t) − 1 + u2 (t) dt → inf,
  
J x(·), u(·) =
0
ẋ(t) = u(t), x(0) = 0, x(1) = 2, u(t) ∈ R.

Die Pontrjagin-Funktion H(t, x, u, p, 1) = pu − (x − 1)2 − u2 ist offenbar streng konkav in


(x, u). Daher liefert die Extremale
1 t e −t
x∗ (t) = 1 + e − e
e−1 e−1
ein schwaches lokales Minimum. 

Beispiel 1.39. Im einfachen Vorsorgemodell 1.18 mit konkaver Nutzenfunktion U ,


Z T
e−%t U C(t) dt → sup,
 
J K(·), C(·) =
0
K̇(t) = L(t) − C(t) + rK(t), K(0) = K0 , K(T ) = KT , C(t) ∈ R,

wird die optimale Konsumption C∗ (·) durch die Bedingung

U 0 C∗ (t) = l0 e(%−r)t


vorgeschlagen. Die Pontrjagin-Funktion H(t, K, C, p, 1) = p(L(t) − C − K) + e−%t U (C) ist


auf einer Umgebung Uγ des optimalen Steuerungsprozesses streng konkav in (K, C), die
dem Definitionsbereich der Nutzenfunktion U angehört. 
Daher ist der eindeutig bestimmte Steuerungsprozess K∗ (·), C∗ (·) , der die Bedingungen

U 0 C∗ (t) = l0 e(%−r)t

K̇∗ (t) = L(t) − C∗ (t) + rK∗ (t), K∗ (0) = K0 , K∗ (T ) = KT ,

erfüllt, ein schwaches lokales Minimum. 


Starkes lokales Minimum 49

2. Nadelvariationen und Starkes lokales Minimum

Die Methoden der Optimalen Steuerung liefern geeignete Werkzeuge für viele Problem-
klassen. In den meisten praktischen Anwendungen sind allerdings Steuerungselemente ent-
halten, die nur gewisse Positionen annehmen dürfen. Eine Richtungsvariation des letzten
Kapitels ist bezüglich dieser Elemente nicht zulässig. Deswegen wollen wir in diesem Kapi-
tel eine neue Klasse von Variationen betrachten. Die Grundlage dafür wurde im Rahmen
der Klassischen Variationsrechnung von Karl Weistraß (1815–1897) durch die Einführung
der Nadelvariationsmethode gelegt. Im Vergleich zur schwachen lokalen Optimalstelle ent-
steht ein allgemeinerer Optimalitätsbegriff.
Der Übergang von der Klassischen Variationsrechung zur Optimalen Steuerung wurde
durch die Identifizierung der Aufgabenklassen der Steuerungstheorie und durch die Ent-
wicklung von geeigneten Methoden realisiert. Wesentliche Beiträge zu diesen Entdeckun-
gen haben Constantin Carathéodory (1873–1950), Edward James McShane (1904–1989),
Magnus Hestenes (1906–1991), Richard Bellman (1920–1984), Rufus Isaacs (1914–1977)
und Lew Semjonowitsch Pontrjagin (1908–1988) in Zusammenarbeit mit Wladimir Bolt-
janski (1925–) und Rewas Gamkrelidze (1927–) geleistet. Zu den bedeutendsten Ergebnis-
sen zu den Optimalitätsbedingungen zählen das Pontrjaginsche Maximumprinzip und das
Prinzip der Dynamischen Programmierung.
Im Fokus dieses Kapitels stehen die Verallgemeinerung der Methode der Weierstraßschen
Nadelvariationen und der Nachweis des Pontrjaginschen Maximumprinzips. Der Errungen-
schaft des Maximumprinzips gehen wichtige Entwicklungen der Mathematik in der ersten
Hälfte des 20. Jahrhunderts voraus. Ohne die Methoden der Funktionalanalysis oder der
Theorie von Differentialgleichungen mit unstetigen rechten Seiten ist dessen vollständiger
Nachweis kaum denkbar. Dieses vielschichtige und umfassende theoretische Fundament,
der komplexe Beweis des Maximumprinzips und die eigenständigen Methoden, die zum
Nachweis ausgearbeitet wurden, bilden einen maßgeblichen Beitrag zur Etablierung der
Optimalen Steuerung als eigenständige mathematische Disziplin.
Das Kapitel zu Nadelvariationen und starken lokalen Minimalstellen in Steuerungspro-
blemen beginnen wir mit der Untersuchung der Aufgabe mit freiem rechten Endpunkt.
Da neben der Dynamik ẋ(t) = ϕ t, x(t), u(t) zum Anfangswert x(t0 ) = x0 keine weitere
Beschränkung an die Zustandstrajektorie vorliegt, ist die Methode der einfachen Nadelva-
riation ein geeignetes Mittel zur Herleitung von notwendigen Optimaltätsbedingungen.
Der Übergang zu allgemeineren Aufgabenklassen ist mit der einfachen Nadelvariationsme-
thode nicht möglich. Wir stellen deswegen die Konstruktion von mehrfachen Nadelvaria-
tionen nach Ioffe & Tichomirov [38] vor. Die Ideen, die zu den Trägermengen führen, und
die aufwendige Analyse der Eigenschaften der mehrfachen Nadelvariationen über diesen
Trägermengen sind maßgeblich für die folgenden Abschnitte. Das Pontrjaginsche Maxi-
mumprinzip beweisen wir auf der Grundlage der mehrfachen Nadelvariationen. Auf den
Beweis des Pontrjaginschen Maximumprinzips für das Standardproblem mittels der Sub-
stitution der Zeit nach Dubovitskii & Milyutin [19] gehen wir nicht ein. Sondern wir nutzen
50 Starkes lokales Minimum

die Methode der Substitution der Zeit, um die notwendigen Optimalitätsbedingungen für
die Aufgabe mit freiem Anfangs- und Endzeitpunkt aus dem Maximumprinzip für Aufga-
ben mit festem Zeitintervall abzuleiten.

2.1. Die Nadelvariation der Klassischen Variationsrechnung


Zur Einstimmung auf die Untersuchung von starken lokalen Minimalstellen betrachten wir
zunächst wieder die einfachste Aufgabe der Klassischen Variationsrechnung:
Z t1
 
J x(·) = f t, x(t), ẋ(t) dt → inf, (2.1)
t0
x(t0 ) = x0 , x(t1 ) = x1 . (2.2)

Ebenso wie in Abschnitt 1.1 seien die Punkte t0 < t1 , x0 , x1 fest vorgegeben und es sei die
Funktion f : R × R × R → R in (2.1) in einem Gebiet U ⊆ R3 stetig differenzierbar.
Im Gegensatz zur Analyse der Aufgabe (1.1)–(1.2) betrachten wir an dieser Stelle nicht die
Richtungsvariation xλ (·) = x∗ (·)+λx(·) mit x∗ (·), x(·) ∈ C1 ([t0 , t1 ], R) und entsprechender
Normkonvergenz

kxλ (·) − x∗ (·)kC1 = |λ|kx(·)kC1 → 0 für λ → 0.

Sondern wir variieren bezüglich Funktionen, die die Form einer Nadel aufweisen, die bei
der Verkleinerung des Parameters λ zwar schmaler wird, aber deren Anstieg sich nicht
verringert. Dazu seien v ∈ R, τ ∈ (t0 , t1 ) und 0 < λ < ε mit τ + ε < t1 gegeben. Ferner
setzen wir u = −λv/(ε − λ). Dann betrachten wir folgende stückweise lineare Funktion
ξλ (·) mit stückweise konstanter Ableitung ξ˙λ (·):
 

 0, t ∈
6 [τ, τ + ε],  0,
 t 6∈ [τ, τ + ε],
˙ξλ (t) = v, t ∈ [τ, τ + λ), ξλ (t) = v(t − τ ), t ∈ [τ, τ + λ),
 
u, t ∈ [τ + λ, τ + ε], λv + u(t − τ − λ), t ∈ [τ + λ, τ + ε].
 

Die daraus resultierende Variation xλ (·) = x∗ (·) + ξλ (·) besitzt dann die Eigenschaften

kxλ (·) − x∗ (·)k∞ = kξλ (·)k∞ = λ|v| → 0 für λ → 0,


kxλ (·) − x∗ (·)kC1 ≥ kξ˙λ (·)k∞ ≥ |v| 6→ 0 für λ → 0.

Der Übergang von den Richtungs- zu den Nadelvariationen vergrößert die Menge der
Trajektorien. Deswegen nennen wir die Funktion x∗ (·) ein starkes lokales Minimum in der
Aufgabe (2.1)–(2.2), wenn sie die Randbedingungen (2.2) erfüllt und falls ein ε > 0 derart
existiert, dass die Ungleichung  
J x(·) ≥ J x∗ (·)
für alle zulässigen Funktionen x(·) mit kx(·) − x∗ (·)k∞ < ε gilt.
Elementarer Beweis 51

Einen anschaulichen Vergleich von starken und schwachen lokalen Minimalstellen liefert
Z 1
ẋ3 (t) dt → inf,

J x(·) = x(0) = 0, x(1) = 1.
0

In dieser Aufgabe gibt es eine eindeutig bestimmte Lösung der Euler-Lagrange-Gleichung,


diese stellt ferner ein schwaches lokales Minimum dar, aber kein starkes. Demgegenüber
existiert kein starkes lokales Minimum und es gilt inf J = −∞ in jeder gleichmäßigen
Umgebung der schwachen lokalen Minimalstelle.
d
Die Euler-Lagrangesche Gleichung besitzt die Gestalt dt (3ẋ2 ) = 0. Eindeutige Lösung
dieser Gleichung, die den Randbedingungen genügt, ist x∗ (t) = t.
Es sei x(·) ∈ C1 ([0, 1], R) mit x(0) = x(1) = 0. Dann ist x∗ (·) + x(·) zulässig. Wir erhalten
 3
Z 1  Z 1
d
[3ẋ2 (t) + ẋ3 (t)] dt.
 
J x∗ (·) + x(·) = t + x(t) dt = J x∗ (·) +
0 dt 0

Wenn daher 3ẋ2 (t) + ẋ3 (t) ≥ 0 auf [0, 1] gilt, was insbesondere bei kx(·)kC1 ≤ 3 wegen
|ẋ3 (t)| = |ẋ(t)| · ẋ2 (t) ≤ 3ẋ2 (t) erfüllt ist, so ist
 
J x∗ (·) + x(·) ≥ J x∗ (·) .
D. h., dass x∗ (t) = t ein schwaches lokales Minimum in der Aufgabe liefert.
Andererseits ergeben sich für die Funktionen xn (·) = x∗ (·) + ξn (·) mit
( √
− n, t 6∈ [0, 1/n],
ξn (0) = ξn (1) = 0, ξ˙n (t) = √
n
n−1 , t ∈ (1/n, 1],

dass das Funktional J für große n asymptotisch gleich − n ausfällt und deswegen

J xn (·) → −∞ für n → ∞
gilt. Da nun bezüglich der Supremumsnorm aber

kxn (·) − x∗ (·)k∞ = kξn (·)k∞ = 1/ n
ist, liegt mit x∗ (·) kein starkes lokales Minimum vor, und es ist inf J = −∞.

2.2. Das Maximumprinzip für die Aufgabe mit freiem rechten Endpunkt
2.2.1. Formulierung der Aufgabe und das Maximumprinzip
Wir betrachten die Aufgabe

Z t1 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (2.3)
t0

ẋ(t) = ϕ t, x(t), u(t) , x(t0 ) = x0 , x(t1 ) frei, (2.4)
m
u(t) ∈ U ⊆ R , U 6= ∅, (2.5)
52 Starkes lokales Minimum

auf dem gegebenen Intervall [t0 , t1 ] und mit festem Punkt x0 ∈ Rn . Die Aufgabe (2.3)–(2.5)
untersuchen wir bezüglich
x(·), u(·) ∈ P C1 ([t0 , t1 ], Rn ) × P C([t0 , t1 ], U ).


Dabei ist P C([t0 , t1 ], U ) die Menge der stückweise stetigen Vektorfunktionen, die nur Werte
aus der Menge U ⊆ Rm annehmen und die nur endlich viele Sprungstellen im Inneren des
betrachteten Zeitintervalls [t0 , t1 ] besitzen. Der Raum P C1 ([t0 , t1 ], Rn ) besteht auf [t0 , t1 ]
aus den stetigen und stückweise stetig differenzierbaren Vektorfunktionen, deren Ableitung
dem Raum P C([t0 , t1 ], Rn ) angehört.
Zu x(·) bezeichne Vγ die Menge
Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x(t)k ≤ γ}.
Dann gehören zur Menge BLip
0 diejenigen x(·) ∈ P C1 ([t0 , t1 ], Rn ), für die es eine Zahl
γ > 0 derart gibt, dass
(B0 ) die Abbildungen f (t, x, u), ϕ(t, x, u) auf Vγ × U stetig differenzierbar sind.
Das Paar x(·), u(·) ∈ P C1 ([t0 , t1 ], Rn ) × P C([t0, t1 ], U ) heißt ein zulässiger Steuerungs-


prozess in der Aufgabe (2.3)–(2.5), falls x(·), u(·) dem System (2.4) zu x(t0 ) = x0 genügt.
Mit Badm 0 bezeichnen wir die Menge der zulässigen Steuerungsprozesse.

Ein zulässiger Steuerungsprozess x∗ (·), u∗ (·) ist eine starke lokale Minimalstelle der Auf-
gabe (2.3)–(2.5), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)
für alle x(·), u(·) ∈ Badm
0

mit kx(·) − x∗ (·)k∞ ≤ ε gilt.
Für die Aufgabe (2.3)–(2.5) bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-
Funktion, die wir wie folgt definieren:
H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 f (t, x, u).
Theorem 2.1 (Pontrjaginsches Maximumprinzip). Sei x∗ (·), u∗ (·) ∈ Badm 0 ∩ BLip
0 . Ist


x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (2.3)–(2.5), dann existiert eine
Funktion p(·) ∈ P C1 ([t0 , t1 ], Rn ) derart, dass
(a) die Vektorfunktion p(·) der adjungierten Gleichung
ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + fx t, x∗ (t), u∗ (t)
 
(2.6)
genügt und die Randbedingung
p(t1 ) = 0 (2.7)
erfüllt;
(b) in fast allen Punkten t ∈ [t0 , t1 ] die Maximumbedingung mit λ0 = 1 gilt:
 
H t, x∗ (t), u∗ (t), p(t), 1 = max H t, x∗ (t), u, p(t), 1 . (2.8)
u∈U
Elementarer Beweis 53

2.2.2. Der Beweis des Maximumprinzips


Zunächst ist zu klären, dass in der Aufgabe (2.3)–(2.5) stets eine Lösung p(·) der adjun-
gierten Gleichung (2.6) zur Randbedingung p(t1 ) = 0 existiert. Da sämtliche Abbildungen
stetig differenzierbar sind und die Funktion u∗ (·) dem Raum P C([t0 , t1 ], U ) angehört,
erfüllt die adjungierte Gleichung (2.6) die Voraussetzungen von Lemma D.2 und Satz D.3.
Daher existiert eine absolutstetige Lösung der Gleichung (2.6), die mit Lemma D.2 eine
stückweise stetige Ableitung besitzt.
Es sei τ ∈ (t0 , t1 ) ein Stetigkeitspunkt der Steuerung u∗ (·). Dann ist u∗ (·) auch in einer
gewissen hinreichend kleinen Umgebung von τ stetig und wir wählen ein festes λ positiv
und hinreichend klein, so dass sich τ − λ in dieser Umgebung befindet. Weiter sei nun v
ein beliebiger Punkt aus U . Wir setzen

u∗ (t) für t 6∈ [τ − λ, τ ),
u(t; v, τ, λ) = uλ (t) =
v für t ∈ [τ − λ, τ ),

und es bezeichne xλ (·), xλ (t) = x(t; v, τ, λ), die eindeutige Lösung der Gleichung

ẋ(t) = ϕ t, x(t), uλ (t) , x(t0 ) = x0 .

Dann gilt offenbar xλ (t) = x∗ (t) für t0 ≤ t ≤ τ − λ.


Für t ≥ τ untersuchen wir im Weiteren den Grenzwert
xλ (t) − x∗ (t)
y(t) = lim ,
λ→0+ λ
und werden zeigen, dass dieser existiert, die Funktion y(·) der Integralgleichung
Z t

y(t) = y(τ ) + ϕx s, x∗ (s), u∗ (s) y(s) ds (2.9)
τ

zur Anfangsbedingung
 
y(τ ) = ϕ τ, x∗ (τ ), v − ϕ τ, x∗ (τ ), u∗ (τ ) (2.10)

genügt und die Beziehung


Z t1

hp(τ ), y(τ )i = − fx t, x∗ (t), u∗ (t) , y(t) dt (2.11)
τ

erfüllt ist.
Herleitung von (2.10): Nach Wahl des Punktes τ ist ẋ∗ (·) in einer Umgebung dieses Punktes
stetig und für hinreichend kleine positive λ gelten

x∗ (τ ) = x∗ (τ − λ) + λϕ τ − λ, x∗ (τ − λ), u∗ (τ − λ) + o(λ),

xλ (τ ) = x∗ (τ − λ) + λϕ τ − λ, x∗ (τ − λ), v + o(λ).
54 Starkes lokales Minimum

Hieraus folgt

xλ (τ ) − x∗ (τ )   o(λ)
= ϕ τ − λ, x∗ (τ − λ), v − ϕ τ − λ, x∗ (τ − λ), u∗ (τ − λ) + .
λ λ
D. h., dass der Grenzwert
xλ (τ ) − x∗ (τ )
y(τ ) = lim
λ→0+ λ
existiert und gleich (2.10) ist.
Herleitung von (2.9): Auf dem Intervall [τ, t1 ] genügen sowohl x∗ (·) als auch xλ (·) der
Gleichung 
ẋ(t) = ϕ t, x(t), u∗ (t) .
Aus dem Satz über die Stetigkeit und Differenzierbarkeit der Lösung eines Differentialglei-
chungssystems in Abhängigkeit von den Anfangsdaten folgt, dass für hinreichend kleine
positive λ die Vektorfunktionen xλ (·) auf [τ, t1 ] definiert sind, für λ → 0+ gleichmäßig
gegen x∗ (·) konvergieren und dass der Grenzwert

xλ (t) − x∗ (t)
y(t) = lim
λ→0+ λ

für jedes t ∈ [τ, t1 ] existiert. Für t > τ gelten


Z t 
Z t 
xλ (t) = xλ (τ ) + ϕ s, xλ (s), u∗ (s) ds, x∗ (t) = x∗ (τ ) + ϕ s, x∗ (s), u∗ (s) ds,
τ τ

woraus sich die folgende Beziehung ergibt:


t
 
xλ (t) − x∗ (t) xλ (τ ) − x∗ (τ ) ϕ s, xλ (s), u∗ (s) − ϕ s, x∗ (s), u∗ (s)
Z
= + ds.
λ λ τ λ

Hierin führen wir den Grenzübergang λ → 0+ durch und erhalten

xλ (t) − x∗ (t) xλ (τ ) − x∗ (τ )
lim = y(t) und lim = y(τ ).
λ→0+ λ λ→0+ λ
Aufgrund unserer Annahmen an die Abbildung ϕ dürfen wir den Grenzübergang unter
dem Integralzeichen ausführen und erhalten für den Integranden
 
ϕ s, xλ (s), u∗ (s) − ϕ s, x∗ (s), u∗ (s) 
lim = ϕx s, x∗ (s), u∗ (s) y(s).
λ→0 + λ

Herleitung von (2.11): Mit (2.6) und (2.9) erhalten wir für t ≥ τ

d

hp(t), y(t)i = fx t, x∗ (t), u∗ (t) , y(t) .
dt
Elementarer Beweis 55

Daher gilt, da p(t1 ) = 0 ist,


Z t1

hp(t), y(t)i = − fx s, x∗ (s), u∗ (s) , y(s) ds.
t

Für t = τ folgt daraus insbesondere (2.11).



Beweisschluss: Da x∗ (·), u∗ (·) ein starkes lokales Minimum ist, ist für alle hinreichend
kleine und positive λ  
J xλ (·), uλ (·) − J x∗ (·), u∗ (·)
≥ 0.
λ
Für den Grenzwert  
J xλ (·), uλ (·) − J x∗ (·), u∗ (·)
lim
λ→0+ λ
ergibt sich
Z τ
1 h  i
lim f t, xλ (t), uλ (t) − f t, x∗ (t), u∗ (t) dt
λ→0 λ
+
τ −λ
Z t1
1 h  i
+ lim f t, xλ (t), uλ (t) − f t, x∗ (t), u∗ (t) dt
λ→0+ λτ
Z t1
 

= f τ, x∗ (τ ), v − f τ, x∗ (τ ), u∗ (τ ) + fx t, x∗ (t), u∗ (t) , y(t) dt.
τ

Zusammenfassend haben wir


 
J xλ (·), uλ (·) − J x∗ (·), u∗ (·)
0 ≤ lim
λ→0+ λ
 
Z t1

= f τ, x∗ (τ ), v − f τ, x∗ (τ ), u∗ (τ ) + fx t, x∗ (t), u∗ (t) , y(t) dt
τ

gezeigt. Bei Anwendung von Gleichung (2.11) ergibt sich hieraus die Ungleichung

 
p(τ ), ϕ τ, x∗ (τ ), u∗ (τ ) − f τ, x∗ (τ ), u∗ (τ )

 
≥ p(τ ), ϕ τ, x∗ (τ ), v − f τ, x∗ (τ ), v .

Damit folgt aus der Definition der Pontrjagin-Funktion mit λ0 = 1:


 
H τ, x∗ (τ ), u∗ (τ ), p(τ ), 1 ≥ H τ, x∗ (τ ), v, p(τ ), 1 .

Nun ist τ ein beliebiger Stetigkeitspunkt von u∗ (·) und v ein beliebiger Punkt der Menge
U . Demzufolge ist die Beziehung (2.8) in allen Stetigkeitspunkten von u∗ (·) wahr und
damit ist das Maximumprinzip bewiesen. 
56 Starkes lokales Minimum

2.2.3. Ökonomische Deutung des Maximumprinzips


Die ökonomische Interpretation des Pontrjaginschen Maximumprinzips wurde von Dorf-
man [18] angeregt. Wir geben eine Variante an, die sich auf den Beweis von Theorem 2.1
im letzten Abschnitt bezieht.
Der Kern des Beweises im letzten Abschnitt war, die Auswirkungen der Nadelvariation

u∗ (t) für t 6∈ [τ − λ, τ ),
u(t; v, τ, λ) = uλ (t) =
v für t ∈ [τ − λ, τ ),

auf das Steuerungsproblem (2.3)–(2.5) zu untersuchen. Die dadurch erreichte marginale


Änderung
xλ (t) − x∗ (t)
y(t) = lim
λ→0+ λ
des optimalen Zustandes x∗ (·) bewirkt im Zielfunktional
Z t1


hp(τ ), y(τ )i = − fx t, x∗ (t), u∗ (t) , y(t) dt, (2.12)
τ

wobei p(·) die Lösung der adjungierten Gleichung war. Abschließend erhielten wir für den
marginalen Profit die Beziehung
 
J xλ (·), uλ (·) − J x∗ (·), u∗ (·)
lim
λ→0+ λ
Z t1
 

= f τ, x∗ (τ ), v − f τ, x∗ (τ ), u∗ (τ ) + fx t, x∗ (t), u∗ (t) , y(t) dt
τ
 
= H τ, x∗ (τ ), u∗ (τ ), p(τ ), 1 − H τ, x∗ (τ ), v, p(τ ), 1 . (2.13)

Die Entscheidung zum Zeitpunkt τ mit dem Parameter v statt u∗ (τ ) zu steuern hat einen
direkten und indirekten Effekt (Feichtinger & Hartl [21]):

– Der unmittelbare Effekt besteht darin, dass die Profitrate f τ, x∗ (τ ), v erzielt wird.

– Die indirekte Wirkung manifestiert sich in der Änderung der Kapitalbestände um


y(τ ). Der Kapitalstock wird durch die in τ getroffene Entscheidung transformiert,
was bemessen mit der Adjungierten p(·) in (2.12) ausgedrückt wird.
Die Gleichung (2.12) beschreibt damit die Opportunitätskosten, die sich durch die Ent-
scheidung v zum Zeitpunkt τ ergeben. Wegen der Darstellung der Opportunitätskosten
in der Form hp(τ ), y(τ )i in (2.12), wird die Adjungierte p(·) in der Ökonomie häufig als
Schattenpreis bezeichnet. 
Ferner bemisst die Funktion v → H τ, x∗ (τ ), v, p(τ ), 1 nach Gleichung (2.13) die Profitra-
te aus direktem und indirektem Gewinn, die sich aus der Änderung der Kapitalbestände
ergibt. Die Maximumbedingung sagt daher aus, dass die Instrumente zu jedem Zeitpunkt
so eingesetzt werden sollen, dass die totale Profitrate maximal wird.
Elementarer Beweis 57

2.2.4. Kapitalismusspiel
Wir betrachten ein Differentialspiel zwischen Arbeitern, die ihren Konsum steuern, und
Unternehmern, die investieren und den davon verbliebenen Rest konsumieren können. Für
die Arbeiter stellt sich dabei das Problem, inwieweit sie den produzierten Ertrag konsumie-
ren oder den Unternehmern überlassen sollen, damit eine künftige hohe Güterproduktion
ermöglicht wird, von der auch die Arbeiter wieder profitieren. Das Dilemma, das sich dem
Arbeiter stellt, ist, dass sie keine Garantien über ausreichende Neuinvestitionen seitens
der Unternehmer haben.
Die Unternehmer stehen ihrerseits vor der Frage, wie sie mit dem verbliebenen Teil des
Ertrages, der nicht dem Arbeiter zugesprochen wird, umgehen: Sollen sie diesen investie-
ren oder konsumieren?
Die Spielsituation ensteht dadurch, dass der Nutzen für den Arbeiter und den Unterneh-
mern durch den aufgeteilten Ertrag miteinander gekoppelt ist. D. h. der Gewinn eines
jeden Spielers hängt von der Entscheidung des anderen Spielers ab.
In diesem Modell werden die Geld- und Güterwerte im Kapitalstock K(·) zusammen-
gefasst. Weiter bezeichne u(t) denjenigen relativen Anteil an der Produktion, der dem
Arbeiter zum Zeitpunkt t zugesprochen wird. Von dem verbliebenen Teil kann der Unter-
nehmer mit der Rate v(t) zur Zeit t investieren. Mit den Zielfunktionalen W bzw. C für
den Arbeiter bzw. Unternehmer entsteht damit die folgende Aufgabe
Z T

W K(·), u(·), v(·) = u(t)K(t) dt → sup, (2.14)
0
Z T
  
C K(·), u(·), v(·) = 1 − v(t) 1 − u(t) K(t) dt → sup, (2.15)
0
K̇(t) = v(t) 1 − u(t) K(t), K(0) = K0 > 0, K(T ) frei, (2.16)
 1 1
u(t), v(t) ∈ [a, b] × [0, 1], 0 < a < b < 1, b > , T > . (2.17)
2 1−b
Das Modell geht auf Lancaster [41] zurück. Wir folgen der Darstellung und untersuchen
das Nash-Gleichgewicht und die Kollusionslösung, die wir abschließend miteinander ver-
gleichen. Wir verweisen außerdem auf die umfassenden Ausführungen in Feichtinger &
Hartl [21] und Seierstad & Sydsæter [61].
Wir platzieren die zwei Spieler Arbeiter und Unternehmer in einer Spielsituation und
benutzen als Lösungskonzept das Nash-Gleichgewicht für nichtkooperative Spiele. Im vor-
liegenden Differentialspiel ist ein Nash-Gleichgewicht ein Tripel

K∗ (·), u∗ (·), v∗ (·) ∈ P C1 ([0, T ], R) × P C([0, T ], [a, b]) × P C([0, T ], [0, 1]),
für das die folgenden Gleichungen erfüllt sind:
 
W K∗ (t), u∗ (t), v∗ (t) = max W K(·), u(·), v∗ (t) ,
(K(·),u(·))
 
C K∗ (t), u∗ (t), v∗ (t) = max C K(·), u∗ (t), v(·) .
(K(·),v(·))
58 Starkes lokales Minimum

Ausführlich geschrieben ist das Nash-Gleichgewicht ein System von zwei gekoppelten
Steuerungsproblemen für den Arbeiter und den Unternehmer:
Z T 
 
W K(·), u(·), v∗ (·) = u(t)K(t) dt → sup, 


0
 (2.18)
K̇ = v∗ (t) 1 − u(t) K(t), K(0) = K0 > 0, u ∈ [a, b],  
 
K(·), u(·) ∈ P C1 ([0, T ], R) × P C([0, T ], [a, b]), 

Z T 
   
C K(·), u∗ (·), v(·) = 1 − v(t) 1 − u∗ (t) K(t) dt → sup, 


 0 (2.19)
K̇ = v(t) 1 − u∗ (t) K(t), K(0) = K0 > 0, v ∈ [0, 1], 

 
K(·), v(·) ∈ P C1 ([0, T ], R) × P C([0, T ], [0, 1]). 

In der Aufgabe der Arbeiter (2.18) erhalten wir die Maximumbedingung


 n  o
HW t, K∗ (t), u∗ (t), p(t), 1 = max 1 − p(t)v∗ (t) uK∗ (t) + p(t)v∗ (t)K∗ (t).
u∈[a,b]

Da jede zulässige Trajektorie K(·) stets positiv ist, gilt



u∗ (t) = a, wenn p(t)v∗ (t) > 1, 
u∗ (t) = b, wenn p(t)v∗ (t) < 1, (2.20)
u∗ (t) ∈ [a, b], wenn p(t)v∗ (t) = 1.

Weiterhin genügt p(·) der adjungierten Gleichung (2.6) und der Bedingung (2.7):

ṗ(t) = −v∗ (t) 1 − u∗ (t) p(t) − u∗ (t), p(T ) = 0. (2.21)

Daran sind unmittelbar p(t) > 0 für t ∈ [0, T ) und ṗ(t) ≤ −a für t ∈ (0, T ) ersichtlich.
Entsprechend ergibt sich in der Aufgabe des Unternehmers (2.19) die Maximumbedingung
 n   o 
HC t, K∗ (t), v∗ (t), q(t), 1 = max q(t) − 1 v 1 − u∗ (t) K∗ (t) + 1 − u∗ (t) K∗ (t)
v∈[0,1]

und es gelten daher 


v∗ (t) = 0 wenn q(t) < 1, 
v∗ (t) = 1 wenn q(t) > 1, (2.22)
v∗ (t) ∈ [0, 1] wenn q(t) = 1.

Ferner genügt q(·) der adjungierten Gleichung zur Transversalitätsbedingung:


  
q̇ = −v∗ (t) 1 − u∗ (t) q(t) − 1 − v∗ (t) 1 − u∗ (t) , q(T ) = 0. (2.23)

Zusammen erhalten wir aus (2.22) und (2.23)



q̇(t) = − 1 − u∗ (t) · max{1, q(t)} < 0.
Elementarer Beweis 59

Aufgrund der strengen Monotonie existiert eine eindeutig bestimmte Lösung von

τ = min{t ∈ [0, T ] | q(t) ≤ 1}.

Wegen (2.22) gilt v∗ (t) = 0 für alle t ∈ [τ, T ] und aus (2.20) folgt nun u∗ (t) = b auf [τ, T ].
Auf [τ, T ] erhalten wir daraus

b
q(t) = (1 − b)(T − t), q(τ ) = 1, p(t) = b(T − t), p(τ ) = .
1−b
Weiterhin folgt nach (2.17) und aus der Bedingung q(τ ) = 1

1
τ =T− > 0. (2.24)
1−b
Aufgrund b ≥ 1/2 in (2.17) ist p(τ ) ≥ 1. Da p(·) streng monoton fallend ist, erhalten wir
u∗ (t) = a und v∗ (t) = 1 für alle t ∈ [0, τ ). Das Nash-Gleichgewicht lautet daher

K0 e(1−a)t , t ∈ [0, τ ),
  
a, t ∈ [0, τ ), 1, t ∈ [0, τ ),
u∗ (t) = v∗ (t) = K∗ (t) =
b, t ∈ [τ, T ], 0, t ∈ [τ, T ], K0 e(1−a)τ , t ∈ [τ, T ].

Für die Zielfunktionale ergeben sich


  
 a b (1−a)τ a
W K∗ (t), u∗ (t), v∗ (t) = + K0 e − K0 , 
1 − a 1 − b 1 − a (2.25)
C K∗ (t), u∗ (t), v∗ (t) = K0 e(1−a)τ .
 

Die Untersuchung des Nash-Gleichgewichtes ist damit abgeschlossen.


Im Gegensatz zur Spielsituation besprechen sich die Arbeiter und Unternehmer, wie sie
gemeinsam am besten agieren können. Für das gemeinsame Zielfunktional ergibt sich
Z T Z T  
Z T  
u(t)K(t) dt + 1 − v(t) 1 − u(t) K(t) dt = 1 − v(t) 1 − u(t) K(t) dt.
0 0 0

Führen wir die neue Steuerungsvariable w(·) durch



w(t) = v(t) 1 − u(t) , w(t) ∈ [0, 1 − a],

ein, so erhalten wir die Aufgabe


Z T 
J K(·), w(·) = 1 − w(t) K(t) dt → sup,
0
K̇(t) = w(t)K(t), K(0) = K0 > 0, K(T ) frei,
1 1
w(t) ∈ [0, 1 − a] × [0, 1], 0 < a < b < 1, b > , T > .
2 1−b
60 Starkes lokales Minimum

Die Kollusionslösung ist offenbar

K0 e(1−a)t ,
 
1 − a, t ∈ [0, T − 1), t ∈ [0, T − 1),
w∗ (t) = K∗ (t) = (1−a)(T −1)
b, 0 ∈ [T − 1, T ], K0 e , t ∈ [T − 1, T ],

mit folgendem Optimalwert für das Zielfunktional


1 a
K0 e(1−a)(T −1) −

J K∗ (t), w∗ (t) = K0 . (2.26)
1−a 1−a
Der Gesamtnutzen im Nash-Gleichgewicht nach (2.25) ist gleich
 
W K∗ (t), u∗ (t), v∗ (t) + C K∗ (t), u∗ (t), v∗ (t)
 
1 b a
= + K0 e(1−a)τ − K0 . (2.27)
1−a 1−b 1−a

Zum Vergleich der Werte (2.26) und (2.27) verwenden wir die Beziehungen

b
T −1=τ + .
1−b
Damit erhalten wir
  
J K∗ (t), w∗ (t) > W K∗ (t), u∗ (t), v∗ (t) + C K∗ (t), u∗ (t), v∗ (t)
1 (1−a) 1−b b 1 b
⇔ e > + .
1−a 1−a 1−b
Benutzen wir die elementare Ungleichung ex > 1 + x für alle x > 0 folgt abschließend
 
1 (1−a) 1−b
b 1 b 1 b
e > 1 + (1 − a) = + .
1−a 1−a 1−b 1−a 1−b

D. h. der Gesamtnutzen ist im sozialen Optimum größer als im Wettbewerb. Aber es bleibt
die spannende Frage nach der “gerechten” Aufteilung des Nutzens auf Unternehmer und
Arbeiter an dieser Stelle offen.
Wir weisen zum Abschluss ausdrücklich darauf hin, dass aufgrund der Wahl stückweise
stetiger Steuerungen die Integranden und Dynamiken im Nash-Gleichgewicht, z. B. für den
Unternehmer
 
f (t, K, v) = 1 − u∗ (t) · (1 − v)K, ϕ(t, K, v) = 1 − u∗ (t) · vK,

im Allgemeinen nur stückweise stetig bezüglich der Variablen t sind. Beachtet man bei der
Wahl des Punktes t = τ im Beweis von Theorem 2.1, dass die Strategien der Gegenspieler in
t = τ stetig sind, dann ergibt sich die Gültigkeit von Theorem 2.1 auch für den vorliegenden
Lösungsansatz über das Nash-Gleichgewicht.
Mehrfache Nadelvariation 61

2.3. Mehrfache Nadelvariationen


Die einfache Nadelvariation, auf deren Basis im letzten Abschnitt das Maximumprinzip
für die Aufgabe mit freiem rechten Endpunkt hergeleitet wurde, erweist sich als ungeeignet
im Standardproblem mit beidseitigen Randbedingungen:
Z t1 
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, 



t0  

ẋ(t) = ϕ t, x(t), u(t) ,

 
h0 x(t0 ) = 0, h1 x(t1 ) = 0,






u(t) ∈ U, U 6= ∅.

Deswegen betrachten wir in diesem Abschnitt mehrfache Nadelvariationen. Wir folgen der
Darstellung in Ioffe & Tichomirov [38]. Als erstes geben wir eine Konstruktion geeigneter
Trägerfamilien an, auf denen die Nadelvariationen durchgeführt werden. Danach definie-
ren wir die mehrfachen Nadelvariationen und untersuchen abschließend die Eigenschaften,
die die mehrfache Nadelvariation dem Standardproblem übergibt.
Um die Auswertung der mehrfachen Nadelvariationen zu ermöglichen, müssen wir Vor-
aussetzungen an die Standardaufgabe treffen: Es sei x∗ (·) ∈ W21 ([t0 , t1 ], Rn ) und γ > 0.
Wir definieren die Menge Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x∗ (t)k ≤ γ}. Dann nehmen
wir an, dass die Abbildungen f (t, x, u), ϕ(t, x, u) auf Vγ × U stetig in der Gesamtheit der
Variablen und stetig differenzierbar bezüglich x sind. D. h., dass die partiellen Ableitungen
fx (t, x, u), ϕx (t, x, u) auf Vγ × U stetig in der Gesamtheit der Variablen sind.

2.3.1. Die Konstruktion der Trägerfamilien


Lemma 2.2. Zu jeder auf [t0 , t1 ] definierten Treppenfunktion y(·), y(t) ∈ Rn , und jedem
δ > 0 kann man eine einparametrige Familie
 
M (α) 0≤α≤1 = M (α, y(·), δ) 0≤α≤1

messbarer Teilmengen des Intervalls [t0 , t1 ] derart angeben, dass die Beziehungen

|M (α)| = α(t1 − t0 ), M (α0 ) ⊆ M (α), 0 ≤ α0 ≤ α ≤ 1,


Z t h i
0 0

max χM (α) (τ ) − χM (α0 ) (τ ) y(τ ) − (α − α )y(τ ) dτ
≤ δ|α − α |
t∈[t0 ,t1 ]
t0

gelten.

Der Grundgedanke der nachstehend beschriebenen Konstruktion lässt sich am leichtesten


in dem Fall verstehen, dass die Vektorfunktion y(·) konstant ist: y(t) ≡ C. Zerlegt man
das Intervall [t0 , t1 ] in gleiche Teile ∆i , deren Länge kleiner als δ/C ist, so kann man als
Mengenfamilie {M (α)} die Vereinigung derjenigen Intervall ∆i (α) nehmen, deren linkes
62 Starkes lokales Minimum

Ende jeweils mit dem linken Ende des Intervall ∆i und deren Länge jeweils mit dem α-ten
Teil der Länge von ∆i übereinstimmt.
Beweis Da y(·) eine Treppenfunktion auf dem Intervall [t0 , t1 ] ist, gibt es endlich viele
y1 , ..., yd ∈ Rn und eine disjunkte Zerlegung {A1 , ..., Ad } von [t0 , t1 ] mit
d
X
y(t) = yj χAj (t).
j=1

Ferner sei C = max kyj k. Wir zerlegen das Intervall [t0 , t1 ] in gleiche Teile ∆1 , ..., ∆r , deren
j
Länge höchstens δ/(2C) ist und setzen
 Z t 

Mij (α) = t ∈ (Aj ∩ ∆i ) χ(Aj ∩∆i ) (τ ) dτ < α · |Aj ∩ ∆i | .
t0
[
Dann ist M (α) = Mij (α) die gesuchte Menge. Denn es gilt
i,j
X X
|M (α)| = |Mij (α)| = α |Aj ∩ ∆i | = α(t1 − t0 ).
i,j i,j

Ferner zieht die Ungleichung α ≥ die Beziehung Mij (α0 ) ⊆ Mij (α), d. h. M (α0 ) ⊆ M (α),
α0
nach sich. Schließlich gilt
Z Z t1
y(t) dt = χMij (α) (t)y(t) dt = αyj · |Aj ∩ ∆i |,
Mij (α) t0

weil jeweils auf den Mengen Aj die Vektorfunktion y(·) konstant und gleich yj ist. Hieraus
folgt in den Endpunkten der Intervalle ∆i :
Z

χM (α) (t) − χM (α0 ) (t) y(t) dt
∆i
!
X Z Z X
= y(t) dt − y(t) dt = (α − α0 ) yj · |Aj ∩ ∆i |
j Mij (α) Mij (α0 ) j
XZ Z
= (α − α0 ) χ(Aj ∩∆i ) (t)y(t) dt = (α − α0 ) y(t) dt,
j ∆i ∆i

also, dass in den Endpunkten der Intervalle ∆i die Werte der Integrale
Z t Z t
(α − α0 )y(τ ) dτ

χM (α) (τ ) − χM (α0 ) (τ ) y(τ ) dτ,
t0 t0

übereinstimmen. Für ∆i = [τi , τi+1 ] und τi < t < τi+1 ergibt sich
Z t h i
0 0 0


χM (α) (τ ) − χM (α0 ) (τ ) y(τ ) − (α − α )y(τ ) dτ
≤ 2C|α − α | · |t − τi | ≤ δ|α − α |.
τi
Damit ist Lemma 2.2 gezeigt. 
Mehrfache Nadelvariation 63

Lemma 2.3. Zu jeder auf [t0 , t1 ] definierten beschränkten messbaren Vektorfunktion y(·)
und jedem δ > 0 gibt es eine einparametrige Familie
 
M (α) 0≤α≤1 = M (α, y(·), δ) 0≤α≤1
mit den Eigenschaften
|M (α)| = α(t1 − t0 ), M (α0 ) ⊆ M (α), 0 ≤ α0 ≤ α ≤ 1,
Z t h i
0 0

max χM (α) (τ ) − χM (α0 ) (τ ) y(τ ) − (α − α )y(τ ) dτ
≤ δ|α − α |.
t∈[t0 ,t1 ]
t0

Beweis Jede beschränkte messbare Vektorfunktion auf [t0 , t1 ] ist gleichmäßiger Grenzwert
von Treppenfunktionen. D. h., es gibt eine Treppenfunktion ỹ(·) mit
δ
sup ky(t) − ỹ(t)k ≤ .
t∈[t0 ,t1 ] t1 − t0

Nach letztem Lemma kann man eine Familie M (α, ỹ(·), δ) 0≤α≤1 mit den entsprechenden
Eigenschaften für ỹ(·) angeben. Ist dann α ≥ α0 , so gilt
Z t
  δ 0 0

χM (α) (τ ) − χM (α0 ) (τ ) · y(τ ) − ỹ(τ ) dτ
≤ t1 − t0 |M (α) \ M (α )| ≤ δ|α − α |
t0

und
Z t Z t
(α − α0 ) y(τ ) − ỹ(τ ) dτ ≤ |α − α0 | y(τ ) − ỹ(τ ) dτ ≤ δ|α − α0 |.
 

t0 t0

Zusammenfassend erhalten wir mit der Aussage des letzten Lemma für Treppenfunktionen:
Z t h i
0


χ M (α) (τ ) − χ M (α 0 ) (τ ) y(τ ) − (α − α )y(τ ) dτ

t0
Z t Z t
0
  
≤ χM (α) (τ ) − χM (α0 ) (τ ) · y(τ ) − ỹ(τ ) dτ + (α − α ) y(τ ) − ỹ(τ ) dτ

t0 t0
Z t h i
0 0

+ χM (α) (τ ) − χM (α0 ) (τ ) ỹ(τ ) − (α − α )ỹ(τ ) dτ
≤ 3δ|α − α |,
t0

also M (α) = M (α, y(·), 3δ). 


Lemma 2.4. Es seien yi (·), yi : [t0 , t1 ] → Rni , i = 1, ..., d, beschränkte messbare Vektor-
funktionen. Dann gibt es zu jedem δ > 0 einparametrige Mengenfamilien M1 (α), ..., Md (α)
messbarer Teilmengen des Intervalls [t0 , t1 ], wobei der Parameter α Werte zwischen 0 und
1/d annimmt derart, dass für alle i = 1, ..., d, 0 ≤ α0 ≤ α ≤ 1/d und i 6= i0 gilt:
|Mi (α)| = α(t1 − t0 ), Mi (α0 ) ⊆ Mi (α), Mi (α) ∩ Mi0 (α0 ) = ∅, (2.28)
Z t Z t
χMi (α) (τ ) − χMi (α0 ) (τ ) yi (τ ) dτ − (α − α0 ) 0

max
t∈[t0 ,t1 ]
≤ δ|α − α |. (2.29)
yi (τ ) dτ
t0 t0
64 Starkes lokales Minimum

Beweis Es sei n = n1 + ... + nd . Dann ist



t → z(t) = y1 (t), ..., yd (t)
eine messbare beschränkte Abbildung des Intervalls [t0 , t1 ] in Rn .
Wir wählen eine Familie {M (α)}0≤α≤1 von messbaren Teilmengen des Intervalls [t0 , t1 ],
die gemeinsam mit z(·) und δ den Bedingungen von Lemma 2.3 genügen. Weiterhin sei
0 ≤ α ≤ 1/d. Setzen wir
 
Mi (α) = M (i − 1)/d + α \ M (i − 1)/d , i = 1, ..., d,
so sind diese Mi (α) die gesuchten Familien: Für i 6= i0 , 0 ≤ α0 ≤ α ≤ 1/d sind die Mengen
Mi (α) und Mi0 (α0 ) disjunkt, es ist |Mi (α)| = α(t1 − t0 ) und für 0 ≤ α0 ≤ α ≤ 1/d gilt
Mi (α0 ) ⊆ Mi (α). Genau wie im Beweis des letzten Lemma können wir schließen:
Z t h i
0 0


χMi (α) (τ ) − χMi (α0 ) (τ ) z(τ ) − (α − α )z(τ ) dτ
≤ 3δ|α − α |, i = 1, ..., d.
t0
Die letzte Behauptung des Lemma folgt unmittelbar aus der Tatsache, dass für jeden
Vektor z = (y1 , ..., yd ) ∈ Rn , yi ∈ Rni , die Ungleichung kyi k ≤ kzk erfüllt ist. 

2.3.2. Die Definition der mehrfachen Nadelvariation


Es seien x∗ (·) ∈ W21 ([t0 , t1 ], Rn ), u∗ (·), u1 (·), ..., ud (·) ∈ L∞ [t0 , t1 ], U und es seien die zu


Beginn dieses Abschnitts getroffenenen Voraussetzungen an f und ϕ erfüllt. Dann sind die
Vektorfunktionen yi (·),
  
yi (t) = ϕ t, x∗ (t), ui (t) − ϕ t, x∗ (t), u∗ (t) ,
 
f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t) , i = 1, ..., d,

auf [t0 , t1 ] messbar und beschränkt, weil die Steuerungen u∗ (·), u1 (·), ..., ud (·) messbar,
beschränkt und f, ϕ stetig sind. Daher
 existieren
nach Lemma 2.4 auf dem Intervall [t0 , t1 ]
einparametrige Mengenfamilien Mi (α) 0≤α≤1/d mit

|Mi (α)| = α(t1 − t0 ), Mi (α0 ) ⊆ Mi (α), Mi (α) ∩ Mi0 (α0 ) = ∅,


Z t Z t
0
≤ δ|α − α0 |

max χMi (α) (τ ) − χMi (α0 ) (τ ) yi (τ ) dτ − (α − α ) yi (τ ) dτ
t∈[t0 ,t1 ]t0 t0

α0 i0 .
für alle i = 1, ..., d, 0 ≤ ≤ α ≤ 1/d und i 6= Auf dem Quader
n o
d d
Q = α = (α1 , ..., αd ) ∈ R 0 ≤ αi ≤ 1/d, i = 1, ..., d

ist die Abbildung α → uα (·) ∈ L∞ [t0 , t1 ], U ,
d
X 
uα (t) = u∗ (t) + χMi (αi ) (t) · ui (t) − u∗ (t) ,
i=1

wohldefiniert und uα (·) nennen wir mehrfache Nadelvariation von u∗ (·).


Mehrfache Nadelvariation 65

2.3.3. Eigenschaften der mehrfachen Nadelvariation


Es seien x∗ (·) ∈ W21 ([t0 , t1 ], Rn ), u∗ (·), u1 (·), ..., ud (·) ∈ L∞ [t0 , t1 ], U . Weiterhin seien


f (t, x, u), ϕ(t, x, u) auf Vγ × U stetig in der Gesamtheit der Variablen und stetig differen-
zierbar bezüglich x. Wir betrachten im Weiteren auf den Mengen
d
( )
X
α = (α1 , ..., αd ) ∈ Rd α1 , ..., αd ≥ 0,

Σ(∆) = αi ≤ ∆ ,
i=1
V = {x(·) ∈ C([t0 , t1 ], Rn ) kx(·) − x∗ (·)k∞ ≤ σ}

für t ∈ [t0 , t1 ] die Abbildung


Z t
   
Φ1 x(·), α (t) = ϕ τ, x(τ ), uα (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ, t ∈ [t0 , t1 ],
t0

und deren Linearisierung


Z th
  
Λ1 x(·), α (t) = ϕx τ, x∗ (τ ), u∗ (τ ) x(τ ) − x∗ (τ )
t0
d 
X  i
+ αi · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ, t ∈ [t0 , t1 ].
i=1

Dabei bezeichnet uα (·) die mehrfache Nadelvariation


d
X 
uα (t) = u∗ (t) + χMi (αi ) (t) · ui (t) − u∗ (t) .
i=1

Dementsprechend bezieht sich der zweite Term im Operator Λ1 auf eine Linearisierung
bezüglich der Variation auf den Trägermengen. Ziel dieses Abschnitts ist es zu zeigen,
dass der Operator Φ1 zwar nicht stetig, aber wenigstens streng differenzierbar ist. D. h.,
dass die Beziehung
 
Φ1 x(·), α − Φ1 x0 (·), α0 − Λ1 x(·), α − Λ1 x0 (·), α0 (·)
  

 d
X 
≤ δ kx(·) − x0 (·)k∞ + |αi − αi0 |
i=1

für alle α, α0 ∈ Σ(∆) und alle x(·), x0 (·) ∈ V gilt. Außerdem soll für den Operator Φ2 und
dessen Linearisierung Λ2 bezüglich der Variable α,
Z t1
   
Φ2 x(·), α = f t, x(t), uα (t) − f t, x(t), u∗ (t) dt,
t0
d
X Z t1 
  
Λ2 x(·), α = αi · f t, x(t), ui (t) − f t, x(t), u∗ (t) dt,
i=1 t0
66 Starkes lokales Minimum

die Relation
d
X
 
Φ2 x(·), α − Λ2 x(·), α ≤ δ αi
i=1

für alle α, α0 ∈ Σ(∆) und alle x(·), x0 (·) ∈ V gelten.


Wir treffen einige Vorbereitungen: Aus den Eigenschaften (2.28) in Lemma 2.4 der Men-
genfamilien der mehrfachen Nadelvariation

d
X 
uα (t) = u∗ (t) + χMi (αi ) (t) · ui (t) − u∗ (t)
i=1

gelten für jede auf R × Rn × Rm definierte Vektorfunktion h und alle α, α0 ∈ Qd :


 
h t, x, uα (t) − h t, x, u∗ (t)
d 
X  
= χMi (αi ) (t) · h t, x, ui (t) − h t, x, u∗ (t) , (2.30)
i=1
 
h t, x, uα (t) − h t, x, uα0 (t)
d
X    
= χMi (αi ) (t) − χMi (α0i ) (t) · h t, x, ui (t) − h t, x, u∗ (t) . (2.31)
i=1

Weil alle Steuerungen u∗ (·), u1 (·), ..., ud (·) beschränkt sind, sind ihre Werte für fast alle
t ∈ [t0 , t1 ] in einer kompakten Menge U1 ⊂ Rm enthalten. Nutzen wir darüber hinaus die
Stetigkeit von f , ϕ und fx , ϕx aus, so können wir ein σ > 0 derart angeben, dass

ϕ(t, x, u) − ϕ(t, x∗ (t), u) ≤ δ
, (2.32)
4(t1 − t0 )

f (t, x, u) − f (t, x∗ (t), u) ≤ δ
, (2.33)
8(t1 − t0 )
0
ϕ(t, x, u) − ϕ(t, x0 , u) − ϕx (t, x∗ (t), u)(x − x0 ) ≤ δkx − x k ,

(2.34)
2(t1 − t0 )

für fast alle t ∈ [t0 , t1 ] und alle x, x0 , u mit kx − x∗ (t)k ≤ σ, kx0 − x∗ (t)k ≤ σ, u ∈ U1 erfüllt
sind. Ferner wählen wir ∆ ∈ (0, 1/d] derart, dass für fast alle t ∈ [t0 , t1 ]
δ
∆ · (t1 − t0 ) · max ϕx (t, x∗ (t), u) ≤ (2.35)
u∈U1 4

gilt. Offenbar ist Σ(∆) ⊆ Qd für ∆ ∈ (0, 1/d]. Daher ist die mehrfache Nadelvariation
uα (·) für ∆ ∈ (0, 1/d] auf dem gesamten Simplex Σ(∆) definiert.
Mehrfache Nadelvariation 67

Lemma 2.5. Es genüge ∆ ∈ (0, 1/d] der Bedingung (2.35). Dann gilt für alle α, α0 ∈ Σ(∆)
und alle x(·), x0 (·) ∈ V :
 
0 0 0 0
  
Φ1 x(·), α − Φ1 x (·), α − Λ1 x(·), α + Λ1 x (·), α (·)


 d
X 
≤ δ kx(·) − x0 (·)k∞ + |αi − αi0 | . (2.36)
i=1

Ausführlich geschrieben ist die linke Seite in (2.36) gleich


Z t
ϕ τ, x(τ ), uα (τ ) − ϕ τ, x0 (τ ), uα0 (τ ) − ϕx τ, x∗ (τ ), u∗ (τ ) x(τ ) − x0 (τ )
   
max
t∈[t0 ,t1 ]
t0
d  
X
0
 
− (αi − αi ) · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ
. (2.37)
i=1

Beweis Den Ausdruck (2.37) können wir nach oben gegen


Z t1
ϕ t, x(t), uα (t) − ϕ t, x0 (t), uα (t)
 
t0
 0

−ϕx t, x∗ (t), uα (t) x(t) − x (t) dt

Z t1 
  0

+ ϕx t, x∗ (t), uα (t) − ϕx t, x∗ (t), u∗ (t) x(t) − x (t) dt

t0
Z t1
ϕ t, x0 (t), uα (t) − ϕ t, x0 (t), uα0 (t)
 
+

t0
 
−ϕ t, x∗ (t), uα (t) + ϕ t, x∗ (t), uα0 (t) dt

Z t
 
+ max ϕ τ, x∗ (τ ), uα (τ ) − ϕ τ, x∗ (τ ), uα0 (τ )
t∈[t0 ,t1 ]
t0
d 
X 
αi0 )

− (αi − ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ

i=1

abschätzen. Der erste Summand ist nach (2.34) kleiner oder gleich

δ
kx(·) − x0 (·)k∞ .
2
Aus (2.30) folgt, dass der zweite Summand gleich
Z t1
d 
X   0


χMi (αi ) (t) · ϕx t, x∗ (t), ui (t) − ϕx t, x∗ (t), u∗ (t) x(t) − x (t)
dt
t0 i=1
68 Starkes lokales Minimum

ist. Mit (2.28), (2.35) und α ∈ Σ(∆) fällt dieser Ausdruck nicht größer aus als
Z t1  Xd 
δ
αi · 2 max ϕx (t, x∗ (t), u) dt · kx(·) − x0 (·)k∞ ≤ kx(·) − x0 (·)k∞ .

t0 u∈U1 2
i=1

Wegen (2.31) ist der dritte Summand gleich

d
Z t1 X
  0
 0


χ Mi (α i ) (t) − χ M i (α 0 ) (t) · ϕ t, x (t), ui (t) − ϕ t, x (t), u∗ (t)
i
t0 i=1
d
X    
− χMi (αi ) (t) − χMi (α0i ) (t) · ϕ t, x∗ (t), ui (t) − ϕ t, x∗ (t), u∗ (t) dt.
i=1

Gemäß (2.32) ist dieses Integral nicht größer als


d Z t1 d
δ X δX
|αi − αi0 |.

2· · χMi (αi ) (t) − χMi (α0i ) (t) dt =

4(t1 − t0 ) t0 2
i=1 i=1

Schließlich lässt sich der vierte Summand mittels (2.31) in die Form
Z tX d 
   
max χ Mi (αi ) (τ ) − χ 0
Mi (αi ) (τ ) · ϕ τ, x ∗ (τ ), ui (τ ) − ϕ τ, x ∗ (τ ), u∗ (τ )
t∈[t0 ,t1 ] t0
i=1
 
0
 
−(αi − αi ) · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ

  
bringen. Die Differenz ϕ τ, x∗ (τ ), ui (τ ) −ϕ τ, x∗ (τ ), u∗ (τ ) enthält die ersten n Koordi-
naten der Vektorfunktion yi (t) aus Abschnitt 2.3.2. Daher ist der obenstehende Ausdruck
kleiner oder gleich
d
X Z th i
0

max χMi (αi ) (τ ) − χMi (α0i ) (τ ) yi (τ ) − (αi − αi )yi (τ ) dτ
.
t∈[t0 ,t1 ] t0
i=1

Mit (2.29) ist dieser Ausdruck nicht größer als


d
δX
|αi − αi0 |.
2
i=1

Damit ist die Beziehung (2.36) bewiesen. 


Lemma 2.6. Es sei ∆ ∈ (0, 1/d] und genüge der Bedingung (2.35). Dann gilt
d
X
 
Φ2 x(·), α − Λ2 x(·), α ≤ δ αi (2.38)
i=1

für alle α ∈ Σ(∆) und alle x(·) ∈ V .


Mehrfache Nadelvariation 69

Beweis Beachten wir (2.30), so ist die linke Seite in (2.38) gleich
d Z t1  
X  
χMi (αi ) (t) · f t, x(t), ui (t) − f t, x(t), u∗ (t)
i=1 t0
 
 
−αi · f t, x(t), ui (t) − f t, x(t), u∗ (t) dt.

Diesen Ausdruck ist weiterhin kleiner oder gleich der folgenden Summe:

d Z t1 
X  

χMi (αi ) (t) · f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t)
i=1 t0

 
−αi · f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t) dt
d
"Z
X t1 h  
+ χMi (αi ) (t) · f t, x(t), ui (t) − f t, x∗ (t), ui (t)
i=1 t0
  i
+ f t, x∗ (t), u∗ (t) − f t, x(t), u∗ (t) dt
Z t1 h  
+ αi f t, x(t), ui (t) − f t, x∗ (t), ui (t)
t0
#
  i
+ f t, x(t), u∗ (t) − f t, x∗ (t), u∗ (t) dt .

Für den ersten Summanden gilt die Relation (2.29), d. h.


d Z t1 
X  

χMi (αi ) (t) · f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t)
i=1 t0
d
   δ X
−αi · f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t) dt ≤ αi .
2
i=1

Mit (2.33) folgt, dass die zweite Summe kleiner gleich


d  Z t1 Z t1  d
X δ δX
2 χMi (αi ) (t) dt + 2αi dt · = αi
t0 t0 8(t1 − t0 ) 2
i=1 i=1

ist. Damit ist das Lemma bewiesen. 


70 Starkes lokales Minimum

2.4. Das Pontrjaginsche Maximumprinzip für das Standardproblem


2.4.1. Notwendige Optimalitätsbedingungen
Wir betrachten das Steuerungsproblem

Z t1 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (2.39)
t0

ẋ(t) = ϕ t, x(t), u(t) , (2.40)
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0, (2.41)
m
u(t) ∈ U ⊆ R , U 6= ∅. (2.42)

Dabei gilt für die Abbildungen:

f : R × Rn × Rm → R, ϕ : R × Rn × Rm → Rn , hi : Rn → Rsi , i = 0, 1.

Die Aufgabe (2.39)–(2.42) untersuchen wir bezüglich der Paare

x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ).




Zu x(·) bezeichne Vγ die Menge Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x(t)k ≤ γ}. Dann gehören
zur Menge BLip diejenigen x(·) ∈ W21 ([t0 , t1 ], Rn ), für die es eine Zahl γ > 0 derart gibt,
dass die Abbildungen
(B) f (t, x, u), ϕ(t, x, u), hi (x) auf Vγ × U stetig in der Gesamtheit der Variablen und
stetig differenzierbar bezüglich x sind.
Das Paar x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ],U ) heißt ein zulässiger Steuerungs-


prozess in der Aufgabe (2.39)–(2.42), falls x(·), u(·) dem System (2.40) genügt und die
Randbedingungen (2.41) erfüllt. Die Menge Badm bezeichnet die Menge der zulässigen
Steuerungsprozesse.

Ein zulässiger Steuerungsprozess x∗ (·), u∗ (·) ist eine starke lokale Minimalstelle der Auf-
gabe (2.39)–(2.42), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ ε gilt.




Für die Aufgabe (2.39)–(2.42) bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-


Funktion, die wir wie folgt definieren:

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 f (t, x, u).

 (Pontrjaginsches Maximumprinzip). Es sei x∗ (·), u∗ (·) ∈ Badm ∩BLip . Ist



Theorem 2.7
x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (2.39)–(2.42), dann existieren nicht
gleichzeitig verschwindende Multiplikatoren λ0 ≥ 0, p(·) ∈ W21 ([t0 , t1 ], Rn ) und li ∈ Rsi ,
i = 0, 1, derart, dass
Pontrjaginsches Maximumprinzip 71

(a) die Funktion p(·) der adjungierten Gleichung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 fx t, x∗ (t), u∗ (t)


 
(2.43)

genügt und die Transversalitätsbedingungen


T T
p(t0 ) = h00 x∗ (t0 ) l0 , p(t1 ) = −h01 x∗ (t1 ) l1
 
(2.44)

erfüllt;

(b) in fast allen Punkten t ∈ [t0 , t1 ] die Maximumbedingung


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 (2.45)
u∈U

gilt.

Bemerkung 2.8. Für das Pontrjaginsche Maximumprinzip lässt sich an dieser Stelle
ebenso die Bemerkung 1.17 über die Transversalitätsbedingungen bei fehlenden Randbe-
dingungen übernehmen. 

Beispiel 2.9. Wir betrachten nach Dockner et al. [17] das Differentialspiel
Z T
J˜i x(·), u1 (·), u2 (·) = e−%t px(t) − ci ui (t) dt → sup,
 
0

ẋ(t) = x(t) α − r ln x(t) − u1 (t)x(t) − u2 (t)x(t), x(0) = x0 > 0,
1
ui > 0, α, ci , p, r, % > 0, α > , i = 1, 2.
c1 + c2
In dieser Aufgabe sei der Preis p nicht konstant, sondern umgekehrt proportional zum
Angebot:
1
p = p(u1 x + u2 x) = .
u1 x + u2 x
Dieser Ansatz spiegelt die Ökonomie einer “Eskimo”-Gesellschaft wider, in der der Fischbe-
stand die wichtigste Nahrungsgrundlage darstellt und kein echtes Ersatzprodukt existiert.
Unter diesen Umständen führt eine prozentuale Preissteigerung zu einem Umsatzrückgang
in gleicher Relation.
Wenden wir die Transformation z = ln x an, so erhalten wir das Spielproblem
Z T  
1
e−%t

Ji z(·), u1 (·), u2 (·) = − ci ui (t) dt → sup,
0 u1 (t) + u2 (t)
ż(t) = −rz(t) + α − u1 (t) − u2 (t), z(0) = ln x0 > 0,
1
ui > 0, α, ci , p, r, % > 0, α > , i = 1, 2.
c1 + c2
72 Starkes lokales Minimum

Ein zulässiger Steuerungsprozess z ∗ (·), u∗1 (·), u∗2 (·) ist ein Nash-Gleichgewicht

des Spiels,
falls für alle anderen zulässigen Steuerungsprozesse z(·), u1 (·), u2 (·) , z(·), u∗1 (·), u2 (·)



die Ungleichungen

J1 z ∗ (·), u∗1 (·), u∗2 (·) ≥ J1 z(·), u1 (·), u∗2 (·) , J2 z ∗ (·), u∗1 (·), u∗2 (·) ≥ J2 z(·), u∗1 (·), u2 (·)
   

gelten. Halten wir die optimale Strategie des Gegenspielers fest, dann ergeben sich für
i, j ∈ {1, 2}, i 6= j, folgende miteinander gekoppelte Steuerungsprobleme:
Z T  

 −%t 1
Ji z(·), ui (·), uj (·) = e − ci ui (t) dt → sup,
0 ui (t) + u∗j (t)
ż(t) = −rz(t) + α − ui (t) − u∗j (t), z(0) = ln x0 > 0, ui > 0.

Die zulässigen Steuerungen gehören dem Raum L∞ ([0, T ], U ) an. Deshalb sind im Ansatz
des Nash-Gleichgewichtes die Abbildungen
 
1
fi (t, z, ui ) = − ci ui , ϕi (t, z, ui ) = −rz + α − ui − u∗j (t)
ui + u∗j (t)

nicht stetig bezüglich der Variable t. Die Voraussetzung (B) ist nicht erfüllt. Da aber
ϕi (t, z, ui ) linear in z und ui sind und die Variable z in fi (t, z, ui ) nicht einfließt, sind
die gleichmäßigen Eigenschaften (2.32)–(2.34) für fast alle t ∈ [0, T ] erfüllt. Unter diesen
Rahmenbedingungen behält Theorem 2.7 seine Gültigkeit.
Die Pontrjagin-Funktionen lauten
 
1
u∗j (t) −%t

Hi (t, z, ui , pi , λ0 ) = pi − rz + α − ui − + λ0 e − ci ui .
ui + u∗j (t)

Es liegt ein freier rechter Endpunkt vor. Deswegen dürfen wir λ0 = 1 annehmen und es
gelten die Transversalitätsbedingungen pi (T ) = 0. Damit erhalten wir aus der adjungierten
Gleichung (2.43)

ṗi (t) = rpi (t), pi (T ) = 0, ⇒ pi (t) ≡ 0.

Aus der Maximumbedingung (2.45) folgt schließlich


c2 c1
u∗1 (t) ≡ , u∗2 (t) ≡
(c1 + c2 )2 (c1 + c2 )2
und für die optimale Trajektorie
 
−rt 1 1
z∗ (t) = (z0 − c0 )e + c0 , c0 = α− .
r c1 + c2
Die Funktion z∗ (·) ist streng monoton und nimmt nur Werte des Segments [z0 , c0 ] an. Da c0
und z0 positiv sind, ist x∗ (t) = exp z∗ (t) über [0, T ] wohldefiniert und x∗ (·), u∗1 (·), u∗2 (·)
liefert einen Kandidaten für das ursprüngliche Differentialspiel. 
Pontrjaginsches Maximumprinzip 73

2.4.2. Definition und Eigenschaften der Extremalaufgabe


Sei x∗ (·) ∈ BLip ∩ C([t0 , t1 ], Rn ) und es bezeichne nξ0 (·) ∈ C([t0 , t1 ], Rn ) die Funktion
ξ0 (t) ≡ 0. Wir definieren für ξ(·), u(·) ∈ C([t0 , t1 ], R )×L∞ ([t0 , t1 ], Rm ) die Abbildungen
Z t1
˜
 
J ξ(·), u(·) = f t, x∗ (t) + ξ(t), u(t) dt,
t0
  
F ξ(·), u(·) (t) = x∗ (t) + ξ(t) − x∗ (t0 ) + ξ(t0 )
Z t

− ϕ s, x∗ (s) + ξ(s), u(s) ds, t ∈ [t0 , t1 ],
t0
 
Hi ξ(·) = hi x∗ (ti ) + ξ(ti ) , i = 0, 1.
Da x∗ (·) zu C([t0 , t1 ], Rn ) gehört, gilt für diese Abbildungen
J˜ : C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) → R,
F : C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) → C([t0 , t1 ], Rn ),
Hi : C([t0 , t1 ], Rn ) → Rsi , i = 0, 1.
Wir untersuchen im Weiteren die Eigenschaften der Extremalaufgabe
J˜ ξ(·), u(·) → inf,
  
F ξ(·), u(·) = 0, Hi ξ(·) = 0, i = 0, 1. (2.46)

Dabei sind die Abbildungen Hi ξ(·) offenbar stetig differenzierbar.
Lemma 2.10. Für jedes u(·) ∈ L∞ ([t0 , t1 ], U ) ist die Abbildung ξ(·) → J˜ ξ(·), u(·) im


Punkt ξ0 (·) Fréchet-differenzierbar und es gilt


Z t1
˜


Jξ ξ0 (·), u(·) ξ(·) = fx t, x∗ (t), u(t) , ξ(t) dt.
t0

Beweis Sei u(·) ∈ L∞ ([t0 , t1 ], U ). Nach Voraussetzung (B) ist die Abbildung f auf Vγ ×U ,
Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x∗ (t)k ≤ γ},
stetig und bezüglich x stetig differenzierbar. Damit ist J˜auf einer Umgebung von ξ0 (·)
wohldefiniert. Ferner ist der lineare Operator J˜ξ ξ0 (·), u(·) stetig. Wegen der gleichmäßi-
gen Stetigkeit von fx auf der Menge Vγ × U gibt es eine Zahl λ0 > 0 mit
 
fx t, x∗ (t) + λξ, u(t) − fx t, x∗ (t), u(t) ≤ ε
t1 − t0
für fast alle t ∈ [t0 , t1 ], für alle kξk ≤ 1 und alle 0 < λ ≤ λ0 . Damit erhalten wir
˜
J ξ0 (·) + λξ(·), u(·) − J˜ ξ0 (·), u(·)
 
− J˜ξ ξ0 (·), u(·) ξ(·)


λ
Z t1  Z 1 
 
= hfx t, x∗ (t) + λsξ(t), u(t) − fx t, x∗ (t), u(t) , ξ(t)ids dt
t0 0
Z t1
ε
≤ kξ(t)k dt ≤ ε
t0 t1 − t0
74 Starkes lokales Minimum

für alle kξ(·)k∞ ≤ 1 und alle 0 < λ ≤ λ0 . 



Lemma 2.11. Für jedes u(·) ∈ L∞ ([t0 , t1 ], U ) ist die Abbildung ξ(·) → F ξ(·), u(·) im
Punkt ξ0 (·) Fréchet-differenzierbar und es gilt
Z t
   
Fξ ξ0 (·), u(·) ξ(·) (t) = ξ(t) − ξ(t0 ) − ϕx s, x∗ (s), u(s) ξ(s) ds, t ∈ [t0 , t1 ].
t0

Beweis Aufgrund der gleichen Argumente wie im Beweis des letzten Lemma ist die Ab-
bildung F auf einer Umgebung von x∗ (·) wohldefiniert. Zudem ist der lineare Operator
Fξ ξ0 (·), v0 (·) stetig. Da die Abbildung ϕx auf der Menge Vγ × U gleichmäßig stetig ist,
gibt es eine Zahl λ0 > 0 mit
 
ϕx t, x∗ (t) + λξ, u(t) − ϕx t, x∗ (t), u(t) ≤ ε
t1 − t0
für fast alle [t0 , t1 ], für alle kξk ≤ 1 und alle 0 < λ ≤ λ0 . Damit folgt
 
F ξ0 (·) + λξ(·), u(·) − F ξ0 (·), u(·)


− Fξ ξ0 (·), u(·) ξ(·)
λ

Z t1  Z 1 
 
≤ ϕx t, x∗ (t) + λsξ(t), u(t) − ϕx t, x∗ (t), u(t) ds dt ≤ ε

t0 0

für alle kξ(·)k∞ ≤ 1 und alle 0 < λ ≤ λ0 . 



Lemma 2.12. Der Operator Fξ ξ0 (·), u(·) ist surjektiv.

Beweis Das folgt unmittelbar aus Lemma D.2. 

2.4.3. Lagrangesche Multiplikatorenregel


In der Aufgabe (2.39)–(2.42) seien x∗ (·) ∈ BLip ∩ C([t0 , t1 ], Rn ) und x∗ (·), u∗ (·) ∈ Badm .


Auf C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) × C ∗ ([t0 , t1 ], Rn ) × R × Rs0 × Rs1 definieren wir zur


Extremalaufgabe (2.46),

J˜ ξ(·), u(·) → inf,


  
F ξ(·), u(·) = 0, Hi ξ(·) = 0, i = 0, 1,

die Lagrange-Funktion L = L ξ(·), u(·), y ∗ , λ0 , l0 , l1 ,




L = λ0 J˜ ξ(·), u(·) + y ∗ , F ξ(·), u(·) + l0T H0 ξ(·) + l1T H1 ξ(·) .



  

 sei x∗ (·) ∈ BLip ∩ C([t0 , t1 ], R ) und außerdem sei


Theorem 2.13 (Extremalprinzip). Es n

x∗ (·), u∗ (·) ∈ Badm . Ist x∗ (·), u∗ (·) ein starkes lokales Minimum im Steuerungsproblem


(2.39)–(2.42), dann existieren nicht gleichzeitig verschwindende Lagrangesche Multiplika-


toren λ0 ≥ 0, y ∗ ∈ C ∗ ([t0 , t1 ], Rn ), l0 ∈ Rs0 und l1 ∈ Rs1 derart, dass
Pontrjaginsches Maximumprinzip 75

(a) die Lagrange-Funktion bezüglich ξ(·) in ξ0 (·) einen stationären Punkt besitzt:

Lξ ξ0 (·), u∗ (·), λ0 , y ∗ , l0 , l1 = 0;

(2.47)

(b) die Lagrange-Funktion bezüglich u(·) die Minimumbedingung erfüllt:

L ξ0 (·), u∗ (·), λ0 , y ∗ , l0 , l1 = L ξ0 (·), u(·), λ0 , y ∗ , l0 , l1 .


 
min (2.48)
u(·)∈L∞ ([t0 ,t1 ],U )


Beweis Aufgrund von Lemma 2.12 ist die Abbildung ξ(·) → F ξ(·), u∗ (·) im Punkt
ξ0 (·) regulär. Ferner sind Im Hi0 ξ(·) abgeschlossene Teilmengen der endlich-dimensionalen


Räume Rsi . Daher stimmt das Bild des stetigen lineare Operators
 
L = Fξ ξ0 (·), u∗ (·) , H00 ξ0 (·) , H10 ξ0 (·)
 

entweder mit Z = C([t0 , t1 ], Rn ) × Rs0 × Rs1 oder mit einem abgeschlossenen Teilraum von
Z überein. Im entarteten Fall, in dem Im L ein echter Teilraum von Z ist, gilt

Im H00 ξ0 (·) × Im H10 ξ0 (·) ⊂ Rs0 × Rs1 .


 

Daher gibt es Vektoren l0 ∈ Rs0 , l1 ∈ Rs1 mit (l0 , l1 ) 6= 0 und

0 = l0T v0 + l1T v1 für alle v0 ∈ Im H00 , v1 ∈ Im H10 .

Setzen wir λ0 = 0 und y ∗ = 0, dann gelten die Bedingungen des Extremalprinzips 2.13.
Der Übersichtlichkeit halber ist der Beweis für den regulären Fall in fünf Schritte gegliedert.
1. Schritt (Die Menge C der Variationen). Wir betrachten die Menge C derjenigen

η0 , y(·), µ0 , µ1 ∈ R × C([t0 , t1 ], Rn ) × Rs0 × Rs1 ,




zu denen es ein ξ(·) ∈ C([t0 , t1 ], Rn ) und ein u(·) ∈ L∞ ([t0 , t1 ], U ) gibt mit

η0 > J˜ξ ξ0 (·), u∗ (·) ξ(·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·) ,


  
  
y(·) = Fξ ξ0 (·), u∗ (·) ξ(·) + F ξ0 (·), u(·) − F ξ0 (·), u∗ (·) ,
µi = Hi0 ξ0 (·) ξ(·),

i = 0, 1.

Es ist J˜ξ ξ0 (·), u∗ (·) linear und stetig. Daher gibt eine Zahl a > 0 mit



a > sup Jξ ξ0 (·), u∗ (·) ξ(·).
kξ(·)k<1

Wir setzen Ra = {α ∈ R | α > a}. Da der Operator L = (Fξ , H00 , H10 ) linear und stetig ist,
ferner das Bild Im L mit Z übereinstimmt, ist L nach dem Satz von der offenen Abbildung
offen. Also bildet L die offene Einheitskugel des Raumes C([t0 , t1 ], Rn ) auf eine offene
Menge U0 ab. Daher gilt Ra × U0 ⊆ conv C , und conv C besitzt ein nichtleeres Inneres.
76 Starkes lokales Minimum

Zum Nachweis des Extremalprinzips (Theorem 2.13) genügt es 0 6∈ conv C zu zeigen. Dann
erhalten wir aus dem Satz von Hahn-Banach die Existenz eines nichttrivialen Funktionals

(λ0 , y ∗ , l0 , l1 ) ∈ R × C ∗ ([t0 , t1 ], Rn ) × Rs0 × Rs1 ,

das die Menge conv C vom Urpsrung trennt. Dies bedeutet, dass

0 ≤ λ0 η0 + hy ∗ , y(·)i + hl0 , µ0 i + hl1 , µ1 i

für alle η0 , y(·), µ0 , µ1 ∈ C ⊆ conv C gilt. Diese Ungleichung liefert λ0 ≥ 0 und, dass


0 ≤ λ0 J˜ξ ξ0 (·), u∗ (·) ξ(·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·)


   

+ y ∗ , Fξ ξ0 (·), u∗ (·) ξ(·) + F ξ0 (·), u(·) − F ξ0 (·), u∗ (·)



  

+ l0 , H00 ξ0 (·) ξ(·) + l1 , H10 ξ0 (·) ξ(·)






für alle ξ(·), u(·) ∈ C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ) erfüllt ist. Betrachten wir diese Un-


gleichung nacheinander für ξ(·) = ξ0 (·) bzw. u(·) = u∗ (·), so folgen (2.47) und (2.48).
Angenommen, es ist 0 ∈ conv C . Dann existieren nach dem Begriff einer konvexen Hülle
Xd
positive Zahlen αi , αi = 1, gewisse ξ i (·) ∈ C([t0 , t1 ], Rn ), ui (·) ∈ L∞ ([t0 , t1 ], U ),
i=1
i = 1, ..., d, mit
d h
X i
˜ αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) ,
 
0 > Jξ ξ0 (·), u∗ (·) ξ(·) +
i=1
d h
 X  i
0 = Fξ ξ0 (·), u∗ (·) ξ(·) + αi F ξ0 (·), ui (·) − F ξ0 (·), u∗ (·) ,
i=1
d
X
H00 H10
 
0 = ξ0 (·) ξ(·), 0 = ξ0 (·) ξ(·), ξ(·) = αi ξ i (·).
i=1

2. Schritt (Definition und Eigenschaften der Abbildungen Φ̃ und Λ̃). Für jede Zahl a ∈ R
setzen wir a+ = max{a, 0}, a− = min{a, 0} und für jeden Vektor α = (α1 , ..., αd ) ∈ Rd

d
X
α+ = (α1+ , ..., αd+ ), α− = (α1− , ..., αd− ), |α| = |αi |.
i=1

Ferner betrachten wir die mehrfache Nadelvariation uα (·) ∈ L∞ ([t0 , t1 ], U ),

d
X 
uα (t) = u∗ (t) + χMi (αi ) (t) · ui (t) − u∗ (t) , t ∈ [t0 , t1 ],
i=1
Pontrjaginsches Maximumprinzip 77

in Richtung der Steuerungen u1 (·), ..., ud (·) ∈ L∞ ([t0 , t1 ], U ), mit denen die konvexe Kom-
bination gebildet wird. Im Weiteren untersuchen wir die Abbildungen
d 
 X 
αi− F ξ0 (·), ui (·) − F ξ0 (·), u∗ (·) ,
 
Φ ξ(·), α = F ξ(·), uα+ (·) +
i=1
   
Φ0 ξ(·), α = H0 ξ(·) , Φ1 ξ(·), α = H1 ξ(·) ,

und die stetigen linearen Operatoren


d 
  X  
Λ ξ(·), α = Fξ ξ0 (·), u∗ (·) ξ(·) + αi F ξ0 (·), ui (·) − F ξ0 (·), u∗ (·) ,
i=1
H00 Λ1 ξ(·), α = H10 ξ0 (·) ξ(·),
   
Λ0 ξ(·), α = ξ0 (·) ξ(·),

die wir in den Abbildungen Φ̃ und Λ̃ zusammenfassen:


   
Φ̃ ξ(·), α = (Φ, Φ0 , Φ1 ) ξ(·), α , Λ̃ ξ(·), α = (Λ, Λ0 , Λ1 ) ξ(·), α .

Es sei ∆ ∈ (0, 1/d]. Wir definieren die Menge Σ̃(∆) gemäß

d +
 X 
d
Σ̃(∆) = α = (α1 , ..., αd ) ∈ R αi ≤ ∆ .
i=1

Dann gilt für alle ξ(·), α und ξ 0 (·), α aus C([t0 , t1 ], Rn ) × Σ̃(∆):
0
 

Φ ξ(·), α − Φ ξ 0 (·), α0 − Λ ξ(·), α + Λ ξ 0 (·), α0


   

0 0
   
= F ξ(·), uα + (·) − F ξ (·), u 0 + (·) − Fξ ξ0 (·), u∗ (·) ξ(·) − ξ (·)
α

d 
X +  
(αi+ αi0 )

− − F ξ0 (·), ui (·) − F ξ0 (·), u∗ (·)
i=1 ∞
Z t
ϕ τ, x∗ (τ ) + ξ(τ ), uα+ (τ ) − ϕ τ, x∗ (τ ) + ξ 0 (τ ), uα0 + (τ )
 
= max
t∈[t0 ,t1 ]
t0
−ϕx τ, x∗ (τ ), u∗ (τ ) ξ(τ ) − ξ 0 (τ )
 

d  
X
+ 0+
 
− (αi − αi ) · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ
.
i=1

Für alle α ∈ Σ̃(∆) gehört α+ dem Simplex Σ(∆) aus Abschnitt 2.3.3 an. Mit Blick auf
2.37 können wir nach Lemma 2.5 eine Umgebung V von ξ0 (·) und ein ∆ ∈ (0, 1/d] derart
wählen, dass dieser Ausdruck kleiner oder gleich
 Xd 
0 0

δ kξ(·) − ξ (·) ∞ +
|αi − αi |
i=1
78 Starkes lokales Minimum

für alle ξ(·), ξ 0 (·) ∈ V und alle α, α0 ∈ Σ̃(∆) ist.


Ferner kann diese Umgebung V von ξ0 (·) so gewählt werden, dass ebenfalls
Hi ξ(·) − Hi ξ 0 (·) − Hi0 ξ0 (·) ξ(·) − ξ 0 (·) ≤ δ ξ(·) − ξ 0 (·) , i = 0, 1,
   

für alle ξ(·), ξ 0 (·) ∈ V gilt. Daraus folgt, dass eine Umgebung V ⊆ C([t0 , t1 ], Rn ) von ξ0 (·)
und eine Nullumgebung Σ̃(∆) ⊆ Rd existieren mit
Φ̃ ξ(·), α − Φ̃ ξ 0 (·), α0 − Λ̃ ξ(·), α + Λ̃ ξ 0 (·), α0
   

d
!
X
≤ δ ξ(·) − ξ 0 (·) ∞ + |αi − αi0 | .

(2.49)
i=1

3. Schritt (Die Existenz zulässiger Richtungen). Wir prüfen die Voraussetzungen des ver-
allgemeinerten Satzes von Ljusternik (Theorem B.16): Für ξ(·), α ∈ C([t0 , t1 ], Rn ) × Rd


und y(·), l0 , l1 ∈ C([t0 , t1 ], Rn ) × Rs0 × Rs1 sei


    
inf kξ(·)k∞ + |α| Λ̃ ξ(·), α = y(·), l0 , l1
C(Λ̃) = sup .
(y(·),l0 ,l1 )6=0 k(y(·), l0 , l1 )k

Aus der Definition des Operators Λ̃ folgt Im Λ̃ = C([t0 , t1 ], Rn ) × Rs0 × Rs1 . Außerdem ist
der Operator Λ̃ linear und stetig. Gemäß Lemma B.15 gilt deshalb C(Λ̃) < ∞.
Wir wählen δ > 0 mit der Eigenschaft δ · C(Λ̃) < 1/2, dann genügen die Abbildung Φ̃ und
der Operator Λ̃ den Voraussetzungen des verallgemeinerten Satzes von Ljusternik.
Auf den Punkt ξ0 (·), 0 ∈ C([t0 , t1 ], Rn ) × Rd wenden wir den Satz von Ljusternik an.


Daher gibt es für δ · C(Λ̃) < 1/2 positive Zahlen ε0 , K und eine Abbildung ε → rε (·), αε


des Intervalls [0, ε0 ] in C([t0 , t1 ], Rn ) × Rd derart, dass

Φ̃ ξ0 (·) + εξ(·) + rε (·), εα + αε = Φ̃ ξ0 (·), 0 = 0


 

für alle ε ∈ [0, ε0 ] und


d
X
ε
|αiε | ≤ K Φ̃ ξ0 (·) + εξ(·), εα − Φ̃ ξ0 (·), 0
 
kr (·)k∞ +
i=1
 
gelten. Da Φ̃ ξ0 (·), 0 = 0 und nach Annahme im ersten Beweisschritt Λ̃ ξ(·), α = 0 sind,
folgt mit (2.49) aus dieser Ungleichung die Beziehung
d
X
krε (·)k∞ + |αiε | ≤ K Φ̃ ξ0 (·) + εξ(·), εα − Φ̃ ξ0 (·), 0
 

i=1
 
−Λ̃ ξ0 (·) + εξ(·), εα + Λ̃ ξ0 (·), 0
d
!
X 
≤ εKδ kξ(·)k∞ + αi = εKδ kξ(·)k∞ + |α| . (2.50)
i=1
Pontrjaginsches Maximumprinzip 79

Hieraus ergibt sich rε (·) → 0 und αε → 0 für ε → 0.


Die Zahl δ > 0 sei so gewählt, dass neben δ · C̃(Λ) < 1/2 noch

Kδ kξ(·)k∞ + |α| ≤ min{α1 , ..., αd } (2.51)

erfüllt ist. Dann sind εαi + αiε ≥ 0 nach (2.50), (2.51), und es gilt für alle ε ∈ [0, ε0 ]

0 = Φ̃ ξ0 (·) + εξ(·) + rε (·), εα + αε .




Im Weiteren seien

ξ ε (·) = ξ0 (·) + εξ(·) + rε (·), uε (·) = uεα+αε (·).

4. Schritt (Eigenschaft der zulässigen Richtungen). Nach Annahme im ersten Schritt gibt
es eine Zahl c > 0 mit
d h
X i
− 4c ≥ J˜ξ ξ0 (·), u∗ (·) ξ(·) + αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) .
 
(2.52)
i=1

Da im Punkt ξ0 (·) die Funktion ξ(·) → J˜ ξ(·), u∗ (·) Fréchet-differenzierbar ist, lässt sich


eine Zahl σ > 0 derart angeben, dass für 0 ≤ ε ≤ σ und kξ(·)−ξ(·)k∞ ≤ σ die Ungleichung

J˜ ξ0 (·) + εξ(·), u∗ (·) ≤ J˜ ξ0 (·), u∗ (·) + ε J˜ξ ξ0 (·), u∗ (·) ξ(·) + c


    
(2.53)

gilt. Wir nehmen an, δ > 0 sei so gewählt, dass neben δ · C̃(Λ) < 1/2 und (2.51) noch
folgende Bedingungen erfüllt sind:

(δ + Kδ 2 ) kξ(·)k∞ + |α| ≤ c,
 
Kδ kξ(·)k∞ + |α| ≤ σ, (2.54)
Kδ kξ(·)k∞ + |α| · max J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) ≤ c.
  
(2.55)
1≤i≤d

Aus (2.38) ergibt sich für 0 ≤ ε ≤ min{ε0 , σ}

d
 X
J˜ ξ ε (·), uεα+αε (·) ˜ ε
(εαi + αiε ) J˜ ξ ε (·), ui (·) − J˜ ξ ε (·), u∗ (·)
   
≤ J ξ (·), u∗ (·) +
i=1
d
X
εαi + αiε .


i=1

Wir schätzen die einzelnen Summanden ab: Wegen (2.50) und (2.54) hat man

d
krε (·)k∞ 1X ε
≤ σ, |αi | ≤ σ.
ε ε
i=1
80 Starkes lokales Minimum

Daher ist nach (2.53) für den ersten Summanden für 0 ≤ ε ≤ min{ε0 , σ} die Ungleichung
J˜ ξ ε (·), u∗ (·) ≤ J˜ ξ0 (·), u∗ (·) + ε J˜ξ ξ0 (·), u∗ (·) ξ(·) + c
    
(2.56)
erfüllt. Wir betrachten den zweiten Summanden. Dieser ist gleich
d
X
(εαi + αiε ) J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·)
  

i=1
d
X
(εαi + αiε ) J˜ ξ ε (·), ui (·) − J˜ ξ0 (·), ui (·) − J˜ ξ ε (·), u∗ (·) + J˜ ξ0 (·), u∗ (·) .
    
+
i=1

Wegen (2.50) und (2.55) gilt


d
X
αiε J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·)
  

i=1
≤ εKδ kξ(·)k∞ + |α| · max |J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) | ≤ εc.
  
1≤i≤d

Beachten wir ξ ε (·) → ξ0 (·) für ε → 0 und ferner, dass die Abbildung ξ(·) → J˜ ξ(·), u(·)


für jedes u(·) ∈ L∞ ([t0 , t1 ], U ) im Punkt ξ0 (·) Fréchet-differenzierbar ist, d. h.


J˜ ξ ε (·), u(·) − J˜ ξ0 (·), u(·) = εJ˜ξ ξ0 (·), u(·) ξ(·) + o(ε),
  

so erhalten wir für 0 ≤ ε ≤ min{ε0 , σ}


d
X
(εαi + αiε ) J˜ ξ ε (·), ui (·) − J˜ ξ0 (·), ui (·) − J˜ ξ ε (·), u∗ (·) + J˜ ξ0 (·), u∗ (·)
    

i=1
d h 
X  i
ε J˜ξ ξ0 (·), ui (·) ξ(·) + J˜ξ ξ0 (·), u∗ (·) ξ(·) + o(ε) = o(ε).
 
≤ ε(|α| + σ)
i=1

Daher gilt für den zweiten Summanden die Beziehung


d
X
(εαi + αiε ) J˜ ξ ε (·), ui (·) − J˜ ξ ε (·), u∗ (·)
  

i=1
d
X
αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) + εc + o(ε).
  
≤ ε (2.57)
i=1

Schließlich gilt gemäß (2.50) und (2.54)


d d d
! !
X 1X ε 1X ε
αiε

δ εαi + ≤ εδ |α| + |αi | ≤ εδ kξ(·)k∞ + |α| + |αi |
ε ε
i=1 i=1 i=1
 
≤ εδ kξ(·)k∞ + |α| + Kδ kξ(·)k∞ + |α|
≤ ε(δ + Kδ 2 ) kξ(·)k∞ + |α| ≤ εc.

(2.58)
Pontrjaginsches Maximumprinzip 81

Aus (2.56)–(2.58) folgt für alle 0 ≤ ε ≤ min{ε0 , σ} die Ungleichung


J˜ ξ ε (·), uε (·) ≤ J˜ ξ0 (·), u∗ (·) + εJ˜ξ ξ0 (·), u∗ (·) ξ(·)
  

d
X
αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) + 3εc + o(ε).
  

i=1

Mit (2.52) erhalten wir für alle 0 ≤ ε ≤ min{ε0 , σ}:


J˜ ξ ε (·), uε (·) ≤ J˜ ξ0 (·), u∗ (·) − εc + o(ε).
 

5. Schritt (0 6∈ conv C ). Nach dem dritten Beweisschritt sind für hinreichend kleine ε > 0
die Punkte
ξ ε (·), uε (·) = ξ0 (·) + εξ(·) + rε (·), uεα+αε (·)
 

zulässig in der Extremalaufgabe. Dies bedeutet nach Definition des Operators F , dass die
Steuerungsprozesse
xε (·), uε (·) = x∗ (·) + εξ(·) + rε (·), uεα+αε (·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U )
 

zulässig in dem Steuerungsproblem (2.39)–(2.42) sind. Außerdem zeigten wir im vierten


Schritt, dass für hinreichend kleine ε > 0 die Relation
J xε (·), uε (·) ≤ J x∗ (·), u∗ (·) − εc + o(ε)
 

gilt. Wegen xε (·) → x∗ (·) für ε → 0 bedeutet dies, dass der Steuerungsprozess x∗ (·), u∗ (·)


im Widerspruch zur Voraussetzung des Extremalprinzips kein schwaches lokales Minimum


der Aufgabe (2.39)–(2.42) sein könnte. 

2.4.4. Beweisschluss
Die Lagrange-Funktion L zur Extremalaufgabe (2.46) lautete
L = λ0 J ξ(·), u(·) + y ∗ , F ξ(·), u(·) + l0T H0 ξ(·) + l1T H1 ξ(·) .

  

Dabei ist y ∗ ∈ C ∗ ([t0 , t1 ], Rn ). Dann liefert die Variationsgleichung (2.47) des Extremal-
prinzips für alle ξ(·) ∈ C([t0 , t1 ], Rn ):
Z t1
λ0 fx t, x∗ (t), u∗ (t) , ξ(t) dt + l0 , h00 x∗ (t0 ) ξ(t0 ) + l1 , h01 x∗ (t1 ) ξ(t1 )




0 =
t0
Z t1  Z t T

+ ξ(t) − ξ(t0 ) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds dµ(t). (2.59)
t0 t0
 
Wir setzen der Kürze halber a(t) = fx t, x∗ (t), u∗ (t) und A(t) = ϕx t, x∗ (t), u∗ (t) . Durch
vertauschen der Integrationsreihenfolge,
Z t1  Z t T Z t1  Z t1 T
T
A(s)ξ(s) ds dµ(t) = A (t) dµ(s) ξ(t) dt,
t0 t0 t0 t
82 Starkes lokales Minimum

bringen wir (2.59) in die Gestalt


Z t1 Z t1 Z t1
T
[ξ(t)]T dµ(t)


0 = λ0 a(t) − A (t) dµ(s), ξ(t) dt +
t0 t t0
D Z t1 E
0T T
dµ(t), ξ(t0 ) + hh01 x∗ (t1 ) l1 , ξ(t1 )i.
 
+ h0 x∗ (t0 ) l0 − (2.60)
t0
Z t1
Setzen wir p(t) = dµ(s) in (2.60), so folgen wegen der eindeutigen Darstellung eines
t
stetigen linearen Funktionals im Raum C([t0 , t1 ], Rn )
Z t1 
T 
p(t) = −h01 x∗ (t1 ) l1 + ϕTx s, x∗ (s), u∗ (s) p(s) − λ0 fx s, x∗ (s), u∗ (s) ds,
 
t
0T

p(t0 ) = h0 x∗ (t0 ) l0 .

Damit sind die Bedingungen (2.43) und (2.44) in Theorem 2.7 gezeigt.
Die Beziehung (2.48) ist mit der folgenden äquivalent:
Z t1 Z t1 Z t T
 
λ0 f t, x∗ (t), u∗ (t) dt − ϕ s, x∗ (s), u∗ (s) ds dµ(t)
t0 t0 t0
(Z T )
t1 
Z t1 Z t 
= min λ0 f t, x∗ (t), u(t) dt − ϕ s, x∗ (s), u(s) ds dµ(t) .
u(·)∈L∞ ([t0 ,t1 ],U ) t0 t0 t0

Es gilt aber
Z t1  Z t T Z t1  Z t1 
  T
ϕ s, x∗ (s), u(s) ds dµ(t) = ϕ t, x∗ (t), u(t) dµ(s) dt
t0 t0 t0 t
Zt1

= p(t), ϕ t, x∗ (t), u(t) dt.
t0

Aus diesen beiden Beziehungen folgt


Z t1 h

 i
λ0 f t, x∗ (t), u∗ (t) − p(t), ϕ t, x∗ (t), u∗ (t) dt
t0
Z t1 h 
 i
= min λ0 f t, x∗ (t), u(t) − p(t), ϕ t, x∗ (t), u(t) dt. (2.61)
u(·)∈L∞ ([t0 ,t1 ],U ) t0

Da in (2.61) für alle u ∈ U fast jedes t ∈ [t0 , t1 ] ein Lebesguescher Punkt der Abbildungen
 
t → H t, x∗ (t), u∗ (t), p(t), λ0 , t → H t, x∗ (t), u, p(t), λ0 ,

ist, folgt für fast jedes t ∈ [t0 , t1 ] die Maximumbedingung (2.45). Damit ist der Beweis von
Theorem 2.7 abgeschlossen. 
Pontrjaginsches Maximumprinzip 83

2.4.5. Hinreichende Bedingungen nach Arrow


Unser Vorgehen zur Herleitung der hinreichenden Bedingungen basiert auf der Darstellung
in Seierstad & Sydsæter [61], die wir um Ausführungen in Aseev & Kryazhimskii [3] ergänzt
haben. Wir betrachten das Steuerungsproblem
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (2.62)
t0

ẋ(t) = ϕ t, x(t), u(t) , (2.63)
x(t0 ) = x0 , x(t1 ) = x1 , (2.64)
m
u(t) ∈ U ⊆ R , U 6= ∅, U konvex. (2.65)

In der Aufgabenstellung schließen wir wieder den Fall nicht aus, dass durch die Rand-
bedingungen (2.64) gewisse Komponenten der Punkte x0 und x1 nicht fest vorgegeben,
sondern ohne Einschränkung sind.
Wir definieren die Mengen Vγ und Vγ (t):

Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x∗ (t)k ≤ γ}, Vγ (t) = {x ∈ Rn | kx − x∗ (t)k ≤ γ}.

Außerdem bezeichnet
H (t, x, p) = sup H(t, x, u, p, 1) (2.66)
u∈U

die Hamilton-Funktion H im normalen Fall.

Theorem 2.14. In der Aufgabe (2.62)–(2.65) sei x∗ (·), u∗ (·) ∈ BLip ∩ Badm und es sei


p(·) ∈ W21 ([t0 , t1 ], Rn ). Ferner gelte:



(a) Das Tripel x∗ (·), u∗ (·), p(·) erfüllt (2.43)–(2.45) in Theorem 2.7 mit λ0 = 1.

(b) Für jedes t ∈ [t0 , t1 ] ist die Funktion H t, x, p(t) konkav in x auf Vγ (t).



Dann ist x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (2.62)–(2.65).

Beweis Es sei t ∈ [t0 , t1 ] gegeben. Da die Abbildung x → H t, x, p(t) auf Vγ (t) konkav


ist, ist die Menge

Z = (α, x) ∈ R × Rn x ∈ Vγ (t), α ≤ H t, x, p(t)


 

konvex und besitzt ein nichtleeres Inneres. Ferner ist α∗ , x∗ (t) mit α∗ = H t, x∗ (t), p(t)
 

ein Randpunkt der Menge Z. Daher existiert ein nichttrivialer Vektor a0 (t), a(t) ∈ R×Rn
mit
a0 (t)α + ha(t), xi ≤ a0 (t)α∗ + ha(t), x∗ (t)i für alle (α, x) ∈ Z. (2.67)
Es ist x∗ (t) ein innerer Punkt der Menge Vγ (t). Weiterhin ist x → H t,x, p(t) in Vγ (t)


stetig, da sie auf Vγ (t) konkav und nach unten durch H t, x, u∗ (t), p(t), 1 beschränkt ist.
84 Starkes lokales Minimum


Deswegen existiert ein δ > 0 mit x∗ (t) + ξ ∈ Vγ (t) und α∗ − 1, x∗ (t) + ξ ∈ Z für alle
kξk ≤ δ. Aus (2.67) folgt daher ha(t), ξi − a0 (t) ≤ 0 für alle kξk ≤ δ. Dies zeigt a0 (t) > 0
und wir können o. B. d. A. a0 (t) = 1 annehmen. Wiederum (2.67) liefert damit

ha(t), x − x∗ (t)i ≤ H t, x∗ (t), p(t) − H t, x, p(t)


 
für alle x ∈ Vγ (t). (2.68)

Es sei nun t ∈ [t0 , t1 ] so gewählt, dass die Maximumbedingung (2.45) zu diesem Zeitpunkt
erfüllt ist. Dann folgt aus (2.68), dass

−ha(t), x − x∗ (t)i ≥ H t, x, p(t) − H t, x∗ (t), p(t)


 

= sup H t, x, u, p(t), 1 − H t, x∗ (t), p(t)


 
u∈U

 
≥ p(t), ϕ t, x, u∗ (t) − f t, x, u∗ (t)

 
− p(t), ϕ t, x∗ (t), u∗ (t) − f t, x∗ (t), u∗ (t)

für alle x ∈ Vγ (t) gilt. Wir setzen



 
Φ(x) = p(t), ϕ t, x, u∗ (t) − ϕ t, x∗ (t), u∗ (t)
  
− f t, x, u∗ (t) − f t, x∗ (t), u∗ (t) + ha(t), x − x∗ (t)i.

Die Funktion Φ(x) ist stetig differenzierbar auf Vγ (t). Ferner gilt Φ(x) ≤ 0 für alle x ∈ Vγ (t)
und Φ(x∗ (t)) = 0. Damit nimmt die Funktion Φ in dem inneren Punkt x∗ (t) der Menge
Vγ (t) ihr absolutes Maximum an. Also gilt

0 = Φ0 (x∗ (t)) = ϕTx t, x∗ (t), u∗ (t) p(t) − fx t, x∗ (t), u∗ (t) + a(t)


 

bzw.
a(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + fx t, x∗ (t), u∗ (t) .
 
(2.69)
Die Gleichung (2.69) wurde unter der Annahme erzielt, dass die Maximumbedingung (2.45)
in dem Zeitpunkt t ∈ [t0 , t1 ] erfüllt ist. Da (2.45) für fast alle t ∈ [t0 , t1 ] gilt, stimmt a(t)
mit der verallgemeinerten Ableitung ṗ(t) überein. Also gilt auf Vγ für fast alle t ∈ [t0 , t1 ]
die Ungleichung

hṗ(t), x − x∗ (t)i ≤ H t, x∗ (t), p(t) − H t, x, p(t) .


 
(2.70)

Sei x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ γ. Dann erhalten wir


Z t1
  
∆ = f t, x(t), u(t) − f t, x∗ (t), u∗ (t) dt
t0
Z t1 Z t1
H t, x∗ (t), p(t) − H t, x(t), p(t) dt +
  
≥ hp(t), ẋ(t) − ẋ∗ (t)idt
t0 t0
Z t1
≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)idt
t0
= hp(t1 ), x(t1 ) − x∗ (t1 )i − hp(t0 ), x(t0 ) − x∗ (t0 )i.
Pontrjaginsches Maximumprinzip 85

Im Fall fester Anfangs- und Endbedingungen verschwinden die Differenzen x(ti ) − x∗ (ti ).
Sind jedoch gewissen Komponenten im Anfangs- oder Endpunkt x0 bzw. x1 frei, dann
liefern die Transversalitätsbedingungen, dass die entsprechenden Komponenten der Ad-
jungierten p(·) zum Zeitpunkt  t0 bzw. t1 verschwinden. Daher folgt die Beziehung ∆ ≥ 0
für alle zulässigen x(·), u(·) mit kx(·) − x∗ (·)k∞ ≤ γ. 
Beispiel 2.15. Wir betrachten nach Seierstad & Sydsæter [61] ein Zwei-Sektoren-Modell,
das aus der Produktion von Investitons- und Konsumgüter besteht. Wir bezeichnen mit
x1 (t) bzw. x2 (t) die Rate der Güterproduktion im Investitions- bzw. Konsumsektor und
es beschreibe u(t) ∈ [0, 1] die Aufteilung der Investitionsgüter auf beide Sektoren zur
Produktion. Es entsteht damit die Aufgabe
Z T

J x1 (·), x2 (·), u(·) = x2 (t) dt → sup,
0
ẋ1 (t) = u(t)x1 (t), x1 (0) = x01 > 0, x1 (T ) frei,
ẋ2 (t) = 1 − u(t) x1 (t), x2 (0) = x02 > 0, x2 (T ) frei,


u ∈ [0, 1], T > 2.

Wir wenden Theorem 2.7 an. Da eine Aufgabe mit freiem rechten Endpunkt vorliegt, darf
λ0 = 1 gewählt werden. Die Pontrjagin-Funktion besitzt mit λ0 = 1 die Gestalt

H(t, x1 , x2 , p1 , p2 , 1) = ux1 p1 + (1 − u)x1 p2 + x2 .

Für die Adjungierten p1 (·), p2 (·) ergeben sich die Gleichungen



ṗ1 (t) = −u∗ (t)p1 (t) − 1 − u∗ (t) p2 (t), ṗ2 (t) = −1

zu den Transversalitätsbedingungen p1 (T ) = 0, p2 (T ) = 0. Die Maximumbedingung liefert


(
1, p1 (t) > p2 (t),
u∗ (t) =
0, p1 (t) < p2 (t).

Damit erhalten wir als den optimalen Kandidaten die Steuerung


(
1, t ∈ [0, T − 2),
u∗ (t) =
0, t ∈ [T − 2, T ],

und die Zustandstrajektorien


(
x01 et , t ∈ [0, T − 2),
x∗1 (t) =
x01 eT −2 , t ∈ [T − 2, T ],
(
x02 , t ∈ [0, T − 2),
x∗2 (t) =
x02 + (t − T + 2)x01 eT −2 , t ∈ [T − 2, T ].
86 Starkes lokales Minimum

Weiterhin lauten die zugehörigen adjungierten Funktionen


(
2e−(t−T +2) , t ∈ [0, T − 2),
p1 (t) = 1 2
p2 (t) = T − t.
2 (T − t) , t ∈ [T − 2, T ],

Die Pontrjagin-Funktion ist nicht konkav bezüglich (x1 , x2 , u) und die hinreichende Be-
dingungen nach Mangasarian sind nicht anwendbar. Beachten wir, dass für alle zulässigen
Trajektorien die Bedingung x1 (t) ≥ x01 > 0 gilt, dann erhalten wir für die Hamilton-
Funktion 
x1 p1 + x2 , p1 > p2 ,
H (t, x, p) = sup H(t, x, u, p, 1) =
u∈U x1 p2 + x2 , p1 ≤ p2 .
Für jedes t ∈ [0, T ] ist H linear in (x1 , x2 ), also eine konkave Funktion in (x1 , x2 ). Da der
∗ ∗

Kandidat x1 (·), x2 (·), u∗ (·) alle Bedingungen des Maximumprinzips erfüllt, ist er eine
starke lokale Minimalstelle. 

2.5. Aufgaben mit Zustandsbeschränkungen


2.5.1. Die Aufgabenstellung und das Maximumprinzip
Die allgemeine Beweisstrategie, die wir für die Standardaufgabe (2.39)–(2.42) vorgestellt
haben, erweitern wir auf folgende Aufgabe mit Zustandsbeschränkungen:
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (2.71)
t0

ẋ(t) = ϕ t, x(t), u(t) , (2.72)
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0, (2.73)
u(t) ∈ U ⊆ Rm , U 6= ∅, (2.74)

gj t, x(t) ≤ 0 für alle t ∈ [t0 , t1 ], j = 1, ..., l. (2.75)
Die Abbildungen f (t, x, u), ϕ(t, x, u), hi (x), i = 0, 1, sind entsprechend Abschnitt 2.4 er-
klärt. Außerdem sind gj (t, x) : [t0 , t1 ] × Rn → R, j = 1, ..., l. Die Aufgabe (2.71)–(2.75)
mit Zustandsbeschränkungen betrachten wir bezüglich der Paare
x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ).


Zu x(·) bezeichne Vγ die Menge Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x(t)k ≤ γ}. Dann gehören
zur Menge BLip die x(·) ∈ W21 ([t0 , t1 ], Rn ), für die es eine Zahl γ > 0 derart gibt, dass
(B) die Abbildungen f (t, x, u), ϕ(t, x, u), hi (x), gj (t, x) auf Vγ × U stetig in der Gesamt-
heit der Variablen und stetig differenzierbar bezüglich x sind.
Das Paar x(·), u(·) ∈ W21 ([t0 , t1 ], Rn )×L∞ ([t0 , t1], U ) heißt ein zulässiger Steuerungspro-


zess in der Aufgabe (2.71)–(2.75), falls x(·), u(·) dem System (2.72) genügt, die Rand-
bedingungen (2.73) und die Zustandsbeschränkungen (2.75) erfüllt. Die Menge Badm be-
zeichnet die Menge der zulässigen Steuerungsprozesse.
Aufgaben mit Zustandsbeschränkungen 87


Ein zulässiger Steuerungsprozess x∗ (·), u∗ (·) ist eine starke lokale Minimalstelle der Auf-
gabe (2.71)–(2.75), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ ε gilt.




Für die Aufgabe (2.71)–(2.75) bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-


Funktion, die wir wie folgt definieren:

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 f (t, x, u).

(Pontrjaginsches Maximumprinzip). Sei x∗ (·), u∗ (·) ∈ Badm ∩ BLip . Ist



Theorem 2.16 
x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (2.71)–(2.75), dann existieren eine
Zahl λ0 ≥ 0, eine Vektorfunktion p(·) : [t0 , t1 ] → Rn und auf den Mengen
 
Tj = t ∈ [t0 , t1 ] gj t, x∗ (t) = 0 , j = 1, ..., l,

konzentrierte nichtnegative reguläre Borelsche Maße µj endlicher Totalvariation (wobei


sämtliche Größen nicht gleichzeitig verschwinden) derart, dass
(a) die Vektorfunktion p(·) von beschränkter Variation ist, der adjungierten Gleichung
Z t1
0T
 
p(t) = −h1 x∗ (t1 ) l1 + Hx s, x∗ (s), u∗ (s), p(s), λ0 ds
t
l Z t1
X 
− gjx s, x∗ (s) dµj (s) (2.76)
j=1 t

genügt und die Transversalitätsbedingungen


T T
p(t0 ) = h00 x∗ (t0 ) l0 , p(t1 ) = −h01 x∗ (t1 ) l1
 
(2.77)

erfüllt;
(b) für fast alle t ∈ [t0 , t1 ] die Maximumbedingung
 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 (2.78)
u∈U

gilt.
Als eine Funktion beschränkter Variation existieren für jedes t ∈ (t0 , t1 ) die einseitigen
Grenzwerte der Adjungierten p(·). Im Gegensatz zu Ioffe & Tichomirov [38] legen wir uns
dabei nicht auf die linksseitige Stetigkeit fest. Als Konsequenz ergeben sich daraus für die
Adjungierte p(·) statt der “äußeren” Bedingung in [38]
l
T
X
p(t+ −h01
 
1) = x∗ (t1 ) l1 + gjx t1 , x∗ (t1 ) dµj ({t1 })
j=1
88 Starkes lokales Minimum

die Transversalitätsbedingungen (2.77) und die “innere” Sprungbedingung

l
X
p(t−

1) − p(t1 ) = − gjx t1 , x∗ (t1 ) µj ({t1 }). (2.79)
j=1

Als anschauliches Beispiel zur Sprungbedingung (2.79) betrachten wir nach Seierstad &
Sydsæter [61] das folgende Lagerhaltungsmodell:

Beispiel 2.17. Ein Geschäft möchte die Nachfrage a des Produktes x gegenüber seinen
Kunden gewährleisten. Es entstehen dadurch zum Zeitpunkt t die Einkaufs- und Lager-
haltungskosten αu(t) bzw. βx(t). Daraus ergibt sich das folgende Modell:


Z T 
J x(·), u(·) = αu(t) + βx(t) dt → inf,
0
ẋ(t) = u(t) − a, x(0) = 1, x(T ) frei, x(t) ≥ 0, u(t) ≥ 0, T > 1/a.

Der Fall λ0 = 0 kann ausgeschlossen werden und wir nehmen λ0 = 1 an. Damit lautet die
Pontrjagin-Funktion

H(t, x, u, p, 1) = p(u − a) − (αu + βx) = (p − α)u − (pa + βx).

In diesem Modell können wir als optimalen Kandidaten den Steuerungsprozess


( (
0, t ∈ [0, 1/a), 1 − at, t ∈ [0, 1/a),
u∗ (t) = x∗ (t) =
a, t ∈ [1/a, T ], 0, t ∈ [1/a, T ],

ableiten. Für t ∈ [0, 1/a) sind die Zustandsbeschränkungen nicht aktiv und es gilt

ṗ(t) = β, p(t) = p(0) + βt.

Für t ∈ [1/a, T ] ist u∗ (t) = a ein innerer Punkt des Steuerungsbereiches U = R+ . Also
folgt aus der Maximumbedingung, dass p(t) = α gelten muss. Damit erhalten wir
(
α + β(t − 1/a), t ∈ [0, 1/a),
p(t) =
α, t ∈ [1/a, T ).

Abschließend ergibt sich zum Zeitpunkt t = T die Sprungbedingung (2.79)

p(T − ) − p(T ) = α = µ({T }) > 0

bezüglich der Zustandsbeschränkung −x(t) ≤ 0. 


Aufgaben mit Zustandsbeschränkungen 89

2.5.2. Definition und Eigenschaften der Extremalaufgabe


Wie im Abschnitt 2.4.2 seien x∗ (·) ∈ BLip ∩ C([t0 , t1 ], Rn ) und ξ0 (·) ∈ C([t0 , t1 ], Rn ) die
Funktion ξ0 (t) ≡ 0. Weiterhin ergänzen wir die Extremalaufgabe (2.46) um die Unglei-
chungen 
Gj ξ(·) ≤ 0, j = 1, ..., l,
wobei die Abbildungen Gj wie folgt erklärt sind:
Gj : C([t0 , t1 ], Rn ) → R.
 
Gj ξ(·) = max gj t, x∗ (t) + ξ(t) , j = 1, ..., l,
t∈[t0 ,t1 ]

Die Abbildungen J, ˜ F und Hi wurden im Abschnitt 2.4.2 hinlänglich erörtert. Es bleiben


damit die Zustandsbeschränkungen Gj zu diskutieren. Dazu bedarf es grundlegenden Ele-
menten der Konvexen Analysis und der Berechnung der Subdifferentiale der Abbildungen
Gj . Für ξ(·) ∈ C([t0 , t1 ], Rn ) seien im Folgenden
 
g̃j ξ(·) (t) = gj t, x∗ (t) + ξ(t) , t ∈ [t0 , t1 ], j = 1, ..., l.
Lemma 2.18. Die Abbildungen ξ(·) → g̃j ξ(·) bilden den Raum C([t0 , t1 ], Rn ) in den


Raum C([t0 , t1 ], R) ab. Weiterhin sind diese Abbildungen in ξ0 (·), ξ0 (t) ≡ 0, Fréchet-
differenzierbar und es gilt
 0  

g̃j ξ0 (·) ξ(·) (t) = gjx t, x∗ (t) , ξ(t) , t ∈ [t0 , t1 ], j = 1, ..., l.
Beweis Die erste Behauptung ist klar. Für t ∈ [t0 , t1 ], kξ(·)k∞ = 1 und 0 < λ < γ gilt
 
g̃j ξ0 (·) + λξ(·) − g̃j ξ0 (·)
 
0

− g̃j ξ0 (·) ξ(·) (t)
λ
Z 1

 
= gjx t, x∗ (t) + sλξ(t) − gjx t, x∗ (t) , ξ(t) ds.
0
Da die Abbildungen gjx nach Voraussetzungen (B) auf der Menge Vγ gleichmäßig stetig
sind, gibt es eine Zahl C0 > 0 mit
  Z 1
g̃j λξ(·) − g̃j ξ0 (·)

0

− g̃j ξ0 (·) ξ(·) ≤ max
C0 kλξ(t)kds · kξ(·)k∞ = λC0 ,
λ ∞ t∈[t0 ,t1 ] 0

d. h. der Grenzwert λ → 0+ konvergiert gleichmäßig bezüglich kξ(·)k∞ = 1. 


Lemma 2.19. Die Funktionen Gj , j = 1, ..., l, sind im Punkt ξ0 (·) regulär im Sinn
der Konvexen Analysis, die klassischen Richtungsableitungen konvergieren bezüglich jeder
Richtung ξ(·) gleichmäßig,
 
Gj ξ0 (·) + λz(·) − Gj ξ0 (·)

0

− Gj ξ0 (·); ξ(·) ≤ ε
λ
für alle kz(·) − ξ(·)k∞ ≤ δ und alle 0 < λ ≤ λ0 , und es gelten
∂Gj ξ0 (·) = g̃j0∗ ξ0 (·) ∂ψ g̃j ξ0 (·) , j = 1, ..., l,
   
ψ z(·) = max z(t).
t∈[t0 ,t1 ]
90 Starkes lokales Minimum


Beweis Die Abbildung z(·) → ψ z(·) ist auf C([t0 , t1 ], R) offenbar homogen, konvex
und stetig. Da die Abbildungen ξ(·) → g̃j ξ(·) für alle j = 1, ..., l nach Lemma 2.18
Fréchet-differenzierbar sind, folgen die weiteren Behauptungen aus Lemma C.1 und der
Kettenregel C.3. 

Lemma 2.20. Das Subdifferential der Funktion Gj besteht im Punkt ξ0 (·) aus denjenigen
stetigen linearen Funktionalen x∗ ∈ C ∗ ([t0 , t1 ], R), die sich wie folgt darstellen lassen:
Z t1



hx , ξ(·)i = gjx t, x∗ (t) , ξ(t) dµj (t).
t0

Dabei ist µj ein reguläres Borelsches Maß, das auf der Menge
   
Tj = t ∈ [t0 , t1 ] g̃j ξ(·) (t) = Gj ξ0 (·) = max gj t, x∗ (t)
t∈[t0 ,t1 ]

konzentriert ist und für das kµk = 1 gilt.

Beweis Vgl. Abschnitt C.3. 

2.5.3. Lagrangesche Multiplikatorenregel


In der Aufgabe (2.39)–(2.42) seien x∗ (·) ∈ BLip ∩ C([t0 , t1 ], Rn ) und x∗ (·), u∗ (·) ∈ Badm .


Auf C([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], Rm ) × C ∗ ([t0 , t1 ], Rn ) × R × Rl × Rs0 × Rs1 definieren wir


zur Extremalaufgabe J˜ ξ(·), u(·) → inf unter den Nebenbedingungen
  
F ξ(·), u(·) = 0, Hi ξ(·) = 0, i = 0, 1, Gj ξ(·) ≤ 0, j = 1, ..., l,

die Lagrange-Funktion

L ξ(·), u(·), y ∗ , λ0 , λ1 , ..., λl , l0 , l1




l

∗  X
˜ λj Gj ξ(·) + l0T H0 ξ(·) + l1T H1 ξ(·) .
  
= λ0 J ξ(·), u(·) + y , F ξ(·), u(·) +
j=1

 sei x∗ (·) ∈ BLip ∩ C([t0 , t1 ], R ) und außerdem sei


Theorem 2.21 (Extremalprinzip). Es n

x∗ (·), u∗ (·) ∈ Badm . Ist x∗ (·), u∗ (·) ein starkes lokales Minimum im Steuerungsproblem


(2.71)–(2.75), dann existieren nicht gleichzeitig verschwindende Lagrangesche Multiplika-


toren λj ≥ 0, j = 0, ..., l, y ∗ ∈ C ∗ ([t0 , t1 ], Rn ) und li ∈ Rsi , i = 0, 1, derart, dass folgende
Bedingungen gelten:

(a) Die Lagrange-Funktion besitzt bezüglich ξ(·) in ξ0 (·) einen stationären Punkt, d. h.

0 ∈ ∂ξ L ξ0 (·), u∗ (·), y ∗ , λ0 , ..., l1 .



(2.80)
Aufgaben mit Zustandsbeschränkungen 91

(b) Die Lagrange-Funktion erfüllt bezüglich u(·) die Minimumbedingung

L ξ0 (·), u∗ (·), y ∗ , λ0 , ..., l1 = L ξ0 (·), u(·), y ∗ , λ0 , ..., l1 .


 
min (2.81)
u(·)∈L∞ ([t0 ,t1 ],U )

(c) Die komplementären Schlupfbedingungen gelten:



λj Gj ξ0 (·) = 0, j = 1, ..., l. (2.82)

Beweis Die Gliederung des Beweises stimmt mit der im Beweis des Extremalprinzips für
die Standardaufgabe überein. Wir verwenden die bereits erzielten Resultate aus Abschnitt
2.4.3 und fügen die Argumentation bezüglich der Zustandsbeschränkungen im regulären
Fall an den entsprechenden Stellen hinzu.
1. Schritt (Die Menge C der Variationen). O. B. d. A. seien

Gj ξ0 (·) = 0 für j = 1, ..., l0 , Gj ξ0 (·) < 0 für j = l0 + 1, ..., l.


 

Wir betrachten die Menge C derjenigen


0
η0 , y(·), µ0 , µ1 , η1 , ..., ηl0 ∈ R × C([t0 , t1 ], Rn ) × Rs0 × Rs1 × Rl ,


zu denen es ein ξ(·) ∈ C([t0 , t1 ], Rn ) und ein u(·) ∈ L∞ ([t0 , t1 ], U ) gibt mit

η0 > J˜ξ ξ0 (·), u∗ (·) ξ(·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·) ,


  
  
y(·) = Fξ ξ0 (·), u∗ (·) ξ(·) + F ξ0 (·), u(·) − F ξ0 (·), u∗ (·) ,
µi = Hi0 ξ0 (·) ξ(·), i = 0, 1, ηj > G0j ξ0 (·); ξ(·) , j = 1, ..., l0 .
 

Die stetigen und konvexen Funktionen

ξ(·) → G01 ξ0 (·); ξ(·) , ..., ξ(·) → G0l0 ξ0 (·); ξ(·)


 

sind auf einer gemeinsamen Nullumgebung V0 ⊆ C [t0 , t1 ], Rn nach oben beschränkt.




Daher gibt eine Zahl a > 0 mit

a > sup J˜ξ ξ0 (·), u∗ (·) ξ(·), G01 ξ0 (·); ξ(·) , ..., G0l0 ξ0 (·); ξ(·) .
   
ξ(·)∈V0

Da ferner der Operator L = (Fξ , H00 , H10 ) linear und stetig ist, besitzt conv C ein nichtlee-
res Inneres. Zum Nachweis des Extremalprinzips genügt es 0 6∈ conv C zu zeigen. Dann
erhalten wir aus dem Satz von Hahn-Banach die Existenz eines nichttrivialen Funktionals
0
(λ0 , y ∗ , l0 , l1 , λ1 , ..., λl0 ) ∈ R × C ∗ ([t0 , t1 ], Rn ) × Rs0 × Rs1 ∈ Rl ,

das die Menge conv C vom Urpsrung trennt. Dies bedeutet, dass
l 0
X

0 ≤ λ0 η0 + hy , y(·)i + hl0 , µ0 i + hl1 , µ1 i + λj ηj
j=1
92 Starkes lokales Minimum

für alle η0 , y(·), µ0 , µ1 , η1 , ..., ηl0 ∈ C ⊆


 conv C gilt. Diese

Ungleichung liefert λj ≥ 0 für
0 n
j = 0, ..., l und, dass für alle ξ(·), u(·) ∈ C([t0 , t1 ], R ) × L∞ ([t0 , t1 ], U )

0 ≤ λ0 J˜ξ ξ0 (·), u∗ (·) ξ(·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·)


   

+ y ∗ , Fξ ξ0 (·), u∗ (·) ξ(·) + F ξ0 (·), u(·) − F ξ0 (·), u∗ (·)



  

l 0
X
+ l0 , H00 ξ0 (·) ξ(·) + l1 , H10 ξ0 (·) ξ(·) + λj G0j ξ0 (·); ξ(·)


 

j=1

erfüllt ist. Setzen wir λl0 +1 = ... = λl = 0, so gelten die Schlupfbedingungen (2.82).
Betrachten wir weiterhin diese Ungleichung nacheinander für ξ(·) = ξ0 (·) bzw. u(·) = u∗ (·),
so folgen (2.80) und (2.81).
Angenommen, es ist 0 ∈ conv C . Dann existieren nach dem Begriff einer konvexen Hülle
Xd
positive Zahlen αi , αi = 1, und gewisse ξ i (·) ∈ C([t0 , t1 ], Rn ), ui (·) ∈ L∞ ([t0 , t1 ], U ),
i=1
i = 1, ..., d, mit
d h
X i
˜ αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) ,
 
0 > Jξ ξ0 (·), u∗ (·) ξ(·) +
i=1
d h
 X  i
0 = Fξ ξ0 (·), u∗ (·) ξ(·) + αi F ξ0 (·), ui (·) − F ξ0 (·), u∗ (·) ,
i=1
d
X
H00 H10
 
0 = ξ0 (·) ξ(·), 0 = ξ0 (·) ξ(·), ξ(·) = αi ξ i (·),
i=1
0 > G0j ξ0 (·); ξ(·) , j = 1, ..., l0 .


Dabei wurde auf die konvexen Abbildungen G0j ξ0 (·); · die Jensensche Ungleichung ange-


wendet.
2. Schritt und 3. Schritt übernehmen wir aus Abschnitt 2.4.3.
4. Schritt (Eigenschaft der zulässigen Richtungen). Nach Annahme im ersten Schritt gibt
es eine Zahl c > 0 mit
d h
X i
˜ αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) ,
 
− 4c ≥ Jξ ξ0 (·), u∗ (·) ξ(·) + (2.83)
i=1
−c ≥ G0j ξ0 (·); ξ(·) , j = 1, ..., l0 .

(2.84)

Aus (2.83) folgt für alle 0 ≤ ε ≤ min{ε0 , σ} die Ungleichung

J˜ ξ ε (·), uε (·) ≤ J˜ ξ0 (·), u∗ (·) − εc + o(ε).


 
Aufgaben mit Zustandsbeschränkungen 93

Andererseits sind die Funktionen Gj nach Lemma 2.19 gleichmäßig differenzierbar. Daher
gibt es ein σ > 0 mit
 
Gj ξ0 (·) + εξ(·) ≤ Gj ξ0 (·) + ε G0j ξ0 (·); ξ(·) + c , j = 1, ..., l0 ,
  
(2.85)

für alle 0 ≤ ε ≤ σ, kξ(·) − ξ(·)k∞ ≤ σ.


5. Schritt (0 6∈ conv C ). Aus (2.84) und (2.85) folgt
 
Gj ξ ε (·) ≤ Gj ξ0 (·) + ε G0j ξ0 (·); ξ(·) + c ≤ 0, j = 1, ..., l0 ,
  

für alle 0 ≤ ε ≤ min{ε0 , σ}. Für j = l0 + 1, ..., l hat man

lim Gj ξ ε (·) = Gj ξ0 (·) < 0.


 
ε→0+

Zusammen mit dem dritten Beweisschritt sind für hinreichend kleine ε > 0 die Punkte

ξ ε (·), uε (·) = ξ0 (·) + εξ(·) + rε (·), uεα+αε (·)


 

zulässig in der Extremalaufgabe. Dies bedeutet, dass die Steuerungsprozesse

xε (·), uε (·) = x∗ (·) + εξ(·) + rε (·), uεα+αε (·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U )
 

zulässig in dem Steuerungsproblem (2.71)–(2.75) sind. Außerdem zeigten wir im vierten


Schritt, dass für hinreichend kleine ε > 0 die Relation

J xε (·), uε (·) ≤ J x∗ (·), u∗ (·) − εc + o(ε)


 

gilt. Wegen xε (·) → x∗ (·) für ε → 0 bedeutet dies, dass der Steuerungsprozess x∗ (·), u∗ (·)


im Widerspruch zur Voraussetzung des Extremalprinzips kein starkes lokales Minimum der
Aufgabe (2.71)–(2.75) sein könnte. 

2.5.4. Beweisschluss
Aufgrund (2.80) ist folgende Variationsgleichung für alle ξ(·) ∈ C([t0 , t1 ], Rn ) erfüllt:
Z t1
fx t, x∗ (t), u∗ (t) , ξ(t) dt + l0 , h00 x∗ (t0 ) ξ(t0 ) + l1 , h01 x∗ (t1 ) ξ(t1 )




0 = λ0
t0
Z t1  Z t T

+ ξ(t) − ξ(0) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds dµ(t)
t0 0
l
X Z t1

+ λj gjx t, x∗ (t) , ξ(t) dµ̃j (t). (2.86)
j=1 t0
94 Starkes lokales Minimum

Dabei ist µ ein reguläres Borelsches Vektormaß. Die Lagrangeschen Multiplikatoren λj ≥ 0


verschwinden, falls die entsprechende Zustandsbeschränkung nichtaktiv ist. Andernfalls
besitzen die nichtnegativen regulären Borelschen Maße µ̃j die Totalvariation kµ̃j k = 1
und sind jeweils auf der Menge
 
Tj = t ∈ [t0 , t1 ] gj t, x∗ (t) = 0

konzentriert. Wir schreiben µj = λj µ̃j . Dann können unter den Maßen µj nur diejenigen
von Null verschieden sein, für die die Menge Tj 6= ∅ ist. Daher kann man o. B. d. A.
annehmen, alle Maße µj seien auf den Mengen Tj konzentriert.
In der Gleichung (2.86) ändern wir die Integrationsreihenfolge im zweiten Summanden
und bringen diese Gleichung in die Form
Z t1 Z t1 Z t1
λ0 fx t, x∗ (t), u∗ (t) − ϕTx t, x∗ (t), u∗ (t) [ξ(t)]T dµ(t)

 
0 = dµ(s), ξ(t) dt +
t0 t t0
D Z t1 E
T T
+ h00 x∗ (t0 ) l0 − dµ(t), ξ(t0 ) + hh01
 
x∗ (t1 ) l1 , ξ(t1 )i
t0
l Z
X t1

+ gjx t, x∗ (t) , ξ(t) dµj (t). (2.87)
j=1 t0

Die rechte Seite in (2.87) definiert ein stetiges lineares Funktional im Raum C([t0 , t1 ], Rn ).
Z t1
Wenden wir den Darstellungssatz von Riesz an und setzen p(t) = dµ(s), so folgen
t

Z t1
T
−h01
  T  
p(t) = x∗ (t1 ) l1 + ϕx s, x∗ (s), u∗ (s) p(s) − λ0 fx s, x∗ (s), u∗ (s) ds
t
l Z
X t1 
− gjx s, x∗ (s) dµj (s),
j=1 t
T
p(t0 ) = h00

x∗ (t0 ) l0 .

Damit sind (2.76) und (2.77) gezeigt. Die Beziehung (2.81) ist äquivalent zu
Z t1 
Z t1 
H t, x∗ (t), u∗ (t), p(t), λ0 dt ≥ min H t, x∗ (t), u(t), p(t), λ0 dt.
t0 u(·)∈L∞ ([t0 ,t1 ],U ) t0

Wir bemerken, dass die Funktion p(·) von beschränkter Variation ist. Daher kann man p(·)
als Differenz zweier monotoner Funktionen schreiben und p(·) besitzt höchstens abzählbar
viele Unstetigkeiten. Mit Hilfe dieser Anmerkung folgt abschließend die Maximumbedin-
gung (2.78) via Standardtechniken für Lebesguesche Punkte. 
Aufgaben mit Zustandsbeschränkungen 95

2.5.5. Hinreichende Bedingungen nach Arrow


Die Herleitung der hinreichenden Bedingungen basiert wieder auf Seierstad & Sydsæter
[61] mit den ergänzenden Ausführungen in Aseev & Kryazhimskii [3].
Wir betrachten das Steuerungsproblem

Z t1 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (2.88)
t0

ẋ(t) = ϕ t, x(t), u(t) , (2.89)
x(t0 ) = x0 , x(t1 ) = x1 , (2.90)
m
u(t) ∈ U ⊆ R , U 6= ∅, U konvex, (2.91)

gj t, x(t) ≤ 0 für alle t ∈ [t0 , t1 ], j = 1, ..., l. (2.92)
In der Aufgabenstellung schließen wir wieder den Fall nicht aus, dass durch die Rand-
bedingungen (2.90) gewisse Komponenten der Punkte x0 und x1 nicht fest vorgegeben,
sondern ohne Einschränkung sind.
Wir definieren die Mengen Vγ und Vγ (t):
Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x∗ (t)k ≤ γ}, Vγ (t) = {x ∈ Rn | kx − x∗ (t)k ≤ γ}.
Weiterhin bezeichnet
H (t, x, p) = sup H(t, x, u, p, 1) (2.93)
u∈U
die Hamilton-Funktion H im normalen Fall.
Theorem 2.22. In der Aufgabe (2.88)–(2.92) sei x∗ (·), u∗ (·) ∈ BLip ∩ Badm . Außerdem


sei die Vektorfunktion p(·) : [t0 , t1 ] → Rn stückweise stetig, besitze höchstens endlich viele
Sprungstellen (d. h. die einseitigen Grenzwerte existieren) sk ∈ (t0 , t1 ] und sei zwischen
diesen Sprüngen stetig differenzierbar. Ferner gelte:

(a) Das Tripel x∗ (·), u∗ (·), p(·) erfüllt (2.76)–(2.78) in Theorem 2.16 mit λ0 = 1.
(b) Für jedes t ∈ [t0 , t1 ] ist die Funktion H t, x, p(t) konkav und es sind die Funktionen


gj (t, x), j = 1, ..., l, konvex bezüglich x auf Vγ (t).



Dann ist x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (2.88)–(2.92).
Bemerkung 2.23. Der Teil (a) in Theorem 2.22 bedarf einer detaillierteren Diskussion.
Da wir von einer stückweise stetigen und zwischen den Sprungstellen stetig differenzier-
baren Adjungierten p(·) ausgehen, können wir die adjungierte Gleichung (2.76) in Integ-
raldarstellung in die Form einer Differentialgleichung mit Sprungbedingungen überführen.
Es bezeichnen t0 < s1 < ... < sd < t1 die Unstetigkeitsstellen der Adjungierten p(·) im
Intervall (t0 , t1 ). Dann gelten die Sprungbedingungen
l
X
p(s− p(s+ βjk gjx sk , x∗ (sk ) , βjk = µj ({sk }) ≥ 0,

k) − k) =− k = 1, ..., d.
j=1
96 Starkes lokales Minimum

Ist außerdem die Zustandsbeschränkung in t = t1 aktiv, dann gilt gemäß (2.79)

l
X
p(t−

1 ) − p(t1 ) = − βj gjx t1 , x∗ (t1 ) , βj = µj ({t1 }) ≥ 0.
j=1

Ferner gibt es eine stückweise stetige Vektorfunktion λ(·) : [t0 , t1 ] → Rl derart, dass die
Differentialgleichung
l
 X 
ṗ(t) = −Hx t, x∗ (t), u∗ (t), p(t), 1 + λj (t)gjx t, x∗ (t)
j=1

stückweise auf (sk , sk+1 ), k = 0, ..., d, gilt. Dabei haben wir s0 = t0 , sd+1 = t1 gesetzt.
Abschließend halten wir fest, dass wegen der Positivität der Maße µj und der Konzentra-
tion dieser Maße auf den Mengen
 
Tj = t ∈ [t0 , t1 ] gj t, x∗ (t) = 0 , j = 1, ..., l,

neben βj gjx t1 , x∗ (t1 ) = 0 die Bedingungen

βjk ≥ 0, βjk gjx sk , x∗ (sk ) = 0


 
λj (t) ≥ 0, λj (t)gj t, x∗ (t) = 0,

für j = 1, ..., l auf [t0 , t1 ] und in den Sprungstellen für k = 1, ..., d gelten. 

Beweis Auf die gleiche Weise wie im Beweis von Theorem 2.14 in Abschnitt 2.4.5 können
wir die Relation

ha(t), x − x∗ (t)i ≤ H t, x∗ (t), p(t) − H t, x, p(t)


 
für alle x ∈ Vγ (t)

zeigen, wobei die Funktion a(·) für fast alle t ∈ [t0 , t1 ] der Gleichung

a(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + fx t, x∗ (t), u∗ (t) = −Hx t, x∗ (t), u∗ (t), p(t), 1
  

genügt, vgl. (2.68), (2.69). Damit und mit den Beziehungen in Bemerkung 2.23 erhalten
wir für fast alle t ∈ [t0 , t1 ]

H t, x∗ (t), p(t) − H t, x, p(t) ≥


 

− Hx t, x∗ (t), u∗ (t), p(t), 1 , x − x∗ (t)
D l
X E

= ṗ(t) − λj (t)gjx t, x∗ (t) , x − x∗ (t)
j=1

und die Komplementaritätsbedingungen



λj (t) ≥ 0, λj (t)gj t, x∗ (t) = 0.
Aufgaben mit Zustandsbeschränkungen 97

Wir betrachten zunächst den Fall, dass p(·) in (t0 , t1 ) stetig ist. Die Konvexität der Ab-
bildungen gj (t, x) bezüglich x auf Vγ (t) liefert die Ungleichungen
l l
 X
 X

gj (t, x) ≥ gj t, x∗ (t) + gjx t, x∗ (t) , x − x∗ (t) ≥ gjx t, x∗ (t) , x − x∗ (t) .
j=1 j=1

Genügt x(·) den Zustandsbeschränkungen gj (t, x) ≤ 0, dann gilt wegen λ(t) ≥ 0:


l
X

− λj (t) gjx t, x∗ (t) , x(t) − x∗ (t) ≥ 0.
j=1

Ferner ergibt sich mit βj ≥ 0 und mit der Sprungbedingung (2.79)


l
X
hp(t−


1) − p(t1 ), x(t1 ) − x∗ (t1 )i = − βj gjx t1 , x∗ (t1 ) , x(t1 ) − x∗ (t1 ) ≥ 0.
j=1

Damit erhalten wir für x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ γ:


Z t1
  
∆ = f t, x(t), u(t) − f t, x∗ (t), u∗ (t) dt
t0
Z t1 Z t1
H t, x∗ (t), p(t) − H t, x(t), p(t) dt +
  
≥ hp(t), ẋ(t) − ẋ∗ (t)idt
t0 t0
Z t1
≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)i dt
t0
Z t1 l
X

− λj (t) gjx t, x∗ (t) , x(t) − x∗ (t) dt
t0 j=1
Z t1
≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)i dt
t0
= hp(t1 ), x(t1 ) − x∗ (t1 )i + hp(t−
1 ) − p(t1 ), x(t1 ) − x∗ (t1 )i − hp(t0 ), x(t0 ) − x∗ (t0 )i
≥ hp(t1 ), x(t1 ) − x∗ (t1 )i − hp(t0 ), x(t0 ) − x∗ (t0 )i.

Es besitze nun p(·) im Intervall (t0 , t1 ) die Unstetigkeitsstellen t0 < s1 < ... < sd < t1 .
Dann gelten nach Bemerkung 2.23 die Sprungbedingungen
l
X
p(s− p(s+ βjk gjx sk , x∗ (sk ) , βjk ≥ 0,

k) − k) =− k = 1, ..., d,
j=1

und wir erhalten aus der Konvexität der Abbildungen gj (t, x) die Ungleichungen

hp(s− +
k ) − p(sk ), x − x∗ (sk )i ≥ 0, x ∈ Vγ (sk ), k = 1, ..., d.
98 Starkes lokales Minimum

Für x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ γ ergibt sich dann


Z t1
∆ ≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)i dt
t0
d
X
= hp(t−
1 ), x(t1 ) − x∗ (t1 )i + hp(s− +
k ) − p(sk ), x(sk ) − x∗ (sk )i
k=1
−hp(t0 ), x(t0 ) − x∗ (t0 )i
≥ hp(t1 ), x(t1 ) − x∗ (t1 )i − hp(t0 ), x(t0 ) − x∗ (t0 )i.

Im Fall fester Anfangs- und Endbedingungen verschwinden die Differenzen x(ti ) − x∗ (ti ).
Sind jedoch gewisse Komponenten im Anfangs- oder Endpunkt x0 bzw. x1 frei, dann liefern
die Transversalitätsbedingungen, dass die entsprechenden Komponenten der Adjungierten
p(·) zum Zeitpunkt t0 bzw. t1 verschwinden. Daher folgt die Beziehung ∆ ≥ 0 für alle
zulässigen x(·), u(·) mit kx(·) − x∗ (·)k∞ ≤ γ. 
Beispiel 2.24. Offensichtlich erfüllt das einfache Lagerhaltungsmodell in Beispiel 2.17 die
Bedingungen des Theorems 2.22. Der angegebene Kandidat x∗ (·), u∗ (·) ist ein starkes
lokales Minimum. 
Beispiel 2.25. Wir betrachten nach Seierstad & Sydsæter [61] eine Aufgabe, in welcher
der Ertragsmaximierung eine Umweltschutzrichtlinie gegenüber steht. Es sei zu jedem
Zeitpunkt t die Produktion proportional zum Kapital k(t) mit einer positiven Proportio-
nalitätskonstanten a > 0. Ein Teil s(t) vom Kapital wird wieder in die weitere Produktion
investiert und der verbleibende Teil (1 − s(t)) dient zur Konsumption. Ferner besteht die
Möglichkeit die Produktionskapazitäten über die Auslastungsrate u(t) zu steuern.
Bei der Produktion fällt Abfall an. Es beschreibt z(t) das gesamte Müllvolumen zur Zeit
t und ż(t) den bei der Produktion zum Zeitpunkt t entstehenden Abfall. Wir nehmen
an, dass ż(t) proportional zur Produktion und somit proportional zum Kapital ist, d. h.
ż(t) = ck(t) mit einer Konstanten c > 0.
In diesem Modell hat die Verschmutzung z(t) keinen direkten Einfluss auf die Ertragsma-
ximierung. Die Planungsperiode [0, T ] und die Startwerte k(0), z(0) für das Kapital und
das Müllvolumen sind bekannt. An den Endwert k(T ) wird keine Bedingung gestellt, aber
das Abfallvolumen z(t) soll über [0, T ] die vorgegebene Richtlinie Z nicht übersteigen.
Wir betrachten demnach die folgende Aufgabe:
Z T
 
J k(·), z(·), u(·), s(·) = 1 − s(t) u(t)k(t) dt → sup, (2.94)
0
k̇(t) = s(t)u(t)k(t), k(0) = k0 , k(T ) frei, (2.95)
ż(t) = u(t)k(t) − az(t), z(0) = z0 , z(T ) frei, (2.96)
(u, s) ∈ U = [0, 1] × [0, 1], (2.97)
g(t, k, z) = z(t) − Z ≤ 0. (2.98)
Aufgaben mit Zustandsbeschränkungen 99

Weiterhin sind k0 , z0 , Z, T und a positive Konstanten, für die die Relationen


 
k0 k0
z0 < Z, T > 1, z0 − e−aT + <Z (2.99)
a a
gelten. Die letzte Annahme wird dadurch erklärt, dass zulässige Handlungsmöglichkeiten
existieren. Werden nämlich keine Investitionen getätigt, d. h. s(t) ≡ 0 auf [0, T ], so folgt
k(t) ≡ k0 und wir erhalten mit der Auslastungsrate u(t) ≡ 1
 
k0 −aT k0
z(T ) = z0 − e + .
a a
Das Modell legt es nahe folgende drei Fälle zu betrachten:
(A) Bei der Produktion wird in der Planungsperiode niemals die Grenze Z für die Ab-
fallmenge erreicht und es kann über dem gesamten Planungshorizont das maximal
mögliche Produktionsvolumen ausgenutzt werden, d. h.

z(t) < Z für alle t ∈ [0, T ].

(B) Die Richtlinie Z wird genau im Endzeitpunkt der Planungsperiode erreicht, d. h.

z(t) < Z für alle t ∈ [0, T ), z(T ) = Z.

(C) Innerhalb der Planungsperiode wird bereits die Grenze Z erreicht. Anschließend
läuft die Produktion auf der höchstmöglichen Stufe, so dass die Abfallmenge z(t) die
Richtlinie Z nicht überschreitet, d. h.

z(t) < Z für alle t ∈ [0, t0 ), 0 < t0 < T, z(t) = Z für alle t ∈ [t0 , T ].

Im Weiteren geben wir für jeden Fall nach [61] optimale Steuerungsprozesse und die wesent-
lichen Merkmale der Adjungierten an. Auf die Details der Analyse, die wir nicht ausführ-
lichen belegen, verweisen wir auf [61].
(A) Ist die Zustandsbeschränkung nicht aktiv, so erhalten wir die Steuerungen

1, t ∈ [0, T − 1),
s∗ (t) = u∗ (t) ≡ 1 auf [0, T ].
0, t ∈ [T − 1, T ],

Für die Dynamiken der Zustandstrajektorien k∗ (·), z∗ (·) ergeben sich daraus

k0 et − az∗ (t),
 
k∗ (t), t ∈ [0, T − 1), t ∈ [0, T − 1),
k̇∗ (t) = ż∗ (t) =
0, t ∈ [T − 1, T ], k0 eT −1 − az∗ (t), t ∈ [T − 1, T ].

Die Adjungierten p1 (·), p2 (·), die den Zuständen k∗ (·) bzw. z∗ (·) zugeordnet sind, sind
absolutstetig und erfüllen die Transversalitätsbedingungen p1 (T ) = 0 und p2 (T ) = 0.
100 Starkes lokales Minimum

(B) Ist die Zustandbeschränkung in t = T aktiv, dann gilt für die Steuerungen

1, t ∈ [0, t∗ ),
s∗ (t) = u∗ (t) ≡ 1 auf [0, T ],
0, t ∈ [t∗ , T ],

wobei t∗ der Bedingung


e−aT (1+a)t∗
   
t∗ a k0 −aT
e − e = Z − z0 − e
1+a k0 1+a
genügt. Die Zustandstrajektorien verhalten sich entsprechend dem Fall (A), wobei
der Umschaltpunkt t = T − 1 durch t = t∗ zu ersetzen ist. Für die Adjungierte p2 (·)
ergibt sich in t = T die Sprungrelation
t∗ − (T − 1)
p2 (T − ) − p2 (T ) = −β = a ∈ [−1, 0].
1 − e−a(T −t∗ )
Daher muss t∗ ≤ T − 1 gelten. Im Vergleich zum Fall (A) werden die Investitionen
gegebenenfalls früher beendet. Ist dabei t∗ = T − 1, dann stimmt die Lösung mit
derjenigen Lösung im Fall (A) überein.

(C) Es sei t0 = sup{t ∈ [0, T ] | z∗ (t) < Z}. Ist die Zustandsbeschränkung auf dem Intervall
[t0 , T ] aktiv, dann gibt es einen Zeitpunkt t00 mit 0 < t00 < t0 < T und

 00  1, t ∈ [0, t0 ),
1, t ∈ [0, t ),
s∗ (t) = u∗ (t) = aZ
0, t ∈ [t00 , T ], , t ∈ [t0 , T ].
k∗ (t00 )

Dabei erfüllen die Zeitpunkte t0 , t00 die gekoppelten Bedingungen


1 1 0 00
1+ = t0 − t00 + e−a(t −t ) ,
a  a 
k0 k0 (1+a)t00 −at0 k0 00
Z = z0 − − e e + et .
1 + a a(1 + a) a
Für die Dynamiken der Zustandstrajektorien k∗ (·), z∗ (·) ergeben sich daraus

k∗ (t), t ∈ [0, t00 ), k∗ (t) − az∗ (t), t ∈ [0, t0 ),


 
k̇∗ (t) = ż ∗ (t) =
0, t ∈ [t00 , T ], 0, t ∈ [t0 , T ].

Die Adjungierte p2 (t) genügt auf (t0 , T ) der Differentialgleichung

ṗ2 (t) = ap2 (t) + λ(t), λ(t) = a

und es ergibt sich in t = T die Sprungbedingung p2 (T − ) − p2 (T ) = −1.


Die Auswertung der Aufgabe (2.94)–(2.98) erfolgt auf die Weise, dass man die einzelnen
Szenarien (A)–(C) aussortiert, bis eine optimale Lösung gefunden ist. 
Aufgaben mit Zustandsbeschränkungen 101

Beispiel 2.26. Im Folgenden untersuchen wir ein optimales Speichermanagement eines


Wasserkraftwerkes. Es bezeichne x(t) die Höhe des Stausees innerhalb der Stauanlage. Die
natürliche Zulaufmenge, die in den Stausee einfließt, wird durch die Funktion w(t) > 0
beschrieben. Gesteuert wird die Stauhöhe x(t) durch die Ablaufmenge v(t). Weiterhin be-
zeichnen xmin , xmax die minimale bzw. maximale Stauhöhe und vmin , vmax die minimale
bzw. maximale Ablaufmenge. Die erzeugte elektrische Energie bei der Energieumwandlung
bestimmt sich aus physikalischen Gründen mit Hilfe der streng konkaven Produktionsfunk-
tion U . Außerdem sei π der Preis, der pro Einheit elektrischer Energie am Markt erzielt
wird. Damit stellt sich die Aufgabe wie folgt dar:
Z T
 
J x(·), v(·) = πU x(t) v(t) dt → sup,
0
ẋ(t) = w(t) − v(t), x(0) = x0 , x(T ) frei,
v ∈ [vmin , vmax ], 0 ≤ vmin < vmax ,
xmin ≤ x(t) ≤ xmax , vmin < w(t) < vmax für alle t.

Im normalen Fall lautet die Pontrjagin-Funktion zu dieser Aufgabe

H(t, x, v, p, 1) = p[w(t) − v] + πU (x)v.

Da die Produktionsfunktion U streng konkav und die Zustandsbeschränkungen linear in


x sind, sind die notwendigen Optimalitätsbedingungen (2.76)–(2.78) nach Theorem 2.22
auch hinreichend. Wir diskutieren die Bedingungen des Maximumprinzips: Die Maximum-
bedingung (2.78) liefert
   
H t, x∗ (t), v∗ (t), p(t), 1 = max v · πU x∗ (t) − p(t) + p(t)w(t).
v∈[vmin ,vmax ]

Daraus ergibt sich  


 = vmax , πU x∗ (t) > p(t),
v∗ (t) ∈ [vmin , vmax ], πU x∗ (t) = p(t),
= vmin , πU x∗ (t) < p(t).

Ist keine Zustandsbeschränkung aktiv, dann lautet die adjungierte Gleichung (2.76)

ṗ(t) = −πU 0 x∗ (t) v∗ (t).




Die Adjungierte ist in diesem Fall monoton fallend und wir erhalten unmittelbar
d
U x∗ (t) = −πU 0 x∗ (t) · v∗ (t) − w(t) > −πU 0 x∗ (t) v∗ (t) = ṗ(t).
   
π (2.100)
dt
D. h., dass für x∗ (t) ∈ (xmin , xmax ) keine singuläre Steuerung
 v∗ (t) ∈ (vmin , vmax ) auftritt.
Ist auf einem Teilstück dieZustandsbeschränkung g1 x(t) = x(t) − xmax ≤ 0 aktiv, dann
erhalten wir aus πU x∗ (t) = p(t) für die stückweise stetige Funktion λ1 (·) mit

ṗ(t) = −Hx t, x∗ (t), u∗ (t), p(t), 1 + λ1 (t)g10 x∗ (t)


 
102 Starkes lokales Minimum

0
 = πU (xmax )w(t) ≥ 0. Im Gegensatz dazu darf die Zustandsbe-
die Darstellung λ1 (t)
schränkung g2 x(t) = xmin − x(t) ≤ 0 auf keinem Teilstück aktiv sein, denn dies hätte
λ2 (t) = −πU 0 (xmin )w(t) < 0 zur Folge. Andererseits kann die Adjungierte in t = T den
Sprung
p(T − ) − p(T ) = −β2 g20 x∗ (T ) = β2 ≥ 0


aufweisen, wenn die Zustandsbeschränkung g2 x(t) in t = T aktiv ist. Damit ergeben sich
auf gewissen Teilintervallen von [0, T ] folgende Verhaltensweisen, die auftreten können:

(A) Für πU x∗ (t) < p(t) wird das Staubecken mit der Rate v∗ (t) = w(t) − vmin > 0
aufgefüllt.

(B) Für πU x∗ (t) = πU (xmax ) = p(t) wird das maximale Stauvolumen in dem Wasser-
kraftwerk gehalten. Die zugehörige Steuerung ist v∗ (t) = w(t).

(C) Für πU x∗ (t) > p(t) wird das Staubecken mit der Rate v∗ (t) = vmax − w(t) > 0
geleert.
In Abhängigkeit des Planungszeitraumes ergeben sich folgende Szenarien:
(i) Ist der Zeitraum [0, T ] kurz, dann tritt nur (C) ein.

(ii) Bei einer mittelfristigen Planung ergibt sich der Übergang (A)→(C).

(iii) Im Fall eines langfristigen Zeithorizontes erhalten wir (A)→(B)→(C).


Der Zeitpunkt, in dem in (ii) der Wechsel (A)→(C) bzw. in (iii) der Wechsel (B)→(C)
vollzogen wird, ergibt sich durch folgende Bedingungen: Ein Wechsel wird durch die Be-
dingung p(T ) = 0 und p(t) > 0 für t < T festgelegt, falls gleichzeitig x∗ (T ) ≥ xmin gilt.
Ist andererseits x∗ (T ) = xmin und p(T − ) > 0, dann besitzt p(·) in t = T eine Sprungstelle
mit p(T − ) − p(T ) = β2 > 0.
Wir demonstrieren die Szenarien an folgender spezifizierten Situation:
Z T
 
J x(·), v(·) = ln x(t) v(t) dt → sup,
0
ẋ(t) = 1 − v(t), x(0) = 5, x(T ) frei, 1 ≤ x(t) ≤ 10, v ∈ [0, 2].

In Abhängigkeit vom Planungszeitraum [0, T ] ergeben sich:



(1) Für 0 < T ≤ 5 − 5 tritt nur (C) ein. Durch

v∗ (t) = 2, x∗ (t) = 5 − t, x∗ (T ) ∈ [ 5, 5)

wird der optimale Steuerungsprozess gegeben. Die Adjungierte lautet

p(t) = 2[ln(5 − t) − ln(5 − T )], p(T ) = 0.


√ 
Unter Beachtung von (2.100) erhalten wir T ≤ 5 − 5 aus U x∗ (0) ≥ p(0).
Aufgaben mit Zustandsbeschränkungen 103

√ √
(2) Für 5 − 5 < T ≤ 15 − 10 liegt der Fall (A)→(C) vor. Der optimale Steuerungs-
prozess lautet
 
0, t ∈ [0, τ ), 5 + t, t ∈ [0, τ ),
v∗ (t) = x∗ (t) =
2, t ∈ [τ, T ], 5 + 2τ − t, t ∈ [τ, T ],
√ √
es gilt x∗ (T ) ∈ ( 5, 10] und die zugehörige Adjungierte ist

2[ln(5 + t) − ln(5 + 2τ − T )], t ∈ [0, τ ),
p(t) = p(T ) = 0.
2[ln(5 + 2τ − t) − ln(5 + 2τ − T )], t ∈ [τ, T ],

Die Beziehungen τ ≤ 5 und T −τ = 5+τ − 5 + τ ergeben sich aus den Bedingungen

x∗ (t) < 10 für alle t 6= τ, U x∗ (τ ) = p(τ ).

(3) Im Fall eines langfristigen Horizontes T > 15 − 10 erhalten wir (A)→(B)→(C).
Der optimale Steuerungsprozess ist
 
 0, t ∈ [0, τ1 ),  5 + t, t ∈ [0, τ1 ),
v∗ (t) = 1, t ∈ [τ1 , τ2 ), x∗ (t) = 10, t ∈ [τ1 , τ2 ),
2, t ∈ [τ2 , T ], 10 − (t − τ2 ), t ∈ [τ2 , T ],
 

es gilt x∗ (T ) = 10 und die zugehörige Adjungierte lautet

ln(10), t ∈ [0, τ2 ),
p(t) = p(T ) = 0.
2[ln(10 + τ2 − t) − ln(10 + τ2 − T )], t ∈ [τ2 , T ],

Es ergeben sich τ1 = 5 und T − τ2 = 10 − 10 aus den Beziehungen

x∗ (t) < 10, t ∈ [0, τ1 ), x∗ (τ1 ) = 10, ln(10) = p(τ2 ), p(T ) = 0.

Eine interessante Erweiterung ergibt sich im letzten Fall, wenn der Preis π nicht kon-
stant ist, sondern im Zeitpunkt σ ∈ (τ1 , τ2 ) eine Preiserhöhung π + bzw. -verringerung π −
erwartet wird. Im Fall der Preiserhöhung wird die interne Bewertung(Schattenpreis) der
Ressource im Zeitpunkt t = σ durch eine Sprungstelle der Adjungierten angepasst:

p(σ − ) − p(σ) = (π − π + )U (xmax ) = −β1 g10 x∗ (σ) = −β1 < 0.




Wird die Preissenkung erwartet, dann wird die Ressource ab dem Zeitpunkt σ1 vor
der Änderung zum Preis π mit v∗ (t) = vmax veräußert und danach mit der Steuerung
v∗ (t) = vmin eingelagert. Und zwar in der Form, dass die Bewertung der Ressource durch
die Bedingung p(σ2 ) = π − U (xmax ) dem aktuellen Marktpreis π − angepasst wird. Dieser
Argumentation ist die Annahme [σ1 , σ2 ] ⊆ [τ1 , τ2 ] auferlegt. In dem spezifizierten Modell
erhalten wir im Fall der Preissenkung mit −
√ π = 2 und π = 1 für die Zeitpunkte den
Zusammenhang σ − σ1 = σ2 − σ = 10 − 10. 
104 Starkes lokales Minimum

2.6. Freier Anfangs- und Endzeitpunkt


Wir betrachten in diesem Abschnitt die zustandsbeschränkte Aufgabe mit freiem Anfangs-
und Endzeitpunkt. Ebenso wie im Abschnitt 1.3.5 seien daher die Abbildungen h0 bzw.
h1 , die die Start- und Zielmannigfaltigkeit definieren, zeitabhängig:

hi (t, x) : R × Rn → Rsi , i = 0, 1.

Wir übernehmen alle im Abschnitt 2.5 getroffenen Bezeichnungen und Festlegungen und
untersuchen die folgende Aufgabe:
Z t1
 
J x(·), u(·) = f t, x(t), u(t) dt → inf, (2.101)
t0

ẋ(t) = ϕ t, x(t), u(t) , (2.102)
 
h0 t0 , x(t0 ) = 0, h1 t1 , x(t1 ) = 0, (2.103)
u(t) ∈ U ⊆ Rm , U 6= ∅, (2.104)

gj t, x(t) ≤ 0 für alle t ∈ [t0 , t1 ], j = 1, ..., l. (2.105)

Die Aufgabe (2.101)–(2.105) betrachten wir für Paare

x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ),



[t0 , t1 ] ⊂ R.

Zur Trajektorie x(·) definieren wir die Menge Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x(t)k ≤ γ}.
Dann gehören zur Menge BLip ? diejenigen x(·) ∈ W 1 ([t , t ], Rn ), für die es eine Zahl γ > 0
2 0 1
derart gibt, dass

(B? ) die Abbildungen f (t, x, u), ϕ(t, x, u), hi (t, x), gj (t, x) auf Vγ × U stetig in der Ge-
samtheit der Variablen und stetig differenzierbar bezüglich t und x sind.

In der Aufgabe (2.101)–(2.105) mit freiem Anfangs- und Endzeitpunkt nennen wir ein
Tripel [t0 , t1 ], x(·), u(·) mit [t0 , t1 ] ⊂ R, x(·) ∈ W21 ([t0 , t1 ], Rn ) und u(·) ∈ L∞ ([t0 , t1 ], U )


einen Steuerungsprozess. Ein Steuerungsprozess heißt zulässig in dem Steuerungsproblem


(2.101)–(2.105), wenn auf dem Intervall [t0 , t1 ] die Funktion x(·) fast überall der Gleichung
(2.102) genügt, die Randbedingungen (2.103) und die Zustandsbeschränkungen (2.105)
erfüllt. Die Menge Badm bezeichnet die Menge der zulässigen Steuerungsprozesse.

Einen zulässigen Steuerungsprozess [t0∗ , t1∗ ], x∗ (·), u∗ (·) nennen wir ein starkes lokales
Minimum, wenn eine Zahl ε > 0 derart existiert, dass für jeden zulässigen Steuerungspro-
zess [t0 , t1 ], x(·), u(·) mit den Eigenschaften

|t0 − t0∗ | < ε, |t1 − t1∗ | < ε, kx(t) − x∗ (t)k < ε für alle t ∈ [t0∗ , t1∗ ] ∩ [t0 , t1 ]

die folgende Ungleichung gilt:


 
J x(·), u(·) ≥ J x∗ (·), u∗ (·) .
Freier Anfangs- und Endzeitpunkt 105

Wir wenden die Methode der Substitution der Zeit aus Abschnitt 1.3.5 an und erhalten
folgende Aufgabe mit fester Zeit, auf die wir Theorem 2.16 anwenden können:
Z 1 
v · f t(s), y(s), w(s) ds → inf, (2.106)
0
t (s) = v, y 0 (s) = v · ϕ t(s), y(s), w(s) ,
0

(2.107)
 
h0 t(0), y(0) = 0, h1 t(1), y(1) = 0, (2.108)
v > 0, w(s) ∈ U, (2.109)

gj t(s), y(s) ≤ 0, s ∈ [0, 1], j = 1, ..., l. (2.110)

Die Pontrjaginsche Funktion der Aufgabe (2.106)–(2.110) lautet

H̃(t, x, u, v, p, q, λ0 ) = hp, v · ϕ(t, x, u)i + qv − λ0 v · f (t, x, u)


= v · [H(t, x, u, p, λ0 ) + q], (2.111)

wobei H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i−λ0 f (t, x, u) die Pontrjagin-Funktion zu der Aufgabe
(2.101)–(2.105) ist. Weiterhin setzen wir
 
∆j = s ∈ [0, 1] gj t∗ (s), y∗ (s) = 0 , j = 1, ..., l.

Dann existieren nach Theorem 2.16 eine Zahl λ0 ≥ 0, Vektoren l0 ∈ Rs0 , l1 ∈ Rs1 , eine
Vektorfunktion p̃(·), eine Funktion q̃(·) und nichtnegative, reguläre, auf den Mengen ∆j
konzentrierte Borelsche Maße µ̃j , j = 1, ..., l, (diese Größen verschwinden nicht gleichzeitig)
derart, dass die Beziehungen
Z 1
p̃(s) = −hT1x t∗ (1), y∗ (1) l1 +
 
H̃x t∗ (τ ), y∗ (τ ), w∗ (τ ), v∗ , p̃(τ ), q̃(τ ), λ0 dτ
s
l Z
X 1 
− gjx t∗ (τ ), y∗ (τ ) dµ̃j (τ ),
j=1 s

hT0x

p̃(0) = t∗ (0), y∗ (0) l0 ,


Z 1 
q̃(s) = − h1t t∗ (1), y∗ (1) , l1 + H̃t t∗ (τ ), y∗ (τ ), w∗ (τ ), v∗ , p̃(τ ), q̃(τ ), λ0 dτ
s
l Z 1
X 
− gjt t∗ (τ ), y∗ (τ ) dµ̃j (τ ),
j=1 s


q̃(0) = h0t t∗ (0), y∗ (0) , l0

gelten und die Maximumbedingung


   
H̃ t∗ (s), y∗ (s), w∗ (s), v∗ , p̃(s), q̃(s), λ0 = max v · H t∗ (s), y∗ (s), u, p̃(s), λ0 + q̃(s)
u∈U, v>0
106 Starkes lokales Minimum

für fast alle s ∈ [0, 1] erfüllt ist. Es sei s∗ (·) die zu t∗ (·) inverse Funktion, d. h.

t − t0∗
s∗ (t) = , t ∈ [t0∗ , t1∗ ].
t1∗ − t0∗

Wir führen die Bezeichnungen


 
p(t) = p̃ s∗ (t) , q(t) = q̃ s∗ (t) ,
 
Tj = t ∈ [t0∗ , t1∗ ] gj t, x∗ (t) = 0 = t∗ (∆j ), j = 1, ..., l,

ein und verwenden die Bildmaße µj der Maße µ̃j bei der Abbildung t∗ (·). Dann gilt
Z t1∗ Z 1 
ψ(t) dµj (t) = ψ t∗ (s) dµ̃j (s) für alle ψ(·) ∈ C([t0∗ , t1∗ ], R)
t0∗ 0

und die Maße µj sind offensichtlich auf Tj konzentriert. So lassen sich die obigen Bezie-
hungen unter Berücksichtigung von (2.111) auf folgende Form bringen:
Z t1∗
p(t) = −hT1x t1∗ , x∗ (t1∗ ) l1 +
 
Hx τ, x∗ (τ ), u∗ (τ ), p(τ ), λ0 dτ
t
l Z
X t1∗ 
− gjx τ, x∗ (τ ) dµj (τ ),
j=1 t

p(t0∗ ) = hT0x t0∗ , x∗ (t0∗ ) l0 ,






Z t1∗ 
q(t) = − h1t t1∗ , x∗ (t1∗ ) , l1 + Ht τ, x∗ (τ ), u∗ (τ ), p(τ ), λ0 dτ
t
l Z
X t1∗ 
− gjt τ, x∗ (τ ) dµj (τ ), (2.112)
j=1 t


q(t0∗ ) = h0t t0∗ , x∗ (t0∗ ) , l0 (2.113)

und wir erhalten die Maximumbedingung


     
v∗ · H t, x∗ (t), u∗ (t), p(t), λ0 + q(t) = max v · H t, x∗ (t), u, p(t), λ0 + q(t) . (2.114)
u∈U, v>0

Aus (2.114) folgt


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 .
u∈U

Ferner erhalten wir wegen 0 < v∗ < ∞ aus (2.114) die Beziehung

max H t, x∗ (t), u, p(t), λ0 = −q(t).
u∈U
Freier Anfangs- und Endzeitpunkt 107

Im Folgenden verwenden wir die Hamilton-Funktion

H (t, x, p, λ0 ) = max H(t, x, u, p, λ0 ).


u∈U

Durch Vergleich mit (2.112) und (2.113) erhalten wir weiter


Z t1∗
H t, x∗ (t), p(t), λ0 = h1t t1∗ , x∗ (t1∗ ) , l1 −

 
Ht τ, x∗ (τ ), u∗ (τ ), p(τ ), λ0 dτ
t
l Z
X t1∗ 
+ gjt τ, x∗ (τ ) dµj (τ ),
j=1 t

H t0∗ , x∗ (t0∗ ), p(t0∗ ), λ0




= − h0t t0∗ , x∗ (t0∗ ) , l0 .

Zusammenfassend lautet damit das Maximumprinzip für Aufgaben mit freier Zeit:

Theorem 2.27 (Pontrjaginsches Maximumprinzip). In der Aufgabe (2.101)–(2.105)  sei


der Steuerungsprozess [t0∗ , t1∗ ], x∗ (·), u∗ (·) ∈ Badm ∩ BLip . Ist [t0∗ , t1∗ ], x∗ (·), u∗ (·) ein
?


starkes lokales Minimum der Aufgabe (2.101)–(2.105), dann existieren eine Zahl λ0 ≥ 0,
eine Vektorfunktion p(·) : [t0∗ , t1∗ ] → Rn und auf den Mengen
 
Tj = t ∈ [t0∗ , t1∗ ] gj t, x∗ (t) = 0 , j = 1, ..., l,

konzentrierte nichtnegative reguläre Borelsche Maße µj endlicher Totalvariation (wobei


sämtliche Größen nicht gleichzeitig verschwinden) derart, dass

(a) die Vektorfunktion p(·) von beschränkter Variation ist und der adjungierten Glei-
chung
Z t1∗
p(t) = −hT1x t1∗ , x∗ (t1∗ ) l1 +
 
Hx s, x∗ (s), u∗ (s), p(s), λ0 ds
t
l Z
X t1∗ 
− gjx s, x∗ (s) dµj (s) (2.115)
j=1 t

genügt und die folgenden Transversalitätsbedingungen erfüllt:

p(t0∗ ) = hT0x t0∗ , x∗ (t0∗ ) l0 , p(t1∗ ) = −hT1x t1∗ , x∗ (t1∗ ) l1 ;


 
(2.116)

(b) für fast alle t ∈ [t0∗ , t1∗ ] die Maximumbedingung gilt:


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 ; (2.117)
u∈U
108 Starkes lokales Minimum

(c) die Hamilton-Funktion eine Funktion beschränkter Variation ist, für die gilt:
Z t1∗
H t, x∗ (t), p(t), λ0 = h1t t1∗ , x∗ (t1∗ ) , l1 −

 
Ht τ, x∗ (τ ), u∗ (τ ), p(τ ), λ0 dτ
t
l Z
X t1∗ 
+ gjt τ, x∗ (τ ) dµj (τ ), (2.118)
j=1 t

H t0∗ , x∗ (t0∗ ), p(t0∗ ), λ0 = − h0t t0∗ , x∗ (t0∗ ) , l0 .




(2.119)
Optimale Multiprozesse 109

3. Optimale Multiprozesse
Der Begriff des Multiprozesses lässt sich am Beispiel des Autofahrens illustrieren: Neben
den kontinuierlichen Steuerungen “beschleunigen” und “bremsen” bildet die Wahl des kon-
kreten Ganges einen wesentlichen Beitrag zur Minimierung des Treibstoffverbrauchs oder
zum Erreichen des Zielortes in kürzester Zeit. Denn die Auswahl des jeweiligen Ganges be-
einflusst maßgeblich das dynamische Beschleunigungsverhalten, den momentanen Benzin-
verbrauch und die Geschwindigkeit. Das Fahrverhalten und der Treibstoffverbrauch wird
in jedem einzelnen Gang durch eine eigene Dynamik und Verbrauchsfunktion beschrieben.
Dementsprechend setzt sich dieses Optimierungsproblem aus verschiedenen, dem jeweilig
ausgewählten Gang zugeordneten Steuerungsproblemen zusammen. Die Schaltfolge zwi-
schen den einzelnen Gängen wird durch eine Wechselstrategie beschrieben. Das Beispiel
des Autofahrens verdeutlicht dabei den speziellen Charakter der Wechselstrategie: Im Ver-
gleich zu den Pedalen, die stufenlos gesteuert werden können, ist die Auswahl des Ganges
eine rein diskrete Größe.
Ein Multiprozess besteht aus einer gewissen endlichen Anzahl von einzelnen Steuerungssy-
stemen, welche sich jeweils aus individuellen Dynamiken, Zielfunktionalen und Steuerungs-
bereichen zusammensetzen. Neben der Suche nach der optimalen Steuerung für das jeweils
gewählte Steuerungssystem liegt das Hauptaugenmerk bei der Untersuchung von Multi-
prozessen auf der Bestimmung der optimalen Wechselstrategie. Dabei wird eine Wechsel-
strategie durch die Anzahl der Wechsel zwischen den einzelnen Steuerungssystemen, durch
die konkrete Auswahl des jeweiligen Steuerungssystems und durch diejenigen Zeitpunkte,
zu denen diese Wechsel stattfinden, beschrieben. Wir betrachten ausschließlich Multipro-
zesse mit stetigen Zuständen. Außerdem dürfen keine Wechselkosten anfallen.
Eine anschauliche Beschreibung eines Multiprozesses wird durch die Auflistung der jewei-
lig ausgewählten Steuerungssysteme gegeben. Dazu zerlegt man das Zeitintervall [t0 , t1 ]
zu den Wechselzeitpunkten in Teilintervalle,

t0 = s0 < s1 < ... < sN = t1 ,

und beschreibt für j = 1, ..., N auf den Teilabschnitten das Steuerungsproblem:


Z sj
fij t, x(t), u(t) dt, ẋ(t) = ϕij t, x(t), u(t) für t ∈ (sj−1 , sj ), u(t) ∈ Uij ⊆ Rmij .
 
sj−1

Dabei gehört die Zahl ij der gegebenen Menge {1, ..., k} und gibt das ausgewählte Steue-
rungssystem an. Der Multiprozess erhält dadurch die Gestalt
N Z sj
 X 
J x(·), u(·) = fij t, x(t), u(t) dt → inf,
j=1 sj−1

ẋ(t) = ϕij t, x(t), u(t) für t ∈ (sj−1 , tj ), j = 1, ..., N,
mij
u(t) ∈ Uij ⊆ R , ij ∈ {1, ..., k}, j = 1, ..., N.
110 Optimale Multiprozesse

An dieser Stelle muss angemerkt werden werden, dass in dieser Darstellung eines Multi-
prozesses durch die Indizes ij die Struktur der Wechselstrategie vorgegeben ist. D. h., dass
die Anzahl der Wechsel und die jeweilige Auswahl des Steuerungssystems implizit bereits
determiniert wird. Die Beschreibung einer Wechselstrategie als “echte” Steuerungsvariable
wird in dieser Form nicht erreicht. Auf dieser Formulierung basiert die Strategie zur Unter-
suchung von allgemeinen Multiprozessen. Nämlich auf den Vergleich von Multiprozessen,
die auf der gleichen Wechselstrategie beruhen. Die Arbeit von Sussmann [65] bezieht sich
auf allgemeinere Aufgaben als wir sie betrachten werden, da sie ebenso unstetige Zustände
und Wechselkosten beinhaltet. Weitere grundlegenden Beiträge zu notwendigen Optima-
litätsbedingungen für Multiprozesse z. B. bei Clarke & Vinter [14, 15], Dmitruk & Kaga-
novich [16], Galbraith & Vinter [23], Garavello & Piccoli [26], Shaikh & Caines [63, 64],
basieren ebenso auf dieser Philosophie.
Wir zeigen für Multiprozesse einen Weg auf, die Wechselstrategien als Steuerungsvariablen
einzuführen. Damit sind wir in der Lage, Multiprozesse auf starke lokale Optimalstellen
zu untersuchen. Das beinhaltet, dass wir zur Bestimmung von notwendigen Optimalitäts-
bedingungen Multiprozesse mit beliebigen Wechseltstrategien vergleichen.
Wir beginnen unsere Darstellung mit der Einführung von Zerlegungen des Zeitintervalls
und der Verknüpfung dieser Variablen mit vektorwertigen Abbildungen. Die Zerlegungen
des Zeitintervalls bilden die Grundlage, um im nächsten Schritt eine Wechselstrategien als
Steuerungsvariable in die Beschreibung eines Multiprozesses einzufügen, sowie die konkre-
te Aufgabestellung und das Pontrjaginsche Maximumprinzip zu formulieren.
Für das Pontrjaginsche Maximumprinzip geben wir nur Bemerkungen zum Beweis an. Der
vollständige Beweis ist in Tauchnitz [66] zu finden.

3.1. k-fache Zerlegungen


Es seien das Intervall I ⊆ R und k ∈ N gegeben.
Definition 3.1. Unter einer k-fachen Zerlegung des Intervalls I ⊆ R verstehen wir ein
endliches System A = {A 1 , ..., A k } von Lebesgue-messbaren Teilmengen von I mit
[
A i = I, A i ∩ A j = ∅ für i 6= j.
1≤i≤k

Es bezeichnet Z k (I) = {A } = {A i }1≤i≤k die Menge der k-fachen Zerlegungen von I.




Wir identifizieren ein Element A ∈ Z k (I) durch die Vektorfunktion



χA (t) = χA 1 (t), ..., χA k (t) , t ∈ I,

der charakteristischen Funktionen der Mengen A i . Jede Funktion χA (·) gehört der Menge
 k
X 
Y (I) =
k k 1 k
 i i
y(·) ∈ L∞ (I, R ) y(t) = y (t), ..., y (t) , y (t) ∈ {0, 1},
y (t) = 1
i=1
Pontrjaginsches Maximumprinzip 111

an. Die Menge Z k (I) der k-fachen Zerlegungen bzw. Y k (I) der charakteristischen Vektor-
funktionen repräsentieren bei geeigneter Verknüpfung sämtliche Wechselstrategien in Mul-
tiprozessen mit k Steuerungssystemen. Die Grundlage bilden dafür die folgenden Bezeich-
nungen: Wir betrachten k Funktionen hi (t, x, ui ) : I × Rn × Rmi → Rs und fassen diese zur
Vektorfunktion h = (h1 , ..., hk ) zusammen. Dabei setzen wir u = (u1 , ..., uk ) ∈ Rm1 +...+mk .
Die Verknüpfung der Funktion h mit einer k-fachen Zerlegung legen wir wie folgt fest:
k
X
A ◦ h(t, x, u) = χA (t) ◦ h(t, x, u) = χA i (t) · hi (t, x, ui ).
i=1

Sind die Funktionen hi differenzierbar, dann setzen wir für die partiellen Ableitungen:
k
X
A ◦ ht (t, x, u) = χA (t) ◦ ht (t, x, u) = χA i (t) · hit (t, x, ui ),
i=1
X k
A ◦ hx (t, x, u) = χA (t) ◦ hx (t, x, u) = χA i (t) · hix (t, x, ui ).
i=1

3.2. Die Aufgabenstellung und das Maximumprinzip


Es sei k ∈ N die Anzahl der verschiedenen gegebenen Steuerungssysteme, die individuelle
Integranden f i (t, x, ui ) : R × Rn × Rmi → R, Dynamiken ϕi (t, x, ui ) : R × Rn × Rmi → Rn
und Steuerbereiche U i ⊆ Rmi besitzen können. Ferner seien

gj (t, x) : R × Rn → R, j = 1, ..., l, hι (x) : Rn → Rsι , ι = 0, 1.

Wir fassen die Steuerungssysteme durch die Setzungen

f = (f 1 , ..., f k ), ϕ = (ϕ1 , ..., ϕk ), U = U 1 × ... × U k

zusammen. Mit den Vorbetrachtungen des letzten Abschnitts formulieren wir über [t0 , t1 ]
die Aufgabe des optimalen Multiprozesses mit Zustandsbeschränkungen wie folgt:
Z t1
J x(·), u(·), A =
 
χA (t) ◦ f t, x(t), u(t) dt → inf, (3.1)
t0

ẋ(t) = χA (t) ◦ ϕ t, x(t), u(t) , (3.2)
 
h0 x(t0 ) = 0, h1 x(t1 ) = 0, (3.3)
u(t) ∈ U = U × ... × U , U 6= ∅, A ∈ Z ([t0 , t1 ]),
1 k i k
(3.4)

gj t, x(t) ≤ 0, t ∈ [t0 , t1 ], j = 1, ..., l. (3.5)

Die Aufgabe (3.1)–(3.5) mit Zustandsbeschränkungen betrachten wir bezüglich der Tripel

x(·), u(·), A ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ) × Z k ([t0 , t1 ]).



112 Optimale Multiprozesse

Zu x(·) bezeichne Vγ die Menge Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x(t)k ≤ γ}. Dann gehören
zur Menge BLip diejenigen x(·) ∈ W21 ([t0 , t1 ], Rn ), für die es eine Zahl γ > 0 derart gibt,
dass
(B) die Abbildungen f i (t, x, ui ), ϕi (t, x, ui ), hι (x), gj (t, x) auf Vγ × U i stetig in der Ge-
samtheit der Variablen und stetig differenzierbar bezüglich x sind.
Das Tripel x(·), u(·), A ∈ W21 ([t0 , t1 ], Rn )×L∞ ([t0 , t1 ], U )×Z k ([t0 , t1 ]) heißt ein zulässi-


ger Multiprozess in der Aufgabe (3.1)–(3.5), falls x(·), u(·), A dem System (3.2) genügt,
die Randbedingungen (3.3) und die Zustandsbeschränkungen (3.5) erfüllt. Die Menge
Badm bezeichnet die Menge der zulässigen Multiprozesse.
Ein zulässiger Multiprozess x∗ (·), u∗ (·), A∗ ist eine starke lokale Minimalstelle der Auf-


gabe (3.1)–(3.5), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
J x(·), u(·), A ≥ J x∗ (·), u∗ (·), A∗
 

für alle x(·), u(·), A ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ ε gilt.




In der Aufgabe (3.1)–(3.5) definieren wir für die einzelnen Steuerungssysteme die partiellen
Pontrjaginschen Funktionen H i : R × Rn × Rmi × Rn × R → R gemäß
H i (t, x, ui , p, λ0 ) = hp, ϕi (t, x, ui )i − λ0 f i (t, x, ui ).
Dann heißt für die Aufgabe optimaler Multiprozesse die Funktion
k
X
χA i (t) · H i (t, x, ui , p, λ0 )

χA (t) ◦ H(t, x, u, p, λ0 =
i=1
k
X
χA i (t) · hp, ϕi (t, x, ui )i − λ0 f i (t, x, ui )

=
i=1

mit H : R × Rn × Rm1 +...+mk × Rn × R → Rk die Pontrjaginsche Funktion.


Maximumprinzip). Sei x∗ (·), u∗ (·), A∗ ∈ Badm ∩ BLip .

Theorem 3.2 (Pontrjaginsches
Ist x∗ (·), u∗ (·), A∗ ein starkes lokales Minimum der Aufgabe (3.1)–(3.5), dann existieren


eine Zahl λ0 ≥ 0, eine Vektorfunktion p(·) : [t0 , t1 ] → Rn und auf den Mengen
 
Tj = t ∈ [t0 , t1 ] gj t, x∗ (t) = 0 , j = 1, ..., l,
konzentrierte nichtnegative reguläre Borelsche Maße µj endlicher Totalvariation (wobei
sämtliche Größen nicht gleichzeitig verschwinden) derart, dass
(a) die Vektorfunktion p(·) von beschränkter Variation ist und der adjungierten Glei-
chung
Z t1
0T
 
p(t) = −h1 x∗ (t1 ) l1 + χA∗ (s) ◦ Hx s, x∗ (s), u∗ (s), p(s), λ0 ds
t
l Z
X t1 
− gjx s, x∗ (s) dµj (s) (3.6)
j=1 t
Pontrjaginsches Maximumprinzip 113

genügt und die folgenden Transversalitätsbedingungen erfüllt:


T T
p(t0 ) = h00 p(t1 ) = −h01
 
x∗ (t0 ) l0 , x∗ (t1 ) l1 ; (3.7)

(b) für fast alle t ∈ [t0 , t1 ] die Maximumbedingung gilt:

χA∗ (t) ◦ H t, x∗ (t), u∗ (t), p(t), λ0 = max H i t, x∗ (t), ui , p(t), λ0 .


 
(3.8)
ui ∈U i
1≤i≤k

Bemerkung 3.3. Mit den Hamilton-Funktionen

H (t, x, p, λ0 ) = χA∗ (t) ◦ H t, x, u∗ (t), p, λ0 ,




H i (t, x, p, λ0 ) = H i t, x, u∗ (t), p, λ0


liefert die Maximumbedingung (3.8) bezüglich der optimalen Wechselstrategie die Bezie-
hung
H t, x∗ (t), p(t), λ0 = max H i t, x∗ (t), p(t), λ0 ,
 
1≤i≤k

die man auch als Prinzip der konkurrierenden Hamilton-Funktionen bezeichnet. 

Wir wenden uns der Aufgabe mit freiem Anfangs- und Endzeitpunkt zu:
Z t1
J x(·), u(·), A =
 
χA (t) ◦ f t, x(t), u(t) dt → inf, (3.9)
t0

ẋ(t) = χA (t) ◦ ϕ t, x(t), u(t) , (3.10)
 
h0 t0 , x(t0 ) = 0, h1 t1 , x(t1 ) = 0, (3.11)
u(t) ∈ U = U 1 × ... × U k , U i 6= ∅, A ∈ Z k ([t0 , t1 ]), (3.12)

gj t, x(t) ≤ 0, t ∈ [t0 , t1 ], j = 1, ..., l. (3.13)

Die Aufgabe (3.9)–(3.13) betrachten wir bezüglich

x(·), u(·), A ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ) × Z k ([t0 , t1 ]),



[t0 , t1 ] ⊂ R.

Außerdem bezeichnet Vγ zur Trajektorie x(·) die Menge

Vγ = {(t, x) ∈ [t0 , t1 ] × Rn | kx − x(t)k ≤ γ}.

Dann gehören zur Menge BLip


? diejenigen x(·) ∈ W 1 ([t , t ], Rn ), für die es eine Zahl γ > 0
2 0 1
derart gibt, dass

(B? ) die Abbildungen f i (t, x, ui ), ϕi (t, x, ui ), hι (t, x), gj (t, x) auf Vγ × U i stetig in der
Gesamtheit der Variablen und stetig differenzierbar bezüglich t und x sind.
114 Optimale Multiprozesse

Wir nennen x(·), u(·), A , [t0 , t1 ] mit x(·) ∈ W∞ 1 [t , t ], Rn , u(·) ∈ L∞ [t , t ], U ,


  
0 1 0 1
A ∈ Z k ([t0 , t1 ]) und [t0 , t1 ] ⊂ R einen Multiprozess mit freiem Anfangs- und End-
zeitpunkt. Ein Multiprozess mit freiem Anfangs- und Endzeitpunkt heißt zulässig in der
Aufgabe (3.9)–(3.13), wenn auf dem Intervall [t0 , t1 ] die Funktion x(·) fast überall der
Gleichung (3.10) genügt, die Randbedingungen (3.11) und die Zustandsbeschränkungen
(3.13) erfüllt. Die Menge Badm bezeichnet die Menge der zulässigen Multiprozesse.
Ein zulässiger Multiprozess x∗ (·), u∗ (·), A∗ , [t0∗ , t1∗ ] ist ein starkes lokales Minimum,


wenn eine Zahl ε > 0 derart existiert, dass für jeden anderen zulässigen Multiprozess
x(·), u(·), A , [t0 , t1 ] mit den Eigenschaften

|t0 − t0∗ | < ε, |t1 − t1∗ | < ε, kx(t) − x∗ (t)k < ε für jedes t ∈ [t0∗ , t1∗ ] ∩ [t0 , t1 ]

folgende Ungleichung gilt:

J x(·), u(·), A ≥ J x∗ (·), u∗ (·), A∗ .


 

In der Aufgabe (3.9)–(3.13) bezeichnet

H (t, x, p, λ0 ) = max Hi (t, x, ui , p, λ0 )


ui ∈Ui
1≤i≤k

die Hamilton-Funktion.

Theorem 3.4 (Pontrjaginsches Maximumprinzip). In der Aufgabe (3.9)–(3.13) sei der


Multiprozess x∗ (·), u∗ (·), A∗ , [t0∗ , t1∗ ] ∈ Badm ∩ BLip . Ist x∗ (·), u∗ (·), A∗ , [t0∗ , t1∗ ] ein
?


starkes lokales Minimum der Aufgabe (3.9)–(3.13), dann existieren λ0 ≥ 0, eine Vektor-
funktion p(·) : [t0∗ , t1∗ ] → Rn und auf den Mengen
 
Tj = t ∈ [t0∗ , t1∗ ] gj t, x∗ (t) = 0 , j = 1, ..., l,

konzentrierte nichtnegative reguläre Borelsche Maße µj endlicher Totalvariation (wobei


sämtliche Größen nicht gleichzeitig verschwinden) derart, dass

(a) die Vektorfunktion p(·) von beschränkter Variation ist und der adjungierten Glei-
chung
Z t1∗
T
 
p(t) = −h1x t1∗ , x∗ (t1∗ ) l1 + χA∗ (s) ◦ Hx s, x∗ (s), u∗ (s), p(s), λ0 ds
t
l Z
X t1∗ 
− gjx s, x∗ (s) dµj (s) (3.14)
j=1 t

genügt und die folgenden Transversalitätsbedingungen erfüllt:

p(t0∗ ) = hT0x t0∗ , x∗ (t0∗ ) l0 , p(t1∗ ) = −hT1x t1∗ , x∗ (t1∗ ) l1 ;


 
(3.15)
Pontrjaginsches Maximumprinzip 115

(b) für fast alle t ∈ [t0∗ , t1∗ ] die Maximumbedingung gilt:

χA∗ (t) ◦ H t, x∗ (t), u∗ (t), p(t), λ0 = max H i t, x∗ (t), ui , p(t), λ0 .


 
(3.16)
ui ∈U i
1≤i≤k

(c) die Hamilton-Funktion eine Funktion beschränkter Variation ist und folgende Bezie-
hungen gelten:

H t, x∗ (t), p(t), λ0 = h1t t1∗ , x∗ (t1∗ ) , l1




Z t1∗

− χA∗ (s) ◦ Ht s, x∗ (s), u∗ (s), p(s), λ0 ds
t
l Z t1∗
X 
+ gjt s, x∗ (s) dµj (s), (3.17)
j=1 t

H t0∗ , x∗ (t0∗ ), p(t0∗ ), λ0




= − h0t t0∗ , x∗ (t0∗ ) , l0 . (3.18)

Beweisskizze Wir gehen zunächst auf des Maximumprinzip für Multiprozesse mit frei-
em Anfangs- und Endzeitpunkt ein. Nutzen wir die Methode der Substitution der Zeit
aus Abschnitt 1.3.5, so folgt Theorem 3.4 aus dem Maximumprinzip für die Aufgabe mit
festem Zeitintervall. Demnach reicht es aus, lediglich auf den Nachweis von Theorem 3.2
einzugehen.
Jedes einzelne Steuerungssystem der Aufgabe (3.1)–(3.5) genügt der Voraussetzung (B)
im Abschnitt 2.5 über Aufgaben mit Zustandsbeschränkungen. Wir weisen auf die Unglei-
chung
k
X
kχA (t) ◦ h(t, x, u)k ≤ khi (t, x, ui )k
i=1
für eine Vektorfunktion hin. Ebenso wie im Abschnitt 2.5.2 überführen wir die Aufgabe
(3.1)–(3.5) in eine Extremalaufgabe. Dabei seien
Z t1
J ξ(·), u(·), A
˜
 
= χA (t) ◦ f t, x∗ (t) + ξ(t), u(t) dt,
t0
F ξ(·), u(·), A (t) = x∗ (t) + ξ(t) − x∗ (t0 ) + ξ(t0 )
  
Z t

− χA (s) ◦ ϕ s, x∗ (s) + ξ(s), u(s) ds, t ∈ [t0 , t1 ].
t0

Dann besitzt die Extremalaufgabe J˜ ξ(·), u(·), A → inf unter den Nebenbedingungen


F ξ(·), u(·), A = 0, Hi ξ(·) = 0, i = 0, 1, Gj ξ(·) ≤ 0, j = 1, ..., l,


  

alle notwendigen Eigenschaften. Insbesondere sind die Beziehungen (2.32)–(2.34) in Ab-


schnitt 2.3.3 gleichmäßig für alle Steuerungssysteme erfüllt.
116 Optimale Multiprozesse

Es bleibt zu klären, ob die mehrfachen Nadelvariationen bezüglich der Wechselstrategie als


Steuerungsvariable geeignet festgelegt werden können. Die Zerlegungen in Abschnitt 3.1
besitzen die Eigenschaft, dass für χA (·), χB (·) ∈ Y k (I) und für die messbare Teilmenge
M ⊆ I die Funktion 
χA (·) + χM (·) · χA (·) − χB (·)
wieder zur Menge Y k (I) gehört, dann sind die mehrfachen Nadelvariationen
d
X 
χAα (t) = χA∗ (t) + χMi (αi ) (t) · χAi (t) − χA∗ (t)
i=1

bezüglich der Wechselstrategien auf den Trägermengen Mi (α) wohldefiniert.


Damit lassen sich sämtliche Beweisschritte des Extremalprinzips 2.21 unmittelbar über-
nehmen. Dabei liefert das Extremalprinzip für die Lagrange-Funktion
L ξ(·), u(·), A , y ∗ , λ0 , λ1 , ..., λl , l0 , l1 = λ0 J˜ ξ(·), u(·), A
 

l

∗  X
+ y , F ξ(·), u(·), A + λj Gj ξ(·) + l0T H0 ξ(·) + l1T H1 ξ(·)
  

j=1

die Beziehung
0 ∈ ∂ξ L ξ0 (·), u∗ (·), A∗ , y ∗ , λ0 , λ1 , ..., λl , l0 , l1 ,


die Minimumbedingung
L ξ0 (·), u∗ (·), A∗ , y ∗ , λ0 , λ1 , ..., λl , l0 , l1


L ξ0 (·), u(·), A , y ∗ , λ0 , λ1 , ..., λl , l0 , l1



= min
u(·)∈L∞ ([t0 ,t1 ],U )
A ∈Z k ([t0 ,t1 ])

und die komplentären Schlupfbedingungen



λj Gj ξ0 (·) = 0, j = 1, ..., l.
Dazu wird gezeigt, dass ξ ε (·), uε (·), A ε ,


ξ ε (·) = ξ0 (·) + εξ(·) + rε (·), uε (·) = uεα+αε (·), χA ε (·) = χAεα+αε (·),
zulässige Variationen bilden, für die
J˜ ξ ε (·), uε (·), A ε ≤ J˜ ξ0 (·), u∗ (·), A∗ − εc + o(ε)
 

bzw. mit xε (·) = x∗ (·) + εξ(·) + rε (·) in der äquivalenten Form


J xε (·), uε (·), A ε ≤ J x∗ (·), u∗ (·), A∗ − εc + o(ε)
 

im Widerspruch zur starken lokalen Optimalität von x∗ (·), u∗ (·), A∗ gilt. Die notwen-


digen Bedingungen in Form des Maximumprinzips ergeben sich abschließend wie im Ab-
schnitt 2.5.4. 
Investitionsmodell 117

3.3. Ein Investitionsmodell


Wir untersuchen ein Investitionsmodell, dass sich aus dem linearen und dem konkaven
Beispielen 1.29, 1.30 zusammensetzt:
Z T
J x(·), u(·), A =
 
χA (t) ◦ f t, x(t), u(t) dt → sup,
0

ẋ(t) = χA (t) ◦ ϕ t, x(t), u(t) , x(0) = x0 > 0,
u(t) ∈ [0, 1], A = {A 1 , A 2 } ∈ Z 2 ([0, T ]),

mit den einzelnen Steuerungssystemen

f 1 (t, x, u1 ) = (1 − u1 )x, ϕ1 (t, x, u1 ) = u1 x,


U 1 = U 2 = [0, 1]
f 2 (t, x, u2 ) = (1 − u2 )xα , ϕ2 (t, x, u2 ) = u2 xα ,

und mit den Modellparametern

x1−α
 
α ∈ (0, 1) konstant, T fest mit T > max 1, 0 .
α

Da U 1 = U 2 ist, unterscheiden wir nicht zwischen den Steuervariablen u1 = u2 und


schreiben u. Wir wenden Theorem 3.2 mit λ0 = 1 an. Es gilt nach (3.8):

χA∗ (t) ◦ H t, x∗ (t), u∗ (t), p(t), 1 = max H i t, x∗ (t), u∗ (t), p(t), 1


 
i∈{1,2}
n o
max p(t) − 1 u + 1 · x∗ (t), max p(t) − 1 u + 1 · xα∗ (t) .
     
= max
i∈{1,2} u∈[0,1] u∈[0,1]

Dies können wir weiterhin in die Form

max p(t) − 1 u · max {x∗ (t), xα∗ (t)}


  
u∈[0,1] i∈{1,2}

bringen. Daraus erhalten wir für die optimale Investitionsrate und Wechselstrategie
 
1, p(t) < 1, (1, 0), x∗ (t) > 1,
u∗ (t) = χA∗ (t) =
0, p(t) > 1, (0, 1), 0 < x∗ (t) < 1.

Die Funktion p(·) ist die Lösung der adjungierten Gleichung (3.6):
( 
t ∈ A1 ,
 
− p(t) − 1 u∗ (t) + 1 ,
ṗ(t) = p(T ) = 0.
− p(t) − 1 u∗ (t) + 1 · αx∗ (t), t ∈ A2 ,
α−1
  

Betrachten wir die einzelnen Steuerungssysteme, so sind nach den Beispielen 1.29, 1.30
durch t1 = T − 1 bzw. t2 = αT − x1−α 0 die Zeitpunkte für den optimalen Wechsel von
vollständiger Investition in komplette Kosumption gegeben. Außerdem ist für die Lösung
118 Optimale Multiprozesse

x(·) der Differentiagleichung ẋ(t) = xα (t) mit x0 ∈ (0, 1) der Zeitpunkt σ, in dem x(σ) = 1
1−x1−α
gilt, durch σ = 0
1−α bestimmt. Im Weiteren seien also
1 − x01−α
t1 = T − 1, t2 = αT − x01−α , σ= .
1−α
Wir diskutieren die einzelnen möglichen Szenarien:
(a) Sei x0 ≥ 1: In diesem Fall lautet die Lösung
x0 · et , t ∈ [0, t1 ),
 
1, t ∈ [0, t1 ),
x∗ (t) = u∗ (t) =
x0 · et1 , t ∈ [t1 , T ], 0, t ∈ [t1 , T ],
J x∗ (·), u∗ (·), A∗ = x0 · et1 .

χA∗ (t) = (1, 0),
1−αx1−α
(b) Seien x0 < 1 und T < α(1−α) 0
: Dann lautet die Lösung
(   1
(1 − α)t + x1−α

0
1−α
, t ∈ [0, t2 ), 1, t ∈ [0, t2 ),
y∗ (t) =  1 v∗ (t) =

α(1 − α)T + αx0 1−α 1−α
, t ∈ [t2 , T ], 0, t ∈ [t2 , T ],
α  1
J y∗ (·), v∗ (·), B∗ = α 1−α · (1 − α)T + x01−α 1−α .
 
χB∗ (t) = (0, 1),
1−αx1−α
(c) Seien x0 < 1 und T > α(1−α) 0
: Nun erhalten wir die Lösung
   1
 (1 − α)t + x1−α
 1−α
, t ∈ [0, σ), 
0 1, t ∈ [0, t1 ),
z∗ (t) = et−σ , t ∈ [σ, t1 ), w∗ (t) =
0, t ∈ [t1 , T ],
 et1 −σ ,

t ∈ [t1 , T ],

(0, 1), t ∈ [0, σ),
J z∗ (·), w∗ (·), C∗ = eT −1−σ .

χC∗ (t) =
(1, 0), t ∈ [σ, T ],
1−αx1−α
(d) Seien x0 < 1 und T = α(1−α) 0
: Wegen σ = t2 sind alle Bedingungen von Theorem
3.2 für die Multiprozesse y∗ (·), v∗ (·), B∗ und z∗ (·), w∗ (·), C∗ erfüllt.
 

Sei n0 ∈ N mit n0 > α/(1 − α). Für n ≥ n0 betrachten wir die Steuerungen

vn (t) = v∗ (t) + χ[σ,σ+ 1 ) (t) · w∗ (t) − v∗ (t) , χBn (t) = χC∗ (t),
n

die wie im Fall (c) einen Wechsel des Steuerungssystems zum Zeitpunkt t = σ = t2
und eine verlängerte Investitionsphase vorgeben. Für den zugehörigen Kapitalbe-
1
stand yn (·) gilt kyn (·) − y∗ (·)k∞ = e n − 1 und für den Wert des Zielfunktionals
 
1 1
J yn (·), vn (·), Bn − J y∗ (·), v∗ (·), B∗ = e n T − σ −
 
− (T − σ)
n
    
1 1 1 1 1 1 1
> 1+ − − = −1− > 0 für alle n ≥ n0 .
n α n α n α n
Daher stellt y∗ (·), v∗ (·), B∗ in diesem Fall kein starkes lokales Maximum dar. Der


Multiprozess z∗ (·), w∗ (·), C∗ ist die eindeutige Lösung.


Gekoppelte Kompartimente 119

3.4. Zeitoptimale Steuerung gekoppelter Kompartimente


Kompartimentmodelle sind vereinfachte Darstellungen für komplexe Abläufe und Interak-
tionen. Anwendungen finden sie z. B. bei der Abbildung von Mischungsprozessen oder der
chemischen Reaktionskinetik oder bei einer medikamentösen Dauertherapie (Heuser [35]).
Das System in Abbildung 3 zeigt zwei gekoppelte Behälter, die mit einer Flüssigkeit gefüllt
sind. In diesem Modell besteht die Kopplung der Behälter durch den zustandsabhängigen
Zufluss ax1 vom ersten in den zweiten Behälter. Der zweite Behälter gibt seinen Inhalt
mit der Rate ax2 an die Umwelt ab. Die beiden Steuerungssysteme bestehen einerseits
aus dem Auffüllen der Behälter mit konstanter Rate A, die zwischen beiden Behältern
durch die Steuerung u aufgeteilt wird. Andererseits kann die Befüllung komplett gestoppt
werden.

Abbildung 3: Die Behälter in den verschiedenen Steuerungssystemen.

Dies liefert folgende Dynamiken in den jeweligen Steuerungssystemen:

ẋ1 (t) = −ax1 (t) + u(t)A, ẋ1 (t) = −ax1 (t),


ẋ2 (t) = ax1 (t) − ax2 (t) + (1 − u(t))A, ẋ2 (t) = ax1 (t) − ax2 (t).

Dabei beachte man, dass die ungesteuerte zweite Dynamik kein Spezialfall der ersten
Dynamik ist. In diesem Modell besteht das Ziel darin, die Anfangszustände (x01 , x02 ) in
kürzester Zeit in einen Sollzustand (xf1 , xf2 ) zu überführen. Die Aufgabe des zeitoptimalen
Multiprozesses lautet damit:
Z T
J x(·), u(·), A =

1 dt → inf, (3.19)
0

ẋ(t) = χA (t) ◦ ϕ t, x(t), u(t) , (3.20)
x1 (0), x2 (0) = (x01 , x02 ), x1 (T ), x2 (T ) = (xf1 , xf2 ),
 
(3.21)
u(t) ∈ [0, 1], A ∈ Z ([0, T ]),
2
a, A > 0. (3.22)

Wir wenden Theorem 3.4 an: Die Pontrjagin-Funktion der Aufgabe (3.19)–(3.22) lautet
(
p[−ax1 + uA] + q[ax1 − ax2 + (1 − u)A] − λ0 , t ∈ A1 ,
A ◦ H(t, x, u, p, q, λ0 =

p[−ax1 ] + q[ax1 − ax2 ] − λ0 , t ∈ A2 .
120 Optimale Multiprozesse

Unabhängig von A erhalten wir daraus für die Adjungierten p(·), q(·):
       
ṗ(t) p(t) − q(t) p(t) at p0 − atq0
=a· ⇒ =e · . (3.23)
q̇(t) q(t) q(t) q0

Die Maximumbedingung (3.16) ist äquivalent zur Maximierungsaufgabe


n o
max max [up(t) + (1 − u)q(t)], 0 . (3.24)
i∈{1,2} u∈[0,1]

Außerdem folgt, da die Aufgabe autonom ist, H t, x∗ (t), p(t), λ0 ≡ 0.




Zur Auswertung der Maximierungsaufgabe (3.24) sind die Relation zwischen p(t), q(t) und
r(t) ≡ 0 zu klären. Zunächst gilt (p0 , q0 ) 6= (0, 0) in (3.23), denn sonst würde für

(i) λ0 = 0 der Fall trivialer Multiplikatoren in Theorem 3.4 bzw.

(ii) λ0 6= 0 ein Widerspruch zu H t, x∗ (t), p(t), λ0 ≡ 0




auftreten. Dann ergeben sich in Abhängigkeit von q0 ∈ R folgende Situation für die Ad-
jungierten, wobei σ den möglichen Schnittpunkt der Graphen von p(·) und q(·) bezeichnet:

(1) q0 = 0: p(t) > q(t) ≡ 0 für p0 > 0 oder p(t) < q(t) ≡ 0 für p0 < 0.

(2) q0 > 0: p(t) < q(t) für p0 ≤ q0 und t > 0 oder es existiert σ > 0 für p0 > q0 .

(3) q0 < 0: p(t) > q(t) für p0 ≥ q0 und t > 0 oder es existiert σ > 0 für p0 < q0 .

Beachten wir nun weiterhin die optimale Stoppzeit T∗ und die mögliche Nullstelle σ0 von
p(·), dann ergeben sich folgende Wechselstrategien A∗ und Steuerungen u∗ (t):

(a) Es ist nur ein Steuerungssystem aktiv auf [0, T∗ ], wenn


(i) p(t) > max{q(t), 0} für alle t ∈ (0, T∗ ) und es ist

u∗ (t), χA∗1 (t), χA∗2 (t) ≡ (1, 1, 0);

(ii) q(t) > max{p(t), 0} für alle t ∈ (0, T∗ ) und es ist



u∗ (t), χA∗1 (t), χA∗2 (t) ≡ (0, 1, 0);

(iii) 0 > max{p(t), q(t)} für alle t ∈ (0, T∗ ) und es ist



χA∗1 (t), χA∗2 (t) ≡ (0, 1).

(b) Es gibt einen Strategiewechsel, und zwar wenn


Gekoppelte Kompartimente 121

(i) p0 > q0 > 0 und σ ∈ (0, T∗ ):


 
u∗ (t), χA∗1 (t), χA∗2 (t) = (1, 1, 0) −→ u∗ (t), χA∗1 (t), χA∗2 (t) = (0, 1, 0);

(ii) p0 , q0 < 0 und σ0 ∈ (0, T∗ ):


 
χA∗1 (t), χA∗2 (t) = (0, 1) −→ u∗ (t), χA∗1 (t), χA∗2 (t) = (1, 1, 0).

(c) Der Strategiewechsel ist nicht eindeutig bestimmbar, wenn p0 < q0 = 0:


 
u∗ (t), χA∗1 (t), χA∗2 (t) = (0, 1, 0) ←→ χA∗1 (t), χA∗2 (t) = (0, 1).

Zur Illustration sei a = 1, A = 10, x01 , x02 ∈ [0, 10] und (xf1 , xf2 ) = (5, 5). Die Zustände
x1∗ (t), x2∗ (t) , die zu den Steuerungen und dem aktiven System im Fall (a) gehören, teilen


das Phasendiagramm (x1 , x2 ) ∈ [0, 10] × [0, 10] in die Bereiche X, Y, Z ein (Abbildung 4).

Abbildung 4: Die Einteilung des Phasendiagramms und die optimalen Trajektorien.

Zur Erläuterung der Vorgänge innerhalb der einzelnen Bereiche:


(X) Die optimale Steuerung und Wechselstrategie wird durch (ii) im Fall (b) gegeben.
Zur Zeit t = σ0 erreicht die Trajektorie x1∗ (t), x2∗ (t) den Rand des Bereiches X.

(Y ) Die optimale Steuerung und Wechselstrategie wird durch (i) im Fall (b) gegeben.
Zur Zeit t = σ erreicht die Trajektorie x1∗ (t), x2∗ (t) den Rand des Bereiches Y .

(Z) Die optimale Strategie ist nicht eindeutig, denn es tritt der Fall (c) ein. In diesem
Bereich bestimmt sich die optimale Stoppzeit T∗ durch die schnellste Reduktion des
Zustandes x01 zu xf1 . Im zweiten Behälter muss zum Zeitpunkt t = T∗ lediglich die
Bedingung x2 (T∗ ) = xf2 sichergestellt werden.
122 Optimale Multiprozesse

Wir fügen dem Behältermodell (3.19)–(3.22) eine Zustandsbeschränkung hinzu:

x2 (t) ≥ S für alle t ∈ [0, T ], x20 , xf0 , A > S.

Sei nun x1∗ (t), x2∗ (t) eine optimale Trajektorie in der Aufgabe (3.19)–(3.22) ohne Zu-


standsbeschränkung mit x2∗ (t) < S für ein t ∈ (0, T∗ ). Dann existieren Zeitpunkte t1 , t2
mit 0 < t1 < t2 < T∗ und x2 (t1 ) = x2 (t2 ) = S.
Aus Theorem 3.4 können wir folgenden Kandidaten ableiten: Auf dem Teilstück [t1 , t2 ],
auf dem die Zustandsbeschränkung aktiv wird, erhalten wir für die Adjungierten

p(t) = q(t) > 0, ṗ(t) = q̇(t) = 0.

Für das Borelsche Maß liefert der Ansatz dµ(t) = λ(t) dt die Darstellung

λ(t) = a 2q(t) − p(t) > 0.

Eingeschränkt auf das Teilstück [t1 , t2 ] erhalten wir für den Multiprozess

x1∗ (t) = x1∗ (t1 ) + (t − t1 )(A − S), x2∗ (t) = S,


x1 (t) − S + A
u∗ (t) = ∗

, χA∗1 (t), χA∗2 (t) = (1, 0).
A

Für die bereits verwendeten Parameter a = 1, A = 10, x01 , x02 ∈ [0, 10], (xf1 , xf2 ) = (5, 5)
und für die untere Schranke S = 3, 5 ergibt sich das folgende Phasenportrait:

Abbildung 5: Phasenportrait unter der Zustandsbeschränkung.


Vorstellung der Aufgabenklasse 123

4. Die Vorstellung der Aufgabe mit unendlichem Zeithorizont

Die Optimale Steuerung mit unendlichem Zeithorizont liefert die wesentliche Grundlage
zur Formulierung und Untersuchung von Aufgaben in der Ökonomischen Wachstums-
theorie. Im Rahmen der Ökonomischen Wachstumstheorie werden z. B. die Interaktionen
sich überschneidender Generationen oder die Determinanten des wirtschaftlichen Wachs-
tums, insbesondere unter sich ändernden Umweltbedingungen wie globaler Erwärmung
oder erschöpfenden natürlichen Ressourcen, untersucht. Aufgrund der Langlebigkeit der
wirtschafts- und sozialpolitischen Entscheidungen muss dabei die Frage nach einem geeig-
neten Planungszeitraum aufgeworfen werden: Jeder endliche Zeithorizont stellt die For-
derung nach einer adäquaten Ausgangslage für die nachfolgenden Generationen. Um die
Beachtung aller nachfolgenden Generationen zu gewährleisten, wird der Zeitrahmen in
Form des unendlichen Zeithorizontes idealisiert (Arrow & Kurz [2]).
Der erste mathematische Beitrag zu einem Problem mit unbeschränktem Zeitintervall
besteht in einer Aufgabe der Variationsrechnung, in der die Frage nach der optimalen
Sparquote einer Gesellschaft behandelt wird (Ramsey [56]).
Die Untersuchung von Optimalsteuerungsaufgaben basiert vorallem auf notwendigen und
hinreichenden Optimalitätsbedingungen. Für die Aufgaben über dem endlichen Zeitinter-
vall haben wir bekannte Ergebnisse in den vorangegangenen Kapiteln vorgestellt. Dabei
kommt dem Pontrjaginschen Maximumprinzip die zentrale Rolle zu. Die bekannten Op-
timalitätskriterien für Aufgaben mit endlichem Zeithorizont bestehen aus der Existenz
nichttrivialer Multiplikatoren, mit denen die adjungierte Gleichung, die Transversalitäts-
bedingungen und die Maximumbedingung erfüllt sind.
Die Entwicklung der Theorie der Optimalen Steuerung mit unendlichem Zeithorizont stellt
eine neue Herausforderung dar: Bekannte Methoden können nicht unmittelbar an das un-
beschränkte Intervall angepasst werden. Als gängiges Verfahren hat sich die Methode der
Approximation durch Aufgaben über endlichem Horizont etabliert. Allerdings zeigt das
Beispiel von Halkin [30], dass diese Approximation zu einem “pathologischen” Verhalten
der Adjungierten im Unendlichen führen kann. Es stellt sich damit die Frage, ob diese
“Pathologien” in der Natur der Probleme mit unendlichem Zeithorizont liegen oder sie
der Preis der Approximation sind.
Wir werden zeigen, dass die Aufgaben mit unendlichem Zeithorizont die Problemklasse
über endlichem Zeitintervall verallgemeinert. Sind die notwendigen Optimalitätsbedingun-
gen für Aufgaben über unendlichem Zeithorizont etabliert, dann lassen sich die Optima-
litätsbedingungen für die entsprechenden Aufgaben über endlichem Intervall ableiten.
Das zu behandelnde Problem der Optimalen Steuerung mit unendlichem Zeithorizont be-
steht in der Minimierung des Zielfunktionals J in Integralform:


Z ∞ 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt.
0
124 Vorstellung der Aufgabenklasse

Dabei ist die Dichte ω(·) stets eine Funktion aus dem Raum L1 (R+ , R+ ). Ferner, da wir die
Z Teilmenge von [0, ∞) = R+ )
Aufgabe für absolutstetige Zustände (auf jeder kompakten
und für messbare Steuerungen betrachten, bezeichnet dt das Lebesgue-Integral. Die
Dynamik wird durch das Differentialgleichungssystem

ẋ(t) = ϕ t, x(t), u(t)

mit Anfangsbedingung x(0) = x0 beschrieben. Wir nennen die Trajektorie x(·) eine Lösung
des dynamischen Systems, falls x(·) auf R+ definiert ist und auf jedem endlichen Intervall
die Dynamik mit Steuerung u(·) ∈ L∞ (R+ , U ) im Sinn von Carathéodory löst.
Zustandsbeschränkungen werden durch Ungleichungen der Form

gj t, x(t) ≤ 0 für alle t ∈ R+ , j = 1, ..., l,

gegeben. Ferner stellt die Inklusion u(t) ∈ U ⊆ Rm Steuerungsbeschränkungen dar.


Zusammenfassend betrachten wir die folgenden Optimalsteuerungsprobleme:
Z ∞
 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf, (4.1)
0

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 , (4.2)
m
u(t) ∈ U ⊆ R , U 6= ∅, (4.3)

gj t, x(t) ≤ 0 für alle t ∈ R+ , j = 1, ..., l. (4.4)

4.1. Zur Approximation durch eine Aufgabe über endlichem Horizont


Zur Behandlung von Aufgaben mit unendlichem Zeithorizont findet man in der Literatur
verschiedene Methoden und eine entsprechend große Anzahl an Optimalitätsbegriffen.
In der Aufgabe (4.1)–(4.4) bezeichne
 Aadm die Menge aller zulässigen Steuerungsprozesse,
d. h. die Menge aller x(·), u(·) , die der Dynamik (4.2), den Steuerrestriktionen (4.3) und
den Zustandsbeschränkungen (4.4) genügen, und für die das Zielfunktional (4.1) endlich
ist. Zur Gegenüberstellung von verschiedenen Optimalitätsbegriffen betrachten wir globale
Optimalitätskriterien.

(a) Der Steuerungsprozess x∗ (·), u∗ (·) ∈ Aadm heißt global optimal (GO), falls


 
J x∗ (·), u∗ (·) ≤ J x(·), u(·)

für alle x(·), u(·) ∈ Aadm gilt.




(b) Der Steuerungsprozess x∗ (·), u∗ (·) ∈ Aadm heißt streng global optimal (SGO), falls


 
J x∗ (·), u∗ (·) < J x(·), u(·)

für alle x(·), u(·) ∈ Aadm mit x(·), u(·) 6= x∗ (·), u∗ (·) gilt.
  
Finite-Horizont-Approximation 125

Zur Untersuchung des Steuerungsproblems mit unendlichem Zeithorizont wird in den mei-
sten Ansätzen der Aufgabe (4.1)–(4.4) ein Problem über einem endlichen Zeitintervall
[0, T ] zugeordnet und der Grenzübergang T → ∞ betrachtet. Wir nennen dies die Appro-
ximation durch endlichen Horizont.
Das zur Aufgabe (4.1)–(4.4) gehörende Problem mit endlichem Zeithorizont lautet
Z T
 
JT x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf, (4.5)
0

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 , (4.6)
u(t) ∈ U ⊆ Rm , U 6= ∅, (4.7)

gj t, x(t) ≤ 0 für alle t ∈ [0, T ], j = 1, ..., l. (4.8)
Wegen des Überganges zu einer Aufgabe über endlichem Zeithorizont und der anschlie-
ßenden Betrachtung des Grenzwertes T → ∞ werden die Optimalitätsbegriffe angepasst.
Zur Aufgabe (4.5)–(4.8) definieren wir den Defekt ∆(T ),
 
∆(T ) = JT x(·), u(·) − JT x∗ (·), u∗ (·) .
x∗ (·), u∗ (·) ∈ Aadm heißt overtaking optimal (OT), falls es

(c) Der Steuerungsprozess
zu jedem x(·), u(·) ∈ Aadm eine Zahl T0 gibt mit

 
∆(T ) = JT x(·), u(·) − JT x∗ (·), u∗ (·) ≥ 0
für alle T ≥ T0 (von Weizsäcker [69]).
(d) Der Steuerungsprozess x∗ (·), u∗ (·) ∈ Aadm heißt catching up optimal (CU), falls

 
lim inf ∆(T ) = lim inf JT x(·), u(·) − JT x∗ (·), u∗ (·) ≥ 0
T →∞ T →∞

für jedes x(·), u(·) ∈ Aadm gilt (Gale [24]).




(e) Das Paar x∗ (·), u∗ (·) ∈ Aadm heißt sporadically catching up optimal (SCU), falls

 
lim sup ∆(T ) = lim sup JT x(·), u(·) − JT x∗ (·), u∗ (·) ≥ 0
T →∞ T →∞

für jedes x(·), u(·) ∈ Aadm gilt (Halkin [30]).




Durch die Betrachtung auf der Menge Aadm haben wir in den Definitionen bereits ein-
gefügt, dass für einen zulässigen Steuerungsprozess das Zielfunktional endlich ist. In di-
versen Arbeiten zu Steuerungsproblemen mit unendlichem Zeithorizont, z. B. bei Aseev &
Veliov [4–6], darf das Integral in (4.1) divergieren. Konvergiert das Zielfunktional für je-
den zulässigen Steuerungsprozess, so sind die Optimalitätsbegriffe (CU), (SCU) und (GO)
äquivalent, denn es gilt
lim inf ∆(T ) ≥ 0 ⇔ lim sup ∆(T ) ≥ 0 ⇔ lim ∆(T ) ≥ 0.
T →∞ T →∞ T →∞

Zur Einordnung der Begriffe (SGO) und (OT) führen wir folgendes Beispiel an:
126 Vorstellung der Aufgabenklasse

Beispiel 4.1. Wir betrachten die Aufgabe


Z ∞
−u(t)x(t) dt → inf, ẋ(t) = −u(t)x(t), x(0) = 1, u(t) ∈ [0, 1], % > 0.
0

Offenbar ist jede zulässige Trajektorie x(·) monoton fallend und wegen 1 ≥ x(t) > 0
beschränkt. Also besitzt sie deswegen einen Grenzwert für t → ∞. Damit gilt
Z ∞

J x(·), u(·) = −u(t)x(t) dt = lim x(t) − 1 ≥ −1.
0 t→∞

Daher ist jedes Paar x(·), u(·) ∈ Aadm mit x(t) → 0 global optimal. Dabei gilt:

Z ∞
lim x(t) = 0 ⇔ u(t) dt = ∞.
t→∞ 0

In diesem Beispiel ist jeder Steuerungsprozess x(·), u(·) ∈ Aadm mit



 x(t) → 0 für t → ∞
optimal im Sinn von (GO), (CU) und (SCU). Wegen JT x(·), u(·) ≥ x(T ) − 1 ist unter
diesen Steuerungsprozessen nur derjenige optimal im Sinn von (OT), für den u(t) ≡ 1 auf
R+ gilt. Eine (SGO)-Lösung existiert nicht. 
Dieses Beispiel zeigt, dass unter der Annahme eines endlichen Zielfunktionals zu den bereits
erwähnten Äquivalenzen folgende weitere Relationen zwischen den verschiedenen Optima-
litätsbegriffen bestehen:
(SGO) =⇒ (OT) =⇒ (CU) ⇐⇒ (SCU) ⇐⇒ (GO).
Ist demnach die globale Optimalstelle eindeutig, so fallen bei endlichem Zielfunktional die
aufgeführten Optimalitätsbegriffe zusammen.
Die Betrachtungen dieses Abschnitts ordnen die Begriffe der globalen Optimalität in den
Kontext gängiger Optimalitätsbegriffe ein, die bei der Approximation mit einem endlichen
Horizont angewendet werden. Unbehandelt bleibt dabei allerdings die wesentliche Frage,
wann eine Familie xT∗ (·), uT∗ (·) T ∈R+ von optimalen Steuerungsprozessen, die sich in


der Approximation ergibt, gegen ein globales Optimum konvergiert. Dazu muss man sich
vorab im Klaren sein, dass für die Approximation die fundamentale Beziehung
Z T Z ∞
lim f (t) dt = f (t) dt
T →∞ 0 0

im Allgemeinen nur im Fall der Existenz des Lebesgue-Integrals im Zielfunktional gilt. Ein
bekanntes Gegenbeispiel ist der Integralsinus:
Z T Z ∞
sin t π sin t
lim dt = , dt existiert nicht.
T →∞ 0 t 2 0 t
Noch weniger überschaubar wird die Situation in der Aufgabe (4.1)–(4.4), in der die Dy-
namik, sowie Zustands- und Steuerungsbeschränkungen vorkommen. Dann können noch
weitere unerwünschte Situationen eintreten. Dazu geben wir das folgende Beispiel an:
Finite-Horizont-Approximation 127

Beispiel 4.2. Wir betrachten die Aufgabe


Z T
 
JT x(·), u(·) = 1 − u(t) x(t) dt → sup, ẋ(t) = u(t)x(t), x(0) = 1, u(t) ∈ [0, 1].
0

Für jedes feste T > 1 liefert der Steuerungsprozess


( (
T et , t ∈ [0, T − 1), T 1, t ∈ [0, T − 1),
x∗ (t) = T −1
u∗ (t) =
e , t ∈ [T − 1, T ], 0, t ∈ [T − 1, T ],

 Maximum. Betrachten wir den Grenzübergang T → ∞, dann konvergiert die


das globale
Familie xT∗ (·), uT∗ (·) T ∈R+ punktweise gegen den Steuerungsprozess

x∗ (t) = et , u∗ (t) = 1, t ∈ R+ .

Dieses Paar ist das globale Minimum der Aufgabe mit unendlichem Zeithorizont. 

Fordern wir die Konvergenz T des Zielfunktionals, so lassen sich Aussagen zur globalen
T

Optimalität treffen. Sei x∗ (·), u∗ (·) T ∈R+ eine Familie von globalen Minimalstellen
der Aufgabe (4.5)–(4.8), die folgende Hypothese erfüllt:

(H) Es existiert ein zulässiger Steuerungsprozess x∗ (·), u∗ (·) der Aufgabe (4.1)–(4.4)
mit den Eigenschaften

lim JT xT∗ (·), uT∗ (·) = J x∗ (·), u∗ (·) ,


  
J x∗ (·), u∗ (·) < ∞.
T →∞

In der Hypothese (H) werden an die Familie xT∗ (·), uT∗ (·) T ∈R+ keine Konvergenzei-
 

genschaften gefordert. Wesentlicher Punktin der Hypothese (H) ist die Existenz des
zulässigen Steuerungsprozesses x∗ (·), u∗ (·) . Dieser Nachweis stellt die eigentliche Her-
ausforderung dar.

Lemma 4.3. Es sei xT∗ (·), uT∗ (·) T ∈R+ eine Familie von globalen Minimalstellen der
 

Aufgabe (4.5)–(4.8), für die die Hypothese (H) erfüllt ist. Dann ist x∗ (·), u∗ (·) ein glo-
bales Minimum der Aufgabe (4.1)–(4.4).

Beweis Sei x(·), u(·) zulässig in der Aufgabe (4.1)–(4.4). Insbesondere ist dann das
Zielfunktional in (4.1) endlich. Dann lässt sich zu jedem ε > 0eine Zahl T 0 > 0 derart
angeben, dass die Einschränkung des Zielfunktionals J x(·), u(·) auf das Intervall [T, ∞)
vom Betrag kleiner oder gleich ε für alle T ≥ T 0 ausfällt. Ferner kann die Zahl T 0 so
gewählt werden, dass JT xT∗ (·), uT∗ (·) − J x∗ (·), u∗ (·) ≤ ε für alle T ≥ T 0 gilt. Mit den


suggestiven Bezeichnungen, dass JT bzw. J die Integration des Zielfunktionals über [0, T ]
bzw. über R+ angeben, können wir die Differenz
 
J x(·), u(·) − J x∗ (·), u∗ (·)
128 Vorstellung der Aufgabenklasse

in die Form
h i h i
J x(·), u(·) − JT x(·), u(·) + JT x(·), u(·) − JT xT∗ (·), uT∗ (·)
 
h i
+ JT xT∗ (·), uT∗ (·) − J x∗ (·), u∗ (·)


bringen. Aufgrund der Wahl von T 0 fallen der erste und dritte Summand größer  oder gleich
−ε für alle T ≥ T 0 aus. Der zweite Ausdruck ist nichtnegativ, da xT∗ (·), uT∗ (·) ein globales
Minimum über [0, T ] darstellt. Daher gilt
 
J x(·), u(·) − J x∗ (·), u∗ (·) ≥ −2ε.

Da ε > 0 beliebig ist, folgt damit die Behauptung. 


In Aseev & Kryazhimskii [3] sind Voraussetzungen angegeben, unter denen die Hypothese
(H) in der Aufgabe (4.1)–(4.3) erfüllt ist. Insbesondere wird gezeigt, dass die Approxi-
mation durch die Aufgabe (4.5)–(4.7) mit endlichem Horizont eine Familie von globalen
Minimalstellen liefert, die auf jedem endlichen Intervall gleichmäßig gegen das globale
Minimum der Aufgabe (4.1)–(4.3) konvergiert.

4.2. Zur Einordnung der Aufgabenklasse in die Steuerungstheorie


In diesem Abschnitt gehen wir der grundlegenden Frage nach, wie sich die Aufgabenklas-
sen (4.1)–(4.4) mit unendlichem und (4.5)–(4.8) mit endlichem Zeithorizont zueinander
einordnen. Ein wesentlicher Augenmerk liegt dabei auf der Gültigkeit der “natürlichen”
Transversalitätsbedingungen für die Adjungierte p(·):

lim kp(t)k = 0, hp(t), x(t)i = 0 für alle zulässigen x(·).


t→∞

In diesem Zusammenhang gibt Halkin [30] folgendes Gegenbeispiel an:

Beispiel 4.4. In der Aufgabe


Z ∞
 
u(t) 1 − x(t) dt → sup, ẋ(t) = u(t) 1 − x(t) , x(0) = 0, u ∈ [0, 1],
0

liefert der Steuerungsprozess


 
0, t ∈ [0, 1], 0, t ∈ [0, 1],
u∗ (t) = x∗ (t) = 1−t
1, t ∈ [1, ∞), 1 − e , ∈ [1, ∞),

ein globales Optimum. Für die zugehörigen Multiplikatoren λ0 , p(·) =6 (0, 0), mit de-
nen die Bedingungen des Maximumprinzips erfüllt sind, gilt dann im Widerspruch zur
“natürlichen” Transversalitätsbedingung p(t) ≡ −λ0 . 
Einordnung der Aufgabenklassen 129

Im letzten Abschnitt haben wir die Schwierigkeiten, die bei der Approximation mit endli-
chem Zeithorizont entstehen, erörtert. Mit dem Beispiel von Halkin rückt die Frage in den
Vordergrund, welche Transversalitätsbedingungen in der Aufgabe (4.1)–(4.4) notwendige
Optimalitätsbedingungen darstellen. Es ensteht damit die Suche nach einer geeigneten
Herangehensweise, unter der die “natürlichen” Transversalitätsbedingungen in den Op-
timalitätsbedingungen enthalten sind. Die Antworten können durch die Approximation
mit endlichem Horizont nicht gegeben werden, da der vollständige Satz an notwendigen
Optimalitätsbedingungen im Allgemeinen verloren geht.
Eine andere Herangehensweise an die Aufgaben mit unendlichem Zeithorizont ist die
Zurückführung auf eine Aufgabe über endlichem Zeitintervall mit Hilfe der Substitution
der Zeit. Betrachten wir z. B. die Transformation t(s) = − ln(1−s), so gilt t0 (s) = v(s) > 0
und es wird die Aufgabe (4.1)–(4.4) eineindeutig in die Aufgabe (4.5)–(4.8) über dem
endlichen Intervall [0, 1] überführt. Schauen wir uns entsprechend dem Abschnitt 2.6 die
Aufgabe über dem endlichen Horizont an, dann besitzt sie die Form
Z 1

v(s) · ω(s)f t(s), y(s), w(s) ds → inf,
0
t0 (s) = v(s), y 0 (s) = v(s) · ϕ t(s), y(s), w(s) ,


h0 t(0), y(0) = 0, t(1) = ∞, v(s) > 0, w(s) ∈ U,

gj t(s), y(s) ≤ 0, s ∈ [0, 1], j = 1, ..., l.
Die Aufgabe enthält damit die Singularität t(1) = ∞ und gehört nicht in den Rahmen der
klassischen Steuerungsprobleme. Sondern die Substitution der Zeit verdeutlicht viel mehr,
dass der unendliche Horizont in der Aufgabe (4.1)–(4.4) selbst eine Singularität ist, die
man nicht aus der Betrachtung argumentieren kann. Also kann die Aufgabe (4.1)–(4.4)
kein klassisches Problem der Optimalen Steuerung sein.
Damit stellt sich umgekehrt die Frage, ob sich die Aufgabe (4.5)–(4.8) mit endlichem
Zeitintervall der Aufgabe (4.1)–(4.4) mit unendlichem Horizont unterordnet. Wir gehen
zunächst auf die Aufgabe (4.1)–(4.3) ein. Für diese Aufgabe werden wir unter geeigneten
Voraussetzungen die Existenz nicht gleichzeitig verschwindender Multiplikatoren λ0 ≥ 0
und p(·) : R+ → Rn zeigen, mit denen die
(a) adjungierte Gleichung
ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 ω(t)fx t, x∗ (t), u∗ (t) ,
 

(b) die “natürlichen” Transversalitätsbedingungen


lim kp(t)k = 0, hp(t), x(t)i = 0 für alle zulässigen x(·),
t→∞

(c) und für fast alle t ∈ R+ die Maximumbedingung


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0
u∈U
130 Vorstellung der Aufgabenklasse


für ein lokales Minimum x∗ (·), u∗ (·) gelten. Wir betten die Aufgabe (4.5)–(4.7) durch
ω(t) = χ[0,T ] (t) auf R+ , f (t, x, u) = 0, ϕ(t, x, u) = 0 für t > T
in die Aufgaben mit unendlichem Horizont ein. Da nun ṗ(t) = 0 für t > T gilt, folgt
die Transversalitätsbedingung p(T ) = 0 für die Aufgabe über [0, T ] mit freiem rechten
Endpunkt. Das Maximumprinzip über dem endlichen Horizont in Kapitel 2 lässt sich also
unmittelbar aus den notwendigen Bedingungen für die Aufgabe (4.1)–(4.3) ableiten.
Für die Aufgabe (4.1)–(4.4) mit Zustandsbeschränkungen werden wir die Existenz einer
Zahl λ0 ≥ 0, einer Vektorfunktion p(·) : R+ → Rn und auf den Mengen
 
Tj = t ∈ R+ gj t, x∗ (t) = 0 , j = 1, ..., l,
konzentrierte nichtnegative reguläre Borelsche Maße µj endlicher Totalvariation (wobei
sämtliche Größen nicht gleichzeitig verschwinden) zeigen, mit denen
(A) die adjungierte Gleichung
Z ∞ l Z
X ∞
 
p(t) = Hx s, x∗ (s), u∗ (s), p(s), λ0 ds − gjx s, x∗ (s) dµj (s),
t j=1 t

(B) die “natürlichen” Transversalitätsbedingungen


lim kp(t)k = 0, hp(t), x(t)i = 0 für alle zulässigen x(·),
t→∞

(C) und für fast alle t ∈ R+ die Maximumbedingung


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0
u∈U

für ein lokales Minimum x∗ (·), u∗ (·) gelten. In der Aufgabe (4.5)–(4.8) setzen wir gj (t, x)
durch die Festlegung
gj (t, x) = gj (T, x) für t > T
stetig in (t, x) und stetig differenzierbar bezüglich der Variablen x fort. Ferner sei die
Funktion h(t) stetig und stückweise linear mit
h(t) = 0, t ∈ [0, T ], h(t) = 1, t ∈ [T + 1, ∞).
Nutzen wir wieder die Setzungen
ω(t) = χ[0,T ] (t) auf R+ , f (t, x, u) = 0, ϕ(t, x, u) = 0 für t > T,

dann ist für alle zulässigen Steuerungsprozesse x(·), u(·) der Aufgabe (4.5)–(4.8) die
Zustandsbeschränkung
g̃j (t, x) = gj (t, x) − h(t)
für t > T nicht aktiv und es gilt ṗ(t) = 0 für t > T . Beachtet man dies in der adjungierten
Gleichung (A) mit den Zustandsbeschränkungen g̃j (t, x), so erhalten wir unmittelbar das
Maximumprinzip für die Aufgabe über endlichem Zeitintervall mit Zustandsbeschränkun-
gen und freiem rechten Endpunkt.
Einfache Nadelvariation 131

4.3. Einfache Nadelvariationen über dem unendlichen Zeithorizont


Im Abschnitt 2.2 haben wir zum Beweis des Pontrjaginschen Maximumprinzips eine einfa-
che Nadelvariation betrachtet. Anhand dieser elementaren Methode untersuchen wir den
Übergang zum unendlichen Zeithorizont und demonstrieren grundlegende Schwierigkeiten,
die mit dem unbeschränkten Intervall verbunden sind.
Die Aufgabe (4.1)–(4.3) betrachten wir bezüglich x(·), u(·) ∈ P C1 (R+ , Rn )×P C(R+ , U ).


Dabei bezeichnen P C(R+ , U ) die Menge der stückweise stetigen Vektorfunktionen, die nur
Werte aus der Menge U ⊆ Rm annehmen, und P C1 (R+ , Rn ) den Raum der stetigen und
stückweise stetig differenzierbaren Vektorfunktionen.
Um den Beweis des Maximumprinzips durch eine einfache Nadelvariation wie im Abschnitt
2.2 über dem unendlichen Horizont
 zu erbringen, müssen Vorkehrungen getroffen werden.
Es sei im Weiteren x∗ (·), u∗ (·) ∈ P C1 (R+ , Rn ) × P C(R+ , U ) in der Aufgabe zulässig.
Weiterhin bezeichnet xλ (·), xλ (t) = x(t; v, τ, λ), die eindeutige Lösung der Gleichung

ẋ(t) = ϕ t, x(t), uλ (t) , x(t0 ) = x0 ,

zur einfachen Nadelvariation



u∗ (t) für t 6∈ [τ − λ, τ ),
u(t; v, τ, λ) = uλ (t) = v ∈ U.
v für t ∈ [τ − λ, τ ),

Im Gegensatz zur Aufgabe (2.3)–(2.5) über endlichem Zeithorizont müssen wir bezüglich
dieser Nadelvariation Annahmen über die Variierbarkeit treffen. Zur Veranschaulichung
betrachten wir die Dynamik

ẋ(t) = x(t) + x2 (t) + u(t), x(0) = 0, u(t) ∈ U = R+ .

Die Trajektorie x∗ (t) ≡ 0 zur Steuerung u∗ (t) ≡ 0 ist nicht variierbar. Denn jede Steuerung
u(t; v, τ, λ) mit λ, v > 0 liefert eine Trajektorie xλ (·), die nicht sinnvoll auf R+ fortgesetzt
werden kann. Dies führt zu folgender Voraussetzung über die Variierbarkeit:

(V) Es existieren δ > 0 und eine Funktion µ(·) derart, dass für  alle T ≥ 0 und alle ζT
mit kζT − x∗ (T )k ≤ δ das System ẋ(t) = ϕ t, x(t), u∗ (t) mit Anfangsbedingung
x(T ) = ζT eine Lösung x(t; ζT ) auf [T, ∞) besitzt und folgende Ungleichung gilt

kx(t; ζT ) − x∗ (t)k ≤ kζT − x∗ (T )kµ(t) für alle t ≥ T ≥ 0.

Die Funktion µ(·) wird in der Voraussetzung (V) nicht weiter spezifiziert. Aber im Ver-
gleich zum Abschnitt 2.2 verlieren wir bei einer unbeschränkten Funktion µ(·) den lokalen
Charakter einer Optimalstelle.
Die einfache Nadelvariation kann andererseits zu einer Trajektorie xλ (·) führen, die über
132 Vorstellung der Aufgabenklasse

R+ wohldefiniert, aber nicht zulässig in der Aufgabe ist. In dem Beispiel von Halkin [30],
Z ∞
 
J x(·), u(·) = u(t) − x(t) dt → sup,
0
ẋ(t) = u2 (t) + x(t), x(0) = 0, u(t) ∈ [0, 1],

ist der Steuerungsprozess x∗ (t), u∗ (t) ≡ (0, 0) das globale Maximum, da für jeden an-
deren Steuerungsprozess das Zielfunktional den Wert −∞ besitzt. Deswegen treffen wir
Annahmen über die Differenzierbarkeit und Beschränktheit:
(D) Die Abbildungen f (t, x, u), ϕ(t, x, u) sind stetig differenzierbar. Weiterhin ist die
Dichtefunktion ω(·) stückweise stetig, beschränkt und integrierbar. Ferner gibt es zu
jeder Nadelvariation u(t; v, τ, λ) = uλ (t) ein λ0 > 0, eine Funktion L(·) derart, dass
t → ω(t)L(t) über R+ integrierbar ist und
 
f t, xλ (t), uλ (t) ≤ L(t) für alle 0 < λ ≤ λ0 , fx t, x∗ (t), u∗ (t) ≤ L(t),

gelten. Weiterhin existiert eine Zahl C0 > 0 mit



ϕx t, x∗ (t), u∗ (t) ≤ C0 .

Im Beweis des Maximumprinzips 2.1 in Abschnitt 2.2 sind wir von der Transversalitäts-
bedingung p(t1 ) = 0 für die Adjungierte ausgegangen. Über dem unbeschränkten Intervall
fehlt an dieser Stelle eine entsprechende Optimalitätsbedingung. Wir “entfremden” statt-
dessen die Transversalitätsbedingung hp(t), xλ (t)i → 0 für t → ∞ von einer Optimalitäts-
eigenschaft zu einer Voraussetzung:
(T) Für die Lösung p(·) der adjungierten Gleichung,

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + ω(t)fx t, x∗ (t), u∗ (t)


 

sei mit der Funktion µ(·) aus Voraussetzung (V) folgender Grenzwert erfüllt:

lim µ(t)kp(t)k = 0.
t→∞

Unter restriktiven Annahmen über die Daten der Aufgabe wurde in den Arbeiten von
Aseev & Veliov [4–6] die Voraussetzung (T) sichergestellt. Die Annahme (V) wurde
ebenfalls diesen Arbeiten entnommen. In den Kapiteln zu schwachen und starken loka-
len Minimalstellen in der Aufgabe (4.1)–(4.3) mit unendlichem Zeithorizont spezifizieren
wir die Funktion µ(·) und geben der Voraussetzung eine passende Form, die die notwen-
digen Optimalitätsbedingungen im normalen Fall garantiert.
Für die Aufgabe (4.1)–(4.3) bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-
Funktion, die wir wie folgt definieren:

H(t, x, u, p, 1) = hp, ϕ(t, x, u)i − ω(t)f (t, x, u).


Einfache Nadelvariation 133


Theorem 4.5. Sei x∗ (·), u∗ (·) zulässig in der Aufgabe (4.1)–(4.3). Ferner seien die
Voraussetzungen über die Varrierbarkeit (V), über die Differenzierbarkeit (D) und über die
Transversalitätsbedingung (T) erfüllt. Ist x∗ (·), u∗ (·) ein globales Minimum der Aufgabe
(4.1)–(4.3), dann existiert eine Funktion p(·) derart, dass
(a) die Vektorfunktion p(·) der adjungierten Gleichung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + ω(t)fx t, x∗ (t), u∗ (t)


 
(4.9)

genügt;

(b) in fast allen Punkten t ∈ R+ die Maximumbedingung gilt:


 
H t, x∗ (t), u∗ (t), p(t), 1 = max H t, x∗ (t), u, p(t), 1 . (4.10)
u∈U

Beweis Wegen der stückweisen Stetigkeit und wegen der Beschränktheit der Abbildungen
 
t → ϕx t, x∗ (t), u∗ (t) , t → ω(t)fx t, x∗ (t), u∗ (t)

existiert über jedem endlichen Intervall eine Lösung p(·) der adjungierten Gleichung zum
Anfangswert p(0) = p0 ∈ Rn im Sinn von Carathéodory.
Es sei τ > 0 ein Stetigkeitspunkt der Steuerung u∗ (·). Wir setzen

u∗ (t) für t 6∈ [τ − λ, τ ),
u(t; v, τ, λ) = uλ (t) = v∈U
v für t ∈ [τ − λ, τ ),

und es bezeichne xλ (·), xλ (t) = x(t; v, τ, λ), die eindeutige Lösung der Gleichung

ẋ(t) = ϕ t, x(t), uλ (t) , x(0) = x0 .

Wir verfahren nun genauso wie im Abschnitt 2.2.2: Auf jedem endlichen Intervall [τ, T ]
konvergiert der Grenzwert
xλ (t) − x∗ (t)
y(t) = lim
λ→0+ λ
gleichmäßig, die Funktion y(·) ist für t ≥ τ wohldefiniert und genügt der Integralgleichung
Z t

y(t) = y(τ ) + ϕx s, x∗ (s), u∗ (s) y(s) ds (4.11)
τ

zur Anfangsbedingung
 
y(τ ) = ϕ τ, x∗ (τ ), v − ϕ τ, x∗ (τ ), u∗ (τ ) . (4.12)

Wir wenden die Voraussetzung (V) über die Variierbarkeit an,

kxλ (t) − x∗ (t)k ≤ kxλ (τ ) − x∗ (τ )k · µ(t),


134 Vorstellung der Aufgabenklasse

und erhalten
kxλ (t) − x∗ (t)k
ky(t)k = lim ≤ ky(τ )k · µ(t).
λ→0+ λ
Daher ergibt sich nach Voraussetzung (T) der Grenzwert

lim hp(t), y(t)i = lim µ(t)kp(t)k = 0
t→∞ t→∞

und wir erhalten die Beziehung


Z ∞

hp(τ ), y(τ )i = − ω(t) fx t, x∗ (t), u∗ (t) , y(t) dt. (4.13)
τ

Da x∗ (·), u∗ (·) ein globales Minimum ist, ist für alle hinreichend kleine und positive λ
 
J xλ (·), uλ (·) − J x∗ (·), u∗ (·)
≥ 0.
λ

Dabei ist J xλ (·), uλ (·) nach Voraussetzung (D) für 0 < λ ≤ λ0 endlich und wir dürfen
zudem nach dem Satz über majorisierte Konvergenz unter dem Integralzeichen nach λ
differenzieren. Wir untersuchen den Grenzwert
 
J xλ (·), uλ (·) − J x∗ (·), u∗ (·)
lim .
λ→0+ λ
Es ergibt sich
Z τ
1   
lim ω(t) f t, xλ (t), uλ (t) − f t, x∗ (t), u∗ (t) dt
λ→0 λ
+
τ −λ
Z ∞
1   
+ lim ω(t) f t, xλ (t), uλ (t) − f t, x∗ (t), u∗ (t) dt
λ→0+ λ
τ
Z ∞
  

= ω(τ ) f τ, x∗ (τ ), v − f τ, x∗ (τ ), u∗ (τ ) + ω(t) fx t, x∗ (t), u∗ (t) , y(t) dt.
τ

Bei Anwendung von Gleichung (4.13) erhalten wir hieraus die Ungleichung

 
p(τ ), ϕ τ, x∗ (τ ), u∗ (τ ) − ω(τ )f τ, x∗ (τ ), u∗ (τ )

 
≥ p(τ ), ϕ τ, x∗ (τ ), v − ω(τ )f τ, x∗ (τ ), v .

Damit folgt aus der Definition der Pontrjagin-Funktion:


 
H τ, x∗ (τ ), u∗ (τ ), p(τ ), 1 ≥ H τ, x∗ (τ ), v, p(τ ), 1 .

Nun ist τ ein beliebiger Stetigkeitspunkt von u∗ (·) und v ein beliebiger Punkt der Menge
U . Demzufolge ist die Beziehung (4.10) in allen Stetigkeitspunkten von u∗ (·) wahr und es
ist damit Theorem 4.5 bewiesen. 
Einfache Nadelvariation 135

Wir untersuchen das konjugierte System


ż(t) = −ϕTx t, x∗ (t), u∗ (t) z(t)
 
ẏ(t) = ϕx t, x∗ (t), u∗ (t) y(t),
und es seien Y∗ (t) bzw. Z∗ (t) die in t = 0 normalisierten Fundamentalmatrizen dieses
Systems. Für diese gilt Y∗T (t) = Z∗−1 (t). Dann ergibt sich aus der Beziehung (4.13),
Z ∞


hp(t), y(t)i = − ω(s) fx t, x∗ (s), u∗ (s) , y(s) dt,
t
die Darstellung (Aseev & Kryazhimskii und Aseev & Veliov [3–6])
Z ∞
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds.

p(t) = −Z∗ (t)
t
Wir erhalten damit ergänzend zu Theorem 4.5:
Folgerung 4.6. In Theorem 4.5 genügt die Adjungierte der eindeutigen Darstellung
Z ∞
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds.

p(t) = −Z∗ (t) (4.14)
t
Beispiel 4.7. Wir untersuchen die Aufgabe
Z ∞
e−%t ln 1 − u(t) x(t) dt → sup,
   
J x(·), u(·) =
0
ẋ(t) = u(t)x(t), x(0) = x0 > 0, u(t) ∈ [0, 1), % ∈ (0, 1).

Es sei x(·), u(·) zulässig und es seien Z(·) bzw. q(·) die Lösungen der Gleichungen
Z ∞
e−%s Z −1 (s)fx s, x(s), u(s) ds.

ż(t) = −u(t)z(t), z(0) = 1, q(t) = −Z(t)
t
Wir erhalten für Z(·), x(·) und q(·) die expliziten Darstellungen
 Z t  Z ∞
−1 1
Z(t) = exp − u(s) ds , x(t) = Z (t)x0 , q(t) = −Z(t) e−%s ds.
0 t x0
In Anlehnung an die Maximumbedingung (4.10) betrachten wir die Gleichung
1
q(t)x(t) − e−%t = 0.
1 − u(t)
Auf der Grundlage dieser Gleichung ergibt sich für u(·) die eindeutige Steuerung
 Z ∞ −1
1
u(t) = 1 − − Z(t) e−%s ds · Z −1 (t)x0 e%t = 1 − %.
t x0
Damit erhalten wir als einzigen optimalen Kandidaten und für die Adjungierte
1 −t
x∗ (t) = x0 e(1−%)t , u∗ (t) ≡ 1 − %, p(t) = e .
%x0
Die Voraussetzung (V) ist mit der Funktion µ(t) = e(1−%)t erfüllt, für die die Voraussetzung
(T), d. h. µ(t)kp(t)k → 0 für t → ∞, gilt. 
136 Vorstellung der Aufgabenklasse

4.4. Parameter und Freiheitsgrade in der Aufgabe mit unendlichem Horizont


In der Aufgabe (4.1)–(4.4) haben wir die Dichtefunktion ω(·) bisher als integrable Funktion
über R+ spezifiziert. Häufigster Vertreter ist dabei die Dichtefunktion ω(t) = e−%t mit
% > 0, auf die wir uns nicht ausschließlich festlegen wollen.
Die Exponentialverteilung stellt einen Spezialfall der Weibull-Verteilung mit einer Dichte
k
ω(t) = ω0 tk−1 e−t , k > 0,

dar. Besitzt der Formparameter k einen Wert aus (0, 1), so ist die Dichtefunktion in t = 0
unbeschränkt. Im Gegensatz zum ersten und zweiten Kapitel über schwache und starke
lokale Minimalstellen in Aufgaben über endlichem Zeithorizont ist im Fall k ∈ (0, 1) der
Integrand im Zielfunktional (4.1) lokal unbeschränkt. Die Dichtefunktion der Weibull-
Verteilung mit einem Formparameter k ∈ (0, 1) stellt also eine neue Herausforderung dar.

Ein Freiheitsgrad der Aufgabe (4.1)–(4.4) ist die Wahl der zulässigen Elemente x(·), u(·) .
Die Aufgaben mit endlichem Horizont betrachteten wir bezüglich der Paare

x(·), u(·) ∈ W21 ([t0 , t1 ], Rn ) × L∞ ([t0 , t1 ], U ).




In den Aufgaben mit unendlichem Zeithorizont dürfen wir nicht ohne Weiteres das Intervall
[t0 , t1 ] durch R+ ersetzen. Wir geben dazu zwei illustrative Beispiele an:

Beispiel 4.8. Wir betrachten das Problem einer “optimalen” Fischfangpolitik:


Z ∞
e−%t x(t) − c u(t) dt → sup,

0
 x(t) 
ẋ(t) = rx(t) 1 − − u(t)x(t), x(0) = x0 > 0,
K
u(t) ∈ [0, umax ], 0 < % < r < umax .

Die “optimale” Politik wird ab einem gewissen Zeitpunkt τ ≥ 0 durch das Gleichgewicht
K r+%
x= (r − %), u=
2r 2
gegeben. Die zugehörige Zustandstraktorie x∗ (·) ist beschränkt und es gilt x∗ (t) = x > 0
für t ≥ τ . Sie gehört also nicht dem klassischen Sobolev-Raum W21 (R+ , R) an. 

Beispiel 4.9. Wir betrachten die folgende Aufgabe mit Produktionsfunktion f (x) = x:
Z ∞
e−%t 1 − u(t) x(t) dt → sup,
p
0
p
ẋ(t) = γu(t) x(t) − δx(t), x(0) = x0 > 0,
u(t) ∈ [0, 1], %, γ, δ > 0.
Parameter der Aufgabe 137

Ab einem gewissen Zeitpunkt τ ≥ 0 liefert die Gleichgewichtslösung

γ2 δ
x= , u=
4(% + δ)2 2(% + δ)

die “optimale” Politik. Die zugehörige Zustandstraktorie x∗ (·) gehört wiederum nicht dem
klassischen Sobolev-Raum W21 (R+ , R) an. 

Es stellt sich damit die Frage, in welchem Rahmen wir die zulässigen Elemente der Aufgabe
(4.1)–(4.4) auffassen. Wir folgen dem Vorschlag von Lykina & Pickenhain [43, 51, 52] und
verstehen unter den zulässigen Trajektorien diejenigen Funktionen, die einem gewichteten
Sobolev-Raum W21 (R+ , Rn ; ν) mit geeigneter Gewichtsfunktion ν(·) angehören.
Die Gewichtsfunktion ist ein Freiheitsgrad der Aufgabe und liefert eine implizite und
globale Wachstumsbeschränkung an die zulässigen Trajektorien x(·). Dabei meinen wir
global in dem Sinn, dass keine punktweisen Beschränkungen der Form kx(t)k ≤ γ(t) für
alle t ∈ R+ vorliegen. Die Anforderung, die wir an eine Gewichtsfunktion stellen, lassen
sich am einfachsten an der Funktion ν(t) = e−at mit a > 0 einsehen. Diese Funktion

(i) ist stetig, positiv und monoton fallend;

(ii) gehört dem Raum W11 (R+ , R) an und es gelten ν(0) = 1, lim t · ν(t) = 0;
t→∞

(iii) erfüllt |ν̇(t)| ≤ Kν(t) für alle t ∈ R+ mit einer Konstanten K > 0.

Eine Gewichtsfunktion, die (i)–(iii) ebenfalls erfüllt, ist ν(t) = (1 + t)−a für a > 1.
Ein weiterer Freiheitsgrad sind die Voraussetzungen an die Aufgabe. Wir vernachlässigen
an dieser Stelle die Zustandsbeschränkungen. In Analogie
 zum Abschnitt 1.3 über das
Schwache Optimalitätsprinzip bezeichne Uγ zu x(·), u(·) die Menge

Uγ = {(t, x, u) ∈ R+ × Rn × Rm | kx − x(t)k ≤ γ, ku − u(t)k ≤ γ}.

Dann gehören zur Menge ALip diejenigen Paare x(·), u(·) ∈ W21 (R+ , Rn ; ν)×L∞ (R+ , U ),


für die es eine Zahl γ > 0 derart gibt, dass auf der Menge Uγ gelten:

(A1 ) Die Abbildungen f (t, x, u) und ϕ(t, x, u) sind stetig differenzierbar.

Da die Menge Uγ nicht mehr kompakt ist, können wir nicht ohne weitere Annahmen von
der gleichmäßigen Stetigkeit ausgehen. Also fordern wir zusätzlich:

(A02 ) Für fast alle t ∈ R+ gibt es auf Uγ eine Zahl C0 > 0 mit

f (t, x, u) ≤ C0 (1 + kxk + kuk), fx (t, x, u), fu (t, x, u) ≤ C0 ,

ϕ(t, x, u) ≤ C0 (1 + kxk + kuk), ϕx (t, x, u), ϕu (t, x, u) ≤ C0 .
138 Vorstellung der Aufgabenklasse

Auf der Grundlage der Voraussetzung (A02 ) prüfen wir die Wohldefiniertheit des Zielfunk-
tionals (4.1). Dazu legen wir uns nicht auf den gewichteten Sobolev-Raum Wp1 (R+ , Rn ; ν)
mit p = 2 fest. Wie wir gleich sehen werden dürfen wir das an dieser Stelle auch nicht. Die
Anwendung der Hölderschen Ungleichung liefert
Z ∞ Z ∞
 
J x(·), u(·) ≤ ω(t) f t, x(t), u(t) dt ≤ C0
ω(t)(1 + kx(t)k + ku(t)k) dt
0 0
Z ∞ 1/q
1−q q
≤ C0 [1 + ku(·)kL∞ ] · kω(·)kL1 + C0 kx(·)kp,ν ν (t)ω (t) dt < ∞.
0

Der letzte Term führt zu der Kopplungsbedingung

ν 1−q (·)ω q (·) ∈ L1 (R+ , R+ )

zwischen der Dichte- und Gewichtsfunktion.


Da die Gewichtsfunktion stetig, positiv und beschränkt über [0, 1] ist, ergibt sich außerdem
für die Dichtefunktion der Weibull-Verteilung mit Formparameter k ∈ (0, 1):
Z 1
q 1
ω (·) ∈ L1 ([0, 1], R) ⇔ tq(k−1) dt < ∞ ⇔ p> .
0 k

Wir erhalten also zusätzlich eine Abhängigkeit zwischen dem Formparameter k und dem
Parameter p bei der Wahl des gewichteten Sobolev-Raumes Wp1 (R+ , Rn ; ν).
Als wesentlich flexibler erweist sich bezüglich dem Integranden f die Annahme:

(A2 ) Für fast alle t ∈ R+ gibt es auf Uγ ein C0 > 0 und ein L(·) ∈ L1 (R+ , R+ ; ω) mit

f (t, x, u), fx (t, x, u), fu (t, x, u) ≤ L(t),

kϕ(t, x, u)k ≤ C0 (1 + kxk + kuk), ϕx (t, x, u), ϕu (t, x, u) ≤ C0 .

Unter der Voraussetzung (A2 ) erhalten wir unmittelbar die Wohldefiniertheit des Ziel-
funktionals auf der Menge Uγ :
Z ∞

J x(·), u(·) ≤ ω(t)L(t) dt < ∞.
0

Die Kopplungen zwischen der Dichte- und Gewichtsfunktion und die Einschränkungen bei
der Wahl des gewichteten Sobolev-Raumes liegen jetzt nicht weiter vor.
Wir legen uns bei der Untersuchung von schwachen und starken lokalen Minimalstellen
auf die vorliegende Formulierung der Aufgabe (4.1)–(4.4) und auf die Voraussetzung (A2 )
fest. Eine alternative Herangehensweise muss wohlüberlegt sein. Denn wie wir eben ver-
deutlicht haben, kann die Aufgabe über dem unendlichen Zeithorizont auf die Festlegung
der Voraussetzungen äußerst empfindlich reagieren.
Schwaches lokales Minimum 139

5. Schwaches lokales Minimum über unendlichem Zeithorizont


Den wichtigsten Aspekt des letzten Kapitels bildet der Umstand, dass die Aufgaben mit
unendlichem Zeithorizont die Probleme über einem endlichen Intervall mit freiem rechten
Endpunkt verallgemeinern. Deswegen können zur Herleitung von notwendigen Optima-
litätsbedingungen für Steuerungsprobleme mit unendlichem Zeithorizont die Ergebnisse
für Aufgaben über einem endlichen Zeitintervall weder übernommen noch einfach ange-
passt werden. Dieser Herausforderung wurde bisher kaum Beachtung geschenkt. Von den
wenigen Ansätzen, die diesbezüglich existieren, zählen wir die Arbeiten von Brodskii [11]
und Pickenhain [51] auf. In diesen Beiträgen werden auf der Basis von schwachen lokalen
Variationen und der Anwendung geeigneter funktionalanalytischer Methoden notwendige
Optimalitätsbedingungen für Steuerungsprobleme mit unendlichem Zeithorizont erzielt.
In [11] wird eine sehr allgemeine Aufgabenklasse betrachtet. Aufgrund der Wahl des Raum-
es der messbaren und beschränkten Funktionen führt der funktionalanalytische Rahmen
allerdings zu keiner “ästhetischen” Darstellung der Adjungierten.
Demgegenüber bezieht sich die Arbeit [51] auf Aufgaben mit eindimensionalen linearen
Nebenbedingungen. Der innovative Beitrag in [51] ist die Wahl des gewichteten Sobolev-
Raumes, in deren Rahmen die “natürlichen” Transversalitätsbedingungen in gewisser Wei-
se Eigenschaften der Elemente dieser Räume sind. Wir brauchen diesbezüglich nur darauf
hinzuweisen, dass nach Lemma B.12 der Grenzwert

lim hx(t), y(t)i = 0 für x(·) ∈ W21 (R+ , Rn ; ν), y(·) ∈ W21 (R+ , Rn ; ν −1 )
t→∞

stets erfüllt ist. An der Arbeit [51] ist jedoch anzumerken, dass sich die angewandte Be-
weismethode nur unter restriktiven Annahmen auf mehrdimensionale Zustandstrajektorien
erweitern lässt. Die Anwendbarkeit der Beweisstrategie im Fall von Aufgaben mit einer
nichtlinearen Dynamik ist offen.
Unsere Untersuchungen zu schwachen lokalen Minimalstellen in Steuerungsproblemen mit
unendlichem Zeithorizont beziehen sich auf die Aufgabe
Z ∞
 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf,
0

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 ,
u(t) ∈ U ⊆ Rm , U 6= ∅ und konvex.

Das so gestellte Steuerungsproblem besitzt einen weniger allgemeinen Charakter als die
Aufgaben bei Brodskii [11]. Aber auf der Grundlage der Wahl gewichteter Sobolev-Räume
für die Zustandstrajektorie nach Pickenhain [51] erhalten wir in den notwendigen Opti-
malitätsbedingungen qualitativ bessere Informationen über die Adjungierte. Aufgrund der
Gültigkeit der “natürlichen” Transversalitätsbedingungen lassen sich hinreichende Bedin-
gungen unmittelbar in die Ausführungen einbinden.
140 Schwaches lokales Minimum

5.1. Die Aufgabenstellung


In diesem Kapitel betrachten wir schwache lokale Minimalstellen der Aufgabe
Z ∞
 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf, (5.1)
0

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 , (5.2)
m
u(t) ∈ U ⊆ R , U 6= ∅ und konvex. (5.3)
Dabei gelten f : R × Rn × Rm → R und ϕ : R × Rn × Rm → Rn .
Wir nennen die Trajektorie x(·) eine Lösung des dynamischen Systems (5.2), falls x(·) auf
R+ definiert ist und auf jedem endlichen Intervall die Dynamik mit Steuerung u(·) im Sinn
von Carathéodory löst.
Für die Aufgabe (5.1)–(5.3) treffen wir die folgenden Annahmen (A0 )–(A2 ):
(A0 ) Die Dichtefunktion ω(·) und das Gewicht ν(·) besitzen die Eigenschaften:
(o) Es gilt ω(·) ∈ L1 (R+ , R+ ).
(i) Es ist ν(·) stetig, positiv und monoton fallend.
(ii) Es ist ν(·) ∈ W11 (R+ , R) und es gelten ν(0) = 1, lim t · ν(t) = 0.
t→∞
(iii) Es ist |ν̇(t)| ≤ Kν(t) für alle t ∈ R+ mit einer Konstanten K > 0.
Zu x(·), u(·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U ) definieren wir die Menge Uγ wie folgt:


Uγ = {(t, x, u) ∈ R+ × Rn × Rm | kx − x(t)k ≤ γ, ku − u(t)k ≤ γ}.


Dann gehören zur Menge ALip diejenigen x(·), u(·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U ), für


die es eine Zahl γ > 0 derart gibt, dass auf der Menge Uγ gelten:
(A1 ) Die Abbildungen f (t, x, u) und ϕ(t, x, u) sind stetig differenzierbar.
(A2 ) Für fast alle t ∈ R+ gibt es auf Uγ ein C0 > 0 und ein L(·) ∈ L1 (R+ , R+ ; ω) mit

f (t, x, u), fx (t, x, u), fu (t, x, u) ≤ L(t),

kϕ(t, x, u)k ≤ C0 (1 + kxk + kuk), ϕx (t, x, u), ϕu (t, x, u) ≤ C0 .

Wir nennen x(·), u(·) ∈ W21 (R+ , Rn ; ν) ×L∞ (R+ , U ) einen zulässigen Steuerungsprozess


in der Aufgabe (5.1)–(5.3), falls x(·), u(·) dem System (5.2) genügt und das Lebesgue-
Integral im Zielfunktional in (5.1) endlich  ist. Die Menge Aadm bezeichnet die Menge der
zulässigen Steuerungsprozesse x(·), u(·) .

Ein zulässiger Steuerungsprozess x∗ (·), u∗ (·) ist eine schwache lokale Minimalstelle der
Aufgabe (5.1)–(5.3), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)
für alle x(·), u(·) ∈ Aadm mit kx(·) − x∗ (·)k∞ ≤ ε, ku(·) − u∗ (·)kL∞ ≤ ε gilt.

Schwaches Optimalitätsprinzip 141

5.2. Ein Schwaches Optimalitätsprinzip über dem unendlichem Zeithorizont


5.2.1. Notwendige Optimalitätsbedingungen
Im Weiteren bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-Funktion

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 ω(t)f (t, x, u).

Theorem 5.1. Es sei x∗ (·), u∗ (·) ∈ Aadm ∩ ALip . Ist x∗ (·), u∗ (·) ein schwaches loka-
 

les Minimum der Aufgabe (5.1)–(5.3), dann existieren nicht gleichzeitig verschwindende
Multiplikatoren λ0 ≥ 0 und p(·) ∈ L2 (R+ , Rn ; ν −1 ) derart, dass

(a) die Funktion p(·) fast überall der adjungierten Gleichung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 ω(t)fx t, x∗ (t), u∗ (t)


 
(5.4)

genügt und die “natürlichen” Transversalitätsbedingungen

lim kp(t)k2 ν −1 (t) = 0, hp(t), x(t)i = 0 ∀ x(·) ∈ W21 (R+ , Rn ; ν) (5.5)


t→∞

erfüllt;

(b) in fast allen Punkten t ∈ R+ und für alle u ∈ U die Variationsungleichung



 
Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0 (5.6)

gilt.

Bemerkung 5.2. In vielen Anwendungen gilt für die Adjungierte p(·) in Theorem 5.1
die Identifizierung p(·) ∈ W21 (R+ , Rn ; ν −1 ). In diesem Fall ergeben sich die “natürlichen”
Transversalitätsbedingungen

lim kp(t)k2 ν −1 (t) = 0, hp(t), x(t)i = 0 ∀ x(·) ∈ W21 (R+ , Rn ; ν)


t→∞

unmittelbar aus Lemma B.12. 

Lemma 5.3. Zusätzlich zu Theorem 5.1 gelte für L(·) ∈ L1 (R+ , R+ ; ω) in (A2 )

lim ω(t)L(t) = 0.
t→∞

Dann gilt die Bedingung von Michel [47]:



lim H t, x∗ (t), u∗ (t), p(t), λ0 = 0. (5.7)
t→∞
142 Schwaches lokales Minimum

Beweis Da x∗ (·), u∗ (·) zur Menge ALip gehören, gilt nach Voraussetzung (A2 ):


H t, x∗ (t), u∗ (t), p(t), λ0 2 ≤ kp(t)kkϕ t, x∗ (t), u∗ (t) k + ω(t)kf t, x∗ (t), u∗ (t) k 2


    
h 2 i
≤ C · kp(t)k2 ν −1 (t) · (1 + kx∗ (t)k2 + ku∗ (t)k2 )ν(t) + ω(t)L(t) .
 

Der letzte Ausdruck verschwindet im Unendlichen, da

lim kx∗ (t)k2 ν(t) = 0, lim kp(t)k2 ν −1 (t) = 0


t→∞ t→∞

nach Lemma B.11 bzw. nach (5.5) und

lim [1 + ku∗ (t)k2 ]ν(t) = 0, lim ω(t)L(t) = 0


t→∞ t→∞

wegen der Beschränktheit von u∗ (·) bzw. nach Voraussetzung gelten. 

Beispiel 5.4. Wir betrachten nach Pickenhain & Wenzke [53] folgende Aufgabe eines
linear-quadratischen Reglers:
Z ∞
1
e−2t · x2 (t) + u2 (t) dt → inf,
 
J x(·), u(·) =
0 2
ẋ(t) = 2x(t) + u(t), x(0) = 2, u(t) ∈ R.

Die notwendigen Optimalitätsbedingungen in Theorem 5.1 liefern den Steuerungsprozess


√ √ √
x∗ (t) = 2e(1− 2)t
, u∗ (t) = −2(1 + 2)e(1− 2)t

und die Multiplikatoren


λ0 = 1, p(t) = e−2t u∗ (t).

Für den beschränkten Steuerungsprozess x∗ (·), u∗ (·) ist offenbar die Voraussetzung (A2 )
für jedes γ > 0 auf der Menge Uγ erfüllt. Für die Wahl des Gewichtes ν(·) diskutieren wir
zwei einfache Vertreter:

(a) Wir betrachten zuerst das Gewicht ν(t) = (1 + t)−a mit a > 1. Dann erhalten wir
x(·) ∈ W21 (R+ , Rn ; ν) und p(·) ∈ L2 (R+ , Rn ; ν −1 ) für alle a > 1.

(b) Mit dem Gewicht ν(t) = e−at gilt x(·) ∈ W21 (R+ , Rn ; ν) für
√ alle a > 0. Allerdings
n −1
führt p(·) ∈ L2 (R+ , R ; ν ) zur Einschränkung a < 2(1 + 2).

In beiden Fällen sind die “natürlichen” Transversalitätsbedingungen (5.5) erfüllt. Daher


gilt wegen der Beschränktheit des Integranden f (t, x, u) und dessen partiellen Ableitungen
auf jeder Menge Uγ nach Lemma 5.3 außerdem die Bedingung von Michel. 
Schwaches Optimalitätsprinzip 143

5.2.2. Bemerkungen und Hinweise zur Extremalaufgabe


Wir verfahren mit dem Steuerungsproblem (5.1)–(5.3) über dem unendlichen Zeithorizont
auf die gleiche Weise wie in den ersten Kapiteln, in dem wir sie in eine Extremalaufgabe
überführen. Dabei stellt sich die Frage nach dem Verständnis der Dynamik (5.2) über dem
unbeschränkten Intervall.
Zunächst sei sie in der Form der Differential- bzw. der Integralgleichung
 
Φ1 x(·), u(·) (t) = ẋ(t) − ϕ t, x(t), u(t) ,
Z t
 
Φ2 x(·), u(·) (t) = x(t) − x(0) − ϕ s, x(s), u(s) ds
0

gegeben. Mit den Angaben

: W21 (R+ , Rn ; ν) × L∞ (R+ , Rm ) → L2 (R+ , Rn ; ν),



Φ1 x(·), u(·)
: W21 (R+ , Rn ; ν) × L∞ (R+ , Rm ) → W21 (R+ , Rn ; ν)

Φ2 x(·), u(·)

sind diese Abbildungen wohldefiniert, aber der Nachweis eines Extremalprinzips im Rah-
men der gewichteten Sobolev-Räume bereitet im Fall einer nichtlinearen Dynamik erheb-
liche Schwierigkeiten.
Demgegenüber können wir mit dem Gewicht ν(·) den Operator Φ2 in die Form
 Z t 
 
Φ3 x(·), u(·) (t) = ν(t) x(t) − x(0) − ϕ s, x(s), u(s) ds
0

bringen. Mit dieser Darstellung lässt sich Φ3 als Abbildung in den Raum C0 (R+ , Rn ) der
stetigen Funktionen, die
 im Unendlichen verschwinden, auffassen. Ferner folgt aus der
Gleichung Φ3 x(·), u(·) = 0, dass x(·) auf jedem endlichen Intervall der Dynamik (5.2)
zur Steuerung u(·) im Sinn von Carathéodory genügt.
Die Wahl des Raumes C0 (R+ , Rn ) erweist sich an verschiedenen Stellen im nachfolgenden
Beweiskonzept als geeignet. Dazu gehen wir zunächst auf die Variation eines zulässigen
Steuerungsprozesses ein. Im Beispiel 4.9 genügt der optimale Steuerungsprozess der Dy-
namik p
ẋ(t) = γu(t) x(t) − δx(t), x(0) = x0 > 0.

Wegen der Abbildung x → x dürfen nur Variationen betrachtet werden, die wenigstens
bezüglich der gleichmäßigen Topologie k·k∞ beschränkt sind. Diese Dynamik liefert damit
unmittelbar eine Einschränkung an die Klasse der Variationen.
Entsprechend der Vorarbeiten im Abschnitt 1.3 im ersten Kapitel über ein Schwaches
Optimalitätsprinzip betrachten wir daher
 Z t 
   
F ξ(·), v(·) (t) = ν(t) x(t) + ξ(t) − x(0) + ξ(0) − ϕ s, x(s) + ξ(s), u(s) + v(s) ds
0
144 Schwaches lokales Minimum

und fassen diese Abbildung durch F : C0 (R+ , Rn ) × L∞ (R+ , Rm ) → C0 (R+ , Rn ) auf. Auf
diese Weise betten wir das Steuerungsproblem (5.1)–(5.3) in einen Rahmen, der die größte
Verwandtschaft mit den Darstellungen im Abschnitt 1.3 aufweist. Dabei beziehen wir uns
weniger auf die gleichmäßige Topologie k·k∞ , sondern der entscheidende Punkt wird durch
den Darstellungssatz von Riesz (Satz B.6) geliefert: Der Dualraum C0∗ (R+ , Rn ) ist isome-
trisch isomorph zum Raum der regulären Borelschen Maße.
Bei der Betrachtung von starken lokalen Minimalstellen in Aufgaben mit unendlichem Zeit-
horizont gewinnt der Darstellungssatz von Riesz zusätzlich an Bedeutung. Insbesondere
bei Aufgaben mit Zustandsbeschränkungen stehen wir nämlich vor der Herausforderung,
das Subdifferential der Supremumsfunktion im Raum C0 (R+ , Rn ) bestimmen zu müssen.
Die Festlegung des Operators F birgt einen gravierenden Makel in sich: Im Ursprung
ξ0 (·), v0 (·) des Raumes C0 (R+ , Rn ) × L∞ (R+ , Rm ) ist die Abbildung F zwar stetig dif-


ferenzierbar, ist aber in diesem Punkt nicht regulär. Denn die Ableitung
 0  
F ξ0 (·), v0 (·) ξ(·), v(·) (t)
 Z t 
   
= ν(t) ξ(t) − x(0) − ϕx s, x(s), u(s) ξ(s) + ϕu s, x(s), u(s) v(s) ds
0

bildet im Allgemeinen nicht auf den gesamten Raum C0 (R+ , Rn ) ab, da die Gleichung
 Z t 
 
ζ(t) = ν(t) ξ(t) − ξ(0) − A(s)ξ(s) + a(s) ds
0

nicht für jedes ζ(·) ∈ C0 (R+ , Rn ) eine Lösung ξ(·) ∈ C0 (R+ , Rn ) besitzt. Im Kontrast dazu
existiert zu jedem ζ(·) ∈ C0 (R+ , Rn ) ein ξ(·) ∈ C0 (R+ , Rn ) mit (Lemma D.1)
 Z t 
 
ζ(t) = ξ(t) − ν(t) ξ(0) + A(s)ξ(s) + a(s) ds .
0

Den Operator F können wir nicht in diese Gestalt überführen. Aber es lassen sich durch
 Z t 
 
F1 ξ(·), v(·) (t) = 2ξ(t) + ν(t) x(t) − x(0) − ϕ s, x(s) + ξ(s), u(s) + v(s) ds ,
0
 
F2 ξ(·) (t) = 2ξ(t) − ν(t) ξ(t) − ξ(0)

zwei Abbildungen angeben, die im Punkt ξ0 (·), v0 (·) regulär sind und der Gleichung
  
F1 ξ(·), v(·) − F2 ξ(·), v(·) = F ξ(·), v(·)

genügen. Auf der Grundlage, dass wir F über die Abbildungen F1 und F2 darstellen,
können wir den Satz von Ljusternik anwenden und die Gültigkeit des Lagrangeschen Prin-
zips in Form eines Extremalprinzips nachweisen.
Schwaches Optimalitätsprinzip 145

5.2.3. Definition und Eigenschaften der Extremalaufgabe


Sei x∗ (·), u∗ (·) ∈ ALip und ferner x∗ (·) ∈ C(R+ , Rn ). Auf C0 (R+ , Rn ) × L∞ (R+ , U )


definieren wir die Abbildungen


Z ∞
˜
 
J ξ(·), v(·) = ω(t)f t, x∗ (t) + ξ(t), u∗ (t) + v(t) dt,
0
 Z t 
 
F1 ξ(·), v(·) (t) = 2ξ(t) + ν(t) x∗ (t) − x∗ (0) − ϕ s, x∗ (s) + ξ(s), u∗ (s) + v(s) ds ,
0
  
F2 ξ(·) (t) = 2ξ(t) − ν(t) ξ(t) − ξ(0) , t ∈ R+ , H ξ(·) = ξ(0).

Dabei fassen wir sie als Abbildungen zwischen folgenden Funktionenräumen auf:

J˜ : C0 (R+ , Rn ) × L∞ (R+ , Rm ) → R,
F1 : C0 (R+ , Rn ) × L∞ (R+ , Rm ) → C0 (R+ , Rn ),
F2 : C0 (R+ , Rn ) → C0 (R+ , Rn ),
H : C0 (R+ , Rn ) → Rn .

Im Folgenden betrachten wir die Eigenschaften der Extremalaufgabe

J˜ ξ(·), v(·) → inf,


    
F ξ(·), v(·) = F1 ξ(·), v(·) − F2 ξ(·) = 0, H ξ(·) = 0. (5.8)

Dabei sind die Abbildungen F2 und H offensichtlich auf C0 (R+ , Rn ) stetig differenzierbar
0 0
Operatoren F2 ξ(·) , H ξ(·) sind surjektiv für jedes ξ(·) ∈ C0 (R+ , Rn ).

und die linearen
0

Für F2 ξ(·) folgt die Surjektivität aus 1 ≤ 2 − ν(t) < 2 und der Beziehung

1
ζ(t) = F20 ξ(·) ξ(·)
˜ (t), ζ(·) ∈ C0 (R+ , Rn ) ˜ = ζ(t) − 2 ν(t)ζ(0) .
  
⇔ ξ(t)
2 − ν(t)

Im Weiteren bezeichnet ξ0 (·), v0 (·) den Ursprung des Raumes C0 (R+ , Rn )×L∞ (R+ , Rm ).


Lemma 5.5. J˜ ξ(·), v(·) ist im Punkt ξ0 (·), v0 (·) Fréchet-differenzierbar und es gilt
 

Z ∞
J˜0 ξ0 (·), v0 (·) ξ(·), v(·) =
 

ω(t) fx t, x∗ (t), u∗ (t) , ξ(t) dt
0
Z ∞

+ ω(t) fu t, x∗ (t), u∗ (t) , v(t) dt.
0

Beweis Nach Voraussetzung (A2 ) erhalten wir für kξ(·)k∞ ≤ γ und kv(·)kL∞ ≤ γ die
Wohldefiniertheit des Zielfunktionals:
Z ∞
J˜ ξ(·), v(·) ≤

ω(t)L(t) dt < ∞.
0
146 Schwaches lokales Minimum

Weiterhin ist die lineare Abbildung J˜0 ξ0 (·), v0 (·) nach Voraussetzung (A2 ) stetig.


Sei ε > 0 gegeben. Dann können wir eine Zahl T > 0 mit der Eigenschaft
Z ∞
ε
2ω(t)L(t) dt ≤
T 3
wählen. Nach dem Satz von Lusin  existiert eine kompakte Teilmenge
 K von [0, T ] derart,
dass t → ω(t)fx t, x∗ (t), u∗ (t) und t → ω(t)fu t, x∗ (t), u∗ (t) stetig auf K sind und zudem
die Relation Z
ε
2ω(t)L(t) dt ≤
[0,T ]\K 3
erfüllt ist. Aufgrund der Stetigkeit von fx und fu nach (A1 ) gibt es eine Zahl λ0 > 0 mit
  ε
ω(t) · fx t, x∗ (t) + λξ, u∗ (t) + λv − fx t, x∗ (t), u∗ (t) ≤ ,
3T
  ε
ω(t) · fu t, x∗ (t) + λξ, u∗ (t) + λv − fu t, x∗ (t), u∗ (t) ≤
3T
für alle t ∈ K, für alle kξk ≤ 1, kvk ≤ 1 und alle 0 < λ ≤ λ0 . Zusammen erhalten wir
˜
J ξ0 (·) + λξ(·), v0 (·) + λv(·) − J˜ ξ0 (·), v0 (·)
 
˜0
 
− J ξ0 (·), v0 (·) ξ(·), v(·)
λ
Z ∞ Z 1

 
≤ ω(t)
fx t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − fx t, x∗ (t), u∗ (t) , ξ(t) ds dt
0 0
Z ∞ Z 1

 
+ ω(t)
fu t, x∗ (t) + λsξ(t), u∗ (t) + λsv(t) − fu t, x∗ (t), u∗ (t) , v(t) ds dt
0 0
Z Z
ε  
≤ kξ(t)k + kv(t)k dt + 2ω(t)L(t) kξ(t)k + kv(t)k dt
K 3T [0,T ]\K
Z ∞

+ 2ω(t)L(t) kξ(t)k + kv(t)k dt ≤ ε
T

für alle kξ(·)k∞ ≤ 1, kv(·)kL∞ ≤ 1 und alle 0 < λ ≤ λ0 . 


 
Lemma 5.6. Der Operator F1 ξ(·), v(·) bildet eine Umgebung des Punktes ξ 0 (·), v0 (·)
in den Raum C0 (R+ , Rn ) ab. Diese Abbildung ist in ξ0 (·), v0 (·) Fréchet-differenzierbar


und es gilt für t ∈ R+ :


 0  
F1 ξ0 (·), v0 (·) ξ(·), v(·) (t)
Z t
   
= 2ξ(t) − ν(t) ϕx s, x∗ (s), u∗ (s) ξ(s) + ϕu s, x∗ (s), u∗ (s) v(s) ds.
0

Beweis Wir zeigen, dass der Operator F1 in den Raum C0 abbildet. Wegen der Eigen-
schaften von ξ(·), u∗ (·), v(·) konzentrieren wir uns auf die Terme, die x∗ (·) enthalten:
Z t

t → ν(t)x∗ (t), t → ν(t) ϕ s, x∗ (s) + ξ(s), u∗ (s) + v(s) ds.
0
Schwaches Optimalitätsprinzip 147

Für x∗ (·) ∈ W21 (R+ , Rn ; ν) gehört die Funktion ν(·)x∗ (·) nach Lemma B.11 dem Raum
W11 (R+ , Rn ) an und verschwindet im Unendlichen. Nach Voraussetzung (A2 ) erhalten wir
für den zweiten Term
Z t

ν(t) ϕ s, x∗ (s) + ξ(s), u∗ (s) + v(s) ds
0
Z t

≤ C0 ν(t) 1 + kx∗ (s)k + kξ(s)k + ku∗ (s)k + kv(s)k ds.
0

Wegen der Eigenschaft (ii) des Gewichts ν(·) in Voraussetzung (A0 ) verschwindet dieser
Ausdruck für alle über R+ beschränkten Terme des Integranden. Bezüglich x∗ (·) gilt
Z t Z t 1/2
1/2 t 
Z 
 1/2
ν(t) kx∗ (s)k ds ≤ ν(t) ν(s) kx∗ (s)k ds ≤ ν(t) ds kx∗ (·)kW21 (ν)
0 0 0
 1/2
= kx∗ (·)kW21 (ν) · t · ν(t) → 0 für t → ∞.

Ferner ist die lineare Abbildung F10 ξ0 (·), v0 (·) nach (A2 ) stetig.


Wir bringen die Differenz


 
F1 ξ0 (·) + λξ(·), v0 (·) + λv(·) − F1 ξ0 (·), v0 (·)
 
− F10 ξ0 (·), v0 (·) ξ(·), v(·) (t)
 
λ
in die Gestalt
Z tZ 1
 
ν(t) ϕx (τ, x∗ (τ ) + λsξ(τ ), u∗ (τ ) + λsv(τ )) − ϕx (τ, x∗ (τ ), u∗ (τ )) ξ(τ )ds
0 0
Z 1 
 
+ ϕu (τ, x∗ (τ ) + λsξ(τ ), u∗ (τ ) + λsv(τ )) − ϕu (τ, x∗ (τ ), u∗ (τ )) v(τ )ds dτ.
0

Nach Voraussetzung (A2 ) sind die partiellen Ableitungen auf der Menge Uγ gleichmäßig
durch C0 > 0 beschränkt. Weiterhin lässt sich zu jedem ε > 0 ein T > 0 angeben mit
Z tZ 1

ν(t) ϕx (τ, x∗ (τ ) + λsξ(τ ), u∗ (τ ) + λsv(τ )) − ϕx (τ, x∗ (τ ), u∗ (τ )) ds
0 0
Z 1 

+ ϕu (τ, x∗ (τ ) + λsξ(τ ), u∗ (τ ) + λsv(τ )) − ϕu (τ, x∗ (τ ), u∗ (τ )) ds dτ

0
Z t
≤ ν(t) 2C0 dτ ≤ tν(t) · 2C0 ≤ ε
0

für alle t ≥ T , kξ(·)k∞ ≤ 1, kv(·)k∞ ≤ 1 und 0 < λ ≤ γ. Wegen der Stetigkeit von ϕx und
ϕu auf der Menge Uγ nach Voraussetzung (A1 ) gibt es eine Zahl λ0 > 0 mit

ϕx t, x∗ (t) + λξ, u∗ (t) + λv − ϕx t, x∗ (t), u∗ (t) ≤ ε ,


 
T
ϕu t, x∗ (t) + λξ, u∗ (t) + λv − ϕu t, x∗ (t), u∗ (t) ≤ ε
 
T
148 Schwaches lokales Minimum

für fast alle t ∈ [0, T ], für alle kξk ≤ 1, kvk ≤ 1 und alle 0 < λ ≤ λ0 . Daher gilt für
t ∈ [0, T ], für alle kξ(·)k∞ ≤ 1, kv(·)k∞ ≤ 1 und alle 0 < λ ≤ λ0 die Relation
Z tZ 1 

ν(t) ϕx (τ, x∗ (τ ) + λsξ(τ ), u∗ (τ ) + λsv(τ )) − ϕx (τ, x∗ (τ ), u∗ (τ )) ds dτ

0 0
Z tZ 1 

+ν(t) ϕu (τ, x∗ (τ ) + λsξ(τ ), u∗ (τ ) + λsv(τ )) − ϕu (τ, x∗ (τ ), u∗ (τ )) ds dτ

0 0
Z T
ε
≤ ν(0) dt = ε.
0 T
Zusammen erhalten wir
 
F1 ξ0 (·) + λξ(·), v0 (·) + λv(·) − F1 ξ0 (·), v0 (·)

0
 
− F1 ξ0 (·), v0 (·) ξ(·), v(·) (t) ≤ε
λ

für alle kξ(·)k∞ ≤ 1, kv(·)kL∞ ≤ 1 und alle 0 < λ ≤ λ0 . 



Lemma 5.7. Die Abbildung F1 ist in ξ0 (·), v0 (·) stetig differenzierbar.
Beweis Mit den gleichen Argumenten,
 mit denen die Fréchet-Differenzierbarkeit der Ab-
bildung F1 im Punkt ξ0 (·), v0 (·) gezeigt wurde, lässt sich die Differenzierbarkeit auf einer
Umgebung des Punktes ξ0 (·), v0 (·) im Raum C0 (R+ , Rn ) × L∞ (R+ , Rm ) zeigen. Über-


nehmen wir zudem die Wahl der Zahl T > 0 und nutzen für t ∈ [0, T ] die gleichmäßige
Stetigkeit von ϕx , ϕu auf der Menge Uγ , dann gibt es zu jedem ε > 0 ein δ > 0 derart,
dass
0
F1 ξ(·), v(·) − F10 ξ0 (·), v0 (·) =
 

sup F10 ξ(·), v(·) − F10 ξ0 (·), v0 (·) ξ 0 (·), v 0 (·) ∞ ≤ ε


   
k(ξ 0 ,v 0 )k=1

für alle kξ(·)k∞ ≤ δ und kv(·)kL∞ ≤ δ gilt. 


Lemma 5.8. Für jedes v(·) ∈ L∞ (R+ , U ) ist der lineare Operator

ξ(·) → F10 ξ0 (·), v0 (·) ξ(·), v(·)


 


surjektiv. Ferner ist daher die Abbildung F1 im Punkt ξ0 (·), v0 (·) regulär.
 
Beweis Wir setzen A(t) = ϕx t, x∗ (t), u∗ (t) und a(t) = ϕu t, x∗ (t), u∗ (t) v(t). Da wir
den Operator F10 ξ0 (·), v0 (·) als Abbildung in den Raum C0 (R+ , Rn ) auffassen, ist der
Nachweis von Lemma 5.8 äquivalent zur Aussage, dass es zu jedem ζ(·) ∈ C0 (R+ , Rn ) ein
ξ(·) ∈ C0 (R+ , Rn ) gibt mit
Z t
1 
ζ(t) = ξ(t) − ν(t) A(s)ξ(s) + a(s) ds, t ∈ R+ .
0 2

Da A(·), a(·) nach Voraussetung (A2 ) beschränkt sind, folgt dies aus Lemma D.1. 
Schwaches Optimalitätsprinzip 149

5.2.4. Lagrangesche Multiplikatorenregel


In der Aufgabe (5.1)–(5.3) sei x∗ (·), u∗ (·) ∈ Aadm ∩ ALip und x∗ (·) ∈ C(R+ , Rn ).


Auf C0 (R+ , Rn ) × L∞ (R+ , Rm ) × C0∗ (R+ , Rn ) × R × Rn definieren wir zur Extremalaufgabe


(5.8) die Lagrange-Funktion L = L ξ(·), v(·), y ∗ , λ0 , l0 ,


L = λ0 J˜ ξ(·), v(·) + y ∗ , F ξ(·), v(·) + l0T H ξ(·)



 

= λ0 J˜ ξ(·), v(·) + y ∗ , F1 ξ(·), v(·) − F2 ξ(·) + l0T H ξ(·) .



  

∈ ALip ∩ Aadm und es sei ferner



Theorem 5.9 (Extremalprinzip). Es sei x ∗ (·), u∗ (·)
n

x∗ (·) ∈ C(R+ , R ). Ist x∗ (·), u∗ (·) eine schwache lokale Minimalstelle in der Aufgabe
(5.1)–(5.3), dann existieren nicht gleichzeitig verschwindende Lagrangesche Multiplikato-
ren λ0 ≥ 0, y ∗ ∈ C0∗ (R+ , Rn ) und l0 ∈ Rn derart, dass folgende Bedingungen gelten:

(a) Die Lagrange-Funktion besitzt bezüglich ξ(·) in ξ0 (·) einen stationären Punkt, d. h.

Lξ ξ0 (·), v0 (·), λ0 , y ∗ , l0 = 0.

(5.9)

(b) Die Lagrange-Funktion erfüllt bezüglich v(·) in v0 (·) die Variationsungleichung

Lv ξ0 (·), v0 (·), λ0 , y ∗ , l0 , v(·) − u∗ (·) ≥ 0




(5.10)

für alle v(·) ∈ L∞ (R+ , U ).


   
Beweis Da die Abbildungen F1 ξ(·), v(·) , F2 ξ(·) und H ξ(·) im Punkt ξ0 (·), v0 (·)
regulär sind, tritt der entartete Fall nicht auf. Im regulären Fall gehen wir
 ähnlich wie
im Abschnitt 1.3.3 vor. Da der Dynamik (5.2) die Operatoren F1 ξ(·), v(·) und F2 ξ(·)
zugeordnet wurden, müssen die Argumente im Beweis geeignet angepasst werden.
1. Schritt (Die Mengen C1 , C2 der Variationen). Es sei C1 die Menge derjenigen

η0 , y1 (·), y2 (·), µ ∈ R × C0 (R+ , Rn ) × C0 (R+ , Rn ) × Rn ,




zu denen es ein ξ1 (·) ∈ C0 (R+ , Rn ) und ein v(·) ∈ L∞ (R+ , U ) gibt mit

η0 > J˜0 ξ0 (·), v0 (·) ξ1 (·), v(·) − u∗ (·) ,


 

y1 (·) = F10 ξ0 (·), v0 (·) ξ1 (·), v(·) − u∗ (·) , µ = H 0 ξ0 (·) ξ1 (·).


  
y2 (·) = ξ1 (·),

Weiterhin sei C2 die Menge der Vektoren

0, z1 (·), z2 (·), 0 ∈ R × C0 (R+ , Rn ) × C0 (R+ , Rn ) × Rn ,




zu denen es ein ξ2 (·) ∈ C0 (R+ , Rn ) gibt mit

z1 (·) = F20 ξ0 (·) ξ2 (·),



z2 (·) = ξ2 (·).
150 Schwaches lokales Minimum

Die Mengen C1 und C2 sind konvex, da der Steuerungsbereich U nach (5.3) konvex ist.
Ferner ist das Innere der Menge C1 nach dem Satz von der offenen Abbildung nichtleer,
da die stetigen linearen Operatoren F10 ξ0 (·), v0 (·) , H 0 ξ0 (·) und ξ1 (·) → y2 (·) stetig


und surjektiv sind. Zum Nachweis von Theorem 5.9 genügt es C1 ∩ C2 = ∅ zu zeigen.
Dann folgt aus dem Satz von Hahn-Banach die Existenz eines nichttrivialen Funktionals
(λ0 , y1∗ , y2∗ , l0 ) ∈ R × C0∗ (R+ , Rn ) × C0∗ (R+ , Rn ) × Rn mit
hy1∗ , z1 (·)i + hy2∗ , z2 (·)i ≤ λ0 η0 + hy1∗ , y1 (·)i + hy2∗ , y2 (·)i + l0T µ
für alle η0 , y1 (·), y2 (·), µ ∈ C1 und 0, z1 (·), z2 (·), 0 ∈ C2 . Dies liefert λ0 ≥ 0. Weiter ist
 

das Tripel (λ0 , y1∗ , l0 ) nichttrivial, denn sonst würde hy2∗ , ξ(·)i = 0 für alle ξ(·) ∈ C0 (R+ , Rn )
gelten und im Widerspruch zum Satz von Hahn-Banach y2∗ = 0 folgen. Wir erhalten ferner,
dass die Ungleichung
0 ≤ λ0 J˜0 ξ0 (·), v0 (·) ξ1 (·), v(·) − u∗ (·) + y1∗ , F10 ξ0 (·), v0 (·) ξ1 (·), v(·) − u∗ (·)
 
 

− y1∗ , F20 ξ0 (·) ξ2 (·) + hy2∗ , ξ1 (·) − ξ2 (·)i + l0 , H 0 ξ0 (·) ξ1 (·)






für alle ξ1 (·), ξ2 (·) ∈ C0 (R+ , Rn ) und v(·) × L∞ (R+ , U ) gilt. Betrachten wir diese Unglei-


chung nacheinander für v(·) = u∗ (·) und ξ1 (·) = ξ2 (·) bzw. für ξ1 (·) = ξ2 (·) = ξ0 (·), so
folgen (5.9) und (5.10).
Angenommen, es ist C1 ∩ C2 6= ∅. Dann existieren ξ 1 (·), ξ 2 (·), y 1 (·), y 2 (·) ∈ C0 (R+ , Rn ), ein
v(·) ∈ L∞ (R+ , U ) und eine Zahl c > 0 mit
−c ≥ J˜0 ξ0 (·), v0 (·) ξ 1 (·), v(·) − u∗ (·) ,
 

y 1 (·) = F10 ξ0 (·), v0 (·) ξ 1 (·), v(·) − u∗ (·) = F20 ξ0 (·) ξ 2 (·),
  

0 = H 0 ξ0 (·) ξ 1 (·).

y 2 (·) = ξ 1 (·) = ξ 2 (·),
Wegen ξ 1 (·) = ξ 2 (·) gibt es also ξ, y(·) ∈ C0 (R+ , Rn ), v(·) ∈ L∞ (R+ , U ) und c > 0 mit
−c ≥ J˜0 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) ,
 

y(·) = F10 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·)


 

y(·) = F20 ξ0 (·) ξ(·), 0 = H 0 ξ0 (·) ξ(·).


 

2. Schritt (Die Definition und die Eigenschaften des Operators Φ). Auf einer Umgebung
des Punktes ξ0 (·), 0 ∈ C0 (R+ , Rn ) × R betrachten wir die Abbildung


    
Φ ξ(·), α = F1 ξ(·), α[v(·) − u∗ (·)] − αy(·), F2 ξ(·) − αy(·), H ξ(·) .

Aus den Eigenschaften  der Abbildungen F1 , F2 und H folgt, dass Φ auf einer Umgebung
des Punktes ξ0 (·), 0 ∈ C0 (R+ , Rn ) × R wohldefiniert und stetig, außerdem in ξ0 (·), 0
stetig differenzierbar mit der Ableitung
Φ0 ξ0 (·), 0 ξ(·), α =
 
 
F10 ξ0 (·), v0 (·) ξ(·), α[v(·) − u∗ (·)] − αy(·), F20 ξ0 (·) ξ(·) − αy(·), H 0 ξ0 (·) ξ(·)
   
Schwaches Optimalitätsprinzip 151

 
ist. Ferner ist Φ in ξ0 (·), 0 nach Lemma 5.8 regulär. Zudem gehört  ξ(·), 1 aufgrund
unserer Annahme im ersten Schritt dem Kern des Operators Φ0 ξ0 (·), 0 an:

Φ0 ξ0 (·), 0 ξ(·), 1 =
 
 
F10 ξ0 (·), v0 (·) ξ(·), v(·) − u∗ (·) − y(·), F20 ξ0 (·) ξ(·) − y(·), H 0 ξ0 (·) ξ(·) = 0.
   

3. Schritt (Die Existenz zulässiger Richtungen und C1 ∩ C2 = ∅). Nach dem Satz von
Ljusternik (Theorem B.14) und geeigneter Wahl von ε0 > 0 (vgl. Abschnitt 1.3.3) erhalten
wir für die Richtungsvariationen

ξε (·) = ξ0 (·) + εξ(·) + r(ε), vε (·) = v0 (·) + [ε + o(ε)] v(·) − u∗ (·) ,

dass für alle ε ∈ [0, ε0 ] die Beziehungen


  
F1 ξε (·), vε (·) − [ε + o(ε)]y(·) = 0, F2 ξε (·) − [ε + o(ε)]y(·) = 0, H ξε (·) = 0

gelten. Daher sind für alle ε ∈ [0, ε0 ] die Gleichungen


   
F ξε (·), vε (·) = F1 ξε (·), vε (·) − F2 ξε (·) = 0, H ξε (·) = 0

erfüllt. Aus der ersten Gleichung folgt, dass auf jedem endlichen Intervall die Trajektorie
x∗ (·) + ξε (·) der Dynamik (5.2) zur Steuerung u∗ (·) + vε (·) im Sinn von Carathéodory
genügt. Dies zeigt, dass für alle ε ∈ [0, ε0 ] die Steuerungsprozesse

x∗ (·) + ξε (·), u∗ (·) + vε (·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U )




zulässig in der Aufgabe (5.1)–(5.3) sind. Damit erhalten wir aber wegen

J˜ ξε (·), vε (·) ≤ J˜ ξ0 (·), v0 (·) − εc + o(ε)


 

bzw. dazu äquivalent für das Zielfunktional in (5.1)


 
J x∗ (·) + ξε (·), u∗ (·) + vε (·) ≤ J x∗ (·), u∗ (·) − εc + o(ε),

dass der Steuerungsprozess x∗ (·), u∗ (·) im Widerspruch zur Voraussetzung von Theorem
5.9 kein schwaches lokales Minimum der Aufgabe (5.1)–(5.3) sein könnte. 

5.2.5. Beweisschluss
Aufgrund (5.9) ist folgende Variationsgleichung für alle ξ(·) ∈ C0 (R+ , Rn ) erfüllt:
Z ∞
ω(t) fx t, x∗ (t), u∗ (t) , ξ(t) dt + l0T ξ(0)


0 = λ0 ·
0
Z ∞  Z t T

+ ν(t) ξ(t) − ξ(0) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds dµ(t). (5.11)
0 0
152 Schwaches lokales Minimum

Dabei bezeichnet µ ein reguläres Borelsches Vektormaß (Rudin [58]).


In der Gleichung (5.11) ist jeder Integralterm absolut integrierbar; insbesondere gilt
Z ∞ Z t 

ν(t) ϕx s, x∗ (s), u∗ (s) ξ(s) ds d|µ|(t)

0 0
Z ∞Z t 
≤ C0 kξ(·)k∞ ν(s) ds d|µ|(t) ≤ C0 kν(·)kL1 · kµk · kξ(·)k∞ .
0 0

Durch vertauschen der Integrationsreihenfolge im letzten Summanden in (5.11) bringen


wir diese Gleichung in die Form
Z ∞ T
 ∞
Z
λ0 ω(t)fx t, x∗ (t), u∗ (t) − ϕTx t, x∗ (t), u∗ (t)

0 = ν(s)dµ(s) ξ(t)dt
0 t
Z ∞  Z ∞ 
T T T
+ ν(t)[ξ(t)] dµ(t) + l0 ξ(0) − ν(t)[ξ(0)] dµ(t) .
0 0

Da sämtliche Integralterme absolut integrierbar sind, definiert die rechte Seite in (5.12) ein
stetiges lineares Funktional auf C0 (R+ , Rn ). Wenden wirZden Darstellungssatz von Riesz

im Raum C0 (R+ , Rn ) an (Rudin [58]) und setzen p(t) = ν(s) dµ(s), so erhalten wir
t
Z ∞
ϕTx s, x∗ (s), u∗ (s) p(s) − λ0 ω(s)fx s, x∗ (s), u∗ (s) ds,
 
p(t) = p(0) = l0 .
t

Also besitzt p(·) auf R+ die verallgemeinerte Ableitung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 ω(t)fx t, x∗ (t), u∗ (t) .


 

Ferner erhalten wir aus der Setzung der Funktion p(·) die Beziehung
DZ ∞ Z ∞ E
kp(t)k2 ν −1 (t) = ν(s)dµ(s), ν(s)dµ(s) · ν −1 (t) ≤ kµk2 ν(t).
t t

Dies zeigt p(·) ∈ L2 (R+ , Rn ; ν −1 )


und ferner die erste “natürliche” Transversalitätsbedin-
gung in (5.5). Außerdem gilt
hp(t), x(t)i 2 ≤ kp(t)k2 ν −1 (t) · kx(t)k2 ν(t).

Mit der eben nachgewiesenen Transversalitätsbedingung und mit Lemma B.11 ergibt sich
die zweite Bedingung in (5.5). Damit sind p(·) ∈ L2 (R+ , Rn ; ν −1 ) und (5.4), (5.5) gezeigt.
Gemäß (5.10) gilt für alle v(·) ∈ L∞ (R+ , U ) die Ungleichung
Z ∞


Hu t, x∗ (t), u∗ (t), p(t), λ0 , v(t) − u∗ (t) dt ≤ 0.
0

Daraus folgt abschließend durch Standardtechniken für Lebesguesche Punkte die Variati-
onsungleichung (5.6). Der Beweis von Theorem 5.1 ist abgeschlossen. 
Normalform 153

5.3. Zur normalen Form der notwendigen Optimalitätsbedingungen


Theorem 5.1 kann auf die folgende modifizierte Version des Beispiels von Halkin [30]
angewendet werden. Dieses Beispiel zeigt, dass für einen optimalen Steuerungsprozess die
notwendigen Bedingungen in Theorem 5.1 nur für nichttriviale Multiplikatoren λ0 , p(·)
mit λ0 = 0 erfüllt sind.

Beispiel 5.10. Wir betrachten mit einem zusätzlichen Diskontierungsfaktor die Aufgabe
Z ∞
e−%t u(t) − x(t) dt → sup,
 
J x(·), u(·) =
0
ẋ(t) = u2 (t) + x(t), x(0) = 0, u(t) ∈ [0, 1], % ∈ (0, 1).

In diesem Beispiel gehört x∗ (t), u∗ (t) ≡ (0, 0) zu W21 (R+ , R; ν) × L∞ (R+ , U ) für je-


des Gewicht ν(·) ∈ W11 (R+ , R) und liefert das globale  Maximum: Denn angenommen,
es gibt einen zulässigen
 Steuerungsprozess x(·), u(·) mit x(t) 6≡ 0. Insbesondere muss
dann J x(·), u(·) < ∞ gelten. Dann existiert ein τ > 0 mit x(τ ) > 0. Durch direktes
Nachrechnen erhalten wir x(t) ≥ x(τ )et−τ für alle t ≥ τ , und es folgt
Z τ Z ∞
−%t
e−%t 1 − x(τ )et−τ dt = −∞.
  
J x(·), u(·) ≤ e u(t) − x(t) dt +
0 τ

Damit besteht die Menge der zulässigen Steuerungsprozesse Aadm nur aus x∗ (·), u∗ (·) .


Für den beschränkten Steuerungsbereich U = [0, 1] sind die Voraussetzungen (A1 ),(A2 )
auf Uγ erfüllt. Wenden wir Theorem 5.1 auf das modifizierte Halkin-Beispiel an, so erhalten
wir die Adjungierte
 
λ0 λ0 (1−%)t
p(t) = p(0) − e−t + e .
1−% 1−%

Da nun % ∈ (0, 1) gilt, ist die erste Transversalitätsbedingung


 in (5.5) nur dann erfüllt,
wenn λ0 = 0 ist. Mit p(0) < 0 sind dann für x∗ (t), u∗ (t) ≡ (0, 0) alle Optimalitätsbedin-
gungen in Theorem 5.1 erfüllt. 

Bemerkung 5.11. Im Beispiel 5.10 ist x∗ (·), u ∗ (·) der einzige zulässige Steuerungspro-
zess. In diesem Sonderfall kann man x∗ (·), u∗ (·) auf der Menge der zulässigen Steuerungs-
prozesse nicht variieren. Es stellt sich damit die Frage, ob die Existenz der nichttrivialen
Multiplikatoren in Theorem 5.1 tatsächlich vorliegt.
Im Beweis des Extremalprinzips (Theorem 5.9) bezieht sich die Anwendung des Tren-
nungssatzes auf die konvexen Mengen C1 und C2 , die nicht ausschließlich durch zulässi-
ge Elemente des Steuerungsproblems (5.1)–(5.3) gebildet werden. Da weiterhin das Paar
x∗ (·), u∗ (·) der Menge ALip angehört, ergibt sich im Beweis des Extremalprinzips, dass
die Menge C1 ein nichtleeres Inneres besitzt. Es folgt ferner die Existenz der nichttri-
vialen trennenden Hyperebene und demnach insbesondere die Existenz der nichttrivialen
Multiplikatoren in Theorem 5.1. 
154 Schwaches lokales Minimum

In diesem Abschnitt zeigen wir, dass folgende “Stetigkeitsbedingung” (S) hinreichend für
die Normalform des Theorems 5.1 ist.

(S) Es existieren eine positive Funktion %(·) und ein µ(·) ∈ L2 (R+ , R+ ; ν) derart, dass für
alle T ≥ 0 und alle ζT mit kζT − x∗ (T )k ≤ %(T ) das System ẋ(t) = ϕ t, x(t), u∗ (t)
mit Anfangsbedingung x(T ) = ζT eine Lösung x(t; ζT ) auf [T, ∞) besitzt und fol-
gende Ungleichung gilt

kx(t; ζT ) − x∗ (t)k ≤ kζT − x∗ (T )kµ(t) für alle t ≥ T ≥ 0.

Theorem 5.12. Sei x∗ (·), u∗ (·) ∈ Aadm ∩ ALip und sei (S) erfüllt. Ist x∗ (·), u∗ (·) ein
 

schwaches lokales Minimum der Aufgabe (5.1)–(5.3), dann ist Theorem 5.1 mit λ0 = 1
erfüllt. Ferner besitzt die Adjungierte p(·) die Darstellung
Z ∞
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds.

p(t) = −Z∗ (t) (5.12)
t

Dabei ist Z∗ (t) die in t = 0 normalisierte Fundamentalmatrix des linearen Systems

ż(t) = −ϕTx t, x∗ (t), u∗ (t) z(t).




Die Darstellung (5.12) stimmt (bis auf das Vorzeichen, das sich durch die Minimierung
statt einer Maximierung des Zielfunktionals ergibt) mit der Formel in den Arbeiten von
Aseev & Kryazhimskii und Aseev & Veliov [3–6] überein. Im Gegensatz zu diesen Arbeiten
ist Theorem 5.12 unter den Voraussetzungen (A0 )–(A2 ), (S) erfüllt und charakterisiert
schwache lokale Minimalstellen.
Bevor wir Theorem 5.12 beweisen, wollen wir die Voraussetzung (S) und die Darstellungs-
formel 5.12 an einem linear-quadratischen Regler demonstrieren.

Beispiel 5.13. Wir betrachten erneut die Aufgabe im Beispiel 5.4:


Z ∞
1
e−2t · x2 (t) + u2 (t) dt → inf,
 
J x(·), u(·) =
0 2
ẋ(t) = 2x(t) + u(t), x(0) = 2, u(t) ∈ R.

Die lineare Dynamik liefert unabhängig vom Steuerungsprozess x(·), u(·) die Relation

kx(t; ζT ) − x(t)k = kζT − x(T )ke2(t−T ) ≤ kζT − x(T )ke2t = kζT − x(T )kµ(t)

für alle t ≥ T ≥ 0. Wir besprechen die Bedingung µ(·) ∈ L2 (R+ , R+ ; ν) für die angegebenen
Gewichte im Beispiel 5.4:

(a) Das Gewicht ν(t) = (1 + t)−a ist für jedes a > 1 unzulässig in Theorem 5.12, da stets
µ(·) 6∈ L2 (R+ , R+ ; ν) ist.
Normalform 155


(b) Für das Gewicht ν(t) = e−at erhalten wir neben √
der Einschränkung a < 2(1+ 2) die
Bedingung a > 4. Mit der Wahl 4 < a < 2(1 + 2) sind sämtliche Voraussetzungen
und Bedingungen der Theoreme 5.1 und 5.12 erfüllt.

Aus der Darstellungsformel 5.12 erhalten wir die Adjungierte


Z ∞
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds

p(t) = −Z∗ (t)
t
Z ∞ √ √ √
= −e−2t e−2s e2s · 2e(1− 2)s ds = −2(1 + 2)e−(1+ 2)t ,
t

die bereits in Beispiel 5.4 angegeben wurde. 

Beweis von Theorem 5.12 Es seien Y∗ (t) bzw. Z∗ (t) die in t = 0 normalisierten Fun-
damentalmatrizen der homogenen Systeme

ż(t) = −ϕTx t, x∗ (t), u∗ (t) z(t).


 
ẏ(t) = ϕx t, x∗ (t), u∗ (t) y(t),

Nach Voraussetzung (S) existiert die Lösung xα (·) der Gleichung


Z t

x(t) = x(T ) + ϕ s, x(s), u∗ (s) ds, x(T ) = x∗ (T ) + αξ, kξk = 1,
T

für alle α ∈ [0, %(T )]. Gemäß dem Satz über die Abhängigkeit einer Lösung von den
Anfangsdaten erhalten wir daher
Z t  
xα (t) − x∗ (t) ϕx s, x∗ (s), u∗ (s) xα (s) − x∗ (s) + o(α, s)
=ξ+ ds.
α T α

Dabei ist o(α, t)/α → 0 für α → 0+ , und das gleichmäßig auf jedem endlichen Intervall
[T, K], K > T . Der Grenzübergang α → 0+ liefert für jedes feste t ≥ T :
Z t
xα (t) − x∗ (t)
ϕx s, x∗ (s), u∗ (s) y(s) ds = Y∗ (t)Y∗−1 (T )ξ.

y(t) := lim =ξ+
α→0 + α T

Wir setzen y(t) durch y(t) = Y∗ (t)Y∗−1 (T )ξ auf R+ fort. Wegen Voraussetzung (A2 ) folgt
mit der Gronwallschen Ungleichung ky(t)k ≤ C · eC0 t auf R+ . Ferner erhalten wir mit (S)
für alle t ≥ T :
kxα (t) − x∗ (t)k
ky(t)k = lim ≤ kξk · µ(t).
α→0 + α
Wegen µ(·) ∈ L2 (R+ , R+ ; ν) zeigt dies y(·) ∈ W21 (R+ , Rn ; ν).
Angenommen, es ist λ0 = 0. Dann erfüllt die Adjungierte p(·) nach Theorem 5.1 die
d
Gleichung (5.4). Wegen dt hp(t), y(t)i = 0 folgt auf R+ :

hp(t), y(t)i = hp(0), Y∗−1 (T )ξi.


156 Schwaches lokales Minimum

Aufgrund der Transversalitätsbedingung (5.5) gilt lim hp(t), y(t)i = 0. Da ξ ∈ Rn , kξk = 1,


 t→∞
beliebig war, erhalten wir λ0 , p(·) = 0 im Widerspruch zu Theorem 5.1.
Es sei λ0 = 1. Dann gilt für jedes T ∈ R+ (vgl. Aseev & Kryazhimskii [3]):
 Z t 
−1 −1

p(t) = Z∗ (t) Z∗ (T )p(T ) + ω(s)Z∗ (s)fx s, x∗ (s), u∗ (s) ds .
T

Betrachten wir nun hp(t), y(t)i und verwenden Z∗−1 (t) = Y∗T (t), so ergibt sich
D Z t E
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds, ξ .

hp(t), y(t)i = p(T ) + Z∗ (T )
T

Mit (5.5) liefert der Grenzübergang t → ∞ die Darstellungsformel (5.12). 


Eine Lösung der adjungierten Gleichung (5.4) zu den “natürlichen” Transversalitätsbe-
dingungen (5.5) in Theorem 5.1 muss keineswegs eindeutig bestimmt sein. Sondern es
kann durch die notwendigen Optimalitätsbedingungen eine ganze Schar von Kandidaten
gefunden werden. Zieht man aber in die Betrachtung die eindeutige Darstellung der Ad-
jungierten nach (5.12) hinzu, so lässt sich diese Schar häufig auf wenige oder einen einzigen
Kandidaten reduzieren.

5.4. Hinreichende Bedingungen nach Mangasarian


Die Darstellung der hinreichenden Bedingungen für die Aufgabe (5.1)–(5.3) ist Seierstad
& Sydsæter [61] entnommen:
Theorem 5.14. In der Aufgabe (5.1)–(5.3) sei x∗ (·), u∗ (·) ∈ Aadm ∩ ALip und es gelte:


(a) Das Tripel x∗ (·), u∗ (·), p(·) erfüllt (5.4)–(5.6) mit λ0 = 1 in Theorem 5.1.

(b) Für jedes t ∈ R+ ist die Funktion H t, x, u, p(t), λ0 konkav in (x, u) auf Uγ .

Dann ist x∗ (·), u∗ (·) ein schwaches lokales Minimum der Aufgabe (5.1)–(5.3).
Beweis Wir erhalten zu T ∈ R+ die Beziehung
Z T
  
∆(T ) = ω(t) f t, x(t), u(t) − f t, x∗ (t), u∗ (t) dt
0
Z T
  
= H t, x∗ (t), u∗ (t), p(t), 1 − H t, x(t), u(t), p(t), 1 dt
0
Z T
+ hp(t), ẋ(t) − ẋ∗ (t)i dt.
0

Aus den elementaren Eigenschaften konkaver Funktionen folgt


 
H t, x∗ (t), u∗ (t), p(t), 1 − H t, x(t), u(t), p(t), 1 ≥
   
−Hx t, x∗ (t), u∗ (t), p(t), 1 x(t) − x∗ (t) − Hu t, x∗ (t), u∗ (t), p(t), 1 u(t) − u∗ (t) .
Hinreichende Bedingungen 157

Damit, sowie mit der adjungierten Gleichung (5.4) und Variationsungleichung (5.6) gilt
Z T
∆(T ) ≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)idt = hp(T ), x(T ) − x∗ (T )i.
0

Wir bemerken an dieser Stelle, dass sämtliche Integranden über R+ absolut integrierbar
sind. Deswegen ist die Betrachtung des Grenzwertes T → ∞ gerechtfertigt.
Aus der Transversalitätsbedingung (5.5) folgt die Beziehung

lim ∆(T ) ≥ lim hp(T ), x(T ) − x∗ (T )i = 0


T →∞ T →∞

für alle zulässigen x(·), u(·) mit kx(·) − x∗ (·)k∞ , ku(·) − u∗ (·)kL∞ ≤ γ. 

Beispiel 5.15. Im Beispiel 5.4 des linear-quadratischen Reglers,


Z ∞
1
e−2t · x2 (t) + u2 (t) dt → inf,
 
J x(·), u(·) =
0 2
ẋ(t) = 2x(t) + u(t), x(0) = 2, u(t) ∈ R,

wählen wir das Gewicht ν(t) = (1+t)−a mit a > 1 bzw. ν(t) = e−at mit 0 < a < 2(1+ 2).
Dann erfüllen der Steuerungsprozess und die Multiplikatoren
√ √ √
x∗ (t) = 2e(1− 2)t , u∗ (t) = −2(1 + 2)e(1− 2)t , λ0 = 1, p(t) = e−2t u∗ (t)

sämtliche notwendige
 Optimalitätsbedingungen in Theorem 5.1. Weiterhin ist die Funktion
H t, x, u, p(t), λ0 konkav bezüglich (x, u) auf Uγ für jedes γ > 0. Damit ist x∗ (·), u∗ (·)
ein schwaches lokales Minimum des linear-quadratischen Reglers. 
Starkes lokales Minimum 159

6. Starkes lokales Minimum über unendlichem Zeithorizont

Die Herleitung notwendiger Optimalitätsbedingungen für starke lokale Minimalstellen in


der Klassischen Variationsrechnung und in der Optimalen Steuerung basiert auf der Na-
delvariationsmethode. Für Aufgaben mit einem unbeschränkten Zeitintervall sieht man
sich mit der Variierbarkeit einer Trajektorie konfrontiert. An dieser Stelle leisten die
mehrfachen Nadelvariationen nach Ioffe & Tichomirov [38] aus dem zweiten Kapitel das
Gewünschte: Durch die geeignete Festlegung der Trägermengen, auf denen die Nadelva-
riationen konzentriert sind, lässt sich die so erzeugte Zustandstrajektorie bezüglich der
gleichmäßigen Topologie in einer Umgebung einfangen (Tauchnitz [67]).
Wir präsentieren in diesem Kapitel die Erweiterung der Nadelvariationsmethode nach Ioffe
& Tichomirov für Steuerungsprobleme mit einem unendlichen Zeithorizont und mit einer
lokal unbeschränkten Dichtefunktion im Integranden. Die dadurch erzielten Resultate in
Form des Pontrjaginschen Maximumprinzips bestehen aus der Herleitung der adjungierten
Gleichung, der Maximumbedingung und der Gültigkeit der “natürlichen” Transversalitäts-
bedingungen.
Weiterhin schenken wir den Aufgaben mit Zustandsbeschränkungen über einem unbe-
schränkten Zeitintervall unsere Aufmerksamkeit. Bezüglich dieser Restriktionen besitzen
die Steuerungsprobleme mit unendlichem Zeithorizont besondere Wesenszüge. Diese resul-
tieren daraus, dass eine stetige Funktion über R+ kein Maximum besitzen muss.
Einerseits erhalten wir deswegen in der Darstellung des Subdifferentials der Supremums-
funktion einen wesentlichen Unterschied zum Subdifferential der Maximumfunktion, denn
die Totalvariation der regulären Borelschen Maße kann verschwinden. Dies gilt deswegen
ausdrücklich zu beachten, da in diesem Fall die Nichttrivialität der Multiplikatoren im
Maximumprinzip verloren gehen kann.
Andererseits können über dem unbeschränkten Intervall die Ungleichungen erst im Un-
endlichen aktiv werden. Um diese Art von Restriktionen auszuschließen und um die ad-
jungierte Gleichung in ihrer “erwarteten” Darstellung zu erlangen, müssen wir zusätzliche
Vorsichtsmaßnahmen für das Verhalten der Zustandstrajektorien entlang der Ungleichun-
gen im Unendlichen treffen.
Außerdem ist im Nachweis des Lagrangeschen Prinzips der funktionalanalytische Rahmen
grundlegend zu überdenken. Denn “echte” Abstiegsrichtungen bezüglich der Zustandsbe-
schränken im abstrakten Rahmen des Raumes der stetigen Funktion, die im Unendlichen
verschwinden, existieren nicht.
In diesem abschließenden Kapitel zu notwendigen Bedingungen zeigt sich rückblickend
auf die gesamte Arbeit in vollem Umfang die Komplexität der Aufgabenklasse über dem
unbeschränkten Zeitintervall. Jeden Ansatz und jeden Schritt im Beweis der notwendigen
Optimalitätsbedingungen gilt es gründlich zu überdenken und die Analogien zu Aufgaben
über einem endlichen Zeitintervall kritisch zu hinterfragen. Denn das unendliche Zeitinter-
vall stellt eine Singularität in allen Bereichen der Aufgabe dar, weswegen wir die bekannten
Verfahren vollständig überarbeiten mussten.
160 Starkes lokales Minimum

6.1. Die Aufgabenstellung


In diesem Kapitel betrachten wir starke lokale Minimalstellen der Aufgabe
Z ∞
 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf, (6.1)
0

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 , (6.2)
m
u(t) ∈ U ⊆ R , U 6= ∅, (6.3)

gj t, x(t) ≤ 0 für alle t ∈ R+ , j = 1, ..., l. (6.4)

Dabei gelten für die eingehenden Abbildungen

f : R × Rn × Rm → R, ϕ : R × Rn × Rm → Rn , gj : R × Rn → R.

Die Aufgabe (6.1)–(6.4) untersuchen wir bezüglich der Paare

x(·), u(·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U ).




Wir nennen die Trajektorie x(·) ∈ W21 (R+ , Rn ; ν) eine Lösung des dynamischen Systems
(6.2), falls x(·) auf R+ definiert ist und auf jedem endlichen Intervall die Dynamik mit
Steuerung u(·) im Sinn von Carathéodory löst.
Für die Aufgabe (6.1)–(6.4) treffen wir die folgenden Annahmen (B0 )–(B3 ):

(B0 ) Die Dichtefunktion ω(·) und das Gewicht ν(·) besitzen die Eigenschaften:
(o) Es gilt ω(·) ∈ L1 (R+ , R+ ).
(i) Es ist ν(·) stetig, positiv und monoton fallend.
(ii) Es ist ν(·) ∈ W11 (R+ , R) und es gelten ν(0) = 1, lim t · ν(t) = 0.
t→∞
(iii) Es ist |ν̇(t)| ≤ Kν(t) für alle t ∈ R+ mit einer Konstanten K > 0.

Zu x(·) bezeichne Vγ die Menge Vγ = {(t, x) ∈ R+ × Rn | kx − x(t)k ≤ γ}. Dann gehören


zur Menge BLip diejenigen x(·) ∈ W21 (R+ , Rn ; ν), für die es eine Zahl γ > 0 derart gibt,
dass auf der Menge Vγ gelten:

(B1 ) Die Abbildungen f (t, x, u) und ϕ(t, x, u) sind auf Vγ × U stetig in der Gesamtheit
der Variablen und stetig differenzierbar bezüglich x.

(B2 ) Für jedes u(·) ∈ L∞ (R+ , U ) gibt es auf Vγ ein C0 > 0 und ein L(·) ∈ L1 (R+ , R+ ; ω),
die von der Menge Vγ und von u(·) abhängig sein können, mit
 
f t, x, u(t) , fx t, x, u(t) ≤ L(t),

ϕ t, x, u(t)) ≤ C0 (1 + kxk), ϕx t, x, u(t) ≤ C0

für fast alle t ∈ R+ .


Pontrjaginsches Maximumprinzip 161

(B3 ) Die Abbildungen gj (t, x), j = 1, ..., l, und deren partielle Ableitungen gjx (t, x) sind
stetig für alle (t, x) ∈ Vγ . Ferner existiert eine Konstante C0 > 0 mit

|gj (t, x)| ≤ C0 (1 + kxk), kgjx (t, x)k ≤ C0 , kgjx (t, x) − gjx (t, x0 )k ≤ C0 kx − x0 k

für alle (t, x), (t, x0 ) ∈ Vγ .

Der Steuerungsprozess x(·), u(·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U ) heißt zulässig in der


Aufgabe (6.1)–(6.4), falls x(·), u(·) dem System (6.2) genügt, x(·) die Restriktionen (6.4)
erfüllt und das Lebesgue-Integral in (6.1) endlich ist. Die Menge Badm bezeichnet die
Menge der zulässigen Steuerungsprozesse der Aufgabe (6.1)–(6.4).
Der zulässige Steuerungprozess x∗ (·), u∗ (·) ist eine starke lokale Minimalstelle in der
Aufgabe (6.1)–(6.4), falls eine Zahl ε > 0 derart existiert, dass die Ungleichung
 
J x(·), u(·) ≥ J x∗ (·), u∗ (·)

für alle x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ ε gilt.




6.2. Die Standardaufgabe mit unendlichem Zeithorizont


6.2.1. Das Pontrjaginsche Maximumprinzip
Im Weiteren bezeichnet H : R × Rn × Rm × Rn × R → R die Pontrjagin-Funktion

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 ω(t)f (t, x, u).

 (Pontrjaginsches Maximumprinzip). Es sei x∗ (·), u∗ (·) ∈ Badm ∩BLip . Ist



Theorem 6.1
x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (6.1)–(6.3), dann existieren nicht
gleichzeitig verschwindende Multiplikatoren λ0 ≥ 0 und p(·) ∈ L2 (R+ , Rn ; ν −1 ) derart,
dass

(a) die Funktion p(·) fast überall der adjungierten Gleichung

ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 ω(t)fx t, x∗ (t), u∗ (t)


 
(6.5)

genügt und die “natürlichen” Transversalitätsbedingungen

lim kp(t)k2 ν −1 (t) = 0, hp(t), x(t)i = 0 ∀ x(·) ∈ W21 (R+ , Rn ; ν) (6.6)


t→∞

erfüllt;

(b) in fast allen Punkten t ∈ R+ die Maximumbedingung


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 (6.7)
u∈U

gilt.
162 Starkes lokales Minimum

Zur Verdeutlichung der Voraussetzung (B2 ) und den Bezug zur Menge der zulässigen
Steuerungsprozesse diskutieren wir im folgenden Beispiel die Mengen Badm und BLip :
Beispiel 6.2. Wir betrachten nach Grass et al. [28] die Aufgabe
Z ∞
e−%t cx(t) + u(t) dt → inf,
 
J x(·), u(·) = (6.8)
0
ẋ(t) = τ + [κ + εu(t)]xα (t) − [µ + ηu(t)]x(t), x(0) = x0 > 0, (6.9)
u(t) ∈ U = R+ , τ ≥ 0, κ, ε, µ, η, % > 0, α ∈ (0, 1). (6.10)

Die Dynamik (6.9) ist in der vorliegenden Allgemeinheit nicht exakt zu lösen. Entspre-
chend schwierig gestaltet sich die Analyse des Steuerungsproblems (6.8)–(6.10). Deswegen
weisen wir an dieser Stelle darauf hin, dass wir im Folgenden die Mengen BLip , Badm ohne
Voraussetzungen an einen möglichen optimalen Steuerungsprozess diskutieren.
(a) Badm : Wegen κ, µ > 0, ist jede zu u(·) ∈ L∞ (R+ , R+ ) gehörende Lösung x(·) von
(6.9) beschränkt, und es gilt x(t) ≥ m > 0 auf R+ . Damit gehört die Trajektorie
x(·) für jedes ν(·) ∈ W11 (R+ , R) dem Raum W21 (R+ , R; ν) an. Weiterhin ist für jeden
beschränkten Steuerungsprozess x(·), u(·) das Zielfunktional (6.8) endlich. Also ist
jedes Paar x(·), u(·) aus W21 (R+ , R; ν) × L∞ (R+ , R+ ), das (6.9) löst, zulässig.


(b) BLip : Nun sei x(·) ∈ W21 (R+ , R; ν) beschränkt, x(t) ≥ m > 0 auf R+ und 0 < γ < m.
Dann gibt es zu jedem u(·) ∈ L∞ (R+ , R+ ) und zu 0 < γ < m eine Zahl C0 mit

f (t, x, u(t)), ϕ(t, x, u(t)), fx (t, x, u(t)), ϕx (t, x, u(t)) ≤ C0

auf Vγ für fast alle t ∈ R+ .


Damit sind die Voraussetzungen (B1 ), (B2 ) erfüllt und es gilt BLip ∩ Badm = Badm .
Ferner hängt die Zahl C0 von u(·) ∈ L∞ (R+ , R+ ) und der Wahl von 0 < γ < m ab.
(c) Im Gegensatz zur Aufgabenstellung nehmen wir nun τ = 0 und κ = 0 an. Dann gibt
es zulässige Trajektorien x(·) mit x(t) → 0 für t →
∞. Für diese
 x(·) gibt es keine
Menge Vγ , so dass die Voraussetzung (B2 ), d. h. ϕx t, x, u(t) ≤ C0 , erfüllt ist.

Daher hat man in diesem Fall BLip ∩ Badm ⊂ Badm . 
Als Folgerung aus Theorem 6.1 erhalten wir wieder die Transversalitätsbedingung von
Michel (Lemma 5.3). Weiterhin können wir unmittelbar das Resultat über die Normalform
des Pontrjaginschen Maximumprinzips einbinden:
Theorem 6.3. Sei x∗ (·), u∗ (·) ∈ Badm ∩ BLip und sei die “Stetigkeitsbedingung” (S) in


Abschnitt 5.3 erfüllt. Ist x∗ (·), u∗ (·) eine starke lokale Minimalstelle in der Aufgabe
(6.1)–(6.3), dann ist Theorem 6.1 mit λ0 = 1 erfüllt. Ferner besitzt die Adjungierte p(·)
die Darstellung
Z ∞
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds.

p(t) = −Z∗ (t)
t
Pontrjaginsches Maximumprinzip 163

Dabei ist Z∗ (t) die in t = 0 normalisierte Fundamentalmatrix des linearen Systems

ż(t) = −ϕTx t, x∗ (t), u∗ (t) z(t).




Beispiel 6.4. Wir betrachten erneut das Differentialspiel im Beispiel 2.9, aber dieses Mal
mit einem unendlichen Zeithorizont:
Z ∞
˜ e−%t px(t) − ci ui (t) dt → sup,
 
Ji x(·), u1 (·), u2 (·) =
0

ẋ(t) = x(t) α − r ln x(t) − u1 (t)x(t) − u2 (t)x(t), x(0) = x0 > 0,
1
ui > 0, α, ci , p, r, % > 0, α > , i = 1, 2.
c1 + c2
Wieder ist der Preis p nicht konstant, sondern umgekehrt proportional zum Angebot:
1
p = p(u1 x + u2 x) = .
u1 x + u2 x
Nach Anwendung der Transformation z = ln x ergibt sich das Spielproblem
Z ∞  
 −%t 1
Ji z(·), u1 (·), u2 (·) = e − ci ui (t) dt → sup,
0 u1 (t) + u2 (t)
ż(t) = −rz(t) + α − u1 (t) − u2 (t), z(0) = ln x0 > 0,
1
ui > 0, α, ci , p, r, % > 0, α > , i = 1, 2.
c1 + c2
Der Lösungsansatz über ein Nash-Gleichgewicht liefert die Steuerungen
c2 c1
u∗1 (t) ≡ , u∗2 (t) ≡ ,
(c1 + c2 )2 (c1 + c2 )2

die optimale Trajektorie


 
−rt 1 1
z∗ (t) = (z0 − c0 )e + c0 , c0 = α−
r c1 + c2

und die Adjungierten


pi (t) ≡ 0, i = 1, 2.
Die Funktion z∗ (·) ist streng monoton und nimmt  nur Werte des Segments [z0 , c0 ] an. Da
c0 und z0 positiv sind, ist x∗ (t) = exp z∗ (t) über R+ wohldefiniert und x(·) gehört dem
gewichteten Raum W21 (R+ , Rn ; ν) mit ν(·) ∈ W11 (R+ , R) an.
Für den Steuerungsprozesse x∗ (·), u∗1 (·), u∗2 (·) sind für γ < min{c0 , x0 }die Voraussetzun-


gen (B1 ) und (B2 ) erfüllt. Damit erfüllt x∗ (·), u∗1 (·), u∗2 (·), p1 (·), p2 (·) alle notwendigen
Bedingungen in Theorem 6.1. 
164 Starkes lokales Minimum

6.2.2. Mehrfache Nadelvariationen

Der weitere Beweis des Pontrjaginschen Maximumprinzips zur Aufgabe (6.1)–(6.3) basiert
auf einer mehrfachen Nadelvariation. Die wesentlichen Grundlagen dazu haben wir im
Abschnitt 2.3 gelegt. Allerdings werden wir mit zwei neuen Herausforderungen konfron-
tiert, nämlich mit dem unbeschränkten Zeitintervall R+ und mit der möglicherweise lokal
unbeschränkten Dichtefunktion ω(·) ∈ L1 (R+ , R+ ) im Integranden des Zielfunktionals.
Ausgangspunkt für die Betrachtung der mehrfachen Nadelvariation ist die Angabe geeig-
neter Trägerfamilien (Lemma 2.4) und die Eigenschaften, die nach Lemma 2.5 und Lemma
2.6 dem Steuerungsproblem übergeben werden. Wir werden nun zeigen, wie wir für das
unbeschränkte Zeitintervall und für einen lokal unbeschränkten Integranden die wesentli-
che Argumentation auf eine kompakte Menge K zurückführen können.
Die Konstruktion der Trägermengen im Abschnitt 2.3.1 lässt sich unmittelbar auf den Fall
anwenden, dass statt dem Intervall [t0 , t1 ] eine kompakte Menge K ⊂ R+ betrachtet wird.
Dann ergibt sich folgendes Resultat:

Lemma 6.5. Es sei K ⊂ R+ kompakt und es seien yi (·), yi : K → Rni , i = 1, ..., d,


beschränkte messbare Vektorfunktionen. Dann existieren zu jedem δ > 0 einparametrige
Mengenfamilien M1 (α), ..., Md (α), 0 ≤ α ≤ 1/d, messbarer Teilmengen der Menge K
derart, dass für alle i = 1, ..., d, 0 ≤ α0 ≤ α ≤ 1/d und i 6= i0 gilt:

|Mi (α)| = α|K|, Mi (α0 ) ⊆ Mi (α), Mi (α) ∩ Mi0 (α0 ) = ∅,


Z

max χMi (α) (τ ) − χMi (α0 ) (τ ) yi (τ ) dτ
t∈K
[0,t]∩K
Z
0 0

−(α − α ) ≤ δ|α − α |.
yi (τ ) dτ
[0,t]∩K

Es seien x∗ (·) ∈ W21 (R+ , Rn ; ν), u∗ (·), u1 (·), ..., ud (·) ∈ L∞ R+ , U und δ > 0 gegeben.


Ferner seien die Voraussetzungen (B1 ) und (B2 ) für x∗ (·) erfüllt. Da wir nur endlich viele
Funktionen u∗ (·), u1 (·), ..., ud (·) betrachten, gilt (B2 ) für alle diese Funktionen mit einer
Zahl C0 und einer Funktion L(·).
Dann lässt sich eine Zahl T > 0 wählen mit (nach (B0 ) gilt t · ν(t) → 0 für t → ∞)
Z t
ϕx s, x∗ (s), u∗ (s) ds ≤ sup C0 [t · ν(t)] ≤ δ .

sup ν(t)
t≥T 0 t≥T 3

Ferner können wir die Zahl T > 0 wählen mit


Z t Z t
 
sup ν(t) ϕ s, x∗ (s), u(s) ds ≤ sup ν(t)
C0 1 + kx∗ (s)k ds
t≥T 0 t≥T 0
 δ
≤ sup C0 t · ν(t) + kx∗ (·)kW21 (ν) [t · ν(t)]1/2 ≤
t≥T 6
Pontrjaginsches Maximumprinzip 165


für alle u∗ (·), u1 (·), ..., ud (·) ∈ L∞ R+ , U . Abschließend sei T > 0 derart festgelegt, dass
Z ∞ Z ∞
 δ
ω(t) f t, x(t), u(t) dt ≤ ω(t)L(t) dt ≤
T T 6

für alle u∗ (·), u1 (·), ..., ud (·) ∈ L∞ R+ , U und x(·) mit kx(·) − x∗ (·)k∞ ≤ γ gilt.
Nach dem Satz von Lusin existiert eine kompakte Menge K ⊆ [0, T ], auf der die Funktion
ω(·) stetig ist und zudem für i = 1, ..., d folgende Relationen gelten:
Z
ϕx t, x∗ (t), u∗ (t) dt ≤ δ ,

[0,T ]\K 3
Z
ϕ t, x∗ (t), ui (t) − ϕ t, x∗ (t), u∗ (t) dt ≤ δ ,
 
[0,T ]\K 3
Z
  δ
ω(t) f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t) dt ≤ .
[0,T ]\K 3

Wir betrachten im Folgenden die Funktionen yi (·),


  
yi (t) = ϕ t, x∗ (t), ui (t) − ϕ t, x∗ (t), u∗ (t) ,
  
ω(t) f t, x∗ (t), ui (t) − f t, x∗ (t), u∗ (t) , i = 1, ..., d,

die nach Wahl von K über dieser Menge messbar und beschränkt sind. Über R+ defi-
nieren wir mit den zugehörigen Trägermengen
 M1 (α), ..., Md (α) ⊆ K aus Lemma 6.5 die
Abbildung α → uα (·) ∈ L∞ R+ , U ,

d
X 
uα (t) = u∗ (t) + χMi (αi ) (t) · ui (t) − u∗ (t) .
i=1

Diese ist auf folgendem Quader Qd wohldefiniert:


n o
Qd = α = (α1 , ..., αd ) ∈ Rd 0 ≤ αi ≤ 1/d, i = 1, ..., d .

Im Weiteren bezeichnen Σ(∆) und V die Mengen

d
( )
X
d

Σ(∆) = α = (α1 , ..., αd ) ∈ R α1 , ..., αd ≥ 0, αi ≤ ∆ ,
i=1
V = {x(·) ∈ C0 (R+ , Rn ) kx(·) − x∗ (·)k∞ ≤ σ}.

166 Starkes lokales Minimum

Auf diesen Mengen betrachten wir die Abbildungen


Z t  
Φ1 x(·), α (t) = ν(t) ϕ τ, x(τ ), uα (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ, t ∈ R+ ,
0
Z t
  
Λ1 x(·), α (t) = ν(t) ϕx τ, x∗ (τ ), u∗ (τ ) x(τ ) − x∗ (τ )
0
d  
X  
+ αi · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ, t ∈ R+ ,
i=1

Z ∞   
Φ2 x(·), α = ω(t) f t, x(t), uα (t) − f t, x(t), u∗ (t) dt,
0
d
XZ ∞
   
Λ2 x(·), α = αi · ω(t) f t, x(t), ui (t) − f t, x(t), u∗ (t) dt.
i=1 0

Lemma 6.6. Es existieren ∆ ∈ (0, 1/d] und σ > 0 derart, dass für alle α, α0 ∈ Σ(∆) und
alle x(·), x0 (·) ∈ V gelten:
 
Φ1 x(·), α − Φ1 x0 (·), α0 − Λ1 x(·), α − Λ1 x0 (·), α0 (·)
  

 d
X 
0 0
≤ δ kx(·) − x (·)k∞ + |αi − αi | . (6.11)
i=1

Beweis Beachten wir ν(t) ≤ 1 und, dass die Abbildung α → uα (·) nur für t ∈ K zum Tra-
gen kommt, so können wir die linke Seite in (6.11) gegen folgenden Ausdruck abschätzen:
Z
ϕx t, x∗ (t), u∗ (t) x(t) − x0 (t) dt
 
[0,T ]\K
d
X Z
0
 
+ (αi − αi ) · ϕ t, x∗ (t), ui (t) − ϕ t, x∗ (t), u∗ (t) dt
i=1 [0,T ]\K
Z 
ϕ τ, x(τ ), uα (τ ) − ϕ τ, x0 (τ ), uα0 (τ )
 
+ max
t∈K [0,t]∩K
−ϕx τ, x∗ (τ ), u∗ (τ ) x(τ ) − x0 (τ )
 

d  
X
0
 
− (αi − αi ) · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ

i=1
Z t
ϕx τ, x∗ (τ ), u∗ (τ ) x(τ ) − x0 (τ ) dτ
 
+ sup ν(t)
t≥T 0
d
X Z t
αi0 )
 
+ sup ν(t) (αi − · ϕ τ, x∗ (τ ), ui (τ ) − ϕ τ, x∗ (τ ), u∗ (τ ) dτ.
t≥T i=1 0
Pontrjaginsches Maximumprinzip 167

Über der Menge [0, T ] \ K bzw. für t ≥ T fallen die Ausdrücke kleiner oder gleich
 d 
δ 0
X
0
kx(·) − x (·)k∞ + |αi − αi |
3
i=1

aus. Bezüglich der kompakten Menge K folgt diese Abschätzung direkt aus Lemma 2.5,
da im Beweis das Intervall [t0 , t1 ] durch die kompakte Menge K ersetzt werden darf, auf
der die Dichtefunktion ω(·) stetig ist. 
Lemma 6.7. Es existieren ∆ ∈ (0, 1/d] und σ > 0 derart, dass für alle α ∈ Σ(∆) und
alle x(·) ∈ V gelten:
Xd
 
Φ2 x(·), α − Λ2 x(·), α ≤ δ αi . (6.12)
i=1

Beweis Die linke Seite in (6.12) ist gleich


d Z ∞  
X   
χMi (αi ) (t) − αi · ω(t) f t, x(t), ui (t) − f t, x(t), u∗ (t) dt.
i=1 0

Beachten wir Mi (αi ) ⊆ K, so folgen nach Wahl von T > 0 und der Menge K:
d Z d
X 
   δX
αi · ω(t) f t, x(t), ui (t) − f t, x(t), u∗ (t) dt ≤ αi ,
3
i=1 [0,T ]\K i=1
d Z ∞ d
X     δX
αi · ω(t) f t, x(t), ui (t) − f t, x(t), u∗ (t) dt ≤ αi .
T 3
i=1 i=1

Für die Integration über der kompakten Menge K erhalten wir


d Z d
X     δX
αi · ω(t) f t, x(t), ui (t) − f t, x(t), u∗ (t) dt ≤ αi
K 3
i=1 i=1

unmittelbar aus Lemma 2.6, da wieder das Intervall [t0 , t1 ] durch die kompakte Menge K
ersetzt werden darf, auf der die Dichtefunktion ω(·) stetig ist. 

6.2.3. Definition und Eigenschaften der Extremalaufgabe


Sei x∗ (·) ∈ BLip ∩ C(R+ , Rn ) und es bezeichne ξ0 (·) den Ursprung im Raum C0 (R+ , Rn ).
Auf C0 (R+ , Rn ) × L∞ (R+ , U ) definieren wir die Abbildungen
Z ∞
˜
 
J ξ(·), u(·) = ω(t)f t, x∗ (t) + ξ(t), u(t) dt,
0
 Z t 
 
F1 ξ(·), u(·) (t) = 2ξ(t) + ν(t) x∗ (t) − x0 − ϕ s, x∗ (s) + ξ(s), u(s) ds ,
  0 
F2 ξ(·) (t) = 2ξ(t) − ν(t) ξ(t) − ξ(0) , t ∈ R+ , H ξ(·) = ξ(0).
168 Starkes lokales Minimum

Dabei fassen wir sie als Abbildungen zwischen folgenden Funktionenräumen auf:

J˜ : C0 (R+ , Rn ) × L∞ (R+ , Rm ) → R,
F1 : C0 (R+ , Rn ) × L∞ (R+ , Rm ) → C0 (R+ , Rn ),
F2 : C0 (R+ , Rn ) → C0 (R+ , Rn ),
H : C0 (R+ , Rn ) → Rn .

Im Folgenden betrachten wir die Eigenschaften der Extremalaufgabe

J˜ ξ(·), u(·) → inf, F ξ(·), u(·) = F1 ξ(·), u(·) − F2 ξ(·) = 0, H ξ(·) = 0. (6.13)
    

Dabei sind die Abbildungen F2 und H offensichtlich auf C0 (R+ , Rn ) stetig differenzierbar
und die linearen Operatoren F20 ξ(·) , H 0 ξ(·) sind surjektiv für jedes ξ(·) ∈ C0 (R+ , Rn ).


Lemma 6.8. Für jedes u(·) ∈ L∞ (R+ , U ) ist die Abbildung ξ(·) → J˜ ξ(·), u(·) im Punkt


ξ0 (·) Fréchet-differenzierbar und es gilt


Z ∞
J˜ξ ξ0 (·), u(·) ξ(·) =


ω(t) fx t, x∗ (t), u(t) , ξ(t) dt.
0

Lemma 6.9. Für jedes u(·) ∈ L∞ (R+ , U ) ist die Abbildung ξ(·) → F1 ξ(·), u(·) im Punkt
ξ0 (·) Fréchet-differenzierbar und es gilt
Z t
   
F1ξ ξ0 (·), u(·) ξ(·) (t) = ξ(t) − ν(t) ϕx s, x∗ (s), u(s) ξ(s) ds, t ∈ R+ .
0

Lemma 6.10. Für jedes u(·) ∈ L∞ (R+ , U ) ist ξ(·) → F1ξ ξ0 (·), u(·) ξ(·) surjektiv.

Diese Eigenschaften und die Herleitungen sind verwandt mit denen in Abschnitt 5.2.3.
Deswegen verzichten wir auf die erneuten Beweisführungen.

6.2.4. Lagrangesche Multiplikatorenregel


In der Aufgabe (6.1)–(6.3) seien x∗ (·) ∈ BLip ∩ C(R+ , Rn ) und x∗ (·), u∗ (·) ∈ Badm .


Auf C0 (R+ , Rn ) × L∞ (R+ , Rm ) × C0∗ (R+ , Rn ) × R × Rn definieren wir zur Extremalaufgabe


(6.13) die Lagrange-Funktion L = L ξ(·), u(·), y ∗ , λ0 , l0 ,


L = λ0 J˜ ξ(·), u(·) + y ∗ , F ξ(·), u(·) + l0T H ξ(·)



 

= λ0 J˜ ξ(·), u(·) + y ∗ , F1 ξ(·), u(·) − F2 ξ(·) + l0T H ξ(·) .



  

Theorem 6.11 (Extremalprinzip). Es sei x∗ (·) ∈ BLip ∩ C(R+ , Rn ) und außerdem sei
x∗ (·), u∗ (·) ∈ Badm . Ist x∗ (·), u∗ (·) ein starkes lokales Minimum im Steuerungsproblem


(6.1)–(6.3), dann existieren nicht gleichzeitig verschwindende Lagrangesche Multiplikato-


ren λ0 ≥ 0, y ∗ ∈ C0∗ (R+ , Rn ) und l0 ∈ Rn derart, dass folgende Bedingungen gelten:
Pontrjaginsches Maximumprinzip 169

(a) Die Lagrange-Funktion besitzt bezüglich ξ(·) in ξ0 (·) einen stationären Punkt, d. h.

Lξ ξ0 (·), u∗ (·), λ0 , y ∗ , l0 = 0.

(6.14)

(b) Die Lagrange-Funktion erfüllt bezüglich u(·) die Minimumbedingung

L ξ0 (·), u∗ (·), λ0 , y ∗ , l0 = L ξ0 (·), u(·), λ0 , y ∗ , l0 .


 
min (6.15)
u(·)∈L∞ (R+ ,U )

Beweis Im Weiteren kombinieren wir die Argumente für eine mehrfache Nadelvariation
in Abschnitt 2.4.3 mit dem Trennungsargument in Abschnitt 5.2.4. Wir gehen daher nur
auf die Passagen ein, die angepasst werden müssen.
1. Schritt (Die Mengen C1 , C2 der Variationen). Es sei C1 die Menge derjenigen

η0 , y1 (·), y2 (·), µ ∈ R × C0 (R+ , Rn ) × C0 (R+ , Rn ) × Rn ,




zu denen es ein ξ1 (·) ∈ C0 (R+ , Rn ) und ein u(·) ∈ L∞ (R+ , U ) gibt mit

η0 > J˜ξ ξ0 (·), u∗ (·) ξ1 (·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·) ,


  
  
y1 (·) = F1ξ ξ0 (·), u∗ (·) ξ1 (·) + F1 ξ0 (·), u(·) − F1 ξ0 (·), u∗ (·) ,
µ = H 0 ξ0 (·) ξ1 (·).

y2 (·) = ξ1 (·),

Weiterhin sei C2 die Menge der Vektoren

0, z1 (·), z2 (·), 0 ∈ R × C0 (R+ , Rn ) × C0 (R+ , Rn ) × Rn ,




zu denen es ein ξ2 (·) ∈ C0 (R+ , Rn ) gibt mit

z1 (·) = F20 ξ0 (·) ξ2 (·),



z2 (·) = ξ2 (·).

Ebenso wie im Abschnitt 5.2.4 ist C2 konvex und das Innere der Menge conv C1 nach dem
Satz von der offenen Abbildung nichtleer. Ferner reicht es zum Nachweis von Theorem 6.11
aus, conv C1 ∩ C2 = ∅ zu zeigen. Angenommen, es ist conv C1 ∩ C2 6= ∅. Dann existieren
d
X
positive Zahlen αi , αi = 1, ξ(·), y(·) ∈ C0 (R+ , Rn ), ui (·) ∈ L∞ (R+ , U ), i = 1, ..., d, und
i=1
eine Zahl c > 0 mit
d h
X i
˜ αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) ,
 
−c ≥ Jξ ξ0 (·), u∗ (·) ξ(·) +
i=1
d h
 X  i
y(·) = F1ξ ξ0 (·), u∗ (·) ξ(·) + αi F1 ξ0 (·), ui (·) − F1 ξ0 (·), u∗ (·) ,
i=1
y(·) = F20 ξ0 (·) ξ(·), 0 = H 0 ξ0 (·) ξ(·).
 
170 Starkes lokales Minimum

2. Schritt (Definition und Eigenschaften der Abbildungen Φ̃ und Λ̃). Zu ∆ ∈ (0, 1/d] sei
 d 
X + d
Σ̃(∆) = α = (α1 , ..., αd ) ∈ R αi ≤ ∆ .
i=1

Sei δ > 0 gegeben. Dann können wir eine Zahl T > 0 und eine kompakte Menge K ⊆ [0, T ]
derart wählen, dass mit der mehrfachen Nadelvariation uα (·) ∈ L∞ (R+ , U ),
d
X 
uα (t) = u∗ (t) + χMi (αi ) (t) · ui (t) − u∗ (t) , Mi (αi ) ⊆ K,
i=1

die Abbildungen
d   
 X −
 
Φ ξ(·), α = F1 ξ(·), uα+ (·) + αi F1 ξ0 (·), ui (·) − F1 ξ0 (·), u∗ (·) − αi y(·) ,
i=1
d  
  X  
Λ ξ(·), α = F1ξ ξ0 (·), u∗ (·) ξ(·) + αi F1 ξ0 (·), ui (·) − F1 ξ0 (·), u∗ (·) − y(·)
i=1

auf einer Umgebung V von ξ0 (·) und für alle α ∈ Σ̃(∆) mit ∆ ∈ (0, 1/d] der Relation
Φ ξ(·), α − Φ ξ 0 (·), α0 − Λ ξ(·), α + Λ ξ 0 (·), α0
   

 X d 
0 0

≤ δ kξ(·) − ξ (·) ∞ +
|αi − αi |
i=1

genügen. Denn dieser Ausdruck stimmt nach Vereinfachungen mit (6.11) in Lemma 6.6
überein. Weiterhin betrachten wir
d
X d
X
F20
   
Φ0 ξ(·), α = F2 ξ(·) − αi y(·), Λ0 ξ(·), α = ξ0 (·) ξ(·) − αi y(·),
i=1 i=1
Λ1 ξ(·), α = H 0 ξ0 (·) ξ(·).
   
Φ1 ξ(·), α = H ξ(·) ,

Wir fassen diese Abbildungen in Φ̃ und Λ̃ zusammenfassen:


   
Φ̃ ξ(·), α = (Φ, Φ0 , Φ1 ) ξ(·), α , Λ̃ ξ(·), α = (Λ, Λ0 , Λ1 ) ξ(·), α .

Dann können
 wir wegen der stetigen Differenzierbarkeit der Abbildungen F2 ξ(·) und
H ξ(·) eine Umgebung V von ξ0 (·) und eine ∆ ∈ (0, 1/d] so gewählt werden, dass auf
V ⊆ C0 (R+ , Rn ) von ξ0 (·) und Σ̃(∆) ⊆ Rd gilt:
 d
X 
Φ̃ ξ(·), α − Φ̃ ξ 0 (·), α0 − Λ̃ ξ(·), α + Λ̃ ξ 0 (·), α0 ≤ δ ξ(·) − ξ 0 (·) + 0
   

|αi − αi | .
i=1
Pontrjaginsches Maximumprinzip 171

3. und 4. Schritt (Die Existenz und Eigenschaften 0 zulässiger Richtungen). Da die stetigen
0

linearen Operatoren F1ξ ξ0 (·), u∗ (·) , F2 ξ0 (·) , H ξ0 (·) surjektiv sind, ist die Zahl C(Λ̃)
 
in Lemma B.15 endlich. Beachten wir ferner, dass Φ̃ ξ0 (·), 0 = 0 und Λ̃ ξ(·), α = 0
gelten, so lässt sich der verallgemeinerte Satz von Ljusternik auf die Abbildung Φ̃ im
Punkt ξ0 (·), 0 anwenden.
5. Schritt (conv C1 ∩ C2 = ∅). Für hinreichend kleine ε > 0 gelten für

ξ ε (·), uε (·) = ξ0 (·) + εξ(·) + rε (·), uεα+αε (·)


 

die Gleichungen
d d
 X X
(εαi + αiε )y(·), (εαi + αiε )y(·),
 
F1 ξε (·), u
εα+αε (·) = F2 ξε (·) = H ξε (·) = 0.
i=1 i=1

Dies bedeutet mit dem Operator F = F1 − F2 , dass die Steuerungsprozesse

xε (·), uε (·) = x∗ (·) + εξ(·) + rε (·), uεα+αε (·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U )
 

zulässig in dem Steuerungsproblem (6.1)–(6.3) sind. Außerdem gilt für hinreichend kleine
ε > 0 die Relation
J xε (·), uε (·) ≤ J x∗ (·), u∗ (·) − εc + o(ε).
 

Wegen xε (·) → x∗ (·) für ε → 0 bedeutet dies, dass der Steuerungsprozess x∗ (·), u∗ (·) im


Widerspruch zur Voraussetzung des Extremalprinzips kein starkes lokales Minimum der
Aufgabe (6.1)–(6.3) sein könnte. 

6.2.5. Beweisschluss
Aufgrund (6.14) ist folgende Variationsgleichung für alle ξ(·) ∈ C0 (R+ , Rn ) erfüllt:
Z ∞
ω(t) fx t, x∗ (t), u∗ (t) , ξ(t) dt + l0T ξ(0)


0 = λ0 ·
0
Z ∞  Z t T

+ ν(t) ξ(t) − ξ(0) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds dµ(t).
0 0
Z ∞
Wir ändern wieder die Integrationsreihenfolge und setzen p(t) = ν(s) dµ(s). Genauso
t
wie im Abschnitt 5.2.5 folgen daraus p(·) ∈ L2 (R+ , Rn ; ν −1 ) und (6.5), (6.6).
Gemäß (6.15) gilt für alle u(·) ∈ L∞ (R+ , U ) die Ungleichung
Z ∞ Z ∞
 
H t, x∗ (t), u∗ (t), p(t), λ0 dt ≥ H t, x∗ (t), u(t), p(t), λ0 dt.
0 0

Daraus folgt abschließend durch Standardtechniken für Lebesguesche Punkte die Maxi-
mumbedingung (6.7). Der Beweis von Theorem 6.1 ist abgeschlossen. 
172 Starkes lokales Minimum

6.2.6. Hinreichende Optimalitätsbedingungen nach Arrow

Im Rahmen der notwendigen und hinreichenden Optimalitätsbedingungen spielt das Pon-


trjaginsche Maximumprinzip die zentrale Rolle. Insbesondere gibt Theorem 6.1 einen
vollständigen Satz von Optimalitätskriterien aus adjungierter Gleichung, Transversalitäts-
bedingungen und Maximumbedingung an. Dabei wird in der Standardaufgabe die Adjun-
gierte als Element des Raumes L2 (R+ , Rn ; ν −1 ) identifiziert und zugehörige Transversa-
litätsbedingungen, insbesondere die Beziehung

lim hp(t), x(t)i = 0 für alle x(·) ∈ W21 (R+ , Rn ; ν),


t→∞

für das Verhalten der Adjungierten im Unendlichen bereit gestellt. Auf der Grundlage die-
ser Ergebnisse präsentieren wir in diesem Abschnitt hinreichende Optimalitätsbedingun-
gen. Dabei folgen wir im Wesentlichen Seierstad & Sydsæter [60, 61]. Weiterhin verweisen
wir auf Arrow & Kurz [2], Aseev & Kryazhimskii [3] und Lykina [43].
Wir definieren die Menge Vγ und zu t ∈ R+ die Menge Vγ (t):

Vγ = {(t, x) ∈ R+ × Rn | kx − x∗ (t)k ≤ γ}, Vγ (t) = {x ∈ Rn | kx − x∗ (t)k ≤ γ}.

Im Weiteren bezeichnen wir mit

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 ω(t)f (t, x, u)

die Pontrjagin-Funktion H und mit

H (t, x, p) = sup H(t, x, u, p, 1) (6.16)


u∈U

die Hamilton-Funktion H im normalen Fall.

Theorem 6.12. In der Aufgabe (6.1)–(6.3) sei x∗ (·), u∗ (·) ∈ BLip ∩ Badm und es sei


p(·) ∈ L2 (R+ , Rn ; ν −1 ). Ferner gelte:



(a) Das Tripel x∗ (·), u∗ (·), p(·) erfüllt (6.5)–(6.7) in Theorem 6.1 mit λ0 = 1.

(b) Für jedes t ∈ R+ ist H t, x, p(t) konkav in der Variablen x auf Vγ (t).



Dann ist x∗ (·), u∗ (·) ein starkes lokales Minimum der (6.1)–(6.3).

Beweis Auf der Grundlage der gleichen Argumente wie im Abschnitt 2.4.5 gilt auf Vγ für
fast alle t ∈ R+ die Ungleichung

hṗ(t), x − x∗ (t)i ≤ H t, x∗ (t), p(t) − H t, x, p(t) .


 
Aufgaben mit Zustandsbeschränkungen 173

Es sei x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ γ. Dann folgt




Z T   
∆(T ) = ω(t) f t, x(t), u(t) − f t, x∗ (t), u∗ (t) dt
0
Z T Z T
H t, x∗ (t), p(t) − H t, x(t), p(t) dt +
  
≥ hp(t), ẋ(t) − ẋ∗ (t)idt
0 0
Z T
≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)idt = hp(T ), x(T ) − x∗ (T )i.
0

Wir bemerken an dieser Stelle, dass sämtliche Integranden über R+ absolut integrierbar
sind. Deswegen ist die Betrachtung des Grenzwertes T → ∞ gerechtfertigt.
Aufgrund der Transversalitätsbedingung (6.6) gilt die Beziehung

lim ∆(T ) ≥ lim hp(T ), x(T ) − x∗ (T )i = 0


T →∞ T →∞

für alle zulässigen x(·), u(·) mit kx(·) − x∗ (·)k∞ ≤ γ. 

6.3. Die Aufgabe mit Zustandsbeschränkungen


Wir werden im Weiteren unser Vorgehen auf die Aufgabe (6.1)–(6.4) mit Zustandsbe-
schränkungen anwenden. Dabei steht das Verständnis und der Umgang mit den Zustands-
beschränkungen im Vordergrund.
Die Zustandsbeschränkungen (6.4) besitzen über dem unbeschränkten Intervall R+ einen
anderen Charakter als in den Aufgaben mit endlichem Zeithorizont. Dies liegt darin be-
gründet, dass im Gegensatz zum unbeschränkten Intervall jede stetige Funktion über einer
kompakten Menge ein Maximum und ein Minimum besitzt.

Beispiel 6.13. Wir fügen im Beispiel 5.4 eine zusätzliche Zustandsbeschränkung ein:
Z ∞
1
e−2t x2 (t) + u2 (t) dt → inf,
 
J x(·), u(·) =
0 2
ẋ(t) = 2x(t) + u(t), x(0) = 2, x(t) ≥ 0, u(t) ∈ R.

Die Beschränkung −x(t) ≤ 0 hat offenbar keinen Einfluss auf die globale Lösung
√ √ √
x∗ (t) = 2e(1− 2)t
, u∗ (t) = −2(1 + 2)e(1− 2)t
.

Jedoch hat die Trajektorie x∗ (·) die Eigenschaften



−x∗ (t) < 0 für alle t ∈ R+ und sup − x∗ (t) = 0.
t∈R+

Daher ist für x∗ (·) die Zustandsbeschränkung im Unendlichen aktiv. 


174 Starkes lokales Minimum

Intuitiv handelt es sich bei einer Zustandsbeschränkung, die im Unendlichen aktiv ist, um
eine nichtaktive Beschränkung. Aber das Beweiskonzept erfordert, dass keine Zustandsbe-
schränkung erst im Unendlichen aktiv wird. Zur Trajektorie x∗ (·) bezeichnen j = 1, ..., l0
bzw. j = l0 + 1, ..., l die aktiven bzw. nichtaktiven Ungleichungen:

(i) Für j = 1, ..., l0 sei max gj t, x∗ (t) = 0.



t∈R+

(ii) Für j = l0 + 1, ..., l sei gj t, x∗ (t) < 0 für alle t ∈ R+ .




Dann stellen wir folgende Forderungen an die Aufgabe (6.1)–(6.4):

(G) Es gelten die folgenden Grenzwerte:

lim gj t, x∗ (t) = 0, j = 1, ..., l0 , lim sup gj t, x∗ (t) < 0, j = l0 + 1, ..., l.


 
t→∞ t→∞

Bemerkung 6.14. Damit unter der Voraussetzung (G) die Einordnung der Aufgaben-
klassen im Abschnitt 4.2 konsistent bleibt, legen wir die Abbildungen g̃j durch

g̃j (t, x) = eT +1−t · gj (t, x) − h(t) , j = 1, ..., l0 ,




für t ≥ T + 1 fest. 

Im folgenden Beweis ergibt sich an die Trajektorie x∗ (·) die zusätzliche Einschränkung,
dass keine Zwangsbedingung bzw. algebraische Nebenbedingung
 über R+ vorliegt. Diese
entsteht, wenn für eine Beschränkung gj t, x∗ (t) = 0 über R+ gilt. Eine hinreichende
Bedingung, die eine Zwangsbedingung ausschließt, ist gj (0, x0 ) < 0 für alle j = 1, ..., l.
Wir formulieren die Bedingung allgemeiner:

(F) Zu jedem j = 1, ..., l gibt es ein tj ∈ R+ mit gj tj , x∗ (tj ) < 0.

Es bezeichne H : R × Rn × Rm × Rn × R → R wieder die Pontrjagin-Funktion

H(t, x, u, p, λ0 ) = −λ0 ω(t)f (t, x, u) + hp, ϕ(t, x, u)i.

Sei x∗ (·), u∗ (·) ∈ Badm ∩ BLip und



Theorem 6.15 (Pontrjaginsches Maximumprinzip).
es seien (F), (G) erfüllt. Ist x∗ (·), u∗ (·) eine starke lokale Minimalstelle der Aufgabe
(6.1)–(6.4), dann existieren eine Zahl λ0 ≥ 0, eine Vektorfunktion p(·) ∈ L2 (R+ , Rn ; ν −1 )
und auf den Mengen
 
Tj = t ∈ R+ gj t, x∗ (t) = 0 , j = 1, ..., l,

konzentrierte nichtnegative reguläre Borelsche Maße µj endlicher Totalvariation (wobei


sämtliche Größen nicht gleichzeitig verschwinden) derart, dass
Aufgaben mit Zustandsbeschränkungen 175

(a) die Vektorfunktion p(·) von beschränkter Variation ist, der adjungierten Gleichung
Z ∞ l
X Z ∞
 
p(t) = Hx s, x∗ (s), u∗ (s), p(s), λ0 ds − gjx s, x∗ (s) dµj (s) (6.17)
t j=1 t

genügt und die folgenden “natürlichen” Transversalitätsbedingungen erfüllt:

lim kp(t)k2 ν −1 (t) = 0, hp(t), x(t)i = 0 ∀ x(·) ∈ W21 (R+ , Rn ; ν); (6.18)
t→∞

(b) für fast alle t ∈ R+ die Maximumbedingung gilt:


 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 . (6.19)
u∈U

Da wieder die “natürlichen” Transversalitätsbedingungen (6.18) gelten, erhalten wir für


die Aufgabe (6.1)–(6.4) mit Zustandsbeschränkungen ebenso das Resultat über die Trans-
versalitätsbedingung von Michel (Lemma 5.3).

Beispiel 6.16 (Abbau einer nicht erneuerbaren Ressource). Wir betrachten die Aufgabe
Z ∞
e−%t pf u(t) − ry(t) − qu(t) dt → sup,
   
J x(·), y(·), u(·) = (6.20)
0

ẋ(t) = −u(t), ẏ(t) = cf u(t) , x(0) = x0 > 0, y(0) = y0 ≥ 0, (6.21)
x(t) ≥ 0, u(t) ≥ 0, b, c, %, q, r > 0, % − rc > 0. (6.22)

Die Funktion f sei zweimal stetig differenzierbar, f 0 > 0, f 0 (0) < ∞, f 00 < 0 und es sei
f 0 (u) → 0 für u → ∞. In der vorliegenden Formulierung der Aufgabe wurde im Vergleich zu
Seierstad & Sydsæter [61] die Restriktion lim inf x(t) ≥ 0 durch die Zustandsbeschränkung
t→∞
x(t) ≥ 0 in (6.22) ersetzt.
Ökonomische Interpretation: x(t) bezeichnet die Menge einer natürlichen Ressource und
u(t) ist die industrielle Abbaurate
 dieser Ressource. Auf Basis der Ressource werden Güter
mit der Produktionsrate f u(t) hergestellt. Die Kosten der Herstellung einer Produkti-
onseinheit ist q und der Preis einer Gütereinheit am Markt beträgt p. Bei der Herstellung
der Güter entstehen proportional zur Produktion Abfälle, deren Gesamtmenge durch y(t)
beschrieben wird. Die Kosten der Beseitigung der negativen Auswirkungen der Abfallmen-
ge sind ry(t). Im Weiteren gehen wir von dem Preis p = 1 aus.
Wir stellen die Optimalitätsbedingungen von Theorem 6.15 mit λ0 = 1 auf:

(a) Die Pontrjagin-Funktion der Aufgabe (6.20)–(6.22) lautet

H(t, x, y, u, p1 , p2 , 1) = p1 (−u) + p2 cf (u) + e−%t [f (u) − ry − qu].


176 Starkes lokales Minimum

(b) Die Adjungierten genügen den Gleichungen


Z ∞
r
p1 (t) = dµ(s), ṗ2 (t) = re−%t ⇒ p2 (t) = − e−%t + K.
t %

Das auf der Menge T = {t ∈ R+ |x∗ (t) = 0} konzentrierte reguläre Maß µ ist
nichtnegativ. Daher ist p1 (t) ≥ 0 über R+ und monoton fallend. Ferner erhalten wir
K = 0 aus den Transversalitätsbedingungen (6.18).

(c) Die Maximumbedingung können wir auf folgende Aufgabe reduzieren


h i
max − p1 (t)u + cp2 (t)f (u) + e−%t [f (u) − qu] .
u≥0

Das Einsetzen der Darstellung für p2 (t) liefert weiterhin mit d = (% − rc)/%:
 
max df (u)e−%t − u p1 (t) + qe−%t .
u≥0

Die Reduktion der Maximumbedingung führt für festes t zu der Funktion

g(u) = df (u)e−%t − u p1 (t) + qe−%t .




Diese Funktion ist zweimal stetig differenzierbar und es gilt


% − rc
g 0 (u) = df 0 (u) − q e−%t − p1 (t), g 00 (u) = df 00 (u)e−%t ,

d= > 0.
%
Daher ist g streng konkav und besitzt auf der Menge U = {u ≥ 0} ein Maximum, da
f 0 (u) > 0 und f 0 (u) → 0 für u → ∞ gelten. Wir diskutieren drei Fälle:

(A) df 0 (0) ≤ q: In diesem Fall ist g 0 (0) ≤ 0 und man erhält


r
u∗ (t) ≡ 0, x∗ (t) ≡ x0 , y∗ (t) = y0 + cf (0)t, p1 (t) ≡ 0, p2 (t) = − e−%t .
%
Da die Zustandsbeschränkung nichtaktiv ist, gelten die Optimalitätsbedingungen
aus Theorem 6.1, die z. B. für ν(t) = e−at mit 0 < a < 2% erfüllt sind.

(B) df 0 (0) > q und p1 (0) = 0: Aus g 0 (u) = df 0 (u) − q e−%t = 0 erhalten wir die optimale


Strategie u∗ (t) = u0 > 0 für alle t ∈ R+ . Also gilt x∗ (t) = x0 − u0 t auf R+ , was der
Zustandsbeschränkung widerspricht.

(C) df 0 (0) > q und p1 (0) > 0: Aus Gründen eines besseren Überblickes in der Argumen-
tation und der eindeutigen Bestimmung der Adjungierten erweitern wir mit einem
gewissen ε > 0 den Steuerbereich formal zu (−ε, ∞). Die Funktion f sei auf diesen
Bereich mit den gleichen analytischen Eigenschaften wie oben beschrieben fortge-
setzt. Wegen p1 (0) > 0 wird die Ressource vollständig abgebaut. Andernfalls wäre
Aufgaben mit Zustandsbeschränkungen 177

p1 (t) = p1 (0) > 0 über R+ , was (6.18) widerspricht. Da die Ressource vollständig
abgebaut wird, gibt es ein t0 > 0 mit x∗ (t) > 0 für t ∈ [0, t0 ) und x∗ (t) = 0 für t ≥ t0 .
Demnach erhalten wir unmittelbar u∗ (t) = 0 für t ≥ t0 .
Für t ≥ t0 ist p1 (·) monoton fallend. Ferner erhalten wir für t ∈ R+ die Beziehung
 1
g 0 (u) = 0 ⇒ f 0 u(t) = (q + p1 (t)e%t ).
d
Würde demnach die Adjungierte p1 (·) für t ≥ t0 eine Unstetigkeitstelle besitzen,
dann folgt aus der Monotonie von p1 (·), dass die Abbaurate sich wieder sprunghaft
vergrößert. Diese Steuerung führt zu einem erneuten Abbau der Ressource, obwohl
diese bereits vollständig aufgebraucht ist. Daher ist die Adjungierte stetig.
Für die Adjungierte erhalten wir damit
0
p1 (t) = df 0 (0) − q e−%t für t ≤ t0 , p1 (t) = df 0 (0) − q e−%t für t ≥ t0 .
 

Der Zeitpunkt t0 ist eindeutig bestimmt, da durch die Bedingung


 1
f 0 u(t) = (q + p1 (0)e%t )
d
die Funktion u(t) streng monoton fallend für alle t ∈ [0, t0 ] festgelegt ist.
Wählen wir abschließend ν(t) = e−at mit 0 < a < 2%, dann sind alle Bedingungen
in Theorem 6.15, insbesondere
 2
p1 (·), p2 (·) ∈ L2 (R+ , R; ν −1 ), lim p1 (t), p2 (t) ν −1 (t) = 0,

t→∞

erfüllt. 

6.3.1. Definition und Eigenschaften der Extremalaufgabe


Für ξ(·) ∈ C0 (R+ , Rn ) wurden die Abbildungen J, ˜ F = F1 − F2 und H,
Z ∞
˜
 
J ξ(·), u(·) = ω(t)f t, x∗ (t) + ξ(t), u(t) dt,
0
 Z t 
 
F1 ξ(·), u(·) (t) = 2ξ(t) + ν(t) x∗ (t) − x0 − ϕ s, x∗ (s) + ξ(s), u(s) ds ,
  0 
F2 ξ(·) (t) = 2ξ(t) − ν(t) ξ(t) − ξ(0) , t ∈ R+ , H ξ(·) = ξ(0),

bereits im Rahmen der Aufgabe (6.1)–(6.3) untersucht. Offensichtlich bleiben sämtliche


Eigenschaften erhalten, wenn wir C0 (R+ , Rn ) durch den Raum der beschränkten stetigen
Funktionen Cb (R+ , Rn ) ersetzen. Damit sind nur noch die Abbildungen
 
Gj ξ(·) = sup gj t, x∗ (t) + ξ(t) , j = 1, ..., l,
t∈R+
178 Starkes lokales Minimum

zu diskutieren. Dazu bedarf es grundlegender Elemente der Konvexen Analysis.


Für ξ(·) ∈ Cb (R+ , Rn ) seien im Folgenden
 
g̃j ξ(·) (t) = gj t, x∗ (t) + ξ(t) , t ∈ R+ , j = 1, ..., l.

Lemma 6.17. Die Abbildungen ξ(·) → g̃j ξ(·) bilden für alle j = 1, ..., l0 eine Nullumge-


bung des Raumes Cb (R+ , Rn ) bzw. C0 (R+ , Rn ) in sich ab. Weiterhin sind diese Abbildun-
gen in ξ0 (t) ≡ 0 Fréchet-differenzierbar und es gilt
 0
g̃j ξ0 (·) ξ(·) (t) = gjx t, x∗ (t) , ξ(t) , t ∈ R+ , j = 1, ..., l0 .
 


Beweis Aus Voraussetzung (B3 ) erhalten wir:


Z 1

 
g̃j ξ(·) (t) = gjx t, x∗ (t) + sξ(t) , ξ(t) ds + g̃j ξ0 (·) (t).
0

Beachten wir die Beschränktheit der Ableitungen gjx auf Vγ und die Grenzwerte in (G)
für j = 1, ..., l0 , so folgt die erste Behauptung. Für t ∈ R+ , kξ(·)k∞ = 1 und 0 < λ < γ gilt
 
g̃j λξ(·) − g̃j ξ0 (·)
 
0

− g̃j ξ0 (·) ξ(·) (t)
λ
Z 1

 
= gjx t, x∗ (t) + sλξ(t) − gjx t, x∗ (t) , ξ(t) ds.
0

Unter Verwendung der Voraussetzung (B3 ) folgt


  1
g̃j λξ(·) − g̃j ξ0 (·)
Z
0

− g̃j 0ξ (·) ξ(·) ≤ sup C0 kλξ(t)kds · kξ(·)k∞ = λC0 ,
λ ∞

t∈R+ 0

d. h. der Grenzwert λ → 0+ konvergiert gleichmäßig bezüglich kξ(·)k∞ = 1. 



Lemma 6.18. Die Funktionen Gj ξ(·) sind im Punkt ξ0 (·) regulär im Sinne der Konve-
xen Analysis, die klassischen Richtungsableitungen konvergieren bezüglich jeder Richtung
ξ(·) ∈ Cb (R+ , Rn ) gleichmäßig,
 
Gj ξ0 (·) + λz(·) − Gj ξ0 (·)

0

− Gj ξ0 (·); ξ(·) ≤ ε
λ
für alle kz(·) − ξ(·)k∞ ≤ δ und alle 0 < λ ≤ λ0 , und es gelten
  
∂Gj ξ0 (·) = g̃j0∗ ξ0 (·) ∂ψ g̃j ξ0 (·) , j = 1, ..., l0 ,
 
ψ z(·) = sup z(t).
t∈R+

Beweis Die Abbildung ψ ist auf Cb (R+ , R) offenbar homogen, konvex und stetig. Da die
Abbildungen ξ(·) → g̃j ξ(·) für alle j = 1, ..., l0 nach Lemma 2.18 stetig differenzierbar
sind, folgen die weiteren Behauptungen aus Lemma C.1 und der Kettenregel C.3. 
Aufgaben mit Zustandsbeschränkungen 179

Lemma 6.19. Das Subdifferential der Funktion Gj : C0 (R+ , Rn ) → R besteht im Punkt


ξ0 (·) aus denjenigen stetigen linearen Funktionalen x∗ ∈ C0∗ (R+ , R), die sich wie folgt
darstellen lassen: Z ∞



hx , ξ(·)i = gjx t, x∗ (t) , ξ(t) dµj (t).
0
Dabei ist µj ein reguläres Borelsches Maß, das auf der Menge
   
Tj = t ∈ R+ g̃j ξ(·) (t) = Gj ξ0 (·) = sup gj t, x∗ (t)
t∈R+

konzentriert ist. Ferner gelten:



(a) Ist g̃ x(·) = 0, so besitzt das Maß µ eine Totalvariation kµk ≤ 1.

(b) Ist g̃ x(·) 6= 0 und besitzt kein Maximum über R+ , so ist kµk = 0.

(c) Ist g̃ x(·) 6= 0 und besitzt ein Maximum über R+ , so ist kµk = 1.

Beweis Vgl. Abschnitt C.4. 

6.3.2. Lagrangesche Multiplikatorenregel


In der Aufgabe (6.1)–(6.4) seien x∗ (·) ∈ BLip ∩ C(R+ , Rn ) und x∗ (·), u∗ (·) ∈ Badm .


Ferner sei ξ0 (t) ≡ 0. Im Weiteren betrachten wir die Extremalaufgabe

J˜ ξ(·), u(·) → inf, F ξ(·), u(·) = 0, H ξ(·) = 0, Gj ξ(·) ≤ 0, j = 1, ..., l. (6.23)


   

Auf C0 (R+ , Rn ) × L∞ (R+ , Rm ) × C0∗ (R+ , Rn ) × R × Rl × Rn definieren wir zu dieser


Extremalaufgabe (6.23) die Lagrange-Funktion L = L ξ(·), u(·), y ∗ , λ0 , λ1 , ..., λl , l0 :


l
 X
L = λ0 J˜ ξ(·), u(·) + y ∗ , F ξ(·), u(·) + λj Gj ξ(·) + l0T H ξ(·) .

 

j=1

Theorem 6.20 (Extremalprinzip). Es sei x∗ (·) ∈ BLip ∩ C(R+ , Rn ) und außerdem sei
x∗ (·), u∗ (·) ∈ Badm . Ist x∗ (·), u∗ (·) ein starkes lokales Minimum im Steuerungsproblem


(6.1)–(6.4), dann gibt es nicht gleichzeitig verschwindende Lagrangesche Multiplikatoren


λj ≥ 0, y ∗ ∈ C0∗ (R+ , Rn ) und l0 ∈ Rn derart, dass folgende Bedingungen gelten:

(a) Die Lagrange-Funktion besitzt bezüglich ξ(·) in ξ0 (·) einen stationären Punkt, d. h.

∂ξ L ξ0 (·), u∗ (·), y ∗ , λ0 , ..., l0 = 0.



(6.24)

(b) Die Lagrange-Funktion erfüllt bezüglich u(·) die Minimumbedingung

L ξ0 (·), u∗ (·), y ∗ , λ0 , ..., l0 = L ξ0 (·), u(·), y ∗ , λ0 , ..., l0 .


 
min (6.25)
u(·)∈L∞ (R+ ,U )
180 Starkes lokales Minimum

(c) Die komplementären Schlupfbedingungen gelten:



λj Gj ξ0 (·) = 0, j = 1, ..., l. (6.26)

Beweis Zu Beginn müssen wir die Zustandsbeschränkungen im Raum C0 (R+ , Rn ) näher


betrachten. Aufgrund der Voraussetzung (G) gilt lim gj t, x∗ (t) = 0 für j = 1, ..., l0 .

t→∞
Daher erhalten wir für jede Variation ξ(·) ∈ C0 (R+ , Rn ):
j = 1, ..., l0 .

lim gj t, x∗ (t) + ξ(t) = 0,
t→∞

Dies bedeutet aber, dass sup gj t, x∗ (t) + ξ(t) ≥ 0 für j = 1, ..., l0 ausfällt. Folglich gilt

t∈R+
 
Gj ξ0 (·) + λξ(·) − Gj ξ0 (·)
G0j j = 1, ..., l0 ,

ξ0 (·); ξ(·) = lim ≥ 0,
λ→0+ λ
für alle ξ(·) ∈ C0 (R+ , Rn ). Im Raum C0 (R+ , Rn ) gehen deswegen die “echten” Abstiegs-
richtungen mit G0j ξ0 (·); ξ(·) < 0 verloren. Aus diesem Grund betten wir die Extremal-


aufgabe in den Raum Cb (R+ , Rn ) ein.


1. Schritt (Die Mengen C1 , C2 der Variationen). Es bezeichnet C1 die Menge derjenigen
0
η0 , y1 (·), y2 (·), µ ∈ R × Cb (R+ , Rn ) × Cb (R+ , Rn ) × Rn × Rl ,


zu denen es ein ξ1 (·) ∈ Cb (R+ , Rn ) und ein u(·) ∈ L∞ (R+ , U ) gibt mit
η0 > J˜ξ ξ0 (·), u∗ (·) ξ1 (·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·) ,
  
  
y1 (·) = F1ξ ξ0 (·), u∗ (·) ξ1 (·) + F1 ξ0 (·), u(·) − F1 ξ0 (·), u∗ (·) ,
µ = H 0 ξ0 (·) ξ1 (·),

y2 (·) = ξ1 (·),
ηj > G0j ξ0 (·); ξ(·) , j = 1, ..., l0 .


Weiterhin sei C2 die Menge der Vektoren


0
0, z1 (·), z2 (·), 0, 0 ∈ R × Cb (R+ , Rn ) × Cb (R+ , Rn ) × Rn × Rl ,


zu denen es ein ξ2 (·) ∈ Cb (R+ , Rn ) gibt mit z1 (·) = F20 ξ0 (·) ξ2 (·) und z2 (·) = ξ2 (·).


Die Menge C2 ist konvex und es ist das Innere der Menge conv C1 nach dem Satz von der
offenen Abbildung nichtleer. Für die Anwendung des Trennungssatzes ist conv C1 ∩ C2 = ∅
zu zeigen. Dann folgt die Existenz eines nichttrivialen Funktionals
0
(λ0 , y1∗ , y2∗ , l0 , λ1 , ..., λl0 ) ∈ R × Cb∗ (R+ , Rn ) × Cb∗ (R+ , Rn ) × Rn × Rl ,
das das Innere der Menge conv C1 und die Menge C2 trennt. Wir erhalten wie im Abschnitt
5.2.4, dass darin der Vektor (λ0 , y1∗ , l0 , λ1 , ..., λl0 ) nichttrivial ist und die Ungleichung
0 ≤ λ0 J˜ξ ξ0 (·), u∗ (·) ξ(·) + J˜ ξ0 (·), u(·) − J˜ ξ0 (·), u∗ (·)
   

+ y ∗ , Fξ ξ0 (·), u∗ (·) ξ(·) + F ξ0 (·), u(·) − F ξ0 (·), u∗ (·)



  

l 0
0
X
λj G0j ξ0 (·); ξ(·)

 
+ l0 , H0 ξ0 (·) ξ(·) + (6.27)
j=1
Aufgaben mit Zustandsbeschränkungen 181

für alle ξ(·) ∈ Cb (R+ , Rn ) und alle u(·) ∈ L∞ (R+ , U ) gilt.


Zum Nachweis von Theorem 6.20 sind weiterhin zwei Fälle zu unterscheiden: Im ersten
Fall, in dem die Einschränkung von (λ0 , y1∗ , l0 , λ1 , ..., λl0 ) auf den abgeschlossenen Unter-
0
raum R × C0 (R+ , Rn ) × Rn × Rl nicht identisch verschwindet. In diesem Fall gilt die
Ungleichung (6.27) mit nichttrivialen Lagrangeschen Multiplikatoren (λ0 , y1∗ , l0 , λ1 , ..., λl0 )
für alle ξ(·) ∈ C0 (R+ , Rn ). Setzen wir außerdem λj = 0 für j = l0 + 1, ..., l, dann folgt die
Aussage von Theorem 6.20.
Falls die Einschränkung von (λ0 , y1∗ , l0 , λ1 , ..., λl0 ) aber identisch verschwindet, dann ist
die Existenz der nichttrivialen Multiplikatoren in Theorem 6.20 nicht gesichert. Wir be-
trachten statt C1 , C2 die Mengen C˜1 und C˜2 , die sich durch das Ersetzen des Raumes
Cb (R+ , Rn ) durch C0 (R+ , Rn ) für ξ1 (·), ..., z2 (·) ergeben. Dann ist ebenfalls die Menge
C˜2 konvex und es ist das Innere der Menge conv C˜1 nichtleer. Da im Raum C0 (R+ , Rn )
stets G0j ξ0 (·); ξ(·) ≥ 0 gilt, lassen sich C2 und das Innere der Menge conv C1 durch ein
nichttriviales Funktional
0
(λ0 , y1∗ , y2∗ , l0 , λ1 , ..., λl0 ) ∈ R × C0∗ (R+ , Rn ) × C0∗ (R+ , Rn ) × Rn × Rl .

trennen. Wir erhalten wieder, dass darin der Vektor (λ0 , y1∗ , l0 , λ1 , ..., λj ) nichttrivial ist
und es folgt die Ungleichung (6.27) für alle ξ(·) ∈ C0 (R+ , Rn ) und alle u(·) ∈ L∞ (R+ , U ).
Mit der Setzung λj = 0 für j = l0 + 1, ..., l ergibt sich wieder Theorem 6.20.
Da sich die konvexen Mengen C˜2 und conv C˜1 im Rahmen des Raumes n
 C0 (R+ , R ) immer
0
trennen lassen, denn “echte” Abstiegsrichtungen mit Gj ξ0 (·); ξ(·) < 0 liegen nicht vor,
geht das Wesen von Optimalitätskriterien der Bedingungen (6.24)–(6.26) verloren. Des-
wegen haben wir die Untersuchung der Extremalaufgabe (6.23) in den Raum Cb (R+ , Rn )
verschoben.
Xd
Angenommen, es ist conv C1 ∩ C2 6= ∅. Dann existieren positive Zahlen αi , αi = 1,
i=1
ξ(·), y(·) ∈ Cb (R+ , Rn ) und ui (·) ∈ L∞ (R+ , U ), i = 1, ..., d, und eine Zahl c > 0 mit

d h
X i
−c ≥ J˜ξ ξ0 (·), u∗ (·) ξ(·) + αi J˜ ξ0 (·), ui (·) − J˜ ξ0 (·), u∗ (·) ,
 

i=1
d h
 X  i
y(·) = F1ξ ξ0 (·), u∗ (·) ξ(·) + αi F1 ξ0 (·), ui (·) − F1 ξ0 (·), u∗ (·) ,
i=1
F20 0
−c ≥ G0j ξ0 (·); ξ(·) , j = 1, ..., l0 .
  
y(·) = ξ0 (·) ξ(·), 0 = H ξ0 (·) ξ(·),

2.–4. Schritt übernehmen wir aus Abschnitt 6.2.4.


5. Schritt (conv C1 ∩ C2 = ∅). Für hinreichend kleine ε > 0 gelten für

ξ ε (·), uε (·) = ξ0 (·) + εξ(·) + rε (·), uεα+αε (·)


 
182 Starkes lokales Minimum

die Gleichungen
d d
 X  X
(εαi + αiε )y(·), (εαi + αiε )y(·),

F1 ξε (·), uεα+αε (·) = F2 ξε (·) = H ξε (·) = 0.
i=1 i=1

Ferner erhalten wir wie im Abschnitt 2.5.3


 
Gj ξ ε (·) ≤ Gj ξ0 (·) + ε G0j ξ0 (·); ξ(·) + c ≤ 0, j = 1, ..., l0 ,
  

für alle 0 ≤ ε ≤ min{ε0 , σ} und

lim Gj ξ ε (·) = Gj ξ0 (·) < 0, j = l0 + 1, ..., l.


 
ε→0+

Dies bedeutet, dass für hinreichend kleine ε > 0 die Steuerungsprozesse

xε (·), uε (·) = x∗ (·) + εξ(·) + rε (·), uεα+αε (·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U )
 

zulässig in dem Steuerungsproblem (6.1)–(6.4) sind. Außerdem gilt die Relation

J xε (·), uε (·) ≤ J x∗ (·), u∗ (·) − εc + o(ε).


 

Wegen xε (·) → x∗ (·) für ε → 0 bedeutet dies, dass der Steuerungsprozess x∗ (·), u∗ (·) im


Widerspruch zur Voraussetzung des Extremalprinzips kein starkes lokales Minimum der
Aufgabe (6.1)–(6.3) sein könnte. 

6.3.3. Beweisschluss
Aufgrund (6.24) ist folgende Gleichung für alle ξ(·) ∈ C0 (R+ , Rn ) erfüllt:
Z ∞
ω(t) fx t, x∗ (t), u∗ (t) , ξ(t) dt + l0T ξ(0)


0 = λ0 ·
0
Z ∞  Z t T

+ ν(t) ξ(t) − ξ(0) − ϕx s, x∗ (s), u∗ (s) ξ(s) ds dµ(t)
0 0
l
X Z ∞

+ λj gjx t, x∗ (t) , ξ(t) dµ̃j (t).
j=1 0

Wir setzen in dieser Gleichung µj = λj µ̃j . Dann sind die Maße µj auf den Mengen
 
Tj = t ∈ R+ gj t, x∗ (t) = 0 , j = 1, ..., l,

konzentriert und besitzen genau dann eine positive Totalvariation, wenn die Lagrangeschen
Multiplikatoren λj > 0 ausfielen.
Wir ändern in gewohnter Weise die Integrationsreihenfolge und verwenden
Z ∞
p(t) = ν(s) dµ(s).
t
Aufgaben mit Zustandsbeschränkungen 183

Somit ergeben sich p(·) ∈ L2 (R+ , Rn ; ν −1 ), (6.17), (6.18) und die Darstellung
Z ∞
 T  
p(t) = ϕx s, x∗ (s), u∗ (s) p(s) − λ0 ω(s)fx s, x∗ (s), u∗ (s) ds
t
l Z
X ∞ 
− gjx s, x∗ (s) dµj (s).
j=1 t

Gemäß (6.25) gilt für alle u(·) ∈ L∞ (R+ , U ) die Ungleichung


Z ∞ Z ∞
 
H t, x∗ (t), u∗ (t), p(t), λ0 dt ≥ H t, x∗ (t), u(t), p(t), λ0 dt.
0 0

Daraus folgt abschließend durch Standardtechniken für Lebesguesche Punkte die Maxi-
mumbedingung (6.19). Der Beweis von Theorem 6.15 ist abgeschlossen. 

6.3.4. Hinreichende Bedingungen nach Arrow


Wir definieren die Menge Vγ und zu t ∈ R+ die Menge Vγ (t):

Vγ = {(t, x) ∈ R+ × Rn | kx − x∗ (t)k ≤ γ}, Vγ (t) = {x ∈ Rn | kx − x∗ (t)k ≤ γ}.

Im Weiteren bezeichnen wir mit

H(t, x, u, p, λ0 ) = hp, ϕ(t, x, u)i − λ0 ω(t)f (t, x, u)

die Pontrjagin-Funktion H und mit

H (t, x, p) = sup H(t, x, u, p, 1) (6.28)


u∈U

die Hamilton-Funktion H im normalen Fall.


Theorem 6.21. In der Aufgabe (6.1)–(6.4) sei x∗ (·), u∗ (·) ∈ BLip ∩ Badm . Außerdem


sei die Vektorfunktion p(·) ∈ L2 (R+ , Rn ; ν −1 ) stückweise stetig, besitze höchstens abzähl-
bar viele Sprungstellen sk ∈ (0, ∞), die sich nirgends im Endlichen häufen, und p(·) sei
zwischen diesen Sprüngen stetig differenzierbar. Ferner gelte:

(a) Das Tripel x∗ (·), u∗ (·), p(·) erfüllt (6.17)–(6.19) in Theorem 6.15 mit λ0 = 1.

(b) Für jedes t ∈ R+ ist die Funktion H t, x, p(t) konkav und es sind die Funktionen


gj (t, x), j = 1, ..., l, konvex bezüglich x auf Vγ (t).



Dann ist x∗ (·), u∗ (·) ein starkes lokales Minimum der Aufgabe (6.1)–(6.4).
Bemerkung 6.22. In Theorem 6.21 können wir auf die Voraussetzungen (F) und (G),
die für die Existenz der nichttrivialen Multiplikatoren in Theorem 6.15 unerlässlich sind,
verzichten. 
184 Starkes lokales Minimum

Beweis Auf die gleiche Weise wie im Beweis von Theorem 2.22 in Abschnitt 2.5.5 können
wir die Relation

ha(t), x − x∗ (t)i ≤ H t, x∗ (t), p(t) − H t, x, p(t)


 
für alle x ∈ Vγ (t)

zeigen, wobei die Funktion a(·) für fast alle t ∈ R+ der Gleichung

a(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + ω(t)fx t, x∗ (t), u∗ (t) = −Hx t, x∗ (t), u∗ (t), p(t), 1
  

genügt. Damit und mit den Beziehungen in Bemerkung 2.23 erhalten wir

H t, x∗ (t), p(t) − H t, x, p(t) ≥


 

− Hx t, x∗ (t), u∗ (t), p(t), 1 , x − x∗ (t)
D l
X E

= ṗ(t) − λj (t)gjx t, x∗ (t) , x − x∗ (t)
j=1

für fast alle t ∈ R+ und ferner die Komplementaritätsbedingungen



λj (t) ≥ 0, λj (t)gj t, x∗ (t) = 0.

Die Konvexität der Abbildungen gj (t, x) bezüglich x auf Vγ (t) liefert die Ungleichungen

l l
 X
 X

gj (t, x) ≥ gj t, x∗ (t) + gjx t, x∗ (t) , x − x∗ (t) ≥ gjx t, x∗ (t) , x − x∗ (t) .
j=1 j=1

Genügt x(·) den Zustandsbeschränkungen gj (t, x) ≤ 0, dann gilt wegen λ(t) ≥ 0:

l
X

− λj (t) gjx t, x∗ (t) , x(t) − x∗ (t) ≥ 0.
j=1

Nach Bemerkung 2.23 gelten in den Unstetigkeitsstellen sk die Sprungbedingungen

l
X
p(s− p(s+ βjk gjx sk , x∗ (sk ) , βjk ≥ 0,

k) − k) =−
j=1

und wir erhalten aus der Konvexität der Abbildungen gj (t, x) die Ungleichungen

hp(s− +
k ) − p(sk ), x − x∗ (sk )i ≥ 0, x ∈ Vγ (sk ).
Aufgaben mit Zustandsbeschränkungen 185

Damit folgt für x(·), u(·) ∈ Badm mit kx(·) − x∗ (·)k∞ ≤ γ und für T 6= sk :


Z T
  
∆(T ) = ω(t) f t, x(t), u(t) − f t, x∗ (t), u∗ (t) dt
0
Z T Z T
H t, x∗ (t), p(t) − H t, x(t), p(t) dt +
  
≥ hp(t), ẋ(t) − ẋ∗ (t)idt
0 0
Z T
≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)i dt
0
Z T l
X

− λj (t) gjx t, x∗ (t) , x(t) − x∗ (t) dt
0 j=1
X
+ hp(s− +
k ) − p(sk ), x(sk ) − x∗ (sk )i
sk <T
Z T
≥ hṗ(t), x(t) − x∗ (t)i + hp(t), ẋ(t) − ẋ∗ (t)i dt = hp(T ), x(T ) − x∗ (T )i.
0
Die Betrachtung des Grenzwertes T → ∞ ist gerechtfertigt, da sämtliche Integranden
über R+ absolut integrierbar sind. Aufgrund der Transversalitätsbedingung (6.18) gilt die
Beziehung
lim ∆(T ) ≥ lim hp(T ), x(T ) − x∗ (T )i = 0
T →∞ T →∞

für alle zulässigen x(·), u(·) mit kx(·) − x∗ (·)k∞ ≤ γ. 
Beispiel 6.23. Im Beispiel 6.16 über den Abbau einer nicht erneuerbaren Ressource,
Z ∞
e−%t pf u(t) − ry(t) − qu(t) dt → sup,
   
J x(·), y(·), u(·) =
0

ẋ(t) = −u(t), ẏ(t) = cf u(t) , x(0) = x0 > 0, y(0) = y0 ≥ 0,
x(t) ≥ 0, u(t) ≥ 0, b, c, %, q, r > 0, % − rc > 0,
ermittelten wir die folgenden Kandidaten:
(i) Im Fall df 0 (0) ≤ q wurde die Ressource nicht abgebaut;
(ii) Für df 0 (0) > q wurde die Ressource vollständig abgebaut. Zwischen der Abbaurate
u∗ (t), dem Zeitraum [0, t0 ], in dem abgebaut wurde, und dem Anfangsparameter
p1 (0) > 0 des Schattenpreises p1 (·) bestand der Zusammenhang
 1
f 0 u∗ (t) = (q + p1 (0)e%t ) für t ≤ t0 , u∗ (t) = 0 für t ≥ t0 .
d
Der Integrand ist im Zielfunktional linear in y und die Zustandsbeschränkung ist linear in
x. Daher sind die Hamilton-Funktion H t, x, y, p1 (t), p2 (t) konkav bezüglich y und die


Zustandsbeschränkung konvex bezüglich x für alle x, y ∈ R. Damit stellen die Kandidaten


starke lokale Maximalstellen der Aufgabe dar. 
Zusammenfassung und Ausblick 187

7. Zusammenfassung und Ausblick


Das zentrale Untersuchungsobjekt in dieser Arbeit waren die notwendigen Bedingungen
für verschiedene Aufgabenklassen der Optimalen Steuerung. Als Zugang dienten uns die
bekannten Methoden und Ergebnisse zu schwachen und starken lokalen Minimalstellen,
die auf der Grundlage von Richtungs- bzw. Nadelvariationen beruhen. Neben der Stan-
dardaufgabe in Pontrjagin et al. [55] befassten wir uns mit Multiprozessen und vorallem
mit Steuerungsproblemen mit unendlichem Zeithorizont. Das Steuerungsproblem über un-
endlichem Zeithorizont besitzt dabei folgende allgemeine Gestalt:
Z ∞
 
J x(·), u(·) = ω(t)f t, x(t), u(t) dt → inf, (7.1)
0

ẋ(t) = ϕ t, x(t), u(t) , x(0) = x0 , (7.2)
u(t) ∈ U ⊆ Rm , U 6= ∅, (7.3)

gj t, x(t) ≤ 0 für alle t ∈ R+ , j = 1, ..., l. (7.4)
Die Aufgabe (7.1)–(7.4) haben wir bezüglich der Steuerungsprozesse
x(·), u(·) ∈ W21 (R+ , Rn ; ν) × L∞ (R+ , U )


betrachtet, die die Beschränkungen (7.2)–(7.4) erfüllen und für die das Lebesgue-Integral
im Zielfunktional (7.1) endlich ist. In Form von Theorem 5.1 konnten wir ein Schwaches
Optimalitätsprinzip
 nachweisen. Demnach existieren für eine schwache lokale Minimalstelle
x∗ (·), u∗ (·) der Aufgabe (7.1)–(7.3) nicht gleichzeitig verschwindende Multiplikatoren
λ0 ≥ 0 und p(·) ∈ L2 (R+ , Rn ; ν −1 ), mit denen die adjungierte Gleichung
ṗ(t) = −ϕTx t, x∗ (t), u∗ (t) p(t) + λ0 ω(t)fx t, x∗ (t), u∗ (t) ,
 
(7.5)
die “natürlichen” Transversalitätsbedingungen
lim kp(t)k2 ν −1 (t) = 0, hp(t), x(t)i = 0 ∀ x(·) ∈ W21 (R+ , Rn ; ν) (7.6)
t→∞

und für alle u ∈ U die Variationsungleichung



 
Hu t, x∗ (t), u∗ (t), p(t), λ0 , u − u∗ (t) ≤ 0 (7.7)
gelten. Ferner konnten wir das Pontrjaginsche Maximumprinzip (Theorem 6.1) für eine
starke lokale Minimalstelle beweisen und zeigen, dass statt der Variationsungleichung (7.7)
die Maximumbedingung
 
H t, x∗ (t), u∗ (t), p(t), λ0 = max H t, x∗ (t), u, p(t), λ0 (7.8)
u∈U

erfüllt ist. Durch den Zugang über die gewichteten Sobolev-Räume bezüglich des Zustandes
x(·) und durch den Nachweis der Gültigkeit der “natürlichen” Transversalitätsbedingun-
gen lassen sich weitere bekannte Resultate in den vorliegenden vereinheitlichten Rahmen
einbinden:
188 Zusammenfassung und Ausblick

(1) Aufgrund der Wahl der zulässigen Steuerungsprozesse und aufgrund der ersten Be-
dingung in (7.6) folgt die Transversalitätsbedingung von Michel (Lemma 5.3).
(2) Besitzt das dynamische System (7.2) zu jedem Anfangswert eine Lösung zur Steue-
rung u∗ (·) und konvergiert diese Lösung in Abhängigkeit vom Anfangswert im ge-
wichteten Lebesgue-Raum L2 (R+ , Rn ; ν) gegen x∗ (·), dann liegt für die Theoreme
5.1, 6.1 der normale Fall vor (Theorem 5.12).
Zusätzlich besitzt die Adjungierte p(·) nach Aseev & Kryazhimskii und Aseev &
Veliov eine eindeutige Darstellung, die durch
Z ∞
ω(s)Z∗−1 (s)fx s, x∗ (s), u∗ (s) ds

p(t) = −Z∗ (t)
t

mit der in t = 0 normalisierten Fundamentalmatrix Z∗ (t) des linearen Systems

ż(t) = −ϕTx t, x∗ (t), u∗ (t) z(t)




gegeben wird (Theorem 5.12).


(3) Schließlich führt die zweite Transversalitätsbedingung in (7.6) unter Konkavitätsan-
nahmen unmittelbar zu den hinreichenden Optimalitätsbedingungen nach Mangasa-
rian und Arrow (Theorem 5.14, Theorem 6.12).
Die Anwendungsbeispiele zeigen, dass die verwendeten Voraussetzungen an die Aufga-
be (7.1)–(7.3) noch zu einschränkend sein können. Dazu geben wir folgendes Modell der
Neoklassischen Wachstumstheorie an:
Beispiel 7.1. Ein wichtiges Anwendungsgebiet der Optimalen Steuerung mit unendlichem
Zeithorizont ist die Ökonomische Wachstumstheorie. In Arnold [1] und Barro & Sala-i-
Martin [7] sind umfassende Darstellungen dieses Gebietes der Wirtschaftstheorie zu finden.
Für die Produktionsfunktion f im Beispiel 1.11 verwenden wir den Zusammenhang

f (K, AL) = rK − ωAL = C + K̇.

Dabei bezeichnen L das Arbeitsangebot, A die Arbeitseffizienz, C die Konsumption und r


die Zinsrate. Für die Arbeitsleistung H = AL nehmen wir eine konstante Wachstumsrate
α > 0 an. Wir führen die Größen k = K/H, c = C/H ein. Damit ergibt sich

K̇(t)H(t) − K(t)Ḣ(t)
k̇(t) = = (r − α)k(t) + ω − c(t).
H 2 (t)
Mit diesen Bezeichnungen betrachten wir die Aufgabe
Z ∞
e−%t U c(t) dt → sup,
 
J k(·), c(·) =
0
k̇(t) = (r − α)k(t) + ω − c(t), k(0) = k0 > 0,
c(t) > 0, %, r, ω, α > 0.
Zusammenfassung und Ausblick 189

Die Nutzenfunktion sei in dieser Aufgabe isoelastisch:

c1−σ − 1
U (c) = , σ > 0.
1−σ

Der Fall U (c) = ln(c) für σ = 1 ist mit inbegriffen. Durch (7.5) und (7.7) erhalten wir

ṗ(t) = −(r − α)p(t), c∗−σ (t) = p(t)e%t , c−σ


∗ (t) = p0 e
(α+%−r)t
.

Daraus erhalten wir die Ramsey-Regel der konstanten Wachstumsrate:

ċ∗ (t) r − (α + %)
= .
c∗ (t) σ

Wir untersuchen einzelne Parameterkonfigurationen:

(a) r > α + %: In diesem Fall folgt aus den Wachstumsraten c∗ (t) → ∞. Da die vorlie-
gende Theorie für beschränkte Steuerungen entwickelte wurde, ist an dieser Stelle
die Erweiterung auf lokal beschränkte Steuerungen erforderlich.

(b) r < α + %: In diesem Fall gibt es keine gleichmäßige Umgebung Uγ bzw. Vγ , auf
der die Voraussetzungen bezüglich des Integranden erfüllt sind. Darauf kann eine
Umgebung mit variabler Umgebungsbreite eine zufriedenstellende Antwort liefern.

Die Analyse des Models lässt eine Frage offen: Kann die Konsumptionsrate c∗ (0) quantifi-
ziert werden? Aus den notwendigen Bedingungen ergibt sich mit dem Anfangswert p0 der
Adjungierten die Beziehung

r − (α + %)
c∗ (t) = p−σ βt
0 ·e , β= .
σ
Wir erhalten daraus im Zielfunktional
Z ∞ Z ∞
e−%t U c∗ (t) dt = e−%t U (eβt ) − σU (p0 ) dt → ∞ für p0 → 0+ .
  
0 0

Folglich lautet die Adjungierte p(t) ≡ 0 und es ist c∗ (t) ≡ ∞. Da keine Beschränkungen
an die Konsumption vorliegen und die Nutzenfunktion über dem Steuerungsbereich c > 0
nach oben unbeschränkt ist, stellt c∗ (t) ≡ ∞ die unrealistische optimale Politik dar.
Da die Aufgabe konkav ist, werden zur Festlegung der Ramsey-Regel oft die hinreichenden
Bedingungen nach Mangasarian zitiert. Der Widerspruch ergibt sich daraus, dass eine zu
schwache Transversalitätsbedingung Anwendung findet. Im Rahmen dieser Arbeit liegt ein
Gewicht ν(·) vor, mit dem k∗ (·) ∈ W21 (R+ , R; ν) gilt und mit dem die Transversalitätsbe-
dingungen (7.6) erfüllt sein müssen. Da aber kein derartiges Gewicht ν(·) existieren kann,
ist der Verweis auf die hinreichenden Bedingungen nach Mangasarian ein Trugschluss. 
190 Zusammenfassung und Ausblick

Zum Nachweis der Theoreme 5.1, 6.1 haben wir die Aufgabe (7.1)–(7.3) in eine Extremal-
aufgabe überführt. Dafür mussten wir einen geeigneten funktionalanalytischen Rahmen
finden. Im Vordergrund stand dabei das Verständnis der Dynamik (7.2) und die Anwend-
barkeit grundlegender Theoreme der Funktionalanalysis, wie z. B. der Satz von Hahn-
Banach, der Satz von Ljusternik und der Darstellungssatz von Riesz.
Der Dynamik (7.2) haben wir den Integraloperator
 Z t 
 
Φ x(·), u(·) (t) = ν(t) x(t) − x(0) − ϕ s, x(s), u(s) ds
0

zugeordnet. Wegen der Positivität der Gewichtsfunktion


 ν(·) folgt aus der Gleichung
Φ x(·), u(·) (t) ≡ 0, dass das Paar x(·), u(·) die Dynamik (7.2) auf jedem endlichen In-
tervall im Sinn von Carathéodory löst. In den weiteren Untersuchungen hat sich bezüglich
der Variation der Zustandstrajektorie x(·), beschrieben durch die Abbildung



 
Z t 

F ξ(·), u(·) (t) = ν(t) x(t) + ξ(t) − x(0) + ξ(0) − ϕ s, x(s) + ξ(s), u(s) ds ,
0

der Raum C0 (R+ , Rn ), der im Unendlichen verschwindenden stetigen Funktionen, heraus-


gefiltert. Aber in dieser Darstellung ist der Operator F nicht regulär und der Satz von
Ljusternik nicht anwendbar. Die Zerlegung F = F1 − F2 durch
 Z t 
 
F1 ξ(·), u(·) (t) = 2ξ(t) + ν(t) x(t) − x(0) − ϕ s, x(s) + ξ(s), u(s) ds ,
0
 
F2 ξ(·) (t) = 2ξ(t) − ν(t) ξ(t) − ξ(0)

behob diesen Umstand. Wegen der Einführung der Operatoren F1 , F2 mussten wir jedoch
das Trennungsargument für konvexe Mengen aus den ersten Kapiteln grundlegend erwei-
tern. Die Anwendung des Satzes von Hahn-Banach auf die konvexen Mengen C1 und C2
lieferte einen zusätzlichen Lagrangeschen Multiplikator. Der Nachweis, dass dieser zusätz-
liche Multiplikator vernachlässigbar ist und diejenigen Multiplikatoren nicht verschwinden,
die zu den notwendigen Optimalitätsbedingungen führen, ist dabei ein wesentliches Argu-
ment zur Herleitung der Theoreme 5.1, 6.1 und 6.15.
Im Zielfunktional (7.1) haben wir uns bewusst dazu entschieden, den Integranden mit
einer Dichtefunktion ω(·) und mit einer stetigen Funktion f (t, x, u) darzustellen. Denn
bei der Herleitung des Pontrjaginschen Maximumprinzips und der Anwendung der Me-
thode der mehrfachen Nadelvariation sahen wir uns einerseits mit dem unbeschränkten
Zeitintervall und andererseits mit einer möglicherweise lokal unbeschränkten Dichtefunk-
tion ω(·) ∈ L1 (R+ , R+ ) konfrontiert. Wegen der Konvergenz des Lebesgue-Integrals ließen
sich die Trägermengen der Nadelvariationen in ein endliches Intervall einbetten. Weiterhin
konnten wir im Fall einer unstetigen Dichtefunktion ω(·) dieses endliche Intervall mit Hilfe
des Satzes von Lusin durch eine kompakte Menge geeignet ausschöpfen. Folglich haben
Zusammenfassung und Ausblick 191

wir die Methode mehrfache Nadelvariation im Wesentlichen auf die Argumente, die für
Steuerungsprobleme mit endlichem Zeithorizont bekannt sind, zurückgeführt.
Die Einbindung von Zustandsbeschränkungen in Aufgaben mit unendlichem Zeithorizont
erforderte zusätzliche Voraussetzungen, nämlich:

(i) Für die aktiven Ungleichungen gilt lim gj t, x∗ (t) = 0, j = 1, ..., l0 .



t→∞

(ii) Für die nichtaktiven Ungleichungen gilt lim sup gj t, x∗ (t) < 0, j = l0 + 1, ..., l.

t→∞

(iii) Es gilt gj t, x∗ (t) 6≡ 0 über R+ für alle j = 1, ..., l.

Die Voraussetzung (i) ist notwendig, um die Zustandsbeschränkungen im Rahmen des


Raumes C0 (R+ , Rn ) auswerten zu können. Dann folgt mit Hilfe des Rieszschen Darstel-
lungssatzes (Satz B.8), dass das Subdifferential aus denjenigen stetigen linearen Funktio-
nalen im Raum C0 (R+ , Rn ) besteht, die mit einem regulären Borelschen Maß mit Norm
Eins korrespondieren. Der Darstellungssatz liefert einerseits die Analogie zu den Ergebnis-
sen über dem endlichen Zeitintervall und andererseits die “ästhetischen” Darstellung der
Adjungierten. Dabei muss auf Voraussetzung (iii) zurückgegriffen werden, denn ansonsten
kann das reguläre Maß zum Nullmaß entarten (Anhang C.4). Dies ist an dieser Stelle der
Preis für das unbeschränkte Intervall, auf dem eine stetige Funktion kein Maximum besit-
zen muss. Auf die Voraussetzung (iii) darf nicht verzichtet werden, da sich andernfalls die
Situation trivialer Multiplikatoren im Pontrjaginschen Maximumprinzip für die Aufgabe
mit Zustandsbeschränkungen (Theorem 6.15) ergeben kann.
Eine besondere Charakteristik über dem unbeschränkten Zeitintervall sind die Zustands-
beschränkungen, die nur im Unendlichen aktiv sind. Die Voraussetzung (ii) schließt diese
nichtaktiven Beschränkungen aus. Da im Gegensatz zu nichtaktiven Zustandsbeschränkun-
gen in Aufgaben mit endlichem Zeitintervall durch den Grenzwert im Unendlichen kein
gleichmäßiger Abstand zur Restriktion vorliegt, kann bezüglich der gleichmäßigen Topolo-
gie k · k∞ die Existenz zulässiger Richtungen nicht mit den bekannten Argumenten gezeigt
werden. Diesen Punkt mussten wir im Rahmen dieser Arbeit offen lassen.
Schließlich haben wir die Extremalaufgabe zum Steuerungsproblem über dem unendli-
chen Zeithorizont mit Zustandsbeschränkungen in den Raum Cb (R+ , Rn ) eingebettet. Der
Grund war, dass in der Extremalaufgabe im Rahmen des Raumes C0 (R+ , Rn ) keine “ech-
ten” Abstiegsrichtungen vorliegen können. Deswegen darf der Trennungssatz für konvexe
Mengen stets angewendet werden und der Nachweis der Existenz der nichttrivialen La-
grangeschen Multiplikatoren ist immer möglich. Diesen Umstand gilt es ausdrücklich zu
beachten, denn das Wesen von Optimalitätskriterien geht im Pontrjaginschen Maximum-
prinzip auf diese Weise verloren.
Diese Arbeit wurde so aufgebaut, dass wir die grundlegenden Kenntnisse über die Beweis-
methoden für Aufgaben mit endlichem Zeithorizont vorbereitet haben und anschließend
die einzelnen Elemente über dem unbeschränkten Zeitintervall kritisch hinterfragen, eine
192 Zusammenfassung und Ausblick

passende Form geben und abschließend die Beweisargumente auf die so geschaffene Extre-
malaufgabe geeignet erweitern.
In dieser Arbeit haben wir ein innovativen Zugang zu Steuerungsproblemen mit unend-
lichem Zeithorizont vorgestellt. Ein wesentliches Ergebnis sind dabei die notwendigen
Optimalitätsbedingungen, in denen die “natürlichen” Transversalitätsbedingungen stets
enthalten sind. Das Verschwinden der Adjungierten im Unendlichen ergibt sich aus dem
Zugang im Raum C0 (R+ , Rn ). Auf die Behandlung von Aufgaben mit Randbedingungen
im Unendlichen müssen wir auf dieser Grundlage verzichten. Wir geben diesbezüglich ein
illustratives Beispiel an:

Beispiel 7.2. Wir betrachten die Aufgabe


Z ∞
e−%t 1 − u(t) x(t) dt → sup,
 
J x(·), u(·) =
0
ẋ(t) = u(t)x(t), x(0) = 1, x(∞) = 2, u(t) ∈ [0, 1], % ∈ (0, 1).

Die Pontrjagin-Funktion lautet im normalen Fall

H(t, x, z, u, p, q, 1) = pux + e−%t (1 − u)x.

Aus der formalen Anwendung der Maximumbedingung und der adjungierten Gleichung
ergeben sich
(
e(1−%)τ e−t ,

t ∈ [0, τ ), 1, t ∈ [0, τ ),
p(t) = %−1 −%τ 1 −%t u∗ (t) = τ = ln 2.
% e + % e , t ∈ [τ, ∞), 0, t ∈ [τ, ∞),

Es gilt daher für die Adjungierte p(t) 6→ 0 für t → ∞.


Die spezielle Struktur der Dynamik, nämlich die Monotonie ẋ(t) ≥ 0 für alle zulässigen
Trajektorien, erlaubt es, den Randwert im Unendlichen durch eine Zustandsbeschränkung
zu ersetzen:
Z ∞
e−%t 1 − u(t) x(t) dt → sup,
 
J x(·), u(·) =
0
ẋ(t) = u(t)x(t), x(0) = 1, x(t) ≤ 2, u(t) ∈ [0, 1], % ∈ (0, 1).

Dann erhalten wir mit dem absolutstetigen Anteil λ(t) = (1 − %)e−%t > 0, t ∈ [τ, ∞), des
Borelschen Maßes die Adjungierte
 (1−%)τ −t
e e , t ∈ [0, τ ),
p(t) = τ = ln 2.
e−%t , t ∈ [τ, ∞),

Wählen wir das Gewicht ν(t) = e−at mit 0 < a < 2%, dann sind alle Voraussetzungen des
Maximumprinzips für die Aufgabe mit Zustandsbeschränkungen erfüllt. 
Zusammenfassung und Ausblick 193

Die Rückführung des Randwertes im Unendlichen auf eine Zustandsbeschränkung im letz-


ten Beispiel hängt maßgeblich von der Einfachheit der Aufgabe ab. Bereits im Fall einer
streng monotonen Dynamik ergibt sich eine Zustandsbeschränkung, die erst im Unendli-
chen aktiv ist. Dementsprechend ist in dieser Situation das Theorem 6.15 nicht anwendbar.
Deswegen haben wir diesen Ansatz, den Randwert im Unendlichen durch eine Zustands-
beschränkung zu ersetzen, nicht weiter verfolgt.
An dieser Stelle könnte sich der Raum Cb (R+ , Rn ), den wir in der Untersuchung der Zu-
standsbeschränkungen über dem unendlichen Zeithorizont bereits verwendet haben, als
nützlich erweisen: Der Operator

H∞ x(·) = lim x(t)
t→∞

ist auf der abgeschlossenen und konvexen Menge

M = {x(·) ∈ Cb (R+ , Rn ) | lim x(t) existiert}


t→∞

stetig differenzierbar. Über dieser Menge kann der Operator H∞ als reguläre Abbildung
in die Extremalaufgabe eingefügt werden.
Es ist weiterhin nicht auszuschließen, dass im Rahmen des Raumes Cb (R+ , Rn ) auf die
Annahmen (i)–(iii) verzichtet werden kann. Allerdings sind der Nachweis eines Extremal-
prinzips und die Darstellung für y ∗ ∈ Cb∗ (R+ , Rn ) in Form einer adjungierten Gleichung
ein eigenständiges Thema. Grundlegende Beiträge gibt es dazu bei Brodskii [11] und bei
Seierstad [59]. Auf deren Basis werden nützliche Informationen über die Adjungierte ge-
wonnen, die in den hinreichenden Bedingungen nach Arrow und Mangasarian einfließen
können.
Unser präsentierter Zugang gewährte einen tiefgreifenden, aber noch unvollständigen Ein-
blick in das Wesen der Steuerungsproblemen mit unendlichem Zeithorizont. Zur grund-
legenden Weiterentwicklung und zum umfassenden Verständnis dieses Aufgabentyps ist
aus unserer Sicht eine Renaissance der Theorie der Extremalaufgaben für diese spezifische
Klasse zwingend erforderlich.
Maß- und Integrationstheorie 195

A. Grundzüge der Maß- und Integrationstheorie


Unsere Darstellungen zur Maß- und Integrationstheorie basieren auf Bauer [8], Elstrodt
[20], Heuser [34] und Natanson [48]. Die Eigenschaften der Funktionen von beschränkter
Variation und des Stieltjes-Integral sind Heuser [33] und Natanson [48] entnommen.

A.1. Maßtheoretische Grundlagen


Sei M eine Menge, und sei Σ ein System von Teilmengen von M mit den Eigenschaften

[
∅ ∈ Σ, A ∈ Σ ⇒ M \ A ∈ Σ, A1 , A2 , ... ∈ Σ ⇒ Ai ∈ Σ,
i=1

dann heißt Σ eine σ-Algebra und jede Menge A ∈ Σ messbar.


Eine Abbildung µ : Σ → [0, ∞] heißt ein Maß, wenn µ(∅) = 0 und µ σ-additiv ist, d. h.,
wenn für paarweise disjunkte A1 , A2 , ... ∈ Σ folgendes gilt:
[ ∞  X ∞
µ Ai = µ(Ai ).
i=1 i=1

Das Maß µ nennen wir σ-endlich, wenn es in M eine Folge A1 , A2 , ... von Teilmengen gibt
mit µ(Ai ) < ∞ für alle i und A1 ∪ A2 ∪ ... = M .
Eine Abbildung µ : Σ → R heißt ein signiertes Maß, falls µ σ-additiv ist. Ein Maß ist
demnach im Unterschied zu signierten Maßen eine Abbildung mit ausschließlich nichtne-
gativen Werten. Wir nennen A ∈ Σ mit µ(A) = 0 eine µ-Nullmenge.
Sei µ ein signiertes Maß auf Σ und A ∈ Σ. Setze
n
X
|µ|(A) = sup |µ(Ak )|,
k=1

wobei das Supremum über alle endlichen Zerlegungen A = A1 ∪ ... ∪ An mit paarweise
disjunkten Ak ∈ Σ zu bilden ist. |µ|(A) heißt totale Variation von µ auf A. Ist µ ein
signiertes Maß, so definiert A → |µ|(A) ein endliches Maß.
Ein Maß µ heißt von innen bzw. von außen regulär, falls für alle A ∈ Σ

µ(A) = sup{µ(C) | C ⊂ A, C kompakt}, bzw. µ(A) = inf{µ(O) | A ⊂ O, O offen}

gilt. Ein von innen und außen reguläres Maß heißt regulär. Ein signiertes Maß heißt regulär,
wenn seine Variation regulär ist.
Satz A.1 (Hahn-Jordan-Zerlegung). Sei Σ eine σ-Algebra auf einer Menge M und µ :
Σ → R ein signiertes Maß.
(a) Es existiert ein bis auf eine |µ|-Nullmenge eindeutig bestimmtes A+ ∈ Σ mit
196 Maß- und Integrationstheorie

(i) 0 ≤ µ(A) ≤ µ(A+ ) für alle A ∈ Σ, A ⊆ A+ ,


(ii) 0 ≥ µ(A) ≥ µ(A− ) für alle A ∈ Σ, A ⊆ A− := T \ A+ .

(b) µ+ = χA+ µ und µ− = χA− µ sind endliche Maße mit µ = µ+ − µ− .

(c) |µ|(A) = µ+ (A) + µ− (A).

Die Zerlegungen A = A+ ∪ A− und µ = µ+ − µ− heißen Hahn- bzw. Jordan-Zerlegung.

Die offenen Teilmengen der Menge M erzeugen die σ-Algebra der Borelmengen B. D. h.
B ist die kleinste σ-Algebra, die M umfasst. Ein (signiertes) Maß µ auf der σ-Algebra B
heißt (signiertes) Borelsches Maß.

A.2. Integration bezüglich eines Maßes


Es sei I ⊆ R ein Intervall, d. h. eine beschränkte oder unbeschränkte konvexe Teilmengen
von R, und B die Borelsche σ-Algebra auf I. Die Funktion f : I → R ist eine Trep-
penfunktion, wenn f nur endliche viele Werte annimmt. D. h. gibt es paarweise disjunkte
messbare Mengen A1 , ..., Ak ⊆ I und Punkte y1 , ..., yk ∈ R mit A1 ∪ ... ∪ Ak = I und

k
X
f (t) = yi χAi (t), t ∈ I.
i=1

Es sei µ ein Maß über der σ-Algebra B. Eine nichtnegative reelle Funktion f ist genau
dann meßbar, wenn es eine monoton wachsende Folge {fn } von nichtnegativen Treppen-
funktionen gibt, die punktweise gegen f konvergiert. Jede beschränkte meßbare Funktion
ist gleichmäßiger Grenzwert von Treppenfunktionen.
Wir nennen eine nichtnegative reelle Funktion f µ-integrierbar, falls eine monoton wach-
sende Folge {fn } nichtnegativer Treppenfunktionen existiert, die punktweise gegen f kon-
vergiert. Die Zahl
Z Z Z Z k
X
f dµ = f (t) dµ(t) = lim fn (t) dµ(t), fn (t) dµ(t) = yi µ(Ai ),
I I n→∞ I I i=1

welche unabhängig von der Darstellung mittels {fn } ist, heißt das µ-Integral von f .
Eine meßbare reelle Funktion f heißt µ-integrierbar, +
Z falls ihrZPositivteil f und ihr Ne-
gativteil f − µ-integrierbar sind und die µ-Integrale f + dµ, f − dµ reelle Zahlen sind.
I I
Dann heißt Z Z Z
f dµ = f + dµ − f − dµ
I I I
Maß- und Integrationstheorie 197

das µ-Integral von f . Es sei µ ein signiertes Maß, µ = µ+ − µ− seine Jordan-Zerlegung


und die reelle Funktion f meßbar. Dann heißt f µ-integrierbar, falls f |µ|-integrierbar ist.
Wir setzen Z Z Z
f dµ = f dµ − f dµ− .
+
I I I
Im
Z Fall des Lebesgue-Maßes sagen wir integrierbar und schreiben für das Lebesgue-Integral
f dt.
I
Ein innerer Punkt t0 ∈ I heißt Lebesguescher Punkt der Funktion f , wenn

1 h
Z
lim |f (t0 ± t) − f (t0 )| dt = 0.
h→0+ h 0

Satz A.2. Ist f über I integrierbar, so ist fast jeder Punkt ein Lebesguescher Punkt.
Satz A.3 (Satz von Lusin). Es sei f : I → R und λ das Lebesgue-Maß. Dann sind
äquivalent:
(a) Es gibt eine meßbare Funktion g : I → R mit f = g λ-f.ü.

(b) Zu jedem offenen U ⊆ I mit λ(U ) < ∞ und jedem δ > 0 gibt es ein Kompaktum
K ⊂ U mit λ(U \ K) < δ, so dass f |K stetig ist.

(c) Zu jedem Kompaktum T ⊂ I und jedem δ > 0 gibt es ein Kompaktum K ⊂ T mit
λ(T \ K) < δ, so dass f |K stetig ist.

A.3. Funktionen beschränkter Variation und Stieltjes-Integral


Eine Funktion g : [a, b] → R heißt von beschränkter Variation auf [a, b], wenn es eine
Konstante M > 0 derart gibt, dass für jede Zerlegung Z := {x0 , x1 , ..., xn } von [a, b] mit
a = x0 < x1 < ... < xn = b stets
n
X
V(g, Z) := |g(xk ) − g(xk−1 )| ≤ M
k=1

bleibt. In diesem Fall wird die reelle Zahl


b
V(g) = sup V(g, Z)
a Z

die totale Variation von g auf [a, b] genannt. Eine Funktion g(·) von beschränkter Variation
heißt normalisiert, wenn g(a) = 0 gilt und g(·) für alle a < t < b rechtsseitig stetig ist.
Für unbeschränkte Intervalle definieren wir die totale Variation durch
∞ n ∞ n
V (g) = lim V (g), V(g) = lim V(g).
−∞ n→∞ −n a n→∞ a
198 Maß- und Integrationstheorie

Sind diese Variationen endlich, dann gelten


a +∞
lim V (g) = 0, lim V (g) = 0.
a→−∞ −∞ a→∞ a

Satz A.4. Eine Funktion ist genau dann von beschränkter Variation, wenn sie als Diffe-
renz zweier monotoner Funktionen darstellbar ist.

Auf [a, b] seien zwei endliche Funktionen f und g definiert. Weiterhin sei Z = {x0 , x1 , ..., xn }
eine Zerlegung von [a, b]. In jedem Teilintervall [xk−1 , xk ] wählen wir einen Punkt ξk und
bilden die Summe
Xn
σ= f (ξk )[g(xk ) − g(xk−1 )].
k=1

Konvergiert σ bei Verfeinerung der Zelegung gegen einen endlichen Grenzwert I, der we-
der von der Zerlegung noch von der Auswahl der Punkte ξk abhängig ist, so heißt der
Grenzwert I das Stieltjes-Integral von f nach der Funktion g. Schreibweise
Z b Z b
f (x) dg(x) oder (S) f (x) dg(x).
a a
Z b Z b
Satz A.5. Existiert eines der Integrale f (x) dg(x) oder g(x) df (x), so existiert auch
a a
das andere, und es gilt die Regel der partiellen Integration:
Z b Z b
f (x) dg(x) + g(x) df (x) = f (b)g(b) − f (a)g(a).
a a

Satz A.6. Ist f auf [a, b] stetig und g auf [a, b] von beschränkter Variation, dann existiert
das Stieltjes-Integral von f nach der Funktion g.

Eine Funktion g : [a, b] → R heißt absolutstetig, wenn zu jedem ε > 0 ein δ > 0 derart exi-
X dass für jedes endliche System von disjunkten Intervallen {(ak , bk )} mit Gesamtlänge
stiert,
(bk − ak ) ≤ δ gilt
X
|g(bk ) − g(ak )| ≤ ε.

Satz A.7. Ist f auf [a, b] stetig und g absolutstetig auf [a, b], dann gilt
Z b Z b
(S) f (x) dg(x) = (L) f (x)g 0 (x) d(x).
a a

D. h., dass der Fall einer absolutstetigen Funktion g auf die Berechnung eines Lebesgue-
Integrals führt.
Funktionalanalytische Hilfsmittel 199

B. Funktionalanalytische Hilfsmittel
Die Grundbegriffe und die Hauptsätze zur Funktionalanalysis, sowie die Darstellung ste-
tiger linearer Funktionale sind Heuser [36], Ioffe & Tichomirov [38], Kufner [39] und Wer-
ner [70] entnommen. Den Fixpunktsatz von Weissinger findet man in Heuser [35], den
Darstellungssatz für die stetigen linearen Funktionale auf dem Raum der im Unendlichen
verschwindenden stetigen Funktionen in Rudin [58]. Bei der Darstellung des Satzes von
Ljusternik folgen wir Ioffe & Tichomirov [38]. Dieser Satz geht auf Ljusternik [42] zurück.

B.1. Stetige lineare Operatoren auf normierten Räumen, Ableitungsbegriffe


Es seien X, Y normierte lineare Räume. Der normierte lineare Raum X mit Norm k·k heißt
vollständig oder ein Banachraum, wenn jede Cauchyfolge in X bezüglich k · k konvergiert.
Der normierte linearer Raum X mit Skalarprodukt
p h·, ·i heißt ein Hilbertraum, wenn X
bezüglich der induzierten Norm kxk = hx, xi vollständig ist. Für ein Skalarprodukt gilt
die Cauchy-Schwarsche Ungleichung

|hx, yi|2 ≤ kxk2 · kyk2 .

Auf X wird eine Norm k · k genau dann durch ein Skalarprodukt h·, ·i induziert, wenn die
Parallelogrammgleichung

kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 )

für alle x, y ∈ X gilt. In diesem Fall ist das Skalarprodukt eindeutig bestimmt und wird
in einem reellen Vektorraumes X durch folgende Formel gegeben:
1
hx, yi = (kx + yk2 − kx − yk2 ).
4
Wir geben nach [70] einige Beispiele für normierte Räume an: Sei I ⊆ R.

(a) Der Raum Cb (I, Rn ) der beschränkten stetigen Funktionen ist bezüglich der Supre-
mumsnorm k · k∞ vollständig.

(b) C(I, Rn ) ist der Raum der stetigen Funktionen auf I ⊆ R. Bezüglich der Supre-
mumsnorm k · k∞ ist dieser Raum für eine kompakte Menge I vollständig.

(c) C0 (R+ , Rn ) bezeichnet den Raum der stetigen Funktionen x(·), die im Unendlichen
verschwinden. D. h. zu jedem ε > 0 ist die Menge M = {t ∈ R+ | kx(t)| ≥ ε}
kompakt. Als abgeschlossener Unterraum des Raumes Cb (R+ , Rn ) ist C0 (R+ , Rn )
vollständig.

(d) Der Raum der stetig differenzierbaren Funktionen C1 (I, Rn ) ist über einer kompak-
ten Menge I bezüglich der Norm kx(·)kC1 = kx(·)k∞ + kẋ(·)k∞ vollständig.
200 Funktionalanalytische Hilfsmittel

(e) Die Lebesgue-Räume Lp (I, Rn ) sind bezüglich der Lp -Norm k·kLp mit dem Lebesgue-
Integral vollständig. Für p = 2 liegt ein Hilbertraum vor.

(f) Die Sobolev-Räume Wp1 (I, Rn ) sind bezüglich kx(·)kWp1 = kx(·)kLp + kẋ(·)kLp voll-
ständig. Der Raum W21 (I, Rn ) ist ein Hilbertraum.

Die Beispiele (e) und (f) lassen sich auf den Fall eines σ-endliche Maßes µ verallgemeinern.
Weiterhin gilt die Höldersche Ungleichung:

kx(·)y(·)kL1 ≤ kx(·)kLp ky(·)kLq für alle x(·) ∈ Lp (I, R), y(·) ∈ Lq (I, R).

Besitzt das σ-endliche Maß µ bezüglich dem Lebesgue-Maß eine Dichte ν, dann sprechen
wir von gewichteten Lebesgue- und Sobolevräumen und ersetzen die µ-Integrale der Räume
Lp (µ), Wp1 (µ) durch Lebesgue-Integrale mit Dichte ν. Die gewichteten Lebesgue- und
Sobolevräume bezeichnen wir mit Lp (I, Rn ; ν), Wp1 (I, Rn ; ν) und es lautet für 1 ≤ p < ∞
die gewichtete Norm des Raumes Lp (I, Rn ; ν):
Z ∞
kx(·)kpLp (ν) = kx(t)kp ν(t) dt.
0

Es bezeichnet L(X, Y ) die Menge der stetigen linearen Abbildungen T : X → Y . Ist


Y = R, dann nennen wir T : X → R ein Funktional. Dabei heißt eine (nicht notwendig
lineare) Abbildung T stetig, wenn das Urbild T −1 (O) = {x ∈ X | T x ∈ O} offener Mengen
O ⊆ Y offen in X ist. Dabei verwenden wir die übliche Schreibweise T x statt T (x). Zu
dieser Definition der Stetigkeit sind äquivalent:

(i) Aus xn → x folgt T xn → T x.

(ii) Zu jedem x0 ∈ X und jedem ε > 0 existiert ein δ = δ(x0 , ε) > 0 mit

kT x − T x0 k ≤ ε für alle kx − x0 k ≤ δ.

Insbesondere sind für lineare Abbildungen äquivalent:

(a) T ist stetig, d. h. T ist in jedem Punkt x ∈ X stetig.

(b) T ist in x = 0 stetig.

(c) T ist gleichmäßig stetig.

(d) T ist beschränkt, d. h. es existiert eine Zahl K ≥ 0 mit

kT xk ≤ Kkxk für alle x ∈ X.


Funktionalanalytische Hilfsmittel 201

Die kleinste Zahl K ≥ 0, mit der (d) gilt, heißt die Operatornorm der linearen Abbildung
T und wird mit kT k bezeichnet. Für kT k gilt
kT xk
kT k = sup = sup kT xk = sup kT xk.
x6=0 kxk kxk=1 kxk≤1

Der Raum L(X, R) der stetigen linearen Funktional x∗ : X → R auf dem normierten
Raum X heißt der Dualraum von X und wird mit X ∗ bezeichnet. Ferner schreiben wir
hx∗ , xi statt x∗ (x).
Wir wenden uns nun Ableitungsbegriffen für nichtlineare Abbildungen zu. Es seien X, Y
normierte Räume, U ⊆ X offen und F : U → Y eine Abbildung. Existiert in x0 ∈ U für
jedes x ∈ X der Grenzwert
F (x0 + λx) − F (x0 )
lim = δF (x0 )x,
λ→0+ λ
dann heißt die Abbildung x → δF (x0 )x die erste Variation der Abbildung F in x0 . Gibt
es ein T ∈ L(X, Y ) mit T x = δF (x0 )x, dann heißt F in x0 Gâteaux-differenzierbar und
T die Gâteaux-Ableitung von F in x0 . Ferner heißt F in x0 Fréchet-differenzierbar und
F 0 (x0 ) = T die Fréchet-Ableitung von F in x0 , falls der Grenzwert der Gâteaux-Ableitung
bezüglich kxk ≤ 1 gleichmäßig konvergiert. D. h. zu jedem ε > 0 gibt es eine Zahl λ0 > 0
mit
F (x0 + λx) − F (x0 ) 0

− F (x0 )x ≤ ε für alle 0 < λ < λ0 , kξk ≤ 1.
λ
Eine Abbildung F ist in x0 genau dann Fréchet-differenzierbar, falls ein T ∈ L(X, Y ) und
eine Abbildung r : X → Y mit
kr(x)k
F (x0 + x) = F (x0 ) + T x + r(x), lim = 0.
kxk→0 kxk

Die Abbildung F nennen wir im Punkt x regulär, wenn sie in diesem Punkt Fréchet-
differenzierbar ist und Im F 0 (x) = Y gilt. Die Abbildung F ist in x0 bzw. auf U stetig
differenzierbar, wenn für alle Punkte der Menge U die Ableitung F 0 (x) existiert und die
Abbildung x → F 0 (x) bezüglich der Operatornorm des Raum L(X, Y ) in x0 bzw. auf U
stetig ist.

B.2. Grundprinzipien der Funktionalanalysis


Theorem B.1 (Satz von Hahn-Banach; Fortsetzungsversion). Sei X ein normierter Raum
und U ein Untervektorraum. Zu jedem stetigen linearen Funktional u∗ : U → R existiert
dann ein stetiges lineares Funktional Funktional x∗ : X → R mit

x∗ U = u∗ , kx∗ k = ku∗ k.

Jedes stetige lineare Funktional kann also normgleich fortgesetzt werden.


202 Funktionalanalytische Hilfsmittel

Theorem B.2 (Satz von Hahn-Banach; Trennungsversion). Sei X ein normierter Raum,
V1 , V2 ⊆ X seien konvex und V1 offen. Es gelte V1 ∩ V2 = ∅. Dann existiert ein x∗ ∈ X ∗
mit
hx∗ , v1 i < hx∗ , v2 i für alle v1 ∈ V1 , v2 ∈ V2 .

Eine Abbildung T heißt offen, wenn T offene Mengen auf offene Mengen abbildet.

Theorem B.3 (Satz von der offenen Abbildung). Es seien X, Y Banachräume und
T ∈ L(X, Y ) surjektiv. Dann ist T offen.

Seien X, Y normierte Räume und T ∈ L(X, Y ). Der adjungierte Operator T ∗ : Y ∗ → X ∗


ist durch
hT ∗ y ∗ , xi = hy ∗ , T xi

erklärt. Offensichtlich folgt daraus T ∗ ∈ L(Y ∗ , X ∗ ). Seien nun U ⊆ X und V ⊆ X ∗ . Wir


definieren die Mengen

U ⊥ = {x∗ ∈ X ∗ | hx∗ , xi = 0 für alle x ∈ U },


V⊥ = {x ∈ X | hx∗ , xi = 0 für alle x∗ ∈ V }.

Lemma B.4 (Satz vom abgeschlossenen Bild). Seien X, Y Banachräume, und es sei
T ∈ L(X, Y ). Dann gelten die Äquivalenzen:

Im (T ) ist abgeschlossen ⇔ Im (T ) = (Ker T ∗ )⊥


⇔ Im (T ∗ ) ist abgeschlossen
⇔ Im (T ∗ ) = (Ker T )⊥ .

Satz B.5 (Fixpunktsatz von Weissinger). Es sei U eine nichtleere abgeschlossene Teil-

X
menge des Banachraumes X, ferner an eine konvergente Reihe positiver Zahlen und
n=1
A : U → U eine Selbstabbildung von U mit

kAn u − An vk ≤ an ku − vk für alle u, v ∈ U, n ∈ N.

Dann besitzt A genau einen Fixpunkt, d. h. es gibt genau ein u ∈ U mit Au = u.


Dieser Fixpunkt ist Grenzwert der Iterationsfolge un = Aun−1 , n = 1, 2, ..., bei beliebigem
Startwert u0 ∈ U . Schließlich gilt die Fehlerabschätzung

X
ku − un k ≤ ku1 − u0 k · ak .
k=n
Funktionalanalytische Hilfsmittel 203

B.3. Der Darstellungssatz von Riesz


Es sei I ⊂ R und es bezeichne M (I) die Menge der regulären Borelschen Maße auf der
Borelschen σ-Algebra auf I.

Satz B.6 (Rieszscher Darstellungssatz). Für I = [t0 , t1 ] ist der Dualraum C ∗ (I, R) des
Raumes der stetigen Funktionen C(I, Rn ) isometrisch isomorph zu M (I) unter der Abbil-
dung Z
Λ : M (I) → C ∗ (I, R), Λ(µ)x(·) = x(t) dµ(t).
I

D. h. zu jedem stetigen linearen Funktional x∗ ∈ C ∗ (I, R) gibt es genau ein reguläres


Borelsches Maß µ ∈ M (I) mit
Z

hx , x(·)i = x(t) dµ(t), kx∗ k = |µ|(I).
I

Folgerung B.7. Jedes stetige lineare Funktional x∗ ∈ C ∗ ([t0 , t1 ], Rn ) lässt sich auf ein-
deutige Weise in der Gestalt
n Z
X t1

hx , x(·)i = ha, x(t0 )i + xk (t) dµk (t)
k=1 t0

darstellen, wobei a ∈ Rn gilt und µ1 (·), ..., µn (·) normalisierte Funktionen beschränkter
Variation sind. Oder äquivalent:
n Z
X t1
hx∗ , x(·)i = xk (t) dµk (t)
k=1 t0

mit Funktionen µ1 (·), ..., µn (·) beschränkter Variation, die mit eventueller Ausnahme des
Punktes t0 rechtsseitig stetig sind.

Satz B.8 (Rieszscher Darstellungssatz). Der Dualraum C0∗ (R+ , R) ist isometrisch iso-
morph zu M (R+ ) unter der Abbildung
Z
Λ : M (R+ ) → C0∗ (R+ , R), Λ(µ)x(·) = x(t) dµ(t).
R+

Lemma B.9. Zu jedem stetigen linearen Funktional x∗ ∈ C1∗ ([t0 , t1 ], Rn ) gibt es eindeutig
bestimmte a, b ∈ Rn und normalisierte Funktionen beschränkter Variation µ1 (·), ..., µn (·)
derart, dass x∗ folgende Darstellung besitzt:
n Z
X t1

hx , x(·)i = ha, x(t0 )i + hb, ẋ(t0 )i + ẋk (t) dµk (t).
k=1 t0
204 Funktionalanalytische Hilfsmittel

B.4. Zum Verhalten von Funktionen der Sobolev-Räume im Unendlichen


Lemma B.10. Sei x(·) ∈ W11 (R+ , Rn ). Dann gilt nach Magill [44]:

lim kx(t)k = 0.
t→∞

Beweis Da x(·) ∈ W11 (R+ , Rn ) ist, gilt die Darstellung


Z t
x(t) = x(0) + ẋ(s) ds, t ∈ R+ .
0

Darin ist der Integralterm über R+ absolut integrierbar. Also besitzt x(t) einen Grenzwert
für t → ∞. Dieser muss gleich Null sein, da x(·) über R+ integrierbar ist. 
Es sei im Weiteren ν(·) ∈ W11 (R+ , R) eine Gewichtsfunktion, zu der eine Konstante K > 0
mit |ν̇(t)| ≤ Kν(t) für alle t ∈ R+ existiert.

Lemma B.11. Es sei x(·) ∈ W21 (R+ , Rn ; ν). Wir betrachten die Funktionen

f (t) = kx(t)k2 ν(t), ψ(t) = ν(t)x(t).

Dann gelten f (·) ∈ W11 (R+ , R), ψ(·) ∈ W11 (R+ , Rn ) und damit nach Lemma B.10:

lim f (t) = 0, lim kψ(t)k = 0.


t→∞ t→∞

Beweis Wir schreiben f (·) in der Form f (t) = hx(t), x(t)iν(t). Dann erhalten wir unmit-
telbar die verallgemeinerte Ableitung

f˙(t) = 2hx(t), ẋ(t)iν(t) + kx(t)k2 ν̇(t).

Bei Anwendung der Beziehungen

hx(t), ẋ(t)iν(t) 2 ≤ kx(t)k2 ν(t) · kẋ(t)k2 ν(t)


ergibt sich mit der Cauchy-Schwarzschen Ungleichung:

kf˙(·)kL1 + kf (·)kL1 ≤ 2 · kẋ(·)kL2 (ν) · kx(·)kL2 (ν) + (1 + K) · kx(·)k2L2 (ν) .

Die Funktion ψ(·) besitzt eine verallgemeinerte Ableitung und wir erhalten wegen der
Eigenschaften der Gewichtsfunktion ν(·) und mit der Cauchy-Schwarzschen Ungleichung

1/2 1/2
kψ(·)kL1 ≤ kν(·)kL1 · kx(·)kL2 (ν) , kψ̇(·)kL1 ≤ (1 + K)kν(·)kL1 · kx(·)kW21 (ν) .

Damit sind alle Behauptungen gezeigt. 


Funktionalanalytische Hilfsmittel 205

Lemma B.12. Es seien x(·) ∈ W21 (R+ , Rn ; ν) und y(·) ∈ W21 (R+ , Rn ; ν −1 ). Wir setzen:

g(t) = ky(t)k2 ν −1 (t), h(t) = hx(t), y(t)i.

Dann gelten g(·), h(·) ∈ W11 (R+ , R) und nach Lemma B.10:

lim g(t) = 0, lim h(t) = 0.


t→∞ t→∞

Beweis Wir bringen g(·) in die Gestalt g(t) = hy(t), y(t)iν −1 (t). Dann erhalten wir die
verallgemeinerte Ableitung

d −1
ġ(t) = 2hy(t), ẏ(t)iν −1 (t) + ky(t)k2 · ν (t).
dt
Bei Anwendung der Ungleichung

hy(t), ẏ(t)iν −1 (t) 2 ≤ ky(t)k2 ν −1 (t) · kẏ(t)k2 ν −1 (t)


ergibt sich mit der Cauchy-Schwarzschen Ungleichung:

kġ(·)kL1 + kg(·)kL1 ≤ 2 · kẏ(·)kL2 (ν −1 ) · ky(·)kL2 (ν −1 ) + (1 + K) · ky(·)k2L2 (ν −1 ) .

Die Funktion h(·) besitzt eine verallgemeinerte Ableitung und es gilt

kh(·)kL1 ≤ ky(·)kL2 (ν −1 ) · kx(·)kL2 (ν) ,


kḣ(·)kL1 ≤ kẏ(·)kL2 (ν −1 ) · kx(·)kL2 (ν) + ky(·)kL2 (ν −1 ) · kẋ(·)kL2 (ν) .

Damit ist Lemma B.12 gezeigt. 

B.5. Der Satz von Ljusternik


Definition B.13 (Lokaler Tangentialkegel). Sei X ein Banachraum und x0 ∈ M ⊆ X.
Mit C (M, x0 ) bezeichnen wir die Menge aller Elemente x ∈ X, zu denen ein ε0 > 0 und
eine Abbildung r(ε) : [0, ε0 ] → X mit den Eigenschaften

kr(ε)k
lim =0 und x0 + εx + r(ε) ∈ M für alle ε ∈ [0, ε0 ]
ε→0+ ε

existieren. C (M, x0 ) heißt der lokale Tangentialkegel an die Menge M im Punkt x0 .

Theorem B.14 (Satz von Ljusternik). Es seien X und Y Banachräume, V eine Umge-
bung des Punktes x∗ ∈ X und F eine Fréchet-differenzierbare Abbildung der Menge V in
Y . Wir setzen voraus, die Abbildung F sei regulär im Punkt x∗ , d. h., es gelte

Im F 0 (x∗ ) = Y,
206 Konvexe Analysis

außerdem sei ihre Ableitung in diesem Punkt in der gleichmäßigen Operatorentopologie


des Raumes L(X, Y ) stetig. Dann stimmt der lokale Tangentialkegel an die Menge

M = x ∈ V F (x) = F (x∗ )

im Punkt x∗ mit dem Kern des Operators F 0 (x∗ ) überein:

C (M, x∗ ) = Ker F 0 (x∗ ).

Lemma B.15. Es seien X und Y Banachräume und Λ : X → Y ein stetiger linearer


Operator. Wir setzen
 
inf{kxk | x ∈ X, Λx = y}
C(Λ) := sup .
y6=0 kyk

Wenn Im Λ = Y gilt, so ist C(Λ) < ∞.

Theorem B.16 (Der verallgemeinerte Satz von Ljusternik). Es seien X und Y Ba-
nachräume, Λ : X → Y ein stetiger linearer Operator und F eine Abbildung einer ge-
wissen Umgebung V des Punktes x∗ ∈ X in Y . Wir setzen voraus, es sei Im Λ = Y und
es gebe eine Zahl δ > 0 derart, dass erstens

1
δC(Λ) <
2

und zweitens
kF (x) − F (x0 ) − Λ(x − x0 )k ≤ δkx − x0 k (B.1)

für alle x, x0 aus V gilt. Dann existieren eine Umgebung V 0 ⊆ V des Punktes x∗ , eine Zahl
K > 0 und eine Abbildung ξ → x(ξ) der Umgebung V 0 in X derart, dass die Beziehungen

F ξ + x(ξ) = F (x∗ ) und kx(ξ)k ≤ KkF (ξ) − F (x∗ )k

für alle ξ ∈ V 0 erfüllt sind.

C. Elemente der Konvexen Analysis


Bei der Zusammenstellung der grundlegenden Ergebnisse beschränken wir uns auf die
Eigenschaften konvexer und lokalkonvexer Funktionen nach Clarke [13], Ioffe & Tichomi-
rov [38] und Rockafellar [57]. Im vorliegenden Rahmen stimmen die klassische Richtungs-
ableitung und der Clarkesche Gradient überein. Deswegen verweisen wir bezüglich Lemma
C.1 und bezüglich der Kettenregel C.3 auf [38].
Konvexe Analysis 207

C.1. Das Subdifferential konvexer Funktionen


Es seien X, Y Banachräume. Eine Funktion f auf X ist in der Konvexen Analysis eine
Abbildung in die erweiterte reelle Zahlengerade, d. h. f : X → R = [−∞, ∞]. Der effektive
Definitionsbereich der Abbildung f ist die Menge dom f = {x ∈ X|f (x) < ∞}. Die
Funktion f heißt eigentlich, falls dom f 6= ∅ und f (x) > −∞ für alle x ∈ X.
Die eigentliche Funktion f heißt konvex, wenn für alle x1 , x2 ∈ X und alle 0 ≤ α ≤ 1
folgende Ungleichung gilt:

f αx1 + (1 − α)x2 ≤ αf (x1 ) + (1 − α)f (x2 ).

Die Funktion f heißt homogen, falls f (0) = 0 und f (λx) = λf (x) für alle x ∈ X, λ > 0
ist. Eine eigentliche konvexe Funktion ist genau dann in einem Punkt stetig, wenn sie auf
einer Umgebung dieses Punktes nach oben beschränkt ist. In diesem Fall ist das Innere
des effektiven Definitionsbereichs nichtleer. Ist andererseits eine homogene Funktion auf
einer Umgebung des Nullpunktes stetig, so ist sie auf X stetig.
Ist f eine eigentliche konvexe Funktion auf X, dann existiert in jedem Punkt der Menge
dom f die klassische Richtungsableitung, d. h. für alle z ∈ X der Grenzwert

f (x + λz) − f (x)
f 0 (x; z) = lim .
λ→0+ λ

Sei f eigentlich, konvex und in x stetig. Dann ist f auf einer Umgebung des Punktes x
nach oben beschränkt, in x lokal Lipschitz-stetig und es existiert der Clarkesche Gradient

f (y + λz) − f (y)
f ◦ (x; z) = lim sup .
y→x λ
λ→0+

Unter diesen Voraussetzungen ist außerdem die Funktion f ist im Punkt x regulär im Sinn
der Konvexen Analysis, d. h. f 0 (x; ·) = f ◦ (x; ·).
Das Subdifferential der eigentlichen konvexen Funktion f besteht im Punkt x aus allen
Subgradienten x∗ ∈ X ∗ , d. h.

∂f (x) = {x∗ ∈ X ∗ |f (z) − f (x) ≥ hx∗ , z − xi für alle z ∈ X}.

Für eine eigentliche konvexe Funktion f gilt ∂f (x) = ∂f 0 (x; 0) für alle x ∈ dom f . Ist f
eine eigentliche homogene konvexe Funktion und x 6= 0, dann ist

∂f (x) = {x∗ ∈ ∂f (0)|f (x) = hx∗ , xi}.

Mit ∂x f (x, y) bezeichnen wir das Subdifferential der Abbildung x → f (x, y).
208 Konvexe Analysis

C.2. Lokalkonvexe Funktionen


Es seien X, Y Banachräume. Eine auf X definierte Funktion G heißt im Punkt x0 lokalkon-
vex, wenn ihre Richtungsableitung in diesem Punkt existiert und x → G0 (x0 ; x) konvex ist.
Im Folgenden seien g : X → Y im Punkt x0 ∈ X Fréchet-differenzierbar und f : Y → R
eigentlich, konvex und im Punkt g(x0 ) stetig.

Lemma C.1. Die Funktion G : X → R, G(x) = f g(x) , besitzt in x0 eine klassische
Richtungsableitung, es gilt

G0 (x0 ; x) = f 0 g(x0 ); g 0 (x0 )x




und die Richtungsableitung konvergiert bezüglich jeder Richtung x gleichmäßig:



G(x0 + λz) − G(x0 ) 0

− G (x0 ; x) < ε für alle z ∈ U (x), 0 < λ < λ0 .
λ

Lemma C.2. Die Funktion G(x) = f g(x) ist in x0 regulär.

Beweis Nach Definition des lim sup existieren Folgen xn → x0 und λn → 0+ mit

G(xn + λn x) − G(xn )
lim = G◦ (x0 ; x).
n→∞ λn

Daher erhalten wir


 
◦ G(xn + λn x) − G(xn ) f g(xn + λn x) − f g(xn )
G (x0 ; x) = lim = lim
n→∞ λn n→∞ λn
 
f g(y + λx) − f g(y)
= f 0 g(x0 ); g 0 (x0 )x = G0 (x0 ; x).

≤ lim sup
y→x λ
λ→0+

Andererseits folgt unmittelbar die Relation

G(x0 + λx) − G(x0 ) G(y + λx) − G(y)


G0 (x0 ; x) = lim ≤ lim sup = G◦ (x0 ; x).
λ→0+ λ y→x λ
λ→0+

Beide Ungleichungen zeigen G0 (x0 ; ·) = G◦ (x0 ; ·). 

Satz C.3. (Kettenregel) Es seien g : X → Y im Punkt x0 ∈ X Fréchet-differenzierbar


und f : Y → R eigentlich, konvex und im Punkt g(x0 ) stetig. Dann ist die Funktion
G(x) = f g(x) im Punkt x0 regulär und es gilt

∂G(x0 ) = g 0∗ (x0 )∂f g(x0 ) .



Konvexe Analysis 209

 
C.3. Das Subdifferential der Funktion G x(·) = max g t, x(t)
t∈[t0 ,t1 ]

Es sei [t0 , t1 ] ⊂ R ein kompaktes Intervall. Im Raum C([t0 , t1 ], R) betrachten wir die
Funktion 
f x(·) = max x(t).
t∈[t0 ,t1 ]

Diese Funktion ist stetig, konvex und homogen. Das Subdifferential ∂f (0) besteht nach
Definition aus denjenigen signierten regulären Borelschen Maßen µ auf [t0 , t1 ], die der
Bedingung Z t1
max x(t) ≥ x(t) dµ(t) für alle x(·) ∈ C([t0 , t1 ], R)
t∈[t0 ,t1 ] t0
genügen. Hieraus folgt, dass das Maß µ nichtnegativ ist und kµk = 1 gilt, denn man erhält
für −x(t) nach obiger Ungleichung
Z t1

x(t) dµ(t) ≥ − max − x(t) = min x(t).
t0 t∈[t0 ,t1 ] t∈[t0 ,t1 ]
Z t1
Ist daher x(t) ≥ 0 für alle t ∈ [t0 , t1 ], so ist auch x(t) dµ(t) ≥ 0 und µ ist positiv.
t0
Weiterhin gehören alle µ ≥ 0 mit kµk = 1 zu ∂f (0), denn für diese ist die Relation
Z t1 Z t1 Z t1
max x(t) = max x(t) · dµ(t) = max x(t) dµ(t) ≥ x(t) dµ(t)
t∈[t0 ,t1 ] t∈[t0 ,t1 ] t0 t0 t∈[t0 ,t1 ] t0

für alle x(·) ∈ C([t0 , t1 ], R) erfüllt.


Offenbar ist auch umgekehrt, wenn µ ≥ 0 ist und Norm Eins hat, die Ungleichung
Z t1
max x(t) ≥ x(t) dµ(t)
t∈[t0 ,t1 ] t0

richtig. Somit haben wir das Subdifferential der Funktion f im Nullpunkt berechnet.

Für x(·) 6= 0 gilt für die eigentliche homogene konvexe Funktion f x(·) :
∂f x(·) = x∗ ∈ ∂f (0) hx∗ , x(·)i = f x(·) ,
  

wobei ∂f (0) die regulären


 Borelschen Maße mit kµk = 1 enthält. Wir zeigen, dass die
Maße µ ∈ ∂f x(·) auf den Mengen
 

T = τ ∈ [t0 , t1 ] x(τ ) = max x(t)

t∈[t0 ,t1 ]

konzentriert sind: Der Kürze halber bezeichne M das Maximum von x(t) auf [t0 , t1 ]. Die
Menge [t0 , t1 ] \ T ist offen, da T abgeschlossen ist. Angenommen, es existiert eine meßbare
Menge B ⊆ [t0 , t1 ] mit B ∩ T = ∅ und µ(B) > 0. Dann gilt
Z Z Z Z
x(t) dµ(t) < M dµ(t) ⇒ x(t) dµ(t) < M dµ(t),
B B [t0 ,t1 ]\T [t0 ,t1 ]\T
210 Konvexe Analysis

und damit folgt der Widerspruch


Z t1 Z Z
max x(t) = M dµ(t) = M dµ(t) + M dµ(t)
t∈[t0 ,t1 ] t0 T [t0 ,t1 ]\T
Z Z Z t1
> M dµ(t) + x(t) dµ(t) = x(t) dµ(t).
T [t0 ,t1 ]\T t0

Ist umgekehrt µ ≥ 0 und besitzt Norm Eins, dann gehört µ der Menge ∂f (0) an. Wenn µ
zusätzlich auf der Menge T konzentriert ist, dann ist auch
Z t1
max x(t) = x(t) dµ(t)
t∈[t0 ,t1 ] t0

erfüllt. Damit besteht das Subdifferential der Funktion f in einem vom Nullpunkt ver-
schiedenen Punkt x(·) aus den regulären Borelschen Maßen auf [t0 , t1 ], deren Norm gleich
Eins ist und die auf der Menge T konzentriert sind.
Es sei g(t, x) eine Funktion auf [t0 , t1 ] × Rn , die bezüglich beider Veränderlicher stetig und
für jedes t ∈ [t0 , t1 ] nach x stetig differenzierbar ist. D. h., dass die Abbildung gx (t, x) in
der Gesamtheit der Variablen stetig ist. Unter diesen Voraussetzungen ist die Abbildung

g̃ : C([t0 , t1 ], Rn ) → C([t0 , t1 ], R),


  
g̃ x(·) (t) = g t, x(t) , t ∈ [t0 , t1 ],

Fréchet-differenzierbar und es gilt


 0  

g̃ x(·) z(·) (t) = gx t, x(t) , z(t) , t ∈ [t0 , t1 ].

Weiterhin ist die Funktion f x(·) = max x(t) auf C([t0 , t1 ], R) stetig. Somit können wir
t∈[t0 ,t1 ]
zur Berechnung des Subdifferentials der Funktion G die Kettenregel (Satz C.3) anwenden:

∂G x(·) = g̃ 0∗ x(·) ∂f g̃ x(·) .


  

Für x∗ ∈ g̃ 0∗ x(·) ∂f g̃ x(·) und z(·) ∈ C([t0 , t1 ], Rn ) gilt dann:


 

Z t1
x∗ , z(·) = g̃ 0∗ x(·) µ, z(·) = µ, g̃ 0 x(·) z(·) =





gx t, x(t) , z(t) dµ(t).
t0

Daher besteht das Subdifferential der Funktion G im Punkt x(·) genau aus denjenigen
stetigen linearen Funktionalen x∗ , die die Darstellung
Z t1



x , z(·) = gx t, x(t) , z(t) dµ(t)
t0
  
besitzen, wobei das reguläre Borelsches Maß µ auf T = t ∈ [t0 , t1 ] g t, x(t) = G x(·)
konzentriert ist und kµk = 1 gilt.
Konvexe Analysis 211

 
C.4. Das Subdifferential der Funktion G x(·) = sup g t, x(t)
t∈R+

Im Raum C0 (R+ , R) betrachten wir die stetige, konvexe und homogene Funktion

f x(·) = sup x(t).
t∈R+

Das Subdifferential ∂f (0) besteht nach Definition aus denjenigen signierten regulären Bo-
relschen Maßen µ über R+ , die der Bedingung
Z ∞
sup x(t) ≥ x(t) dµ(t)
t∈R+ 0

für alle x(·) ∈ C0 (R+ , R) genügen. Damit ist das Maß µ nichtnegativ, aber im Gegensatz
zum Abschnitt C.3 erhalten wir lediglich kµk ≤ 1. Denn für die Funktion x(t) = −e−t ist
diese Ungleichung genau dann erfüllt, wenn kµk = 0 gilt.
Umgekehrt gilt, wenn µ ≥ 0 und kµk ≤ 1, die Ungleichung
Z ∞ Z ∞ Z ∞
sup ζ(t) ≥ sup ζ(t) · dµ(t) = sup ζ(t) dµ(t) ≥ ζ(t) dµ(t)
t∈R+ t∈R+ 0 0 t∈R+ 0

für alle ζ(·) ∈ C0 (R+ , R). Damit besteht das Subdifferential der Funktion f in x(·) = 0
aus allen regulären Borelschen Maßen mit kµk ≤ 1.

Für x(·) 6= 0 gilt für die eigentliche homogene konvexe Funktion f x(·) :

∂f x(·) = x∗ ∈ ∂f (0) hx∗ , x(·)i = f x(·) .


  

Wir müssen an dieser Stelle die Unterscheidung treffen, ob die Funktion x(·) ∈ C0 (R+ , R)
ein Maximum besitzt oder nicht. Die Funktion x(·) besitzt genau dann kein Maximum
über R+ , wenn x(t) < 0 für alle t gilt. In diesem Fall erhalten wir
Z
0 = sup x(t) = x(t) dµ(t) ⇔ kµk = 0.
t∈R+ R+

Nimmt die Funktion


  über R+ an, dann gilt kµk = 1 und µ ist auf der
x(·) ihr Maximum
Menge T = t ∈ R+ x(t) = f x(·) konzentriert.
Unter den Voraussetzungen des Kapitels 6 ist die Abbildung

g̃ : C0 (R+ , Rn ) → C0 (R+ , R),


  
g̃ x(·) (t) = g t, x(t) , t ∈ R+ ,

Fréchet-differenzierbar und es gilt

g̃ 0 x(·) z(·) (t) = gx t, x(t) , z(t) ,


  

t ∈ R+ .
212 Differentialgleichungen

Somit können wir zur Berechnung des Subdifferentials


 der Funktion G die Kettenregel

(Satz C.3) anwenden und erhalten für x ∈ ∂∂G x(·) :
Z ∞



hx , z(·)i = gjx t, x(t) , z(t) dµ(t).
0

Für das Maß µ müssen dabei folgende Fälle unterschieden werden:



(a) Ist g̃ x(·) = 0, so besitzt das Maß µ eine Totalvariation kµk ≤ 1.

(b) Ist g̃ x(·) 6= 0 und besitzt kein Maximum über R+ , so ist kµk = 0.

(c) Ist g̃ x(·) 6= 0 und besitzt
ein Maximum über R+ , so ist kµk = 1 und µ ist auf der
Menge T = t ∈ R+ g t, x(t) = G x(·) konzentriert.

D. Differentialgleichungen
Ein grundlegende Einführung zu Differentialgleichung liefert Heuser [35]. Bei Differential-
gleichung mit messbaren rechten Seiten verweisen wir auf Filippov [22]. Wir erweitern im
Folgenden die Darstellung zu linearen Differentalgleichungssysteme bei Ioffe & Tichomi-
rov [38] um einfache Eigenschaften über dem unbeschränkten Intervall R+ . Die Grundlage
dazu bildet die Gewichtsfunktion ν(·).

D.1. Lineare Differentialgleichungen


Wir befassen uns mit dem linearen Differentialgleichungssystem

ẋ(t) = A(t)x(t) + a(t).

Dabei sind A(t) ∈ Rn×n und a(t) ∈ Rn für alle t.

Lemma D.1. Es sei ν(·) ∈ W11 (R+ , R) positiv und monoton fallend mit t · ν(t) → 0 für
t → ∞. Ferner seien die Abbildungen A(·) und die Vektorfunktion a(·) auf R+ meßbar und
beschränkt. Dann existiert zu jedem ζ(·) ∈ C0 (R+ , Rn ) und jedem τ ∈ R+ eine eindeutig
bestimmte Vektorfunktion x(·) ∈ C0 (R+ , Rn ) derart, dass für alle t ∈ R+ die Gleichung
Z t 
ζ(t) = x(t) − ν(t) A(s)x(s) + a(s) ds
τ

erfüllt ist.

Beweis Der Operator T ,

 
Z t 
x(·) → T x(·) , T x(·) (t) = ζ(t) + ν(t) · A(s)x(s) + a(s) ds, t ∈ R+ ,
τ
Differentialgleichungen 213

bildet den Raum C0 (R+ , Rn ) in sich ab:


 
T x(·) (t) ≤ kζ(t)k + kA(·)kL∞ kx(·)k∞ + ka(·)kL∞ [t · ν(t)] → 0 für t → ∞.

Zur abkürzenden Schreibweise seien


Z t
c(t) = kA(t)k, C(t) = ν(s)c(s) ds, c0 = kA(·)kL∞ · kν(·)kL1 .
τ

Dabei gilt C(t) ≤ c0 für alle t ∈ R+ . Dann erhalten wir bei mehrfacher Anwendung des
Operators T für x1 (·), x2 (·) ∈ C0 (R+ , Rn ) die Beziehungen

Z t
 
T x1 (·) − x2 (·) (t) ≤ ν(t) c(s) ds · kx1 (·) − x2 (·)k∞
τ
Z t
≤ ν(s)c(s) ds · kx1 (·) − x2 (·)k∞ = C(t) · kx1 (·) − x2 (·)k∞
τ
Z t
 2   
T x1 (·) − x2 (·) (t) ≤ ν(t) c(s) T x1 (·) − x2 (·) (s) ds
τ
Z t
1
ν(s)c(s)C(s) ds · x1 (·) − x2 (·) ∞ = C 2 (t) · kx1 (·) − x2 (·)k∞ ,


τ 2
...
Z t
 m
c(s) T m−1 x1 (·) − x2 (·) (s) ds
  
T x1 (·) − x2 (·) (t) ≤ ν(t)
τ
Z t
C m−1 (t) C m (t)
≤ ν(s)c(s) ds · x1 (·) − x2 (·) ∞ = · kx1 (·) − x2 (·)k∞ .
τ (m − 1)! m!

In der Topologie des Raumes C0 (R+ , Rn ) gilt daher


m
T x1 (·) − x2 (·) ≤ c0 · kx1 (·) − x2 (·)k∞ .
m 
∞ m!
cm
Die Zahlen am = m!0
liefern eine Folge, deren Reihe konvergiert. Nach dem Fixpunktsatz
von Weissinger (Satz B.5) existiert daher genau ein x(·) mit x(·) = T x(·). 

Lemma D.2. Es seien die Abbildungen A(·) und die Vektorfunktion a(·) auf [t0 , t1 ] inte-
grierbar. Dann existiert zu jedem ζ(·) ∈ C([t0 , t1 ], Rn ) und jedem τ ∈ [t0 , t1 ] eine eindeutig
bestimmte Vektorfunktion x(·) ∈ C([t0 , t1 ], Rn ) derart, dass für alle t ∈ [t0 , t1 ] die Glei-
chung Z t
 
ζ(t) = x(t) − A(s)x(s) + a(s) ds
τ
erfüllt ist.

Beweis Verwende im Beweis von Lemma D.1 ν(t) ≡ 1 auf [t0 , t1 ] und c0 = kA(·)kL1 . 
214 Differentialgleichungen

Satz D.3. Es seien die Abbildung A(·) und die Vektorfunktion a(·) auf [t0 , t1 ] integrierbar.
Dann existiert zu jedem ζ ∈ Rn und jedem τ ∈ [t0 , t1 ] eine eindeutig bestimmte Lösung
x(·) der Gleichung
ẋ(t) = A(t)x(t) + a(t), x(τ ) = ζ.

Beweis Die Behauptung folgt unmittelbar aus Lemma D.2, wenn wir ζ(t) ≡ ζ setzen. 

D.2. Carathéodory-Gleichung, Existenz- und Eindeutigkeitssatz


Die Abbildung ϕ(t, x) genügt auf der Menge T × V ⊆ R × Rn einer Lipschitz-Bedingung
in x, wenn für alle (t, x), (t, x0 ) ∈ T × V die Ungleichung

kϕ(t, x) − ϕ(t, x0 )k ≤ Lkx − x0 k

mit einer Konstanten L > erfüllt ist. Die Abbildung ϕ(t, x) heißt lokal vom Lipschitz-Typ
in x, wenn jeder Punkt in eine Umgebung eingebettet werden kann, in der die Abbildung
ϕ(t, x) durch eine integrierbare Funktion beschränkt ist und einer Lipschitz-Bedingung in
x genügt. Die Abbildung ϕ(t, x) genügt auf T × V einer Carathéodory-Bedingung, wenn
für jedes t ∈ T die Abbildung x → ϕ(t, x) auf V stetig und für jedes x ∈ V die Abbildung
t → ϕ(t, x) auf T messbar ist.
Im Folgenden befassen wir uns mit dem nichtlinearen Differentialgleichungssystem

ẋ(t) = ϕ t, x(t) .

Erfüllt darin die Abbildung ϕ(t, x) eine Carathéodory-Bedingung, dann sprechen wir von
einer Carathéodory-Gleichung. Jede Lösung x(·) einer Carathéodory-Gleichung nennen
wir eine Lösung im Sinn von Carathéodory.

Satz D.4 (Existenz- und Eindeutigkeitssatz). In einem Gebiet Ω = T × V ⊆ R × Rn


sei die Abbildung ϕ(t, x) : Ω toRn definiert, in t messbar und in x lokal vom Lipschitz-
Typ. Dann lassen sich zu jedem Punkt (t0 , x0 ) ∈ Ω ein den Punkt t0 als inneren Punkt
enthaltendes Intervall T0 und eine Umgebung V0 von x0 angeben derart, dass T0 × V0 ⊆ Ω
gilt und zu jedem z0 ∈ V0 genau eine Lösung xz (t) im Sinn von Carathéodory der Gleichung
ẋ(t) = ϕ t, x(t) zur Anfangsbedingung x(t0 ) = z0 im Intervall T0 existiert.
Ist ferner z ∈ V0 und ist {zk } eine Folge aus V0 , die für k → ∞ gegen z konvergiert, so
konvergiert {xzk (t)} auf T0 gleichmäßig gegen xz (t).
Literatur 215

Literatur
[1] Arnold, L.: Wachstumstheorie. Franz Vahlen, München (1997).

[2] Arrow, K.J., Kurz, M.: Public Investment, the Rate of Return, and Optimal Fiscal
Policies. The Johns Hopkins Press, Baltimore (1970).

[3] Aseev, S.M., Kryazhimskii, A.V.: The Pontryagin Maximum Principle and Optimal
Economic Growth Problems. Proc. Steklov Inst. Math., 257, 1–255 (2007).

[4] Aseev, S.M., Veliov, V.M.: Maximum Principle for Infinite-Horizon Optimal Control
Problems with Dominating Discount. Dynamics of Continuous, Discrete and Impulsive
Systems, Series B, Vol. 19 1-2 (2012).

[5] Aseev, S.M., Veliov, V.M.: Needle variations in infinite-horizon optimal control. Va-
riational and Optimal Control Problems on Unbounded Domains, eds. G. Wolansky,
A.J. Zaslavski, Amer. Math. Soc. Contemporary Mathematics, 619 (2014).

[6] Aseev, S.M., Veliov, V.M.: Maximum principle for infinite-horizon optimal control pro-
blems under weak regularity assumptions. Trudy Inst. Mat. i Mekh. UrO RAN, 20,
no.3, 41–57 (2014).

[7] Barro, R.J., Sala-i-Martin, X.: Economic growth. McGraw Hill, New York (1995).

[8] Bauer, H.: Maß- und Integrationstheorie. 2. Auflage. Walter de Gruyter & Co., Berlin-
New York (1992).

[9] Bellman R.E.: Dynamic Programming. Princeton University Press (1957).

[10] Boltjanski, W.G.: Mathematische Methoden der Optimalen Steuerung. Akademische


Verlagsgesellschaft Geest & Portig K.-G., Leipzig (1971).

[11] Brodskii, Yu.I.: Necessary Conditions for a Weak Extremum in Optimal Control Pro-
blems on an Infinite Time Interval. Mat. Sb. (N.S.), Vol. 105(147), Number 3, 371–388
(1978).

[12] Carlson, D.A., Haurie, A.B., Leizarowitz, A.: Infinite Horizon Optimal Control.
Springer-Verlag, New York, Berlin, Heidelberg (1991).

[13] Clarke, F.: Optimization and Nonsmooth Analysis. John Wiley & Sons, New York
(1983).

[14] Clarke, F.H., Vinter, R.B.: Optimal multiprocesses. SIAM J. Control and Optimiza-
tion, 27, pp. 1072–1091 (1989).

[15] Clarke, F.H., Vinter, R.B.: Applications of Optimal Multiprocesses. SIAM J. Control
and Optimization, 27, pp. 1048–1071 (1989).
216 Literatur

[16] Dmitruk, A.V., Kaganovich, A.M.: The Hybrid Maximum Principle is a consequence
of Pontryagin Maximum Principle. Systems & Control Letters, Vol. 57, no. 11, p.
964–970 (2008).

[17] Dockner E., Feichtinger, G., Mehlmann, A.: Noncooperative Solutions for a Differen-
tial Game Model of Fishery. Journal of Economic Dynamics and Control 13, 1–20
(1989).

[18] Dorfman, R.: An economic interpretation of optimal control theory. AER 59, 817–831
(1969).

[19] Dubovitskii, A.Ya., Milyutin, A.A.: Extremum problems in the presence of restricti-
ons. USSR Computational Mathematics and Mathematical Physics, Volume 5, Issue
3, 1–80 (1965).

[20] Elstrodt, J.: Maß- und Integrationstheorie. Springer, Berlin, (1996).

[21] Feichtinger, G., Hartl, R.F.: Optimale Kontrolle ökonomischer Prozesse. de Gruyter;
Berlin - New York (1986).

[22] Filippov, A.F.: Differential Equations with Discontinuous Right-Hand Sides. Nauka,
Moscow, (1985), (Kluwer, Dordrecht, 1988).

[23] Galbraith, G.N., Vinter, R.B.: Optimal control of hybrid systems with an infinite set
of discrete states. Journal of Dynamical and Control Systems, 9, pp. 563–584 (2003).

[24] Gale, D.: On Optimal Development in a Multi-Sector Economy. RES 34, 1–18 (1967).

[25] Gamkrelidze, R.V.: Theorie zeitoptimaler Prozesses in linearen Systemen. Bull. Acad.
Sci. URSS, Ser. Math. 22 (1958) in russisch.

[26] Garavello, M., Piccoli, B.: Hybrid Necessary Principle. SIAM J. Control Optim., 43,
pp. 1867–1887 (2005).

[27] Girsanov, I.V.: Lectures on Mathematical Theory of Extremum Problems. Volume


67 of Lecture Notes in Economics and Mathematical Systems. Springer, Berlin-
Heidelberg-New York, (1972).

[28] Grass, D., Caulkins, J.P., Feichtinger, G., Tragler, G., Behrens, D.A.: Optimal Control
of Ninlinear Processes: With Applications in Drugs, Corruption and Terror. Springer,
Berlin, (2008).

[29] Halkin, H.: Nonlinear convex programming in an infinite dimensional space. Mathe-
matical theory of control, Academic Press, New York, 10–25 (1967).

[30] Halkin, H.: Necessary conditions for optimal control problems with infinite horizons.
Econometrica 42, 267–272 (1979).
Literatur 217

[31] Hartl, R.F., Sethi, S.P., Vickson, R.G.: A survey of the maximum principles for optimal
control problems with state constraints. SIAM Review 37 (2), 181–218 (1995).

[32] Hestenes, M.: Calculus of variations and the optimal control theory. Wiley, New-York-
London (1966).

[33] Heuser, H.: Lehrbuch der Analysis, Teil 1. 11. Auflage. B. G. Teubner Stuttgart 1994.

[34] Heuser, H.: Lehrbuch der Analysis, Teil 2. 11. Auflage. B. G. Teubner Stuttgart-
Leipzig-Wiesbaden 2000.

[35] Heuser, H.: Gewöhnliche Differentialgleichungen. 3. Auflage. B. G. Teubner Stuttgart


1995.

[36] Heuser, H.: Funktionalanalysis. 3. Auflage. B. G. Teubner Stuttgart 1992.

[37] Isaacs, R.: Differential Games. John Wiley & Sons, New York (1965).

[38] Ioffe, A.D., Tichomirov, V.M.: Theorie der Extremalaufgaben. VEB Deutscher Verlag
der Wissenschaften Berlin, (1979).

[39] Kufner, A.: Weighted Sobolev Spaces. John Wiley & Sons; Chichester, etc. (1985).

[40] Kurcyusz, S.: On the Existence and Nonexistence of Lagrange Multipliers in Banach
Spaces. Journal of Optimization Theory and Applications, 20 (1), 81–110 (1976).

[41] Lancaster, K.: The dynamic inefficiency of capitalism. Journal of Political Economy
81, 1092–1109 (1973).

[42] Ljusternik, L.A.: On Conditional Extremums of Functionals. Mat. Sb. 41, 390–401
(1934).

[43] Lykina, V.: Beiträge zur Theorie der Optimalsteuerungsprobleme mit unendlichem
Zeithorizont. PhD Thesis, BTU Cottbus (2010).

[44] Magill, M.J.P.: Pricing infinite horizon programs. J. Math. Anal. Appl. 88, 398–421
(1982).

[45] Mangasarian, O.L.: Sufficient Conditions for the Optimal Control of Nonlinear Sy-
stems. SIAM J. Control 4, 139–152 (1966).

[46] McShane, E.J.: On Multipliers for Lagrange Problems. American Journal of Mathe-
matics 61, 809–819 (1939).

[47] Michel, P.: On the Transversality Condition in Infinite Horizon Optimal Problems.
Econometrica 50, 975–985 (1982).
218 Literatur

[48] Natanson, I.P.: Theorie der Funktionen einer reellen Veränderlichen. Verlag Harri
Deutsch, Thun-Frankfurt/Main, (1981).

[49] Neustadt, L.W.: Optimization: A Theory of Necessary Conditions. Princeton, New


Jersey (1976).

[50] Pesch, H.J., Plail, M.: The Maximum Principle of optimal control: A history of inge-
nious ideas and missed opportunities. Control and Cybernetics 38 (2009).

[51] Pickenhain, S.: Hilbert Space Treatment of Optimal Control Problems with Infinite
Horizon. Bock, H.G., Phu, H.X., Rannacher, R., Schloeder, J.P.: Modeling, Simulation
and Optimization of Complex Processes – HPSC 2012, Springer, 169–182 (2014).

[52] Pickenhain, S., Lykina, V.: Sufficiency conditions for infinite horizon optimal control
problems. Seeger, A. (Ed.): Recent Advances in Optimization. Springer, Berlin etc.
(Lecture Notes in Economics and Mathematical Systems 563), 217–232 (2006).

[53] Pickenhain, S., Wenzke, D.: Transformation of Infinite Horizon Optimal Control Pro-
blems. Submitted (J. Convex Analysis).

[54] Plail, M.: Die Entwicklung der optimalen Steuerungen. Vandenhoeck & Ruprecht,
Göttingen (1998).

[55] Pontrjagin, L.S., Boltjanskij, V.G., Gamkrelidze, R.V., Misčenko, E.F.: Mathemati-
sche Theorie optimaler Prozesse. R. Oldenbourg, München-Wien, (1964).

[56] Ramsey F.P.: A Mathematical Theory of Saving. Econ. J. 38, 543–559 (1928).

[57] Rockafellar, R.T.: Convex Analysis. Princeton University Press, Princeton, New Jer-
sey (1970).

[58] Rudin, W.: Real and Complex Analysis. McGraw Hill, 3rd ed., (1987).

[59] Seierstad, A.: A Maximum Principle for Smooth Infinite Horizon Optimal Control
Problems with State Constraints and with Terminal Constraints at Infinity. Open
Journal of Optimization, 4, 100–130 (2015).

[60] Seierstad, A., Sydsæter, K.: Sufficient Conditions in Optimal Control Theory. Inter-
national Economic Review, Vol. 18, No. 2 (1977).

[61] Seierstad, A., Sydsæter, K.: Optimal Control Theory with Economic Applications.
North-Holland Amsterdam-New York-Oxford-Tokyo, (1987).

[62] Sethi, S.P., Thompson, G.L.: Optimal Control Theory. Applications to Management
Science and Economics. Kluwer, Boston-Dordrecht-London, 2nd ed. (2000).
Literatur 219

[63] Shaikh, M.S.: Optimal control of hybrid systems: Theory and algorithms. Ph.D. dis-
sertation, Department of Electrical and Computer Engineering, McGill University,
Montreal, Canada, May 2004.

[64] Shaikh, M.S., Caines, P. E.: On the hybrid optimal control problem: Theory and algo-
rithms. IEEE Transactions on Automatic Control, 52, pp. 1587–1603, 2007.

[65] Sussmann, H.J.: A nonsmooth hybrid maximum principle. Stability and Stabilizati-
on of Nonlinear Systems. Lecture Notes in Control and Information Sciences 246,
Springer, pp. 325–354, London 1999.

[66] Tauchnitz, N.: Das Pontrjaginsche Maximumprinzip für eine Klasse hybrider Steue-
rungsprobleme mit Zustandsbeschränkungen und seine Anwendung. PhD Thesis,
Cottbus (2010).

[67] Tauchnitz, N.: The Pontryagin Maximum Principle for Nonlinear Optimal Control
Problems with Infinite Horizon. Journal of Optimization Theory and Applications
(2015).

[68] Vinter, R.B.: Optimal Control. Birkhauser (2000).

[69] Von Weizsaecker, C.C.: Existence of optimal programs of accumulation for an infinite
time horizon. Review of Economic Studies 32, 85–92 (1965).

[70] Werner, D.: Funktionalanalysis. Springer-Verlag Berlin-Heidelberg-New York, (1995).

[71] Young, L.C.: Generalized curves and the existence of an attained absolute minimum
in the calculus of variations. C. R. Acad. Soc. Sci. et Lettr., Varsovie 3:30, 212–234
(1937).
Symbolverzeichnis 221

Symbolverzeichnis
R+ – unendlicher Zeithorizont [0, ∞)
ω(·) – Dichtefunktion 136
ν(·) – Gewichtsfunktion 137
Cb (I, Rn ) – Raum der beschränkten stetigen Funktionen 199
C(I, Rn ) – Raum der stetigen Funktionen 199
C0 (R+ , Rn ) – im Unendlichen verschwindende stetige Funktionen 199
C1 (I, Rn ) – Raum der stetig differenzierbaren Funktionen 199
Lp (I, Rn ) – Lebesgue-Raum 200
Lp (I, Rn ; ν) – gewichteter Lebesgue-Raum 200
Wp1 (I, Rn ) – Sobolev-Rraum 200
Wp1 (I, Rn ; ν) – gewichteter Sobolev-Raum 200
k·k – Euklidische Norm
k · k∞ – Supremumsnorm
k · kLp – Lp −Norm
k · kLp (ν) – gewichtete Lp −Norm 200
k · kWp1 – Wp1 −Norm
k · kWp1 (ν) – gewichtete Wp1 −Norm
f 0 (x; z) – Richtungsableitung 207
f ◦ (x; z) – Clarkescher Gradient 207
∂f (x) – Subdifferential der Funktion f 207
∂x f (x, y) – Subdifferential der Abbildung x → f (x, y) 207
conv C – konvexe Hülle der Menge C
H – Pontrjagin-Funktion
H – Hamilton-Funktion
L – Lagrange-Funktion
Sachverzeichnis 223

Sachverzeichnis
Abbildung, beschränkte 200 Fundamentallemma
–, Fréchet-differenzierbare 201 – von du Bois-Reymond 13
–, Gâteaux-differenzierbare 201 – von Lagrange 13
–, offene 202 Funktion, absolutstetige 198
–, reguläre 201 –, eigentliche 207
–, stetig differenzierbare 201 –, homogene 207
–, stetige 200 –, isoelastische Nutzen- 16
– vom Lipschitz-Typ 214 –, konvexe 207
Ableitung, Fréchet- 201 –, lokalkonvexe 208
–, Gâteaux- 201 –, reguläre 207
–, Richtungs- 207 –, totale Variation einer 197
Adjungierte 21, 56 –, Treppen- 196
–, eindeutige Darstellung 154, 162 – von beschränkter Variation 197
adjungierte Gleichung 21, 34, 46, 52, 71, –, normalisierte 197
87, 107, 112, 114, 141, 161, 175
Gewichtsfunktion ν(·) 137, 140, 160
adjungierter Operator 202
Goddard-Problem 2
Banachraum 199 Grundaufgabe der Variationsrechnung 11
Bolza-Aufgabe 18
Hilbertraum 199
Borelmengen 196
hinreichende Bedingungen
Borelsches Maß 196 – nach Arrow 83, 95, 172, 183
Brachistochrone 1, 9, 10 – nach Mangasarian 47, 156
Höldersche Ungleichung 200
Caratheodory-Bedingung 214
Cauchy-Schwarzsche Ungleichung 199 Investitionsmodell 35, 117
Clarkescher Gradient 207 Isoperimetrisches Problem 30

Darstellungssatz von Riesz 203 Kapitalakkumulation 16, 35, 117


Dichtefunktion ω(·) 136, 140, 160 Kapitalismusspiel 57
Differentialspiel 57, 71, 163 Kettenlinie 32
Dualraum 201 k-fache Zerlegung 110
Kompartimentmodelle 119
Euler-Lagrangesche Gleichung 12, 14
Extremalaufgabe 10 Lagerhaltung 88, 98
Extremale 12 Lagrange-Aufgabe 9, 20
–, geknickte 34 Lagrangesches Prinzip 22
Extremalprinzip 27, 39, 74, 149, 168, 179 Lebesgue-Integral 197
Lebesguescher Punkt 197
Finite-Horizont-Approximation 124 Lösung im Sinn von Carathéodory
Fischereimodell 71, 163 214
224 Sachverzeichnis

Maß 195 –, Sobolev-Raum 200


–, Borelsches 196 –, gewichteter 200
–, reguläres 195 – stetig differenzierbarer Funktionen
–, σ-additives 195 199
–, σ-endliches 195 – stetiger Funktionen 199
–, signiertes 195 Ressourcenabbau 175, 185
– totale Variation eines 195
Minimum, schwaches lokales 11, 20, 33, Satz, Darstellungssatz von Riesz 203
43, 140 –, Fixpunktsatz von Weissinger 202
–, starkes lokales 50, 52, 70, 87, 104, –, Trennungssatz 202
112, 114, 161 – vom abgeschlossenen Bild 202
µ-Integral 196 – von der offenen Abbildung 202
µ-integrierbar 196 – von Hahn-Banach 201
Multiprozess 109 – von Ljusternik 205
–, k-fache Zerlegung 110 – von Lusin 197
–, Wechselstrategie 109 Schattenpreis 56, 103
µ-Nullmenge 195 Schwaches Optimalitätsprinzip 34, 46, 141
–, normale Form 154
Nadelvariation, einfache 50, 53, 131 σ-Algebra 195
–, mehrfache 61, 164 –, erzeugte 196
–, Trägerfamilien 61 Speichermanagement eines Wasserkraft-
Nash-Gleichgewicht 57, 71, 163 werkes 101
Nutzenfunktion, isoelastische 16 Steuerungsproblem, Standardgestalt 3
Stieltjes-Integral 198
Operatornorm 201 Subdifferential 207
optimal, catching up 125
–, global 124 totale Variation, einer Funktion 197
–, overtaking 125 – eines Maßes 195
–, sporadically catching up 125 Transversalitätsbedingungen 21, 34, 46,
–, streng global 124 71, 87, 107, 113, 114
–, natürliche 141, 161, 175
Pontrjaginsches Maximumprinzip 52, 70, – von Michel 141, 162, 175
87, 107, 112, 114, 161, 174 Treppenfunktion 196
–, normale Form 162
–, ökonomische Interpretation 56 Vorsorgemodell 22, 48
Problem der Dido 1
Wechselstrategie 109
Produktionsplanung 85
Wirtschaftswachstum und Umweltschutz
quadratischer Regler 142, 154, 157 98

Raum
–, Lebesgue-Raum 200
–, gewichteter 200