Beruflich Dokumente
Kultur Dokumente
Cumali Oruc
01.07.2014
Kapitel IV (Teil I)
In diesem Kapitel verallgemeinern wir unsere Ergebnisse aus Kapitel 2 und 3, in dem wir
uns nicht mehr nur auf die Linearitt beschrnken. Dieser Teil des Kapitels ist in fnf Unterkapitel unterteilt. Die ersten vier Unterkapitel von Kapitel IV dienen uns als Vorarbeit fr
das Pontryaginsche Maximums-Prinzip, welches wir erst im letzten Unterkapitel behandeln
werden. Der erste Unterkapitel handelt von der Variationsrechnung und der Euler-LagrangeDifferentialgleichung, der darauffolgende von der Hamiltonschen Dynamik und anschlieend
ein kleines Beispiel. Dann beschftigen wir uns mit Lagrange-Multiplikatoren und der Optimierung unter Nebenbedingungen. Und zu guter Letzt nehmen wir uns das Pontryaginsche
Maximums-Prinzip vor.
(
)
dt
0
f
1
Die Methoden der Variationsrechung, die wir betrachten werden, haben ihren Ursprung in dem
2. Grundproblem der Variationsrechnung. Dieses Problem besteht darin eine Kurve x ()
X zu finden, welche das Funktional I minimiert.
Die Frage ist nun: Was knnen wir ber x () sagen, bzw. wie lsst sich x () charakterisieren?
Auf diese Frage knnen wir mit dem nchsten Satz, der uns eine notwendige Bedingung liefert,
eine Antwort geben. Bevor wir zum besagten Satz kommen, betrachenten wir aber die unten
aufgefhrten
3. Definitionen und Notationen. (i) Zuerst erinnern wir an folgende Notationen:
Lxi (x, v) :=
L(x, v)
L(x, v)
und Lvi (x, v) :=
f ur alle i {1, ..., n}
xi
vi
(
)
und fordern zudem, dass y() Y beliebig aber fest ist. Als nchstes konstruieren wir die
Funktion
h
i
i() : R R, 7 i( ) := I x () + y()
Wir zeigen jetzt, dass diese Funktion in = 0 ihr Minimum annimmt (wir verwenden dabei,
die Voraussetzung dieses Satztes, nmlich dass x () das Funktional I minimiert):
h
i
h
i
h
i
i( ) = I x () + y() I x () = I x () + 0 y() = i(0) R
2
Da i in = 0 also minimal ist, muss fr i somit gelten, dass die notwendige Bedingung i(0) = 0
(Analysis I) erfllt ist.
(ii) Nun berechnen wir i( ) R und betrachten dann erneut i(0). Wir definieren zuerst
z (t) := x (t) + y(t) und berechnen damit i( ):
h
i( ) = I x () + y()
= I z ()
T
= L z (t) , z (t) dt
0
Offensichtlich gilt:
d
d
z (t) , z (t) =
x (t) + y(t) , x (t) + y(t)
= y(t) , y(t)
d
d
Daher gilt nun (Kettenregel):
d
i ( ) =
d
0
T
L z (t) , z (t) dt
0
T
=
d
L z (t) , z (t)
z (t) , z (t)
dt
d
T
=
L z (t) , z (t) y(t) , y(t)
dt
0
T
=
dt
T
=
x L z (t) , z (t) y(t) + v L z (t) , z (t) y(t)
dt
0
T X
n
0
X
n
i=1
i=1
T X
n
0
L xi
L xi
i=1
n T
X
=
Lxi z (t) , z (t) yi (t) + Lvi z (t) , z (t) yi (t) dt
i=1 0
n T
X
=
L xi
x (t) + y(t) , x (t) + y(t)
yi (t)
i=1 0
+ Lvi
x (t) + y(t) , x (t) + y(t)
yi (t) dt
Im vorletzten
Schritt
haben
wir
eine
Verallgemeinerung
der
Additionsregel
fr
Integrale
(
f1 +
und damit:
0
0 = i (0) =
n T
X
Lxi
0
0
z (t) , z (t) yi (t) + Lvi z (t) , z (t) yi (t) dt
Lxi
i=1 0
n T
X
i=1 0
Diese Gleichung gilt fr alle y() Y da wir dies als beliebig angenommen hatten.
(iii) Zum Schluss leiten wir aus obiger Aussage die Behauptung her. Sei zuerst ein beliebiges
j {1, ..., n} gegeben. Dann definieren eine Funktion :
: [0, T ] R , t 7 (t) mit (0) = (T ) = 0
Zu guter Letzt konstruieren wir ein y() Y folgendermaen:
yi (t) 0 f ur alle i 6= j und yj (t) = (t)
Wegen (0) = (T ) = 0 gilt nach partieller Integration:
T
(t)dt
= Lvj x (t), x (t)
iT T d
(t)
Lvj x (t), x (t)
(t) dt
dt
0
T
=
d
0=
Lxi x (t), x (t) yi (t) + Lvi x (t), x (t) yi (t) dt
i=1 0
T
L xj x
(t), x (t)
yj (t) + Lvj x
(t), x (t)
yj (t) dt
T
=
Lxj
T
T
=
Lxj
T
d
T
=
d
T
d
=
Lxj x (t), x (t)
Lvj x (t), x (t)
(t) dt
dt
0
d
Lv > 0 t E
dt j
4
T
Lxj
d
x (t), x (t)
Lvj x (t), x (t)
(t) dt > 0
dt
Dies ist ein Widerspruch zur Gleichheit des Integrals mit 0. Daher folgt:
d
H(x, p)
H(x, p)
und Hpi (x, p) :=
f ur alle i {1, ..., n}
xi
pi
f
Fr den kommenden Satz werden wir die folgende Annahme bentigen:
5
v(, ) : R R R : x, p R :
p = v L(x, v) v = v(x, p)
f
Nun kommen wir zur eigentlichen Aussage dieses Unterkapitels:
8. Satz (Hamiltonsche Dynamik). Sei x() eine Lsung
der Euler-Lagrange Differentialgle
ichung und sei p() wie in 5 definiert. Dann lst x() , p() die hamiltonsche Differentialgleichung (H)
x(t)
= p H x(t) , p(t)
p(t)
= x H x(t) , p(t)
Insbesondere ist die Abbildung t 7 H x(t) , p(t) konstant.
Beweis: (i) Zuerst zeigen wir die erste Gleichung. Wegen der Definition der Hamiltonfunktion
gilt
x H(x, p) = x p v(x, p) x L x , v(x, p)
= p x v(x, p) L x , v(x, p) x x , v(x, p)
(1)
= p x v(x, p) x L x , v(x, p) , v L x , v(x, p)
x x , x v(x, p)
= p x v(x, p) x L x , v(x, p) v L x , v(x, p) x v(x, p)
(2)
= p x v(x, p) x L x , v(x, p) p x v(x, p)
(3)
= x L x , v(x, p)
p
Wir haben dabei folgendes benutzt:
(1) Kettenregel
(2) x x = E (Einheitsmatrix)
(3) nach 7 ist fr alle x, p Rn die Gleichung p = v L(x, v) eindeutig lsbar nach v = v(x, p),
d.h. es gilt:
v L x, v(x, p) = v L(x, v) = p
x
Daraus knnen wir folgern, dass
d
v L x(t) , x(t)
= x L x(t) , x(t)
p(t)
=
Def. dt
(4)
= x L x(t) , v x(t) , p(t)
= x H x(t) , p(t)
(5)
(6)
p
wobei:
(4) Euler-Lagrange-Gleichung
(5) Hypothese :
p(t) = v L x(t) , x(t)
x(t)
= v x(t) , p(t)
6
= x H x(t) , p(t)
(ii) Nun zeigen wir die andere Gleichung. Es gilt:
p H(x, p) = v(x, p) + p p v(x, p) p L x , v(x, p)
(7)
= v(x, p) + p p v(x, p) L x , v(x, p) p x , v(x, p)
(1)
= v(x, p) + p p v(x, p) x L x , v(x, p) , v L x , v(x, p)
0 , p v(x, p)
(8)
= v(x, p) + p p v(x, p) v L x , v(x, p) p v(x, p)
= v(x, p)
(3)
p
Bei dieser Folgerung haben wir die unten aufgefhrten Regeln verwendet:
(7) Produktregel
(8) p x = 0 (Nullmatrix)
x
Also folgt p H(x, p) = v(x, p) und somit haben wir
p H x(t) , p(t) = v x(t) , p(t)
Wegen der Hypothese bzw. (5) knnen wir schlielich folgern, dass
x(t)
= p H x(t) , p(t)
(iii) Zu guter Letzt gilt:
d
d
H x(t) , p(t) = H x(t) , p(t)
x(t) , p(t)
dt
dt
= x H x(t) , p(t) , p H x(t) , p(t)
x(t)
, p(t)
= x H x(t) , p(t) x(t)
+ p H x(t) , p(t) p(t)
= x H x(t) , p(t) p H x(t) , p(t) + p H x(t) , p(t) x H x(t) , p(t)
=0
Damit ist die Abbildung t 7 H x(t) , p(t) konstant.
Im nchsten Unterkapitel wenden wir den gerade bewiesenen Satz und die Euler-LagrangeGleichung auf ein physikalisches Beispiel an.
10. Rechnungen und Folgerungen. Aus obiger Definition knnen wir sofort folgern, dass
x L x(t) , v(t) = x V x(t) = V x(t) und v L x(t) , v(t) = m v(t)
Wegen v(t) = x(t)
= x L x(t) , x(t)
= x V x(t)
= F x(t)
mx
(t) = p(t)
=
dt
Dies ist das zweite Newtonsche Gesetz: Kraf t = M asse Beschleunigung, wobei die Kraft
meistens mit F bezeichnet wird. brigens wird p() als Impuls bezeichnet. Wegen v(t) =
ist die Hamiltonfunktion dann
x(t)
= p(t)
m
p(t)2
p(t)
p(t) p(t)2 m p(t) 2
H x(t) , p(t) = p(t)
L x(t) ,
=
+V x(t) =
+V x(t)
m
m
m
2
m
2m
was der Summe aus potentieller und kinetischer Energie entspricht. Mit der hamiltonschen
Dynamik gilt dann
x(t)
gilt f (x ) = 0.
Beweis: Siehe Vorlesung zur Analysis 2.
Allgemein treten bei Optimierungs-Problemen aber sehr hufig Nebenbedingungen auf. Die
Variations- und Optimierungstheorie verfolgt dabei zwei Grundprinzipien, nmlich
Bedingungen bringen neue Lagrange-Multiplikatoren und
Bedingungen enthalten verwertbare Informationen.
Damit wir nun zur Optimierung unter Nebenbedingungen bergehen knnen machen wir die
12. Definition und Annahme. (i) Sei h() : Rn R, x 7 h(x) eine differenzierbare Funktion. Dann definieren wir die Menge
)
(
D := x Rn h(x) 0
(ii) Sei f () : Rn R, x 7 f (x) eine glatte Funktion. Dann nehmen wir ab jetzt an, dass
x D und
f (x ) = maxf (x)
xD
f
Die Frage, der wir nun nachgehen ist: Lsst sich x D mit Hilfe der Gradienten darstellen
und wenn ja, wie?
13. Satz (Lagrange Multiplikatoren). Seien f () und x wie in 12 und sei g() : D
R, x 7 g(x) := h(x). Dann gilt
, R : 6= 0 6= 0 f (x ) = g(x )
Beweis: Wir machen eine Fallunterscheidung:
1. Fall: x D.
Hier ist x eine lokale Extremstelle, also gilt nach 12 , dass f (x ) = 0. Daraus folgt
1 f (x ) = f (x ) = 0 = 0 g(x )
Damit haben wir:
, R : 6= 0 6= 0 f (x ) = g(x )
Zudem betrachten wir nun ein Bild ber den Gradienten von f am Rand von D. ber den
Gradienten am Rand wissen wir hier nicht viel. Im Allgemeinen steht der Gradient hier nicht
senkrecht:
2. Fall: x D = x Rn h(x) = 0 .
Hier knnen wir nicht sagen, dass f (x ) = 0. Fr n = 1 kann man sich dies mit folgendem
Bild leicht klarmachen:
(
Was wir aber sagen knnen ist, dass der Gradient von g senkrecht zu D steht, da es hier sein
Maximum annimmt. Damit ist folgende Grafik gerechtfertigt:
Wir zeigen nun durch einen Widerspruchsbeweis, dass f (x ) senkrecht auf D steht:
Angenommen f (x ) steht nicht senkrecht auf dem Rand. Dann wrde es (mit dem Satz ber
implizit definierte Funktionen) ein ein y D, sodass f (x ) < f (y ). Dies steht im Wider10
spruch dazu, dass f (x ) = maxf (x). Daher muss f (x ) senkrecht auf dem Rand stehen.
xD
Damit muss f (x ) aber auch Parallel zu g(x ) verlaufen (falls g(x ) 6= 0), d.h.
R : f (x ) = g(x )
Siehe dazu folgende Graphik:
(
)
(iii) Eine Dynamik oder ein dynamisches System wird beschrieben durch die Differntialgleichung
x(t)
= f x(t) , (t)
x(0) = x0
(ODE)
g() : Rn R , x 7 g(x)
(P)
(vii) Zum Schluss wird die Hamiltonf unktion der Steuerungstheorie konstruiert:
(H)
f
15. Grundproblem. Das Grundproblem dieses Themas ist es eine optimale Steuerung ()
zu finden, so dass wir die Auszahlungsfunktion maximieren zu knnen, d.h. so dass gilt
h
i
h
i
P () = max P () .
()A
f
Bemerkungen: Die Differentialgleichung (ODE) ist eine zustzliche Beschrnkung fr die Kurven x(). Wir bearbeiten zwei Varianten dieses Grundproblems. In der ersten Variante betrachten wir weiterhin einen festen Endzeitpunkt t = T . Die Bedingung x(T ) = x1 wird hier aber
nicht mehr gefordert. Zum Zeitpunkt t = T betrachten wir also einen freien Endpunkt, d.h.
(im Allgemeinen) xa (T ) = xa 6= xb = xb (T ). Zur anderen Variante spter mehr.
16. Satz (Pontryaginsche-Maximums-Prinzip mit fixem Zeitpunkt- und freiem Endpunktproblem). Sei optimal fr (ODE) und (P ) und sei x die zugehrige Trajektorie. Dann gibt
es eine Kurve (Kostatus) p () : [0, T ] Rn , t 7 p (t), so dass folgende Gleichungen gelten:
x (t) = p H x (t) , p (t), (t) ,
(ODE)
p (t) = x H x (t) , p (t), (t) ,
(ADJ)
(M)
(T)
n
X
p (t)
fxji
j=1
(P)
f
Bemerkung: Wir betrachten hier also Kurven x() die einen Festen Vektor x1 annehmen. Jedoch
wird hier nicht gefordert, dass dies zum Zeitpunkt t = T geschehen muss. Im Allgemeinen
ist
h
i
Literatur
http://math.berkeley.edu/~evans/control.course.pdf
13