Sie sind auf Seite 1von 151

Numerik gew

ohnlicher Differentialgleichungen
Bernd Simeon

Erweitertes Skriptum zur Vorlesung im Wintersemester 2012/13


TU Kaiserslautern, Fachbereich Mathematik

1. Differentialgleichungsmodelle in Naturwissenschaft und Technik

2. Exkurs in die Theorie gewohnlicher Differentialgleichungen

3. Einschritt- und Extrapolationsverfahren

4. Mehrschrittverfahren

5. Numerik steifer Differentialgleichungen

6. Stochastische Differentialgleichungen

7. Numerische Losung von Randwertproblemen

Literatur:
Deuflhard/Bornemann: Numerische Mathematik II,
3. Auflage; Walter de Gruyter, Berlin 2002
Hairer/Norsett/Wanner: Solving Ordinary Differential Equations I,
2. Auflage, Springer, Heidelberg 1993
Stoer/Bulirsch: Numerische Mathematik II, 4. Auflage, Springer, Berlin 2000
Strehmel/Weiner: Numerik gewohnlicher Differentialgleichungen,
Teubner, Stuttgart 1995
Vorwort

Dieses erweiterte Skriptum fasst den Stoff der Vorlesung Numerik


gewohnlicher Differentialgleichungen fur Studierende der Mathema-
tik, Technomathematik und Finanzmathematik zusammen. Es basiert
auf einer 4-stundigen Vorlesung, die ich mehrmals an der TU Munchen
gehalten habe.
Bei der Stoffauswahl liegt der Schwerpunkt auf Einschrittverfahren,
wobei die Problematik steifer Differentialgleichungen einen breiten
Raum einnimmt. Das Kapitel 6 geht gezielt auf neuere Entwicklungen
ein und gibt eine Einfuhrung in stochastische Differentialgleichungen.

Kaiserslautern, im Oktober 2012 Bernd Simeon


Kapitel 1
Differentialgleichungsmodelle
in Naturwissenschaft und Technik

Inhalt dieser Vorlesung ist die numerische Losung eines Systems gewohnlicher
Dierentialgleichungen
y (x) = f (x, y(x)) (1.1)
bzw. ausgeschrieben in Komponenten
y1 (x) = f1 (x, y1 (x), . . . , yn (x)),
y2 (x) = f2 (x, y1 (x), . . . , yn (x)),
.. ..
. .
yn (x) = fn (x, y1 (x), . . . , yn (x)).
Man unterscheidet dabei zwischen Anfangswertproblemen und Randwert-
problemen. Bei ersteren fordert man
y(x0 ) = y0
an einer Stelle x0 , bei letzteren dagegen
r(y(a), y(b)) = 0
mit einer vorgegebenen Funktion r und einem Intervall [a, b].

Bevor wir die Problemklasse naher analysieren, wollen wir in diesem Ka-
pitel einige Beispiele aus Naturwissenschaft und Technik kennenlernen. Als

1
erstes wird die chemische Reaktionskinetik behandelt, danach folgt die Me-
chanik starrer Korper, und abschlieend werden elektrische Schaltkreise ein-
gefu
hrt. In allen drei Beispielen verwendet man mathematische Modelle, um
einen realen Vorgang zu beschreiben. Ohne Vereinfachungen und Model-
lannahmen ist dies im Allgemeinen nicht moglich, doch wird man von ei-
nem vernu nftigen Modell verlangen, dass es die interessierenden Phanomene
bzw. Eekte hinreichend gut widerspiegelt.

1.1 Chemische Reaktionskinetik

Die Reaktionskinetik beschreibt den zeitlichen Ablauf chemischer Reaktio-


nen, und zwar auf einer Makroebene. Man interessiert sich nicht fu r das
Verhalten einzelner Moleku
le, sondern fu
r Stokonzentrationen in einem Re-
aktionsgefa und nimmt an, dass sie dem Massenwirkungsgesetz (bzw. Ver-
einfachungen daraus) unterliegen.

Betrachten wir dazu zwei Gase A und B unter den Annahmen konstan-
ter Druck, konstantes Volumen und konstante Temperatur. Im Fall einer
monomolekularen Reaktion
k
A B
mit Reaktionsgeschwindigkeit k gilt fu
r die zeitliche Anderung der Konzen-
trationen [A] und [B]
d = k[A], = k[A]
[A] = [A] [B]
dt
Die Exponentialfunktion als Losung beschreibt also den zeitlichen Verlauf
+ [B]
der Reaktion. Wegen [A] = 0 folgt [A] + [B] = konstant, was man als
Massenerhaltung bezeichnet.

Komplexer und in der Anwendung bedeutsamer sind bimolekulare Reaktio-


nen. Das Reaktionsschema lautet hier
k
A + B C + D

2
mit Substanzen A, B, C, D. In diesem Fall ergeben sich die Dierentialglei-
chungen fu
r die Konzentrationen zu
= k[A][B],
[A] = k[A][B],
[B]
= k[A][B], = k[A][B]. (1.2)
[C] [D]
Im allgemeinen Fall liegen insgesamt n Substanzen sowie m Reaktionen
zwischen ihnen vor,

n
kj
n
ij Ai ij Ai , j = 1, . . . , m.
i=1 i=1

Dabei bezeichnen die ganzen positiven Zahlen ij , ij die Anteile der Sub-
stanzen (stochiometrische Konstanten) und die reellen Parameter kj die
unterschiedlichen Reaktionsgeschwindigkeiten. Als Dierentialgleichung fur
die Konzentration der Substanz Ai hat man dann

m
n
[A i ] = (ij ij )kj [Al ]lj , i = 1, . . . , n. (1.3)
j=1 l=1

Die Vorschrift (1.3) stellt ein allgemeines Schema dar, um Dierentialglei-


chungsmodelle fur chemische Reaktionen zu erzeugen. Charakteristisch ist
dabei die polynomiale rechte Seite.
Beispiel 1.1: Brusselator (Lefever/Nicolis 1971)

Gegeben sind n = 6 Substanzen A, B, D, E, X, Y und die m = 4 Uberg
ange
k k
A
1
X, B + X
2
Y + D,
k k
2X + Y
3
3X, X
4
E

mit Reaktionsgeschwindigkeiten k1 , . . . , k4 . Anwendung der Regeln f


ur mono- und bimolekulare
Reaktionen ergibt (ohne [] Notation)

A = k1 A, X = k1 A,
B = k2 BX, X = k2 BX,
Y = k2 BX, D = k2 BX,
X = k4 X, E = k4 X.

Die dritte Reaktion ist autokatalytisch trimolekular und liefert nach der allgemeinen Regel (1.3)
die Beitrage
X = k3 X 2 Y, Y = k3 X 2 Y.

3
Mit Sortieren nach Unbekannten und Aufsummieren der rechten Seiten folgen die gekoppelten
Dierentialgleichungen

A = k1 A,
B = k2 BX,
D = k2 BX, (1.4)
E = k4 X,
X = k1 A k2 BX + k3 X 2 Y k4 X,
Y = k2 BX k3 X 2 Y.

Fazit: Ein nichtlineares Dierentialgleichungssystem mit polynomialer rechter Seite!


Analytische Losung?

Als Vorbereitung fur die Diskussion als dynamisches System in Kapitel 2 werden die Gleichungen
(1.4) vereinfacht: Die Dierentialgleichungen fur D und E werden weggelassen (warum?), A und
B werden als konstant angenommen. Wir setzen ki = 1, schreiben x statt t f ur die unabhangige
Variable sowie y1 (x) := X(x), y2 (x) := Y (x).
(Notationsvereinbarung: y(t) mit Zeit t : dt d
y = y, d
y(x) mit unabh. Var. x : dx y = y)

Ubrig bleibt das sogenannte Brusselatormodell (woher stammt der Name?)

y1 = A + y12 y2 (B + 1)y1 ,
(1.5)
y2 = By1 y12 y2 ,

das eine hochinteressante nichtlineare Dynamik aufweist, s.u.

1.2 Mechanische Mehrk


orpersysteme

Fahrzeuge, Roboter, Satelliten und eine Vielzahl weiterer Anwendungen aus


der Mechanik lassen sich als sogenannte Mehrkorpersysteme modellieren.
Man fasst dabei das System auf als einen Verbund starrer, massebehafteter
Korper, die u
ber masselose Verbindungselemente in Wechselwirkung ste-
hen. Verbindungselemente sind Federn, Dampfer, Gelenke und Stellglieder
(Aktuatoren).

Die Bewegung solcher Systeme wurde schon von Euler und Lagrange unter-
sucht, und auf diese beiden beru
hmten Mathematiker geht auch der Kalku l
zuru
ck, mit dem man die zugehorigen Dierentialgleichungen aufstellt. Sei

4
T (q, q)
die kinetische Energie des Systems in den Koordinaten q und Ge-
schwindigkeiten q, dann genu gt die Bewegung den Lagrange-Gleichungen
2. Art ( )
d
T T = Q(q, q, t) (1.6)
dt q q
mit eingepragten und angewandten Kraften Q (Gravitation, Feder-Dampfer,
etc). Im Spezialfall eines konservativen Systems folgt Q aus der potentiellen
Energie U (q) uber Q = q
U . (In diesem Fall konnte man auch das dazu
d
aquivalente Hamiltonprinzip c (T U )dt stationar heranziehen).

Die Gleichung (1.6) stellt einen formalen Kalku


l dar, um die Bewegungsdie-
rentialgleichungen eines beliebigen Mehrkorpersystems (MKS) aufzustellen,
und dieser Kalkul kann in Form eines Computeralgebra-Programms imple-
mentiert werden. Nichts anderes machen sogenannte MKS-Formalismen, die
die Grundlage moderner Simulationspakete bilden.

Gewohnlich schreibt man die Bewegungsgleichungen nicht in der Form (1.6)


an, sondern als
2
M (q)q = f (q, q,
t), M (q) := 2 T (q, q),
(1.7)
q
mit Massenmatrix M und Kraftvektor f . Transformation in ein System
1. Ordnung und formale (nicht explizite!) Invertierung der Massenmatrix
M fuhren schlielich auf die Dierentialgleichung
( )
q
y = F (t, y), y = ,
q
in der vertrauten Form.
Beispiel 1.2: Doppelpendel

Das Doppelpendel ist ein System aus zwei starren Korpern mit konstantem Querschnitt. Die
Modellierung geht in folgenden Schritten vor:

Schritt 1: Kinetische Energie des Systems:



T = 1/2 2 2
1 (X1 + Y1 )dV1 + 1/2 2 (X 22 + Y 22 )dV2
V1 V2

5
Inertialsystem
Y
y2
Schwerkraft
2

x2
y1 x1

1 X

Abbildung 1: Ebenes Doppelpendel mit Koordinatensystemen

mit materiellen Punkten (Xi (t), Yi (t)) f


ur Korper 1 und 2 sowie Massendichten i .
Potentielle Energie:
U= 1 Y1 dV1 + 2 Y2 dV2 .
V1 V2

mit Gravitationskonstante .

Schritt 2: Einf
uhrung von Koordinaten zur Lokalisierung der materiellen Punkte:
( ) ( ) ( )
X1 x1 cos 1 sin 1
= A(1 ) , A(1 ) := Drehmatrix,
Y1 y1 sin 1 cos 1

und ( ) ( ) ( )
X2 cos 1 x2
= l1 + A(2 ) , l1 Lange Pendel 1.
Y2 sin 1 y2

Daraus die Energien berechnen:


( )
T = 1/2 J1 21 + J2 22 + m2 l12 21 + l1 l2 m2 1 2 cos(1 2 )

und
U = 1/2 (l1 (m1 + 2m2 ) sin 1 + l2 m2 sin 2 )

mit Massen mi := i dVi und Tragheitsmomenten Ji := i (x2i + yi2 ) dVi , i = 1, 2.

Schritt 3: Bewegungsgleichungen nach Lagrange (1.6) in den Koordinaten q = (1 , 2 )T . Aus-


rechnen und Einsetzen ergibt schlielich:
( ) ( )
1 1/2 l1 ((m1 + 2m2 ) cos 1 + l2 m2 22 sin(1 2 ))
M (1 , 2 ) = (1.8)
2 1/2 l2 m2 cos 2 + 1/2 l1 l2 m2 21 sin(1 2 )

6
mit der Massenmatrix
( )
J1 + m2 l12 1/2 l1 l2 m2 cos(1 2 )
M (1 , 2 ) = .
1/2 l1 l2 m2 cos(1 2 ) J2

Als Sonderfall ist die Gleichung eines Einzelpendels

J1 1 = 1/2l1 cos 1 (1.9)

= 2 ?
enthalten. Wie kommt man von dieser Gleichung auf die Schwingungsgleichung

1.3 Elektrische Schaltkreise

Die Beschreibung einer Schaltung als Netzwerk elektrischer Bauelemente


bildet die Grundlage fu
r Modellbildung und numerische Simulation hoch-
integrierter Systeme (Speicherchips und Prozessoren). Auf diese Art und
Weise kann das transiente Verhalten der Ausgangssignale als Reaktion auf
die Eingangssignale ohne zeit- und kostenintensive experimentelle Untersu-
chungen analysiert werden.

Wie bei der Reaktionskinetik und der Mehrkorperdynamik existiert auch


hier ein auf physikalischen Gesetzmaigkeiten basierender Kalkul, mit des-
sen Hilfe die Netzwerkgleichungen aufgestellt werden. Wesentlich dabei sind
die Kirchhoffschen Regeln
{ }
Teilstrome in jedem Knoten
Die Summe der ist Null.
Teilspannungen in jeder Masche
Zusammen mit den Gleichungen fu r die Bauelemente (Widerstande, Kapa-
zitaten, Induktivitaten, Transistoren, Strom- und Spannungsquellen) erge-
ben sich dann die Netzwerkgleichungen, die den gesamten Schaltkreis be-
schreiben.

Die am weitesten verbreitete Technik, die modizierte Knotenspannungs-


analyse (MNA, Modied Nodal Analysis), fu hrt auf Dierentialgleichungen
der Form
C y = f (y, t),

7
wobei die Unbekannten y aus Spannungen und Stromen zusammengesetzt
sind. Die Eintrage in der Matrix C bestehen aus Kapazitaten. Falls keine
solchen auftreten (und keine Induktivitaten), ist C 0, und die Gleichungen
reduzieren sich auf den stationaren Fall.

In vielen Anwendungen ist die Matrix C singular, und es liegt somit keine
gewohnliche Dierentialgleichung vor, sondern ein sogenanntes dierentiell-
algebraisches System. Einzelheiten dazu in Kapitel 6. Das folgende Beispiel
dagegen enthalt neben einer Kapazitat noch eine Induktivitat und wird
durch eine Dierentialgleichung 2. Ordnung beschrieben.
Beispiel 1.3: Elektrischer Schwingkreis
Wir betrachten als einfaches Beispiel einen elektrischen Schwingkreis, der aus einer Spannungs-
quelle U (t), einer Kapazitat C, einer Induktivitat L und einem Widerstand R besteht, siehe
Abb. 2.

U(t)
C

Abbildung 2: Elektrischer Schwingkreis

F
ur die Spannungsabfalle UR , UC sowie UL gelten die Gesetze

UR = RI, UC = Q/C, UL = LI

wobei I den ieenden Strom und Q die Ladung der Kapazitat bezeichnen. Die Kirchhoschen
Regeln (hier die Maschenregel) ergeben

U = UR + UC + UL .

Mit I = Q und Einsetzen erhalt man f


ur die an der Kapazitat anliegende Spannung UC die
Dierentialgleichung
C + RC U C + UC = U.
LC U (1.10)

Insgesamt also eine u


ber U (t) gesteuerte Schwingung, die durch das Produkt RC gedampft wird.

8
Kapitel 2
Exkurs in die Theorie
gewohnlicher Differentialgleichungen

Dieses Kapitel wiederholt zunachst die zentralen Ergebnisse aus der Ana-
lysis und beschaftigt sich dann vor allem mit der Kondition des Anfangs-
wertproblems. Neben dem Einuss der Anfangswerte spielt hier auch die
Abhangigkeit von Parametern eine wichtige Rolle. Schlielich folgt eine kur-
ze Einfu
hrung in die Dynamischen Systeme, um einige wesentliche Begrie
zur Charakterisierung von Losungen bereitzustellen.

2.1 Aussagen aus der Theorie gew


ohnlicher
Differentialgleichungen

Als Einstieg und Wiederholung beginnen wir mit einem Blick auf lineare
Dierentialgleichungen. Fu
r das skalare lineare Anfangswertproblem (AWP)

y = a y + b, y(x0 ) = y0 ,

liefert der Losungsansatz z(x) = ea(xx0 ) z0 eine Losung des homogenen


Falls z = az. Durch Variation der Konstanten folgt
( )
b b
y(x) = z(x)v(x) = y(x) = + y0 ea(xx0 ) .
a a

9
Dieses Vorgehen verallgemeinert man schnell auf Systeme linearer Dieren-
tialgleichungen
y = A y + b, A Rnn , b Rn .
Wir nehmen an, dass A diagonalisierbar ist (d.h. n l.u. EV besitzt). Mit
z(x) = exp(A(x x0 ))z0 hat man eine Losung des homogenen Systems
z = Az. Dabei stellen die Spalten der Matrix

(A )k
exp(A ) = Matrizenexponentielle (2.1)
k!
k=0

ein Fundamentalsystem dar. Die Variation der Konstanten fu r den inhomo-


genen Fall ergibt sich hier zu y(x) = exp(A(x x0 )) v(x).

Im Fall nichtlinearer rechter Seiten (bzw. Dierentialgleichungen) kommt


man mit analytischen Losungstechniken dagegen meist nicht mehr weiter.
Beispiel 2.1: VanderPolGleichung
Wir betrachten zunachst die lineare Dierentialgleichung 2. Ordnung z(t) + z(t) + z(t) = 0,
vergleiche den Schwingkreis (1.10). Fur > 0 hat sie fallende (gedampfte/stabile) Losungen, fur
< 0 wachsende (instabile) Losungen, und f ur = 0 resultieren periodische Losungen. Setzt
man = (z), so dass < 0 f ur kleine z und > 0 f ur groe z, so kann man ein sich selbst
regulierendes (steuerndes) Verhalten erwarten, das in eine periodische Losung hineinlauft. Die
Wahl (z) := (z 2 1) mit konstantem Parameter > 0 erf ullt diese Erwartung und liefert die
Van-der-Pol-Gleichung
z + (z 2 1)z + z = 0. (2.2)
Eine allgemeine geschlossene Losung ist nicht bekannt!

Es ist vorteilhaft, die Gleichung (2.2) auf die neue Zeit x = t/ zu transformieren (die Periode
hangt dann nicht mehr von ab). Mit u(x) = z(x) = z(t(x)), u = z, folgt
1
u + (u2 1)u + u = 0.
2
Von besonderem Interesse ist der Fall 1, bei dem wir := 1/2 1 setzen (ein sogenanntes
singular gestortes System, siehe Kapitel 5 und 6). In einem letzten Schritt f
uhren wir noch die
Koordinaten nach Lienhard ein,

y2 (x) := u(x), y1 (x) := y2 + (y23 /3 y2 ),

und erhalten so das System


y1 = y2 ,
(2.3)
y2 = y1 y23 /3 + y2 .

10
2.5

1.5

0.5
y2

0.5

1.5

2.5
1.5 1 0.5 0 0.5 1 1.5
y1

Abbildung 3: Richtungsfeld der Van-der-Pol-Gleichung

Wie verlaufen die Losungen von (2.3) im oben skizzierten Richtungsfeld?

Bevor wir zum Existenz- und Eindeutigkeitssatz kommen, seien noch drei
oft hilfreiche Bemerkungen erwahnt:

(i) Dierentialgleichungen hoherer Ordnung lassen sich durch Hilfsvaria-


blen auf Dierentialgleichungen erster Ordnung zuru
ckzufu
hren:

y = 2 y y = v, v = 2 y.

(ii) Nichtautonome Gleichungen y = f (x, y(x)) transformiert man mittels


yn+1 (x) := x und fn+1 (x, y) := 1 in ein autonomes System.

(iii) Durch Integration u hrt man y = f (x, y) in


berfu
x
y(x) = y0 + f (t, y(t)) dt .
x0

Falls f = f (t), ist die Quadratur als Sonderfall enthalten!

11
Wir betrachten nun das allgemeine Anfangswertproblem

y (x) = f (x, y(x)), y(x0 ) = y0 , (2.4)

wobei f : [a, b] Rn Rn und x0 [a, b], y0 Rn . Die rechte Seite f heit


(global) Lipschitzstetig im Denitionsgebiet (oder Streifen)

D := {(x, y) : a x b, y Rn },

falls
f (x, y) f (x, z) L y z (x, y), (x, z) D. (2.5)
Einfaches Kriterium: Falls f sowie f /y stetig auf dem Denitionsgebiet
D sind und f /y beschrankt ist, f /y L, folgt daraus die Lipschitz-
stetigkeit.
Beweisskizze: F
ur je zwei Punkte (x, y), (x, z) in D gilt (MWS der Dierentialrechnung)

f (x, y) f (x, z) sup(t,v)D f (t, v)/v y z.

Mit dem Begri der Lipschitzstetigkeit zeigt man dann (Picard-Lindelof,


s. Analysis)

Satz 2.1 Falls die rechte Seite f auf dem Definitionsgebiet D stetig ist
und der Lipschitzbedingung (2.5) genu gt, besitzt das Anfangswertproblem
(2.4) eine eindeutige, stetig differenzierbare Losung y auf dem ganzen In-
tervall [a, b].

Eine hohere Glattheit der Losung hangt von der Glattheit der rechten Seite
f bzw. ihrer Ableitungen p f /y p ab. Falls alle partiellen Ableitungen bis
zur Ordnung p stetig sind, ist auch y insgesamt p mal stetig dierenzierbar.

Lasst man dagegen die Lipschitzstetigkeit als Voraussetzung weg und geht
nur von einer stetigen rechten Seite f aus, kann man nur noch die Existenz
einer Losung nachweisen, die Eindeutigkeit geht verloren (Existenzsatz von
Peano).

12
Hinreichend fu r Existenz und Eindeutigkeit ist im u brigen bereits eine
abgeschwachte Form der Lipschitz-Bedingung (2.5), die lokale Lipschitz-
Stetigkeit. Sie ist gegeben, falls es zu jeder kompakten Teilmenge K D
eine Lipschitzkonstante LK gibt mit
f (x, y) f (x, z) LK y z (x, y), (x, z) K. (2.6)
Allerdings kann mit dieser schwacheren Voraussetzung nicht die Existenz
auf dem ganzen Intervall [a, b] garantiert werden. Die folgenden zwei Bei-
spiele beleuchten die Situation.
Beispiel 2.2: y = y 1/2 , y(0) = 1.
Die rechte Seite besitzt in y = 0 eine Singularitat, und die Voraussetzungen (2.5) wie auch (2.6)
werden in einer Umgebung der Singularitat verletzt. Die exakte Losung lautet
y(x) = (1 3x/2)2/3

und ist auf den ersten Blick nur auf x ] , 2/3[ deniert. F
ur x 2/3 lauft sie in die
Singularitat (sie kollabiert). Ist y auch rechts von der Singularitat deniert?

Beispiel 2.3: y = y2, y(0) = 1.


Aufgrund der stetigen Dierenzierbarkeit der rechten
Seite liegt lokale Lipschitzstetigkeit vor, aber keine y(x)
globale (bei genauerem Hinsehen stellt man fest, dass
die Ableitung f /y nicht beschrankt ist). Als Losung
ndet man
y(x) = 1/(1 x),
und daher limx1 = . Diese Instabilitat der Losung
bezeichnet man auch als blow up; sie tritt insbeson-
dere bei polynomialen rechten Seiten auf (vergleiche
die Reaktionskinetik in Abschnitt 1.1). Die Losung
1
muss also in solchen Fallen nicht auf ganz [a, b] exi-
stieren.

Als ersten Hinweis, dass sich ein Randwertproblem (RWP) ganzlich anders
verhalten kann als ein AWP (mehr in Kapitel 7), behandeln wir noch das
Beispiel 2.4: y + y = 0 mit RB
( )
a) y(0) = 0, y 2 = 1, b) y(0) = 0, y() = 0, c) y(0) = 0, y() = 1.

Was unterscheidet demnach ein RWP von einem AWP?

13
2.2 Einflu von St
orungen

In diesem Abschnitt steht die Kondition des Anfangswertproblems im Mit-


telpunkt. Wie wirken sich Storungen in den Anfangswerten, in der rechten
Seite und in moglichen Parametern auf die Losung aus?

Beginnen wir mit den Anfangswerten:

Satz 2.2 Storung der Anfangswerte


Falls die rechte Seite f der Lipschitzbedingung (2.5) genugt, gilt fu
r zwei
Losungen y(x) und z(x) mit Anfangswerten y(x0 ), z(x0 ) die Abschatzung
y(x) z(x) y(x0 ) z(x0 )eL|xx0 | .

Beweis: Aus y = f (x, y) und z = f (x, z) folgt mit Integration


x
y(x) z(x) = y(x0 ) z(x0 ) + (f (t, y) f (t, z)) dt
x0

und damit
x
y(x) z(x) y(x0 ) z(x0 ) + L y(t) z(t) dt
| {z } | {z }
=:m(x) x0 =m(t)
bzw.
x
m(x) y(x0 ) z(x0 ) + L m(t) dt. ()
x0
m(x) ist stetig und
x
Lx
q(x) := e m(t) dt
x0
stetig dierenzierbar. Also gilt
( )
m(x) = eLx q(x) = LeLx q(x) + eLx q (x). ()
Eingesetzt in ():
LeLx q(x) + eLx q (x) y0 z0 + LeLx q(x)
= q (x) y0 z0 eLx
x
( )
= q(x) = q (t) dt y0 z0 eLx0 eLx /L
x0

14
Abschatzungen eingesetzt in ():

m(x) y0 z0 (eL(xx0 ) 1 + 1)

(Bei Integration in die Vergangenheit mit x0 x analoges Vorgehen). 

z L(x-x 0)

y
0

0
} <e |y0 -z 0 |

x0 x

Abbildung 4: Skizze zu Satz 2.2

Warum konnen sich zwei Losungskurven nicht schneiden?

Im Beweis von Satz 2.2 ist eine vereinfachte Fassung des Lemmas von
Gronwall versteckt, das eine wichtige Rolle bei verschiedenen Abschatzungen
spielt. In der vollstandigen Fassung lautet es:

Lemma 2.3 Gronwall


Sei m(x) eine positive, stetige Funktion sowie 0, 0. Falls
x
m(x) + (x x0 ) + L m(t) dt,
x0

gilt die Abschatzung


( L(xx0 ) )
m(x) e L(xx0 )
+ e 1 .
L

Beweis s. Ubung

Mit dem Lemma von Gronwall kann man die Abschatzung u ber die Aus-
wirkung von Storungen in den Anfangswerten erweitern. Sei y eine exakte
Losung und z eine approximative Losung, die einen Defekt (x) aufweist,

z (x) = f (x, z(x)) + (x), (x) .

15
Mit m(x) := y(x) z(x) und := y(x0 ) z(x0 ) sind die obigen Vor-
aussetzungen erfu
llt, denn
x x
y(x) z(x) = y(x0 ) z(x0 ) + (t) dt + (f (t, y) f (t, z)) dt.
x0 x0

Anwendung des Gronwallschen Lemmas liefert


( L(xx0 ) )
y(x) z(x) y(x0 ) z(x0 )e L(xx0 )
+ e 1 (2.7)
L
als Verallgemeinerung von Satz 2.2. Der zweite Term beinhaltet dabei die
Auswirkung des Defekts / der Storung (x). Auallend ist die zentrale Rol-
le der Exponentialfunktion. Falls die Lipschitzkonstante L sehr gro ist,
wird eLx sehr schnell wachsen, und (2.7) stellt dann eine sehr pessimistische
Aussage dar. In den allermeisten Fallen sind jedoch Anfangswertprobleme
deutlich besser konditioniert als es (2.7) suggeriert, vergl. Kapitel 5 uber
steife Anfangswertprobleme.

Ableitung bezu
glich einem Parameter

Dierentialgleichungsmodelle enthalten meist eine Reihe konstanter Para-



meter, die problemspezisch gewahlt sind. Bei einer Anderung eines Para-

meters wird sich die Losung ebenfalls andern, doch hangt diese Anderung
stetig dierenzierbar vom Parameter ab? In vielen Anwendungen ist dies
eine zentrale Frage, denn nur bei stetig dierenzierbarer Abhangigkeit ma-
chen die meisten Optimierungs- und Parameteridentizierungsverfahren ei-
nen Sinn (vergl. Kapitel 7).

Beispiel 2.5: Bei der Van-der-Pol Gleichung y = (1y 2 )yy


hangt die Losung vom Parameter
ab, siehe Abb. 5. Mit wachsendem wachst auch die Periode der Losung, und es treten immer
steilere Flanken auf.

16
Solution of van der Pol Equation, = 1 Solution of van der Pol Equation, = 3
2.5 2.5

2 2

1.5 1.5

1 1

0.5 0.5
solution y1

solution y1
0 0

0.5 0.5

1 1

1.5 1.5

2 2

2.5 2.5
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
time t time t

Abbildung 5: Losungen der Van-der-Pol-Gleichung f


ur = 1, 3

Wir betrachten nun die parameterabhangige Dierentialgleichung

y = f (x, y; p), y(x0 ) = y0 , (2.8)

wobei p fur einen (oder mehrere) Parameter steht. Die partiellen Ableitun-
gen f /y sowie f /p seien stetig in einer Umgebung der Losung y. Als
Sensitivitat (bzw. Sensitivitatsmatrix ) bezeichnet man die Ableitung der
Losung nach dem Parameter,
y(x; p) y(x; p + p) y(x; p)
(x) := = lim .
p p0 p
Die Sensitivitat kann als Losung einer speziellen Dierentialgleichung cha-
rakterisiert werden. Dazu betrachten wir neben der Losung y zum Parame-
ter p eine weitere Losung z zum Parameter q = p + p,

z = f (x, z; q), z(x0 ) = y0 .

Mit Subtraktion der beiden Dierentialgleichungen gilt

z y = f (x, z; q) f (x, y; p) = f (x, y + z y; p + q p) f (x, y; p)


f f
= (x, y; p)(z y) + (x, y; p)(q p) + o(z y) + o(|q p|). (2.9)
y p
Der Defekt der gestorten Losung z erfu
llt

z (x) f (x, z(x); p) = f (x, z(x); q) f (x, z(x); p) A|q p|,

17
falls wir A = max f /p setzen. Damit kann das Lemma von Gronwall
angewandt werden (beachte = z(x0 ) y(x0 ) = 0), und wir erhalten
(vergl. die Abschatzung (2.7))
A ( )
z(x) y(x) |q p| e L(xx0 )
1 .
L
Die Dierenz der beiden Losungen kann also u ber die Dierenz der Para-
meter p = q p beliebig klein gemacht werden. Im Grenzu bergang p 0
folgt so aus (2.9) die Dierentialgleichung oder Sensitivitatengleichung
f f
(x) = (x, y(x); p) (x) + (x, y(x); p). (2.10)
y p
Da (2.10) bei gegebenem y ein System linearer Dierentialgleichungen fu
r
die Sensitivitat darstellt, kann man die entsprechende Losungstheorie
einsetzen, um eine expliziten Ausdruck fu
r zu gewinnen.
Exkurs: Losung von y (x) = A(x)y(x) + b(x), A(x) Rn Rn , b(x) Rn stetig.
Ein Fundamentalsystem linear unabhangiger Losungen 1 , . . . , n der homogenen Gleichung
z = Az fassen wir zusammen als

W (x) := (1 (x), . . . , n (x)) Wronski-Matrix

und denieren
P (x, x0 ) := W (x)W 1 (x0 ) Propagationsmatrix.
Im homogenen Fall hat man dann f
ur die Losung zum Anfangswert z0 die Darstellung

z(x) = P (x, x0 )z0 , (2.11)

und im inhomogenen Fall


x
y(x) = P (x, x0 )y0 + P (x, s)b(s) ds. (2.12)
x0

(Folgt u
ber Variation der Konstanten.)

Anwendung von ( 2.12) auf die Gleichung (2.10) fu r die Sensitivitat ergibt
(beachte 0 = (x0 ) = 0)
x
f
(x) = P (x, s) (s, y(s); p) ds (2.13)
x0 p
18
mit der Propagationsmatrix P des linearen Systems z = f /y z. Der

Ubersichtlichkeit halber fassen wir alles nochmal zusammen:

Satz 2.4 Abhangigkeit der Losung von einem Parameter


Sei y(x) die Losung der parameterabhangigen Differentialgleichung (2.8).
Die partiellen Ableitungen f /y sowie f /p seien stetig in einer Umge-
bung von y. Dann existiert die Sensitivitat (x) = y(x; p)/p, ist stetig
und genugt der Differentialgleichung
f f
(x) = (x, y(x); p) (x) + (x, y(x); p).
y p
Ferner besitzt die explizite Darstellung
x
f
(x) = P (x, s) (s, y(s); p) ds
x0 p
mit der Propagationsmatrix P des linearen Systems z = f /y z.

Wie wirken sich nun Storungen im Parameter auf die Losung aus? Wegen
y
y(x; p + p) = y(x; p) + (x; p)p + o(|p|)
p
r y(x) = y(x; p + p) y(x; p) die Beziehung
gilt in linearer Theorie fu
.
y(x) = (x) p, (2.14)
und (x) ist die zugehorige (punktweise) Konditionszahl.

Abh
angigkeit der L
osung von den Anfangswerten

Die Anfangswerte kann man auch als Parameter interpretieren. Dazu be-
trachten wir die Dierentialgleichung
z (x) = F (x, z(x); y0 ) := f (x, z(x) + y0 ), z(x0 ) = 0.
Oensichtlich hangt z vom Parametervektor y0 ab, und y(x) := z(x) + y0
lost das AWP
y (x) = f (x, y(x)), y(x0 ) = y0 .

19
Damit kann die obige Argumentation wiederholt werden. Deniere die Sen-
sitivitatsmatrizen
z(x; y0 ) y(x; y0 )
(x) := , (x) := = (x) + Inn .
y0 y0
Die Dierentialgleichung fu
r kann von (2.10) u
bernommen werden und
ergibt sich zu
F F f
(x) = (x, z(x); y0 )(x)+ (x, z(x); y0 ) = (x, z(x)+y0 )((x)+I),
z y0 y
und wegen (x) = (x) sowie (x0 ) = 0nn folgt:

Satz 2.5 Abhangigkeit der Losung von den Anfangswerten


Sei f stetig mit stetigen partiellen Ableitungen f /y. Dann hangt die
Losung y(x; y0 ) stetig differenzierbar von den Anfangswerten ab, und die
Ableitung (x) = y(x; y0 )/y0 genu gt der Variationsgleichung
f
(x) = (x, y(x; y0 )) (x), (x0 ) = Inn .
y

Eine Storung y0 in den Anfangswerten fu


hrt auf die Losung y(x; y0 + y0 ).
Damit hat man in linearer Theorie fur y(x) = y(x; y0 + y0 ) y(x; y0 ) die
Aussage
.
y(x) = (x) y0 , (2.15)
und (x) stellt die Konditionszahl dar. Wie in (2.14) bestimmt also das
Fundamentalsystem der linearisierten Dierentialgleichung z = f /y z
die Kondition. Mit anderen Worten: Die Stabilitat der Differentialgleichung
z = f /y z charakterisiert den Einu von Storungen.

Die Aussagen von Satz 2.4 und Satz 2.5 komplettieren damit die in Satz 2.2
und (2.7) gegebenen quantitativen Abschatzungen.

20
2.3 Differentialgleichungen als Dynamische Systeme

Welche Phanomene (welches Losungsverhalten) treten bei nichtlinearen Dif-


ferentialgleichungen auf, und wie kann man sie qualitativ beschreiben? An-
hand dieser Fragen wird im folgenden kurz in die Welt der Dynamischen
Systeme eingefu hrt (mehr dazu in Vorlesungen u
ber Dynamische Systeme).

Wir beschranken uns zunachst auf das Studium autonomer Dierentialglei-


chungen in der Ebene,
y = f (y) mit y(x) R2 . (2.16)
Ein Beispiel ist der Brusselator (1.5) aus Kapitel 1,
y1 = A + y12 y2 (B + 1)y1 ,
y2 = By1 y12 y2 ,
mit Parametern A, B.

Was kann man u ber Losungen von (2.16) qualitativ aussagen? Als Aus-
gangspunkt der Analyse betrachtet man kritische Punkte ys mit
f (ys ) = 0, d.h. ys (x) 0 .
In kritischen Punkten verschwindet die rechte Seite f , die Losung ist stati-
onar (Abb. 6). Im nachsten Schritt wird um ys linearisiert. Setze
y = ys + y = y = ys + y = y
und weiter
y = f (y) = f (ys + y) = f (ys ) +Df (ys )y + o(y)
|{z} | {z }
=y =0

y y
1

ys
ys

y
x 2

Abbildung 6: Stationare Losung und Phasenportrait

21
Also beschreibt die lineare Dierentialgleichung
.
y = Df (ys ) y

das Losungsverhalten in einer Umgebung von ys , oder anders gesagt: Die


Eigenwerte von Df (ys ) charakterisieren das Losungsverhalten rund um den
kritischen Punkt ys .

Nehmen wir an, die Eigenwerte 1,2 von Df (ys ) seien verschieden und un-
gleich Null. Die folgenden Falle/Phanomene konnen dann auftreten.

a) EW von Df (ys ) reell, 1 < 2 < 0: Dann ist ys stabiler Knoten/Punkt,


d.h. alle Losungen y laufen in ys hinein und sind stabile Losungen.
y
2

y
y(x)

y
s
y

x
y
1

Abbildung 7: Stabile Losungen und Phasenportrait

b) EW Df (ys ) reell, 1 < 0 < 2 : Dann ist ys Sattelpunkt, und es gibt


instabile wie auch stabile Losungen.

y y
y
y
s
~
y
y~
x

Abbildung 8: Sattelpunkt, y instabile, y stabile Losung

22
c) EW reell, 0 < 1 < 2 : Dann ist ys instabiler Knoten, alle Losungen y
sind instabil.
y
y
y
y
s

Abbildung 9: Instabiler Knoten, y instabile Losung

d) EW imaginar, 1,2 = i: Dann ist ys Zentrumsknoten, und Losungen


y sind periodisch.

y y

y
s

Abbildung 10: Zentrumsknoten, y periodische Losung

e) EW 1,2 = i, < 0: Dann ist ys stabiler Strudelpunkt.

y y
y
s

Abbildung 11: Stabiler Strudelpunkt

23
f ) EW 1,2 = i, > 0: Dann ist ys instabiler Strudelpunkt.

y y

y
s

Abbildung 12: Instabiler Strudelpunkt

Die Sonderfalle der doppelten Eigenwerte und der Nulleigenwerte werden


hier nicht weiter verfolgt.

Wichtiger ist, dass neben den Fallen a) - f) noch weitere Phanomene existie-
ren, die nicht durch Linearisierung erfassbar sind. Ein Beispiel sind Grenz-
zyklen, das sind periodische Bewegungen, in die die Losungen hineinlau-
fen (stabiler Grenzzyklus, Abb. 13) oder die Losungen abstoen (instabiler
Grenzzyklus).

~
y

Abbildung 13: Stabiler Grenzzyklus, y startet auerhalb, y innerhalb

24
Existenz von Grenzzyklen

In der Ebene kann die Existenz von Grenzzyklen mithilfe des folgenden
Satzes (ohne Beweis) nachgewiesen werden:

Satz 2.6 PoincareBendixson


Jede beschrankte Losung von y = f (y), y(x) R2 , mu

(i) gegen einen kritischen Punkt ys streben oder

(ii) periodisch sein oder

(iii) gegen einen Grenzzyklus streben.

Die Existenz von Grenzzyklen ist aber nicht auf die Ebene beschrankt. Im
Rn erfolgt der praktische Nachweis eines Grenzzyklus u
ber die Technik des
PoincareSchnitts.

Lege Hyperebene (Halbgerade) P in Phasenraum (Ebene). Betrachte Schnitt


(y0 ) der Losung y zu AW y0 mit P , Abb. 14. Setze y1 := (y0 ) und er-
mittle Schnitt (y1 ), usw. Falls ein Fixpunkt y = (y ) existiert, liegt ein
Grenzzyklus vor.

(y0 )
P

y0

Abbildung 14: PoincareSchnitt

25
Beispiel 2.6: Anwendung der Aussagen auf den Brusselator (1.5)
Bedingung f
ur kritische Punkte
0 = A + y12 y2 (B + 1)y1 ,
0 = By1 y12 y2 .
( )
A
Einziger kritischer Punkt ist ys = B/A .
( )
B 1 A2
Die Eigenwertanalyse von DF (ys ) = ergibt:
B A2

ur B < A2 + 1
stabiler Knoten f
ys : Zentrum ur B = A2 + 1
f

instabil ur B > A2 + 1
f
Fall B A2 + 1 damit klar.

Fall B > A2 + 1: Man kann zeigen, dass alle Losungen beschrankt sind. Nach PoincareBendixson
mu daher ein Grenzzyklus existieren! (Fall (i) im Satz 2.6 kann nicht zutreen, Fall (ii) nur,
wenn der AW bereits auf dem Grenzzyklus liegt. Ein Zentrumsknoten mit periodischer Losung
kommt nicht in Frage.) Abbildung 15 zeigt qualitativ das Phasenportrait f
ur A = 1, B = 3, d.h.
B > A2 + 1.

y
2

3
y
~ s
y

^
y
1 y
1

Abbildung 15: Skizze des stabilen Grenzzyklus beim Brusselator. y wird von ys abgestossen,
lauft in Grenzzyklus hinein, dagegen lauft y von auen in Grenzzyklus.

Bemerkungen:

Der Ubergang
B A2 + 1 nach B > A2 + 1 markiert eine sogenannte
HopfBifurkation, eine Verzweigung, in der stabile Losungen in peri-
odische Losungen u
bergehen.

26
Ab Dimension n = 3 existieren noch komplexere Phanomene, die meist
nur durch numerische Studien zu entdecken sind.

Kritische Punkte und Grenzzyklen nennt man auch Attraktoren des dy-
namischen Systems. Es gibt daru
berhinaus strange attractors, die bei
chaotischen Systemen auftreten. Ein beru
hmtes Beispiel ist die Lorenz
Dierentialgleichung

y1 = by1 + y2 y3 ,
y2 = y2 + y3 ,
y3 = y1 y2 + ry2 y3 .

Eine numerische Losung mit = 10, r = 28, b = 8/3 ist in Abb. 16


dargestellt. Es liegt keine periodische Losung vor! Dagegen haben kleine

Anderungen in den Anfangswerten dramatische Auswirkungen auf die
Losung (der Schmetterlingseffekt).

40

30

20
y(3)

10

10

20

10
50
0 40
30
10
20
y(2) 20 10
y(1)

Abbildung 16: Numerische Losung der Lorenz-Dierentialgleichung

27
Der Begriff der Evolution

Wie oben gesehen, konnen Losungen gewohnlicher Dierentialgleichungen


ein komplexes Verhalten an den Tag legen. Statt die Vielzahl der Phanomene
im Detail zu analysieren, kann man aber auch nach u bergeordneten Ge-
sichtspunkten suchen, und diese Suche fu
hrt auf den sehr allgemein gefaten,
nicht auf gew. Dierentialgleichungen beschrankten Begri der Evolution.

Wir denieren dazu die Abbildung

x,x0 y0 := y(x),

die eine Auswertung der Losung y zum AW y(x0 ) = y0 an der Stelle x


darstellt. Oensichtlich gilt

b,a y0 = b,s s,a y0 , a s b, x0 ,x0 y0 = y0 ,

was schon die grundlegenden Eigenschaften einer Evolution darstellt. Hinzu


kommt in unserem Fall das Erfulltsein der gew. Dierentialgleichung, d.h.,
d x+s,x
y|s=0 = f (x, y(x)).
dx
Im Fall autonomer Dierentialgleichungen ist die Startzeit beliebig. Man
schreibt daher kurz x statt x,x0 und bezeichnet x als Phasenflu, der
die Anfangswerte transportiert und die Gesamtheit der Losungen enthalt.
Eine spezielle Losungskurve nennt man dann Trajektorie oder Orbit.

Fu
r weitere Details siehe Deuhard/Bornemann, Kap. 2.

28
Kapitel 3
Einschritt- und Extrapolationsverfahren

Dieses Kapitel stellt eine erste und sehr wichtige Verfahrensklasse zur Losung
von Anfangswertproblemen vor, die sogenannten Einschrittverfahren. Allge-
mein basieren numerische Verfahren fu r AWPe auf folgendem Ansatz: Man
fu
hrt ein Gitter auf dem betrachteten Intervall [a, b] ein,

a = x0 < x1 < x2 < . . . < xn1 < xn = b,

d.h. man diskretisiert das Kontinuum [a, b]. Die Schrittweiten hi = xi+1
xi mussen nicht aquidistant sein. Dann berechnet man, ausgehend von y0 ,
.
sukzessive Nahrungen yi = y(xi ) an den diskreten Punkten,

y0 y1 y2 . . . yn .

Man spricht dabei allgemein von Diskretisierungsverfahren und unterschei-


det speziell:

a) Einschrittverfahren: Nur die Daten xi , yi , hi gehen in die Berechnung


von yi+1 ein.

b) Mehrschrittverfahren: Hier gehen Daten xk , yk , hk fu


r k = im, . . . , i
aus der Vergangenheit in die Berechnung von yi+1 ein. Siehe Kap. 4.

29
y

. yi+1
.y(xi+1)
yi .

h x
x x
i i+1

Abbildung 17: Expliziter Euler (Eulerscher Polygonzug)

3.1 Beispiele fu
r Einschrittverfahren

Zunachst betrachten wir einige elementare Beispiele (mit hi = h konstant),



um einen ersten Eindruck von Einschrittverfahren zu bekommen. Altestes
und in manchen Anwendungen immer noch gebrauchliches Verfahren ist das
explizite Eulerverfahren

y1 = y0 + hf (x0 , y0 ),
y2 = y1 + hf (x1 , y1 ),
.. ..
. .
yi+1 = yi + hf (xi , yi ). (3.1)

Die wesentliche Idee besteht in der wiederholten Anwendung der Vorschrift,


durch die man eine Folge von diskreten Approximationen erzeugt. Man
spricht auch vom Eulerschen Polygonzugverfahren, da die diskreten Werte
der yi aus einem immer langer werdenden Polygonzug folgen. Damit liegt
zusatzlich ein linearer Interpolant vor, und man hat de facto auch eine
kontinuierliche Approximation konstruiert.

Drei Interpretationen des Eulerverfahrens ergeben sich direkt:

(i) Geometrisch: Lege die Tangente in (xi , yi ) an.


.
(ii) Vorwarts-Dierenzenquotient (yi+1 yi )/h = y (xi ) = f (xi , yi )

30
xi+1
(iii) Quadraturformel y(xi+1 ) = y(xi ) + f (t, y(t)) dt
x
|i {z }
.
=hf (xi ,yi )

Als zweites Einschrittverfahren betrachten wir das Implizite Eulerverfahren

yi+1 = yi + h(f (xi+1 , yi+1 ), (3.2)

das sich als Ruckwarts-Dierenzenquotient interpretieren lasst. Wahrend


beim expliziten Euler nur eine Auswertung der rechten Seite f notig ist,
um einen Integrationsschritt durchzufu hren, erfordert der implizite Euler
die Losung eines nichtlinearen Systems fu
r yi+1 !

Letztes Beispiel ist die Trapezregel


h
yi+1 = yi + (f (xi , yi ) + f (xi+1 , yi+1 )), (3.3)
2
| {z }

xi+1
. f (t,y(t)) dt
=
xi

bei der man deutlich die Verwandschaft zur numerischen Quadratur sieht.

Im Folgenden beschranken wir uns auf explizite Einschrittverfahren; die


impliziten werden aber im Kapitel 5 u
ber steife Dierentialgleichungen noch
eine gewichtige Rolle spielen.

3.2 Konsistenz und Konvergenz

Als Notation fu
r Einschrittverfahren (ESV) verwendet man das Schema

yi+1 = yi + hi (xi , yi , hi ) (3.4)

mit der Verfahrensfunktion oder Inkrementfunktion . Beim expliziten Eu-


ler (3.1) ist (xi , yi , hi ) = f (xi , yi ).

31
Wie gut approximiert yi+1 die exakte Losung y(xi+1 )? Zur Analyse der Ver-
fahren fu
hrt man verschiedene Begrie ein. Der erste ist eine lokale Eigen-
schaft:

Definiton 3.1 Lokaler Diskretisierungsfehler


Sei y(x) exakte Losung des Anfangswertproblems y = f (x, y), y(x0 ) = y0 ,
und y1 = y0 + h(x0 , y0 , h) die numerische Approximation nach einem
Schritt. Der lokale Diskretisierungsfehler ist definiert als
y(x0 + h) y1
(h) := . (3.5)
h

Nach (3.5) gibt (h) die Dierenz von exakter Losung und numerischer
Approximation, skaliert mit h, an. Eine zweite Interpretation ist
y(x0 + h) y0 y1 y0
(h) = .
| h
{z h }
} | {z
Sehnensteigung Steigung
exakt Approx.

Schlielich gibt es eine dritte Interpretation


y(x0 + h) y0
(h) = (x0 , y0 , h) ,
h
die (h) als Defekt sieht, der beim Einsetzen der exakten Losung in die
Verfahrensvorschrift entsteht. Formal schreibt man oft auch (x, y, h), um
die Abhangigkeit von x sowie y starker zu betonen.
Beispiel 3.1: Lokaler Diskretisierungsfehler beim expliziten Euler

(h) = h1 (y(x0 + h) y1 ) = h1 (y(x0 + h) y0 hf (x0 , y0 ))


Taylorentw. y(x0 + h) = y(x0 ) + hy (x0 ) + 21 h2 y (x0 ) + . . .
= y0 + hf (x0 , y0 ) + 12 h2 (fx + fy f )(x0 , y0 ) + . . .
= (h) = h 21 (fx + fy f )(x0 , y0 ) + O(h2 )

Man spricht beim Euler von einem Verfahren der Konsistenzordnung 1.

Nach dem lokalen Diskretisierungsfehler fu


hren wir einen weiteren Begri
ein, die Konsistenz:

32
Definition 3.2 Konsistenzordnung
Ein Verfahren heit konsistent, falls der lokale Diskretisierungsfehler fu
r
h 0 ebenfalls gegen 0 strebt:

(h) (h) mit lim (h) = 0 .


h0

Das Verfahren hat die Konsistenzordnung p, falls

(h) = O(hp ) .

Die Konsistenzordnung beschreibt die Qualitat der numerischen Approxi-


mation in einem Schritt. Eigentlich interessiert man sich aber fu
r die Qua-
litat nach n Schritten. Dazu deniert man drittens

Definition 3.3 Globaler Diskretisierungsfehler


Der globale Diskretisierungsfehler eines Verfahrens ist die Differenz

en (X) = y(X) yn mit X = xn fest, n variabel.

Ein Verfahren ist konvergent, falls

lim en (X) = 0 .
n

Konvergenz bedeutet also:


Fur feiner werdendes Gitter strebt der globale Fehler gegen 0.

Wie hangen Konsistenz und Konvergenz zusammen? Die Analysetechnik ist


in Abb. 18 skizziert.

Zum diskreten Wert yi sei ui (x) die exakte Losung der Dierentialgleichung
mit Anfangswert ui (xi ) = yi fu
r i = 0, . . . , n. Insbesondere ist u0 = y die
exakte Losung zum Anfangswert y0 . Der globale Fehler lautet dann

y(xn ) yn = u0 (xn ) yn

33
y
. u 2 (xn )
. u 1 (x n )
y2 .
y . . u 0 (x n )
y0 . 1

x
x0 x1 x2 xn =X

Abbildung 18: Analyse des globalen Fehlers

und lasst sich durch die Dierenzen ui ui+1 ausdru


cken:
u0 (xn ) yn = u0 (xn ) u1 (xn ) + u1 (xn ) u2 (xn ) + . . .
. . . un1 (xn ) + un1 (xn ) yn

n2
= [ui (xn ) ui+1 (xn )] + un1 (xn ) yn .
i=0

Damit folgt

n2
u0 (xn ) yn un1 (xn ) yn + ui (xn ) ui+1 (xn )
i=0

n2
un1 (xn ) yn + ui (xi+1 ) ui+1 (xi+1 )eL|xn xi+1 | .
i=0

Bei der letzten Abschatzung wurde Satz 2.2 angewandt, um die Die-
renz ui (xn ) ui+1 (xn ) auf die Dierenz der Anfangswerte ui (xi+1 )
ui+1 (xi+1 ) zuru
ckzuspielen. Wegen yi+1 = ui+1 (xi+1 ) hat man nun

n1
u0 (xn ) yn ui (xi+1 ) yi+1 eL|xn xi+1 | .
i=0

Die Beitrage auf der rechten Seite sind lokale Fehler nach einem Schritt.
Fu
r ein konsistentes Verfahren ist demnach
ui (xi+1 ) yi+1 c hip+1 c hpmax hi

34
mit hmax = max hi . Schlielich bekommen wir fu
r den globalen Fehler
i


n1
u0 (xn ) yn c hpmax hi eL|xn xi+1 |
i=0
xn
c hpmax eL(xn t) dt
x0
unter der Annahme xn > x0 . Mit Ausintegrieren lautet das Resultat:

Satz 3.1 Konvergenz von Einschrittverfahren


Sei f stetig sowie Lipschitzstetig mit Konstante L nach (2.5). Weiter habe
das Einschrittverfahren Konsistenzordnung p, d.h.
(h) = O(hp ) .
Dann gilt fu
r den globalen Diskretisierungsfehler
eL|Xx0 | 1
en (X) chpmax
L
wobei hmax = max hi .
i

Diskussion von Satz 3.1

1) Ordnung globaler Diskretisierungsfehler = Ordnung lokaler Diskretisie-


rungsfehler. Man sagt bei ESV auch kurz: Konsistenz = Konvergenz
2) Variable Schrittweiten sind zugelassen. Der Verstarkungsfaktor
1 L(xx0 )
L (e 1) ist jedoch von den Schrittweiten unabhangig.
4) Manchmal ndet man die Schreibweise e(h, x) statt en (x) fu r den glo-
balen Diskretisierungsfehler, um die Abhangigkeit von der Schrittweite
zu betonen. Oft besitzt e(h, x) eine asymptotische Entwicklung in h.

Einschrittverfahren sind demnach einfach zu analysieren: Man ermittelt den


lokalen Fehler (durch Taylorreihenentwicklung) und bekommt aus der Kon-
sistenz bereits globale Konvergenz.

35
3.3 RungeKuttaVerfahren

RungeKuttaVerfahren sind spezielle ESV, die in jedem Schritt die rechte


Seite mehrmals ausloten und die daraus gewonnenen Zwischenergebnisse
oder Zuwachse / Korrekturen linear kombinieren.
Beispiel 3.2: HeunVerfahren

K2

y
1
K1
y0

x x
0 1

Abbildung 19: Ansatz f


ur das Verfahren nach Heun

Diskretisierungsvorschrift
y1 = y0 + 12 h(K1 + K2 )
mit Korrekturen K1 = f (x0 , y0 ),
K2 = f (x1 , y0 + h K1 ),
bzw. mit Verfahrensfunktion :
y1 = y0 + h (x0 , y0 , h) ,
(x, y, h) = 21 [f (x, y) + f (x + h, y + hf (x, y))]
= 21 (K1 + K2 )

Das allgemeine Diskretisierungsschema fu


r einen Schritt eines RungeKutta
Verfahrens lautet
y1 = y0 + h(b1 K1 + b2 K2 + . . . + bs Ks ) (3.6)
mit Korrekturen / Zuwachsen
( )

i1
Ki = f x0 + ci h, y0 + h aij Kj , i = 1, . . . , s. (3.7)
j=1

36
Die Verfahrenskoezienten bi , ci fu
r i = 1, . . . , s sowie aij fu
r i = 1, . . . , s
und j i 1 legen die Methode fest, zusammen mit der Stufenzahl s.
Beispiel 3.3: HeunVerfahren
Stufenzahl s = 2 und Koezienten
1 1
b1 = , b2 = , c1 = 0, c2 = 1, a21 = 1.
2 2

Beispiel 3.4: Modiziertes EulerVerfahren

y1 = y0 + h K2
mit K1 = f (x0 , y0 ),
( )
K2 = f x0 + h2 , y0 + h
2 K1 .

Also s = 2 Stufen und Koezienten b1 = 0, b2 = 1, c1 = 0, c2 = 12 , a21 = 12 .

Praktischerweise fasst man die Koezienten in einem Tableau, dem soge-


nannten ButcherTableau, zusammen:

c1 0
c2 a21 ... 0
.. .. ... ... bzw. c A
. .
cs as1 . . . ass1 0 bT
b1 b2 . . . bs

Die Verfahren sind dann gegeben u


ber z.B. die Koezienten

0 0
1 1
1 1 Heun 2 2
mod. Euler
1 1
2 2 0 1

0
1 1
2 2
1 klassisches RungeKuttaVerfahren
2 0 12
(Runge 1895, Kutta 1901)
1 0 0 1
1 2 2 1
6 6 6 6

37
Koeffizientenbestimmung

Wie kommt man auf die Koezienten? Die Koezienten sind zunachst
freie Parameter des Verfahrens. Sie werden so bestimmt, dass das Verfahren
moglichst gut ist, d.h. eine moglichst hohe Ordnung erreicht. Wesentliches
Hilfsmittel bei der Bestimmung sind Taylorreihenentwicklungen der exakten
Losung und der numerischen Naherung.

Als Beispiel fu
r eine Koezientenbestimmung (den sogenannten Abgleich)
betrachte man den Fall s = 2:

Das RungeKuttaVerfahren lautet

y1 = y0 + h(b1 K1 + b2 K2 ) ,
K1 = f (x0 + c1 h, y0 ) , K2 = f (x0 + c2 h, y0 + ha21 K1 ).
Taylorentwicklung liefert

K1 = f (x0 , y0 ) + fx (x0 , y0 ) c1 h + O(h2 )


K2 = f (x0 , y0 ) + fx (x0 , y0 ) c2 h + fy (x0 , y0 )ha21 K1 + O(h2 )
= f (x0 , y0 ) + fx (x0 , y0 ) c2 h + fy f (x0 , y0 )ha21 + O(h2 )
= y1 = y0 +h(b1 + b2 )f (x0 , y0 )
+h2 (b1 c1 + b2 c2 )fx (x0 , y0 )
+h2 b2 a21 fy f (x0 , y0 ) + O(h3 )

Exakte Losung im Vergleich (s. Beispiel 3.1)


1
y(x0 + h) = y0 + hf (x0 , y0 ) + h2 (fx + fy f )(x0 , y0 ) + O(h3 )
2
Als Bedingungsgleichungen fu r Konsistenzordnung p = 2 ergeben sich dem-
nach
1 1
b1 + b2 = 1, b1 c1 + b2 c2 = , b2 a21 = . (3.8)
2 2
Als spezielle Losungen von (3.8) hat man u.a. das HeunVerfahren und den
modizierten Euler. Mit s = 2 Stufen ist jedoch die Ordnung p = 3 nicht
erreichbar!

38
Oensichtlich wird bereits bei s = 3 Stufen der Abgleich sehr aufwandig.
Das Vorgehen vereinfacht sich etwas, falls man nur autonome Dierenti-
algleichungen betrachtet. Man wird von einem fu r autonome Dierential-
gleichungen hergeleiteten Verfahren natu
rlich verlangen, dass es auch im
nichtautonomen Fall wohldeniert ist (d.h. invariant unter Autonomisie-
rung ist).

Wir vergleichen dazu y = f (x, y) mit der autonomisierten Gleichung


( ) ( )
y f (x, y)
Y = F (Y ), Y := , F (Y ) := .
x 1

Der RungeKuttaAnsatz ist fu


r beide Gleichungen nur dann aquivalent,
falls

i1
ci = aij , (3.9)
j=1


i1
denn wegen der letzten Zeile in F ergibt sich x0 + ci h = x0 + h aij 1 als
j=1
Forderung.

Damit genu gt es, den Abgleich nur im autonomen Fall durchzufu hren und
nachtraglich mit den Koezienten aij die Zwischenstutzstellen oder Knoten
ci mittels (3.9) zu denieren. Aber diese Erleichterung hilft nicht allzuviel,
um Verfahren mit s 3 Stufen und entsprechend hoherer Ordnung zu
gewinnen. Auch wenn die einzelnen Schritte nur aus wiederholter Taylo-
rentwicklung bestehen, ist der Abgleich auf diese Art und Weise schnell
nicht mehr handhabbar. Der folgende Satz gibt die Bedingungsgleichungen
bis Ordnung 4 an.

Satz 3.2 Ordnungsbedingungen


Seien f C p (D) und A, b, c die Koeffizienten des Runge-Kutta-Verfahrens.
Das Verfahren hat die Ordnung p, falls die Bedingung (3.9) und die folgen-

39
den Bedingungsgleichungen erfu
llt sind:

s
p=1: bi = 1 (1)
i=1

s
p=2: bi ci = 1/2 (2) sowie (1)
i=1

s
s
p=3: bi c2i = 1/3, bi aij cj = 1/6 (3) sowie (1) (2)
i=1 i,j=1
s s
p=4: bi c3i = 1/4, bi ci aij cj = 1/8,
i=1 i,j=1

s s
bi aij c2j = 1/12, bi aij ajk ck = 1/24 sowie (1) (3)
i,j=1 i,j,k=1

Fur Ordnungen p 5 hat Butcher ab 1963 ein graphentheoretische Hilfs-


mittel eingefu
hrt, die sogenannten ButcherBaume, um die auftretenden
elementaren Differentiale systematisch zu beschreiben. Beispielsweise ist
(autonomer Fall)
1 1
y(x0 + h) = y(x0 ) + hf (y0 ) + h2 f f (y0 ) + h3 (f (f, f ) + f f f ) (y0 ) + . . .
2 3!
Die Darstellung uber ButcherBaume sieht dann folgendermaen aus:
11
00
11
00
11
00
11
00
11
00
00
11 1
00
110 1
0 11
00
10
1 2 1 3
1
0
+ ...
y(x0 + h) = y(x0 ) + h + 00
11
h 1
0
+ h 01 00
11
+
2 3!

Auf diese Art und Weise gelingt es, die fortgesetzte Taylorentwicklung syste-
matisch und elegant darzustellen, und zwar sowohl fu r die exakte Losung als
auch fu
r die numerische Approximation. (Naheres in Deuhard/Bornemann
und Hairer/Wanner)

40
Verfahrenskonstruktion

Die in Satz 3.2 angegebenen Bedingungsgleichungen sind nichtlinear, und


deswegen stellt die Bestimmung geeigneter Koezienten, die sogenannte
Verfahrenskonstruktion, eine schwierige Aufgabe dar. Wir wollen im folgen-
den die Situation bei s = 4 Stufen naher betrachten und Verfahren der
Ordnung p = 4 konstruieren. (Zeige: Ordnung p = 4 ist mit s = 3 Stufen
nicht erreichbar!)

Insgesamt hat man mit der Konvention ci = aij die 10 Koezienten
b1 , b2 , b3 , b4 , a21 , a31 , a32 , a41 , a42 , a43 zu bestimmen, so dass samtliche Bedin-
gungen erfu llt sind.

Die Bedingung bi = 1 erinnert sofort an die Quadratur und legt nahe,
b1 , . . . , b4 als Gewichte einer Quadraturformel zu interpretieren. Fassen wir
die ci zusatzlich als Stu tzstellen im Intervall [0, 1] auf, so folgt aus den
Bedingungen

bi ci = 1/2, bi c2i = 1/3, bi c3i = 1/4,

r alle Polynome in P3 sein muss.


dass diese Quadraturformel exakt fu

Zwei Quadraturformeln konnen wir nun heranziehen:

a) Die Newtonsche 3/8-Regel mit

c = (0, 1/3, 2/3, 1)T , b = (1/8, 3/8, 3/8, 1/8)T .



Mit dieser Festlegung liefern bi aij cj = 1/6, bi ci aij cj = 1/8 sowie

bi aij ajk ck = 1/24 die Beziehungen

a32 = 1, a42 c2 + a43 c3 = 1/3, b4 a43 a32 c2 = 1/24.

Damit ist a43 = 1 und a42 = 1. Aus der Denition der ci ergeben sich
schlielich noch a21 = 1/3, a31 = 1/3, a41 = 1.

41
Resultat ist die Kuttasche 3/8-Regel
0
1 1
3 3
2
3 13 1
1 1 1 1
1 3 3 1
8 8 8 8

(Zu uberpru
fen ist noch die u
briggebliebene Bedingung bi aij c2j = 1/12,
die von diesen Koezienten tatsachlich erfu
llt wird.)

b) Die Simpson-Regel mit


c = (0, 1/2, 1/2, 1)T , b = (1/6, 2/6, 2/6, 1/6)T ,
wobei diese eigentlich nur 3 Knoten besitzt und deswegen der mittlere ver-
doppelt wurde. Ein analoges Vorgehen wie unter a) fu hrt dann auf das
klassische Runge-Kutta-Verfahren auf S. 37.

Wie oben erwahnt kann man mit Hilfe des Abgleichs u ber die Butcher-
Reihen die Bedingungsgleichungen fu r Verfahren hoher Ordnung ( 5) zwar
elegant aufstellen, die Zahl der Bedingungsgleichungen nimmt jedoch stark
zu:
Ordnung p 1 2 3 4 5 6 7
Mindeststufen s 1 2 3 4 6 7 9
# Bed.gleich. 1 2 4 8 17 37 85
# Zahl Koe. 1 3 6 10 21 28 45
Die Koezientenbestimmung ist dann nur noch mit weiteren vereinfachen-
den Annahmen (vergl. den Zugang u ber die Quadratur) und mit Computer
AlgebraUnterstu tzung (Maple, Mathematica) moglich. In der folgenden
Tabelle ist aufgefu
hrt, wieviele Stufen notwendig sind, um eine bestimmte
Ordnung zu erreichen. Oensichtlich gilt die Ungleichung s p.
Stufenzahl s 1 2 3 4 5 6 7 8
max. Ordnung p 1 2 3 4 4 5 6 6

42
3.4 Ru
ckw
artsanalyse des globalen Diskretisierungsfehlers

Nachdem wir nun mit den Runge-Kutta-Verfahren eine groe Klasse von
Methoden zur Verfugung haben, soll die in Abschnitt 3.2 gemachte Konver-
genzaussage um eine relativ neue Sichtweise erganzt werden. Ziel ist eine
Interpretation des globalen Fehlers im Sinne der Ru ckwartsanalyse. Wir
stellen uns dazu die folgende Frage: Kann man die numerische Losung yn
nach n Schritten als exakte Losung zu einer gestorten Dierentialgleichung
auassen? Und wie sieht diese Dierentialgleichung aus?

Wir betrachten dazu den autonomen Fall mit konstanter Schrittweite. Die
Verfahrensvorschrift eines expliziten ESV lautet dann

yi+1 = yi + h(yi , h),

wobei das Verfahren in eine Reihe entwickelt werden kann,

(y, h) = f (y) + hd2 (y) + h2 d3 (y) + . . .

Die Funktionen di sind aus dem Abgleich bekannt und setzen sich aus ele-
mentaren Dierentialen zusammen.
Beispiel 3.5: Beim expliziten Euler ist d2 = d3 = 0 da (y, h) = f (y). Beim Verfahren von
Heun dagegen ist
1 1
(y, h) = (f (y) + f (y + hf (y))) = (f (y) + f (y) + hf f (y) + O(h2 ))
2 2

und damit d2 (y) = fy f (y)/2.

Zu den diskreten Werten yi suchen wir nun eine kontinuierliche Funktion


y mit y(xi ) = yi fu
r i = 0, . . . , n, und diese Funktion soll einer gestorten
Dierentialgleichung genu gen, die wir ansetzen als Reihe

y = f ( y ) + h2 f3 (
y ) + hf2 ( y) + . . .

Unter der Voraussetzung y(xi ) = yi fu


r ein festes i konnen wir y(xi + h)

43
u
ber Taylorentwicklung darstellen als
y(xi + h) = yi + h(f (yi ) + hf2 (yi ) + h2 f3 (yi ) + . . .)
h2
+ (f (yi ) + hf2 (yi ) + . . .)(f (yi ) + hf2 (yi ) + . . .) + . . (3.10)
.
2
Auf der anderen Seite ist yi+1 u
ber
yi+1 = yi + hf (yi ) + h2 d2 (yi ) + h3 d3 (yi ) + . . . (3.11)
gegeben, so dass aus der Forderung yi+1 = y(xi + h) durch Vergleich der
Reihenentwicklungen die unbekannten Funktionen fi folgen. So ist z.B.
1
f2 (y) = d2 (y) f f (y). (3.12)
2
Bei einem Verfahren der Ordnung p ist nun
yi+1 = y(xi + h) + hp+1 p+1 (y(xi )) + O(hp+2 ),
so dass die fu
hrenden Terme in der Dierenz beider Entwicklungen bis zum
Index p herausfallen: fi = 0 fu
r i = 2, . . . , p. Zusammenfassend folgt

Satz 3.3 Ru ckwartsanalyse bei ESV


Gegeben sei ein ESV mit Konsistenzordnung p und fu hrendem Fehlerterm
p+1 (y). Dann kann die numerische Losung {yi } des autonomen AWP y =
f (y) interpretiert werden als exakte Losung des gestorten AWP
y = f (
y ) + hp fp+1 (
y ) + hp+1 fp+2 (
y) + . . . , y0 = y0 ,
wobei fp+1 (y) = p+1 (y) und y(xi ) = yi , i = 0, . . . , n.

Diskussion von Satz 3.3

1) Die in Satz 3.1 mithilfe einer Vorwartsanalyse und dem Lemma von
Gronwall gegebene Abschatzung fu r den globalen Diskretisierungsfeh-
L|Xx0 |
ler lautete en (X) chmax (e
p
1)/L. Fur groe Lipschitzkon-
stanten und lange Integrationsintervalle ist diese Abschatzung nicht be-
sonders aussagekraftig und oft viel zu pessimistisch. Die Ru
ckwartsana-
lyse erlaubt dagegen eine qualitative Interpretation.

44
2) Dieses relativ neue Resultat entfaltet seine ganze Wirkung erst im Zu-
sammenhang mit den sogenannten geometrischen Integratoren, siehe
Kap. 6. Literatur dazu: Hairer/Lubich/Wanner, Geometric Numerical
Integration, Springer 2002
3) Die Reihendarstellung des gestorten AWP mu nicht konvergieren,
vergl. die Problematik der asymptotischen Entwicklung. Sie kann aber
als Ausgangspunkt fu r den Nachweis einer solchen Entwicklung des
globalen Fehlers herangezogen werden.

3.5 Fehlersch
atzung und Schrittweitensteuerung

Die bisher vorgestellten Verfahren wurden fu


r ein gegebenes Gitter
x0 < x1 < . . . < xn1 < xn
formuliert. Das einfachste Gitter ist das aquidistante, doch diese Wahl ist
in den meisten Anwendungen wenig ezient. Ziel sollte es vielmehr sein,
das Gitter so zu wahlen, dass

(i) eine vorgegebene Genauigkeit der numerischen Losung erreicht wird,

(ii) der dazu notwendige Rechenaufwand moglichst minimal wird.

Im folgenden wollen wir die Grundlagen fur eine adaptive Gittersteuerung


kennenlernen, vergleiche dazu den Algorithmus des adaptiven Simpson bei
der numerischen Quadratur.

Verschiedene Faktoren sind bei der Gittersteuerung zu beru cksichtigen. Bild


20 gibt eine qualitative Darstellung des Gesamtfehlers im aquidistanten Fall.
Bei Vergroern der Schrittweite verringert sich der Aufwand, moglicherweise
steigt aber der Fehler an (vgl. Satz 3.1). Zu kleine Schrittweiten bedeuten
dagegen mehr Aufwand und groeren Einuss von Rundungsfehlern. Insbe-
sondere gibt es eine untere Schranke, die die Schrittweite nicht unterschrei-
ten sollte.

45
Gesamtfehler

p
e (x) = O(h )
n

Rundungsfehler

Abbildung 20: Verhalten des globalen Fehlers mit Rundungsfehlern

Schauen wir uns nun eine spezielle Losungskurve an, so wird man oensicht-

lich fordern, dass starke Anderungen in der Losung ein lokal feines Gitter
verlangen, wahrend annahernd konstante Abschnitte mit groen Schritten
durchlaufen werden konnen, Abb. 21.

x
groe Schrittweiten
kleine Schrittweiten

Abbildung 21: Nicht aquidistantes Gitter

Da das Losungsverhalten aber a priori nicht bekannt ist (im gewissen Ge-
gensatz zur Quadratur, bei der man den Integranden kennt), kann die
Gitterstruktur nicht zu Beginn der numerischen Integration festgelegt wer-
den. Stattdessen wird man die Gitterpunkte wahrend des Losungsprozesses
schrittweise anpassen, d.h. ausgehend von (xi , yi ) wird eine neue Schrittwei-
te hi bestimmt und damit xi+1 festgelegt. Man spricht deswegen von einer
Schrittweitensteuerung, kurz SWS.

46
Das Ziel der SWS kann nun so formuliert werden: Wahle hi so, dass die
nachste Naherung yi+1 eine vorgegebene Fehlertoleranz erfu
llt.

Allerdings steuern alle gangigen Verfahren nur den lokalen Fehler und nicht
den globalen! D.h., die Schrittweite hi wird so gewahlt, dass fu
r den aktu-
ellen Schritt gilt
u(xi+1 )|u(xi )=yi yi+1 (3.13)
mit vorgegebener Toleranz . Die exakte Losung u(x) zum AW u(xi ) = yi ist
im Kriterium (3.13) natu rlich nicht bekannt und muss durch eine Approxi-
mation yi+1 ersetzt werden. Man spricht deswegen von der Fehlerschatzung,
vergleiche das Vorgehen beim adaptiven Simpson.

Bei RungeKuttaVerfahren ist die folgende Technik am weitesten verbrei-


tet: Kombiniere ein Verfahren der Ordnung p (fu r yi+1 ) mit einem der Ord-
nung p+1 (fu
r yi+1 ). Man bezeichnet das Verfahren fu
r yi+1 als eingebettetes
Verfahren.

Formal im ButcherTableau

c A

s
bT
y1 = y0 + h bi Ki
i=1
bT s
bi Ki
y1 = y0 + h
i=1

Die Idee der Einbettung geht auf Fehlberg zuruck, und die von ihm ent-
wickelten adaptiven Verfahren nennt man deswegen RungeKuttaFehlberg
Verfahren. Details dazu und eine moderne Implementierung werden weiter
unten besprochen. Im folgenden konzentrieren wir uns auf die Grundidee
der Schrittweitensteuerung und nehmen an, eine zweite Approximation yi+1
der Ordnung p + 1 stehe zur Verfugung.

47
Mit den Naherungen yi+1 und yi+1 setzt man nun folgendermaen an, um
eine optimale Schrittweite hopt. zu bestimmen: Es gilt
.

yi+1 yi+1 = c hp+1 (yi+1 Konsistenzord. p).

Die Wunschschrittweite hopt. ist dagegen u


ber

c hp+1
opt.
=

gegeben. Durch Division folgt



hp+1 = hp+1
opt.

yi+1 yi+1
bzw.

hopt. = h p+1 . (3.14)

yi+1 yi+1
Die Vorschrift (3.14) bildet die Grundlage fu r die Schrittweitensteuerung
bei Einschrittverfahren. Wichtig dabei ist, dass die Idee der Herleitung ei-
gentlich nur fu
r kleine Schrittweiten gultig ist, denn nur dann macht die
p+1
Darstellung des Fehlerschatzers als ch Sinn.

Fur den Einsatz in der Praxis sind zahlreiche Heuristiken notwendig, um die
Leistungsfahigkeit der SWS zu optimieren und Sonderfalle abzufangen. We-
sentlich sind z.B. die Begrenzung der neuen Schrittweite nach oben/unten
und die Einfuhrung eines Sicherheitsfaktors.

Im folgenden Algorithmus ist diese Heuristik in den Grundzugen beru


cksichtigt.
Die einzelnen Schritte sind allgemein gehalten und greifen mit auf ein
Verfahren der Ordnung p zuru ck sowie mit auf eines der Ordnung p + 1.

48
Algorithmus 3.1 Einschrittverfahren adaptiv
Start: x0 , y0 , h0 , , xend gegeben;
i = 0;
while xi < xend
x = xi + hi ;
y = yi + hi (xi , yi , hi );
i , yi , hi );
y = yi + hi (x
e = y y;


hopt. = h p+1 ; % Sicherheitsf.
e
hopt. = min( hi , max(hi , hopt. )); % Schranken ,
if e
xi+1 = x;
yi+1 = y;
hi+1 = min(hopt. , xend xi+1 );
i = i + 1;
else
hi = hopt. ; % Wiederhole Schritt
end
end

Bemerkungen:

1) Die Konstanten , , sind abhangig vom konkreten Verfahren. Bei



einem Verfahren hoherer Ordnung kann eine groere Anderung von
hopt. zugelassen werden als bei einem Verfahren niedriger Ordnung.

2) Geeignete Norm zur Fehlerschatzung:


v
u ( )2
u1 n y
y
ERR = t
j j
, W T = |
y|
n j=1 AT OL + RT OL W Tj

mit absoluter/relativer Toleranz AT OL, RT OL. Statt e vergleicht


man dann den Fehler gegen 1, ERR 1.

49
In Algorithmus 3.1 wird die weniger genaue Losung als neue Approximation
herangezogen, denn fu r sie liegt mit der Dierenz y y ein Fehlerschatzer
vor. Diese Argumentation gilt heute als u berholt, und man rechnet in den
gangigen Verfahren mit der besseren Losung weiter, ein Vorgehen, das man
auch als lokale Extrapolation bezeichnet. Begru ndung: Der Fehlerschatzer
bezieht sich auf den lokalen Fehler und liefert kaum Information u ber den
eigentlich wichtigeren globalen Fehler. Stattdessen wird u ber die SWS das
Gitter an den lokalen Losungsverlauf angepasst, und diese Anpassung funk-
tioniert, wie die Erfahrung zeigt, mit der lokalen Extrapolation genauso gut,
mit dem zusatzlichen Plus der hoheren Ordnung.

Damit fuhren wir die folgende Verbesserung im Algorithmus 3.1 ein: ist ein
Verfahren der Ordnung p + 1 und eines der Ordnung p. Dann arbeitet der
Algorithmus automatisch im Modus der lokalen Extrapolation; alle anderen
Schritte bleiben wie gehabt.

Eingebettete Verfahren

Wie oben bereits erwahnt, stellt die Einbettung eines zweiten RK-Verfahrens,
das moglichst wenig zusatzlichen Aufwand erfordert, die gangige Technik
zur SWS dar. Am Beispiel des klassischen RK-Verfahrens mit p = 4 wollen
wir die prinzipielle Vorgehensweise studieren. Im Tableau haben wir also
eine zusatzliche Zeile
0
1 1
2 2
1 1
2 0 2
1 0 0 1
1 2 2 1
6 6 6 6
b1 b2 b3 . . . bs

50
Erster Ansatz: Wir nehmen s = 4 an und versuchen, die vier Koezienten
b1 , . . . , b4 so zu bestimmen, dass

y1 = y0 + h(b1 K1 + . . . + b4 K4 )

eine Approximation der Ordnung 3 darstellt. (Vergleiche die Diskussion


oben: Wir sehen das gegebene Verfahren als das bessere an und suchen dazu
ein zweites, das Information fu
r die SWS liefert.) Aus den Bedingungsglei-
chungen fur Ordnung p = 3 folgt (Satz 3.2)
b1 + b2 + b3 + b4 = 1, b2 /2 + b3 /2 + b4 = 1/2,
b2 /4 + b3 /4 + b4 = 1/3, b3 /4 + b4 /2 = 1/6,

wobei die Koezienten aij und ci bereits eingesetzt wurden. Einzige Losung
des linearen Gleichungssystems ist b = b, d.h. mit s = 4 ist es nicht moglich,
solch ein eingebettetes Verfahren zu konstruieren!

Zweiter Ansatz: Mit s = 5 bekommt man mehr Freiheitsgrade, dies soll-


te aber nicht zu einem hoheren Aufwand fu hren. Eine weitere Auswertung
einer Korrektur K5 stellt einen solchen Aufwand dar, dieser fallt aber durch
den Fehlberg-Trick nicht ins Gewicht: Wir bestimmen die neu ins Spiel kom-
menden Koezienten c5 , a51 , . . . , a54 so, dass

K5 (alter Schritt) = K1 (neuer Schritt). (3.15)

Man nennt diese Technik auch FSAL (FirstSameAsLast). Konkret bedeutet


dies

K5 (a.S.) = f (x0 +c5 h, y0 +h a5j Kj ) = f (x0 +h, y0 +h bi Ki ) = K1 (n.S.).

Also ist c5 = 1 und a5j = bj fu


r j = 1 : 4. Mit diesen Koezienten geht man
nochmals in die Bedingungsgleichungen fu r die Ordnung p = 3. Es zeigt
sich: Nun existiert eine ganze Familie von Gewichten b, die die Ordnung 3

51
liefern. Ein Beispiel zeigt das folgende Butcher-Tableau:

0
1 1
2 2
1
20 12
1 0 0 1
1 16 26 26 1
6
1 2 2 1
6 6 6 6 0
1 2 2 1
6 6 6 0 6

Die Auswertung der Dierenz y y reduziert sich hier auf die einfache
Formel y y = (K1 (n.S.) K4 (a.S.))/6, d.h. die Groe y muss gar nicht
explizit berechnet werden.

Bemerkung:
Eine in der Herleitung einfache, aber in der Auswertung teure Alternative
zu den eingebetteten Verfahren ist die Richardson-Extrapolation, bei der
ein Schritt y1 = y0 + 2h(x0 , y0 , 2h) mit doppelter Schrittweite und zwei
Schritte y1/2 = y0 +h(x0 , y0 , h), y1 = y1/2 +h(x0 +h, y1/2 , h) mit einfacher
Schrittweite miteinander kombiniert werden, um mittels Extrapolation eine
Approximation hoherer Ordnung zu erhalten. Siehe dazu den Abschnitt
u
ber Extrapolation unten.

Das Dormand-Prince-Verfahren DOPRI5(4)

Das zur Zeit wohl am weitesten verbreitete und fu


r mittlere Genauigkeits-
anforderungen ezienteste explizite Runge-Kutta-Verfahren geht auf Dor-
mand und Prince (1980) zuruck.

Das Verfahren hat die Ordnung 5 mit einem eingebetteten Verfahren der
Ordnung 4, daher stammt die Namensgebung DOPRI5(4). Erreicht wird
dies mit s = 6 und s = 7 Stufen, wobei durch den FSAL-Ansatz die
zusatzliche Stufe nicht ins Gewicht fallt. Man hat also eektiv nur 6 Stufen

52
pro Schritt auszuwerten. Der Koezientensatz lautet

0
1 1
5 5
3 3 9
10 40 40
4 44 56 32
5 45 15 9
8 19372 25360 64448 212
9 6561 2187 6561 729
9017 355 46732 49 5103
1 3168 33 5247 176 18656
35 500 125 2187 11
1 384 0 1113 192 6784 84
35 500 125 2187 11
384 0 1113 192 6784 84 0
5179 7571 393 92097 187 1
57600 0 16695 640 339200 2100 40

Die Bestimmung der Koezienten erfolgte nach mehreren Kriterien:

(i) Der fuhrende Fehlerterm 6 (y) des Verfahrens 5. Ordnung soll moglichst
hrende Fehlerterm 5 (y) des Verfahrens 4. Ordnung dage-
klein sein, der fu
gen soll moglichst dominant sein im Vergleich zu den weiteren Termen der
zugehorigen Fehlerentwicklung.
(ii) Der Term 5 (y), der sich ja aus elementaren Dierentialen von f zusam-
mensetzt, soll im Sonderfall der Quadratur f = f (x) nicht verschwinden.
(iii) Die Koezienten ci sollen in [0, 1] liegen und verschieden sein.

In die Bestimmung gehen daneben auch viel Erfahrung und Fingerspitzen-


gefu
hl ein!

Einen guten Integrationscode zeichnen aber nicht nur die Koezienten aus.
Zwei weitere Aspekte sind von besonderer Bedeutung:

Kontinuierliche L osungsdarstellung oder Dense Output: Die SWS


sorgt dafu
r, dass der Integrator moglichst groe Schritte macht, um eine
vorgegebene Genauigkeit einzuhalten. Oft will man aber die Losung zu sehr
vielen Zeitpunkten auswerten, und dies ohne die Integration mit entspre-
chend verkleinerten Schritten durchfu hren zu mu ssen. Hilfsmittel dazu ist
eine kontinuierliche Losungsdarstellung (engl. Dense Output), d.h. ein In-
terpolant, der die diskreten Daten (xi , yi ) interpoliert und dazwischen die

53
exakte Losung moglichst gut approximiert. Grundsatzlich geht man dabei
intervallweise vor und konstruiert nach jedem Schritt den Interpolanten auf
[xi , xi+1 ].

Die einfachste Methode bei ESV verwendet die Daten yi , fi sowie yi+1 , fi+1
und konstruiert das HermiteInterpolationspolynom vom Grad 3
u() = (1 )yi + yi+1 + ( 1) ((1 2)(yi+1 yi ) + ( 1)hfi + hfi+1 )
mit 0 1. Probe: u(0) = yi , u (0) = yi = fi , u(1) = yi+1 , u (1) = fi+1

Falls das Verfahren Ordnung p 3 hat, stellt der Hermite-Interpolant eine


stetige Erweiterung des Runge-Kutta-Verfahrens dar, die die exakte Losung
im aktuellen Intervall mit Ordnung 3 approximiert und global C 1 ist. Damit
kann der Integrator nach jedem Schritt u berprufen, ob Ausgabepunkte er-
reicht wurden und nachtraglich an diesen Stellen das Polynom u auswerten.

Zu DOPRI5(4) wurde eine stetige Erweiterung der Ordnung 4 entwickelt,


die auf einem Polynom vom Grad 5 basiert.

Verbesserte SWS mit PI-Regler: Die Steuerung der Schrittweite wur-


de im Jahre 1988 durch eine regelungstheoretische Analyse (Gustafsson /
Lundh / Soderlind) auf ein solideres Fundament gestellt. Insbesondere ver-
besserte man die Formel (3.14) fur die neue Schrittweite um einen Korrek-
turterm, der fu
r glattere Schrittweitenverlaufe und weniger Schrittverwer-
fungen sorgt.

Die Formel (3.14) ist in diesem Zusammenhang ein I-Regler , d.h. sie beruck-
sichtigt die Summe der bisherigen Abweichungen vom Sollwert (das Inte-
gral). Ein PI-Regler ist zusatzlich Proportional zur letzten Abweichung vom
Sollwert und aus regelungstechnischer Sicht besser. Man kommt so auf die
Schrittweitenformel
( ) ( )

yi yi
hi+1 = hi (3.16)

yi+1 yi+1
mit Konstanten = 0.7/p, = 0.4/p. Speziell fu
r DOPRI5(4) in der Im-

54
plementierung von Hairer kann wahlweise die PI-Steuerung (3.16) oder die
klassische Variante (3.14) eingesetzt werden, mit zusatzlichen Sicherheits-
faktoren.

Numerische Software

Es existiert eine Vielzahl von expliziten Runge-Kutta-Verfahren und zu-


gehorigen Implementierungen. Hier eine Auswahl:

Klassische Verfahren nach Fehlberg: RKF2(3), RKF4(5), RKF7(8)


Hier wurde noch die urspru
ngliche Idee der SWS verfolgt, das eingebettete
Verfahren hat eine Ordnung mehr.

DOPRI5(4) Dormand/Prince 1980, Ordnung p = 5


DOPRI8(53) Dormand/Prince 1981, Hairer 1996, p = 8

In MATLAB steht das Dormand/PrinceVerfahren der Ordnung 5 als ode45


zur Verfugung. Daneben bietet MATLAB noch ein RK-Verfahren ode23
an, das aber nur bei geringen Genauigkeitsanforderungen oder nicht glatter
rechter Seite f zu empfehlen ist.

FORTRANCodes ndet man unter


ftp://ftp.unige.ch/pub/doc/math

(Codes zum Buch Hairer/Norsett/Wanner)

Beispiel 3.6: In Abbildung 22 sieht man die numerische Losung der Van-der-Pol-Gleichung in
der Fassung (2.2) mit = 2, AW y0 = (3, 0)T und Intervall [0, 14]. Der Integrator ode45 aus MAT-
LAB lost die Dierentialgleichung mit der Standardeinstellung ATOL=1.e6 und RTOL=1.e3.
Mit markiert sind die diskreten Approximationen, so dass man sich einen Eindruck von den
Schrittweitenanderungen und der Gitteranpassung machen kann. Integrationsstatistik: NST = 58
(Gesamtzahl Schritte), NEF = 8 (verworfene Schritte).

55
4

y2 1

4
3 2 1 0 1 2 3
y1

Abbildung 22: Numerische Losung der Van-der-Pol-Gleichung mit ode45

3.6 Extrapolationsverfahren

Das Prinzip der Extrapolation hatten wir schon in Numerik II bei der Rom-
bergquadratur kennengelernt. Grundlage jeder Extrapolationstechnik ist die
Existenz einer asymptotischen Entwicklung. Fu r die Klasse der ESV reicht
dafu
r bereits eine Darstellung des lokalen Fehlers als Reihe

y(x) + h(x, y(x), h) = y(x + h) + hp+1 p+1 (y(x)) + hp+2 p+2 (y(x))
+ . . . + hN +1 N +1 (y(x)) + O(hN +2 )
(3.17)
aus. Es gilt der folgende Satz:

Satz 3.4 Asymptotische Entwicklung des globalen Fehlers bei ESV


Seien f und die Verfahrensfunktion hinreichend oft stetig differenzierbar,
und besitze eine Darstellung des lokalen Fehlers nach (3.17). Dann besitzt
der globale Fehler nach n Schritten mit Schrittweite h in X = x0 + nh eine
Entwicklung der Form

y(X) yn = hp ep (X) + hp+1 ep+1 (X) + . . . + hN eN (X) + hN +1 E(X, h),

56
r 0 h h0 beschrankt ist.
wobei das Restglied E(X, h) fu
Beweis: Wir schreiben yh (X) = yn f
ur die numerische Approximation und suchen im ersten
Schritt eine Funktion ep mit

y(x) yh (x) = hp ep (x) + o(hp ).

Die Summe yh (x) := yh (x) + hp ep (x) interpretieren wir als neues Verfahren mit der diskreten
i , yi , h). Es folgt f
Vorschrift yi+1 = yi + h(x die Beziehung
ur die Inkrementfunktion


(x, y, h) = (x, y hp ep (x), h) + hp1 (ep (x + h) ep (x)),

ein Verfahren der Ordnung p + 1 deniert. Die Inkrement-


und wir wollen nun erreichen, dass
wird entwickelt zu
funktion


(x, y(x), h) = (x, y(x), h) hp (x, y(x), h)ep (x) + hp ep (x) + O(hp+1 ),
y
wobei zudem gilt
f
(x, y, h) = (x, y, 0) + O(h) = (x, y) + O(h)
y y y
wegen (x, y(x), 0) = y (x) = f (x, y(x)). Mit Einsetzen der Entwicklung f ur und (3.17) folgt

der lokale Fehler von zu
( )


y(x) + h(x, y(x), h) = y(x + h) + h p+1
p+1 (y(x)) f (x, y(x))ep (x) + ep (x) + O(hp+2 ).
y

Falls also die gesuchte Funktion ep die Dierentialgleichung


ep (x) = f (x, y(x))ep (x) p+1 (y(x))
y

mit Anfangswert ep (x0 ) = 0 erf ein Verfahren der Ordnung p + 1. F


ullt, ist ur den globalen

Fehler von gilt mit Satz 3.1

y(X) yh (X) = O(hp+1 ) y(X) yh (X) = hp ep (X) + O(hp+1 ).

Die nachste Koezientenfunktionen ep+1 bestimmt man analog, ausgehend vom neuen gedach-

ten Verfahren . 

Satz 3.4 schat die Grundlage fu


r eine neue Art der Verfahrenskonstruktion,
die auf der Extrapolation basiert. Beispielsweise kann man zum expliziten
Eulerverfahren als Basisalgorithmus mit Ordnung p = 1 folgendes Verfahren
der Ordnung k konstruieren:

57
1) Wahle Mikroschrittweiten hi = H/ni mit der Makroschrittweite H und
z.B. ni {1, 2, 3, 4, 5, . . .} (Harmonische Folge) oder
ni {1, 2, 3, 4, 6, 8, 12 . . .} (Bulirsch-Folge).

2) Berechne Ti,1 := yhi (x0 + H) fu


r i = 1, . . . , k.

3) Das Polynom P (h) vom Grad k 1 wird so gewahlt, dass es die diskreten
Approximationen interpoliert, P (hi ) = Ti,1 fu
r i = 1, . . . , k. Die Extrapola-
tion zum Grenzwert h = 0 eliminiert alle Terme der Expansion und liefert

P (0) =: y = y(x0 + H) + O(H k+1 ) (3.18)

(Begru
ndung s.u.). Damit liegt ein Einschrittverfahren der Ordnung k vor.

4) Praktische Durchfu
hrung: Mit dem Aitken-Neville-Schema
Tj,l1 Tj1,l1
Tj,l = Tj,l1 +
nj /njl+1 1
wird das Extrapolationstableau

T1,1
T2,1 T2,2
T3,1 T3,2 T3,3
.. .. .. ..
. . . .
Tk,1 Tk,2 Tk,3 . . . Tk,k
aufgebaut. Die Spalte l enthalt dann Approximationen der Ordnung l, und
Tkk = y = P (0).

Jeder Eintrag im Extrapolationstableau lat sich als ein spezielles expli-



zites Runge-Kutta-Verfahren interpretieren (s. Ubung). Damit liefert das
Tableau neben einem Verfahren der Ordnung k automatisch weitere Verfah-
ren, die sich zur Fehlerschatzung eignen (Steuerung der Makroschrittweite
H). Mehr noch: Die Ordnung k kann sogar von Schritt zu Schritt erhoht
oder erniedrigt werden, indem man weitere Mikroschrittweiten hinzu- oder
wegnimmt.

58
Begru
ndung fu
r (3.18): Nach Satz 3.4 ist

Ti,1 = y(x0 + H) hi e1 h2i e2 . . . hk1


i ek1 hki E(x0 + H, hi )

Wir gehen nun analog zur Rombergquadratur vor (dort allerdings war eine h2 -Entwicklung die
Basis). Das Polynom P hat die Lagrange-Darstellung


k
k
k
P (h) = Ti,1 li (h) = y(x0 + H) h0i li (h) e1 hi li (h) . . .
i=1 i=1 i=1

k
k
ek1 hk1
i li (h) E(x0 + H, hi )hki li (h).
i=1 i=1

Da hl sich selbst interpoliert, gilt ur l = 0, . . . , k 1, und daher
hli li (h) = hl f


k
P (0) = y(x0 + H) E(x0 + H, hi )hki li (0)
i=1


k
k hi
= y(x0 + H) + (1)k hi E(x0 + H, hi )
hi hl
i=1 i=1 l=i

Weil der letzte Term durch eine Konstante abgeschatzt werden kann, hi /(hi hl ) ck , und
E(x0 + H, hi ) = O(H), bekommt man schlielich die Aussage (3.18).

Der GBS-Algorithmus
Der Aufwand der Extrapolation lohnt im Vergleich zu den Runge-Kutta-
Verfahren nur, wenn eine h2 -Entwicklung (und nicht eine h-Entwicklung wie
oben) vorliegt. Das Standardverfahren in diesem Fall ist die GBSMethode
nach Gragg/Bulirsch/Stoer (1966).

Betrachte das Intervall [x0 , X] mit X = x0 + H und Makroschrittweite H.


Der Grundalgorithmus zur Berechnung einer Naherung fur y(X) sieht dann
folgendermaen aus:
hi = H/ni ; [Mikroschrittweite]
y1 = y0 + hi f (x0 , y0 ) [Expl. Euler als Start]
j = 1, . . . , ni 1
xj = xj1 + hi ; yj+1 = yj1 + 2hi f (xj , yj ); [Mittelpunktregel]
Nach dem Startschritt werden ni 1 Schritte mit der expliziten Mittel-
punktregel (Mehrschrittverfahren der Ordnung p = 2) durchgefuhrt. Man

59
erhalt so yni (hi ) als Naherung fu
r y(X). Fu
r genu
gend glattes f und ni gera-
de besitzt yn (h) eine asymptotische Entwicklung analog der Trapezsumme
in der Rombergquadratur (siehe Stoer-Bulirsch, Kap. 7.2)
y(X) yn (h) = h2 1 (X) + . . . + h2N N (X) + h2N +2 (X, h). (3.19)
Wiederum ist das Restglied (x, h) beschrankt. Aufgrund der h2 -Entwicklung
kann man mit wenigen Extrapolationsschritten eine sehr hohe Ordnung rea-
lisieren! Deswegen ist das auf dieser Entwicklung basierende Extrapolati-
onsverfahren, der GBS-Algorithmus, eine etablierte Methode zur Losung
gewohnlicher Dierentialgleichungen, vor allem bei hohen Genauigkeitsan-
forderungen. Details siehe Deuhard/Bornemann und Hairer/Wanner.
Bemerkungen:
1) Die explizite Mittelpunktregel ist ein 2SchrittVerfahren, siehe nachstes
Kapitel. Das aus ihr abgeleitete ExtrapolationsVerfahren kann dage-
gen wie oben als RungeKuttaVerfahren interpretiert werden!
2) Oft wird ein sogenannter Glattungsschritt nach Gragg durchgefu
hrt.
Statt yni nimmt man
1
yni := [yni 1 + 2yni + yni +1 ]
4
Die Bedeutung in der Praxis ist umstritten.
3) Da die Entwicklung (3.19) nur fur ni gerade gilt, muss die Schrittwei-
tenfolge ebenfalls auf geraden Unterteilungen von H basieren:
RombergFolge { 1, 2, 4, 8, . . .}
BulirschFolge { 1, 2, 3, 4, 6, 8, . . .}

4) Codes mit variabler Makroschrittweite H und variabler Ordnung:


ftp.unige.ch/pub/doc/math Code ODEX (Hairer / Wanner)
zib-berlin.de Code DIFEX (Deuhard)
www-m3.mathematik.tu-muenchen.de/m3/software.html
Matlab-Interfaces von Ch. Ludwig

60
Kapitel 4
Mehrschrittverfahren

Mehrschrittverfahren (MSV) bilden neben den ESV die zweite groe Verfah-
rensklasse. Bei ihnen ieen Daten / Losungspunkte aus der Vergangenheit
in die Berechnungvorschrift mit ein. Genauer:
.
In einem kSchrittverfahren berechnet man die Approximation yi+1 = y(xi+1 )
aus den Daten

(xik+1 , yik+1 ), (xik+2 , yik+2 ), . . . , (xi1 , yi1 ), (xi , yi ).

Die Daten stammen aus den vorherigen Schritten oder einer Anlaufrech-
nung. Neben der Konsistenz ist die Eigenschaft der Stabilitat bei MSV
notwendig, um die Konvergenz zu zeigen. Insofern zeigt sich hier ein we-
sentlicher Unterschied zu den ESV.

4.1 Verfahrensklassen

AdamsVerfahren. Zur Herleitung der AdamsVerfahren integriert man


die Dierentialgleichung y = f (x, y) von xi bis xi+1 und erhalt
xi+1
y(xi+1 ) = y(xi ) + f (x, y(x)) dx . (4.1)
xi

61
Der Integrand in (4.1) hangt von der (unbekannten) Losung y ab und wird
nun durch ein Interpolationspolynom p ersetzt. Zwei Falle werden unter-
schieden:

a) Das Polynom p interpoliert fik+j = f (xik+j , yik+j ) , j = 1, . . . , k


f

fik+1
1111
0000
0000
1111
p(x)
fi 1111
0000
f i1
0000
1111
0000
1111 Integration y
0000
1111 i+1
0000
1111
x ik+1 x i1 xi0000
1111x x
i+1

Abbildung 23: Idee der Adams-Bashforth-Verfahren

Uber die Lagrange-Interpolation hat man die Darstellung



k
k
x xik+
p(x) = fik+j li,j (x) mit li,j (x) = .
j=1 =1
xik+j xik+
=j

Mit Einsetzen von p(x) im Integral in (4.1) folgt



k xi+1
1
yi+1 = yi + hi i,j fik+j , i,j := li,j (x) dx.
j=1
hi
xi

Fur aquidistantes Gitter xi = x0 + i h sind die Koezienten i,j =: j1 ,


j = 1, . . . , k unabhangig vom Schritt i,
xi+1 1
k
x0 + ih + sh (x0 + (i k + )h)
li,j (x) dx = h ds
=1
x0 + (i k + j)h (x0 + (i k + )h)
xi 0 =j

1
k
k+s
= h ds.
=1
j
0
| {z }
=j

=:j1

62
Die Verfahrensvorschrift schreibt sich dann folgendermaen:
yi+1 = yi + h(0 fik+1 + 1 fik+2 + . . . + k1 fi ) (4.2)
As spezielle Verfahren hat man
k=1 yi+1 = yi + hfi ,
( )
k=2 yi+1 = yi + h 12 fi1 + 23 fi ,
(5 )
k=3 yi+1 = yi + h 12 fi2 12
16
fi1 + 23
12 fi .
Die so gewonnenen expliziten MSV nennt man AdamsBashforthVerfahren.

b) Ein alternativer Zugang fordert, dass das Polynom p die Werte fik+j
fu
r j = 1, . . . , k, k + 1 interpoliert. Da p damit von yi+1 abhangt, liegt ein
implizites Verfahren vor.

p(x)
111
000
f i+1
000
111
fi
000
111
000
111
000
111
000
111
x ik+1 xi x i+1 x

Abbildung 24: Idee der Adams-Moulton-Verfahren

Analoge Konstruktion des Interpolanten wie unter a) liefert



k+1
k+1
x xik+

p(x) = fik+j li,j (x), li,j (x) = .
j1 =1
xik+j xik+
=j

Bei aquidistantem Gitter erhalt man die Koezienten


1
k+1
k+s
j1 = ds, j = 1, . . . , k + 1
=1
j
0 =j

63
und als Verfahren
yi+1 = yi + h(0 fik+1 + . . . + k1

fi + k fi+1 ). (4.3)
Spezielle Vertreter sind
( )
k=1 yi+1 = yi + h 12 fi + 12 fi+1 Trapezregel,
( 1 )
k=2 yi+1 = yi + h 12 fi1 +, 12 fi + 12
8 5
fi+1 .
Diese Klasse von impliziten MSV bezeichnet man als AdamsMoulton
Verfahren. Der Fall k = 0 macht auch Sinn, daraus ergibt sich
yi+1 = yi + hfi+1 Impliziter Euler.
AdamsVerfahren sind in der Praxis von groer Bedeutung und werden
meist als PradiktorKorrektorSchema implementiert:
(0)
(i) yi+1 = yi + h(0 fik+1 + . . . + k1 fi )
(Startschritt mit explizitem AdamsBashforthVerfahren)
(l+1) (l)
(ii) yi+1 = (yi+1 ), l = 0, 1, . . .
Fixpunktiteration Korrektorschritt; mit implizitem AdamsMoulton
Verfahren, wobei
(y) := hk f (xi+1 , y) + yi + h(0 fik+1 + . . . + k1

fi ).

Die Integration im Korrektor konvergiert fu


r h hinreichend klein gegen einen
Fixpunkt mit y = (y), da dann
(y) = h|k | fy (xi+1 , y) M < 1
gezeigt werden kann (vgl. Banachscher Fixpunktsatz).

Verfahren nach Nystr om und Milne. Analog zur Herleitung der Adams
Verfahren kann man weitere MSV konstruieren, indem man y = f (x, y) von
xi1 bis xi+1 integriert, d.h. u
ber 2 Intervalle. Der Fall a) mit explizit gege-
benem Interpolanten p fu hrt dann auf die NystromVerfahren. Ein Beispiel
ist der Fall
k=2 yi+1 = yi1 + 2hfi ,

64
der die beim GBS-Algorithmus in Abschnitt 3.6 eingesetzte Mittelpunktre-
gel liefert.

Der Fall b) mit implizitem Ansatz deniert die Verfahren nach Milne. Als
Beispiel betrachte

k=2 yi+1 = yi1 + h/3(fi1 + 4fi + fi+1 ),

eine Verallgemeinerung der Keplerschen Fassregel aus der Quadratur (Ver-


fahren von MilneSimpson).

BDFVerfahren. Die Herleitung der BDF (Backward Difference Formulas)


Verfahren basiert auf der Differentation (und nicht der Integration wie bei
Adams). Man konstruiert einen Interpolanten q(x) durch

(xik+1 , yik+1 ), . . . , (xi , yi ), (xi+1 , yi+1 )

und fordert, dass q(xi+1 ) die Dierentialgleichung erfu


llt, d.h.

q (xi+1 ) = f (xi+1 , q(xi+1 )) = f (xi+1 , yi+1 ).

In der Lagrange-Darstellung ist



k+1
k+1
,

q(x) = yik+j li,j (x) q (xi+1 ) = yik+j li,j (xi+1 ).
j=1 j=1

Im Fall aquidistanter Schrittweiten gilt weiter



1 d k + s
k+1
d
l (x)|x=xi+1 = |s=1
dx i,j h ds =1 j
| {z }
=j

=:j1

Die Koezienten 0 , . . . , k sind wiederum unabhangig vom Schritt i, und


allgemein lautet das k-Schritt-BDF-Verfahren dann

0 yik+1 + . . . + k1 yi + k yi+1 = hfi+1 . (4.4)

65
BDFVerfahren sind implizit und nden vor allem bei steifen Dierential-
gleichungen Anwendung (s. Kapitel 5). Beispiele sind

k=1 yi+1 yi = hf (xi+1 , yi+1 ) (Impliziter Euler)


2 yi+1 2yi + 2 yi1 = hfi+1
3 1
k=2 (BDF-2)
6 yi+1 3yi + 2 yi1 3 yi2
11 3 1
k=3 = hfi+1 (BDF-3)
Im Folgenden werden alle bisher eingefu
hrten Verfahren unter einer einheit-
lichen Notation zusammengefat und analysiert. Statt

0 yik+1 + . . . + k yi+1 = h(0 fik+1 + . . . + k1 fi + k fi+1 )

schreibt man ein lineares k-Schritt-Verfahren bequemer als

0 yi + 1 yi+1 + . . . + k yi+k = h(0 fi + . . . + k fi+k )

bzw. kurz

k
k
l yi+l = h l fi+l (4.5)
l=0 l=0
mit zunachst beliebigen reellen Verfahrenskoezienten l und l .

4.2 Konsistenz von MSV

Analog zu den ESV untersuchen wir nun den Fehler eines MSV in einem
Schritt. Dazu gibt es verschiedene Ansatze, die im Wesentlichen aquivalent
sind. Wir verwenden hier den Defekt als lokale Fehlerdenition, vgl. Deni-
tion 3.1.
Definition 4.1 Lokaler Diskretisierungsfehler MSV
Sei y(x) exakte Losung des AWP y = f (x, y), y(x0 ) = y0 . Der lokale Dis-
kretisierungsfehler des MSV (4.5) mit konstanter Schrittweite h ist definiert
als Defekt
( k )
1
k
(h) := l y(xi+l ) h l f (xi+l , y(xi+l )) .
h
l=0 l=0

66
Das Fehlerma (h) ergibt sich also durch Einsetzen der exakten Losung in
die Dierenzengleichung (4.5). Im Sonderfall exakter Daten

yi = y(xi ), . . . , yi+k1 = y(xi+k1 )

hat man fu
r die numerische Losung unter der Annahme k = 0 (explizites
Verfahren)

k1
k1
k yi+k + l yi+l = h l fi+l
l=0 l=0
und fu
r die exakte Losung

k1
k1
k y(xi+k ) + l y(xi+l ) = h l fi+l + h (h)
l=0 l=0
k
= (h) = (y(xi+k ) yi+k ) . (4.6)
h
Die Darstellung (4.6) ist analog zur Denition 3.1 des lokalen Fehlers bei
ESV. Oft normiert man das MSV noch durch k := 1, so dass (4.6) un-
abhangig von Verfahrenskoezienten geschrieben werden kann.

Definition 4.2 Konsistenzordnung MSV


Ein MSV heisst konsistent, falls der lokale Diskretisierungsfehler (h) fu
r
h 0 ebenfalls gegen 0 strebt:

(h) (h) mit lim (h) = 0 .


h0

Das MSV hat Konsistenzordnung p, falls

(h) = O(hp ) .

Zur Bestimmung der Konsistenzordnung eines MSV fu hrt man ahnlich den
RKVerfahren einen Abgleich durch und ermittelt Bedingungsgleichungen
fu
r die Koezienten l , l . Man setzt an
( k )
1 k
l y(x + lh) h l y (x + lh) = (h)
h
l=0 l=0

67
1
mit y(x + lh)) = y(x) + y (x)lh + y (x)(lh)2 + . . .
2
1
y (x + lh)) = y (x) + y (x)lh + y (x)(lh)2 + . . .
2
Sortieren nach hPotenzen ergibt

1 k k

(h) = y(x) l + y (x) (l l l )
h
l=0 l=0

h k
+ y (x) (l l2 2l l)
2
l=0
..
. (4.7)
hp1 (p) k
+ y (x) (l lp p l lp1 )
p!
l=0
p
+ O(h )

Ein MSV ist demnach konsistent, falls



k
k
l = 0 und (l l l ) = 0. (4.8)
l=0 l=0

Fur die Ordnung p 1 mussen auch die hoheren Terme in der Entwicklung
(4.7) herausfallen, d.h.

k
k
q
l l = q l lq1 fu
r q = 1, . . . , p. (4.9)
l=0 l=0

Beispiel 4.1: Gegeben ist das MSV

yi+2 + 4yi+1 5yi = h(4fi+1 + 2fi ).

Die Verfahrenskoezienten sind also 2 = 1, 1 = 4, 0 = 5, 1 = 4, 0 = 2



Konsistent: l = 0, l l l = (5 0 2) + (4 1 4) + (1 2) = 0

p=2: l l2 2l l = (5 0 2 0) + (4 1 8) + (1 4) = 0

p=3: l l3 3l l2 = (5 0 2 0) + (4 1 12) + (1 8) = 0

68
Also liegt ein 2SchrittVerfahren der Konsistenzordnung p = 3 vor.

Alternativ zu den Bedingungsgleichungen (4.8) und (4.9) benutzt man die


erzeugenden Polynome

() : = k k + . . . + 1 + 0 , (4.10)
() : = k k + . . . + 1 + 0 , (4.11)

um die Konsistenzordnung zu charakterisieren. Es folgt unmittelbar die

Aquivalenz der Konsistenzbedingung (4.8) mit

(1) = 0 und (1) = (1). (4.12)

Die weiteren Bedingungen erhalt man u


ber den Ansatz

k
k
1
h lh
(e ) = l e = l (1 + lh + (lh)2 + . . .)
2
l=0 l=0
k k
1
(eh ) = l elh = l (1 + lh + (lh)2 + . . .)
2
l=0 l=0

Daraus schliet man auf



k
k
(e ) h(e ) =
h h
l + h (l l l )
l=0 l=0

1
k
+ h2 (l l2 2l l)
2
l=0
..
. (4.13)
hp
k
+ (l lp pl lp1 ) + O(hp+1 ).
p!
l=0

D.h., die Entwicklung (4.7) lasst sich auch u


ber die Exponentialfunktion
kompakt darstellen. Setzt man noch h = ln , dann ist h = 0 = 1 und

(eh )h(eh ) = O(hp+1 ) ()ln () hat = 1 als p+1fache NST

69
Satz 4.1 Konsistenzordnung MSV

Das MSV l yi+l = h l fi+l hat die Konsistenzordnung p, falls eine der
drei aquivalenten Bedingungen erfullt ist:


k
k
q

k
(i) l = 0 und l l = q l lq1 fu
r q = 1, . . . , p
l=0 l=0 l=0

(ii) (eh ) h(eh ) = O(hp+1 ) fu


r h 0.

(iii) () ln () hat = 1 als p + 1fache Nullstelle

Bemerkungen
1) In der Literatur schreibt man oft (x, y, h) statt (h), um die Abhangig-
keit vom Gitter und der Losung zu betonen. Bedingung (ii) oben be-
deutet dann (x, exp, h) = O(hp ) . Ein anderer Ansatz verwendet statt
(x, y, h) den Dierenzenoperator


k
k
L(x, y, h) := l y(x + lh) h l y (x + lh) = h (x, y, h).
l=0 l=0

2) Einordnung Verfahrensklassen:

kSchrittAdamsBashforth AdamsMoulton BDF


p k k+1 k

Was ist die maximal erreichbare Konsistenzordnung? Insgesamt hat man


2k + 2 Parameter 0 , . . . , k , 0 , . . . , k . Nach Normierung k = 1 stehen
noch 2k + 1 Parameter zur Verfu gung. Wie man zeigen kann, existiert ein
implizites MSV der Ordnung p = 2k und ein explizites mit p = 2k 1. Die
maximal erreichbare Ordnung ist also deutlich hoher als bei Adams- oder
BDFVerfahren. Allerdings sind solche Verfahren nicht mehr stabil, siehe
den nachsten Abschnitt.

Vor der Stabilitatsanalyse noch die Denition des globalen Fehlers:

70
Definition 4.3 Globaler Diskretisierungsfehler
Der globale Diskretisierungsfehler eines MSV ist die Differenz

en (X) = y(X) yn mit X = xn fest, n variabel.

Exkurs: MSV der abstrakte Zugang

Sei E der VorwartsShiftOperator, Eyi = yi+1 , so dass



k
(E) = l E l ,
l=0
k
(E)yi = l yi+l .
l=0

Mit der Abku


rzung = (E) und = (E) schreibt sich ein MSV dann
kompakt (autonomer Fall)

yi = hf (yi ). (4.14)

Die erzeugenden Polynome , denieren also Differenzenoperatoren



k
k
yi = l yi+l , f (yi ) = l fi+l .
l=0 l=0

In manchen Buchern ndet man diese auf Dahlquist zuru


ckgehende elegante
Darstellung (4.14) von Mehrschrittverfahren.

4.3 Stabilit
at von MSV

Wie hangen lokaler Fehler (d.h. die Konsistenz) und globaler Fehler (d.h.
Konvergenz) zusammen? Anders als bei ESV braucht man bei MSV eine
zusatzliche Stabilitatsbedingung, um Konvergenz zu zeigen.

71
Beispiel 4.2 Als Beispiel f
ur die Problematik betrachte das MSV mit k = 2 und p = 3 aus
Beispiel 4.1,
yi+2 + 4yi+1 5yi = h(4fi+1 + 2fi ).
Erzeugende Polynome sind () = 2 + 4 5 sowie () = 4 + 2. Das MSV wird angewendet
auf die triviale (!) Dierentialgleichung

y = 0 , AW y0 = 1 , sowie y1 = 1 + h. (4.15)

Daraus ergibt sich die 3TermRekursion

yi+2 + 4yi+1 5yi = 0, Start y0 = 1, y1 = 1 + h. (4.16)

Ansatz zur Losung: () = ( 1)( + 5) = ( 1 )( 2 ) mit NST 1 = 1, 2 = 5. Aus yi = 1i


folgt
1i+2 + 41i+1 51i = 0 1i (1 ) = 0.
1i ist also spezielle L
osung der Dierenzengleichung (4.16), genauso 2i . Als allgemeine Losung
setzen wir an yi = A1i + B2i , und damit gilt

yi+2 + 4yi+1 5yi = 0 A1i (1 ) + B2i (2 ) = 0.

Die noch freien Parameter A, B ergeben sich aus den AW


y0 = A10 + B20 y1 = A11 + B21
=A+B = A 5B
h
= A = 1 + h
6 , B= 6 .

Die allgemeine Losung der Rekursion (4.16) lautet somit


h h
yi = (1 + ) 1i + (5)i . (4.17)
6 6
Diskussion: Im Fall = 0 liegen die Startwerte auf der exakten Losung y(x) 1 von (4.15).
Die numerische Losung yi 1 stimmt dann mit der exakten u
berein. Im Fall = 0 ist y1 leicht
gestort. Diese Storung wird duch den Faktor (5)i dramatisch verst
arkt das MSV ist instabil!

Die im Beispiel diskutierte Problematik tritt bei vielen MSV auf. Verfahren
mit scheinbar guten Eigenschaften wie hoher Konsistenzordnung und kleiner
Fehlerkonstante liefern schon bei einfachsten Testbeispielen extrem schlecht
Resultate.

Zur Analyse des Stabilitatsproblems wird wie im Beispiel 4.2 die triviale
Testgleichung y = 0, y(x0 ) = 1 betrachtet. Ein darauf angewandtes MSV
liefert die homogene Rekursion oder Differenzengleichung
0 yi + 1 yi+1 + . . . + k yi+k = 0 (4.18)

72
mit Startwerten y0 , . . . , yk1 .

Oensichtlich ist die Folge der yi u


ber die Rekursion eindeutig festgelegt.
Man kann aber noch mehr aussagen, und zwar mit Hife der Theorie der
Differenzengleichungen. Beachte die Analogie zu linearen Dierentialglei-
chungen k-ter Ordnung!

Satz 4.2
Sei eine m-fache Nullstelle des charakteristischen Polynoms () aus
(4.10), d.h. () = () = . . . = (m1) () = 0. Dann gilt:

(1) (2) (3)


(i) yi = i , yi = Di = ii1 , yi = D2 i = i(i 1)i2 , . . . ,
(m)
yi = Dm1 i = i(i 1)(i 2) . . . (i m + 2)im+1
sind spezielle Losungen der homogenen Rekursion (4.18).

(ii) Die allgemeine Losung der homogenen Rekursion (4.18) ist eine
Linearkombination der insgesamt k speziellen Losungen nach (i).

(j)
Beweis: Betrachte spezielle Losung yi mit 1 j m,
(j) (j) (j)
0 yi + 1 yi+1 + . . . + k yi+k = Dj1 (0 i + 1 i+1 + . . . + k i+k ) = Dj1 (() i ).

Mit der Produktregel nach Leibniz


l ( )
l
D (f g) =
l
Ds f Dls g
s
s=0

folgt
( )
j1 i j1 i j1
D (() ) = () D + ... + Ds () Dj1s i + . . . + Dj1 () i = 0.
|{z} s | {z } | {z }
=0 =0 =0

Damit ist (i) gezeigt. Oensichtlich gibt es insgesamt k spezielle Losungen entsprechend dem Grad
von , und jede Linearkombination ist ebenfalls Losung der homogenen Rekursion. Zu zeigen
bleibt, dass solch eine Linearkombination durch die Startwerte y0 , . . . , yk1 eindeutig festgelegt
ist. Beweis dazu ist elementar, aber m
uhselig (Stoer/Bulirsch, S. 148, vergl. Bsp. 4.2). 

Welche Folgerung erlaubt Satz 4.2? Wir haben die Fallunterscheidung:

73
Falls eine NST von ist mit || > 1: {yi } = {i } wachst exponentiell!

Falls eine NST von ist mit || < 1: {yi } = {i } fallt exponentiell!

Falls eine NST ist mit || = 1:


(1)
yi = i liefert |yi | = 1,
(j)
yi = i(i 1)(i 2) . . . (i j + 2)i wachst polynomiell!
(nur falls eine j-fache NST mit j > 1)
Die homogene Rekursion wird also vollstandig durch die Nullstellen des
charakteristischen oder erzeugenden Polynoms bestimmt. Dies motiviert

Definition 4.4 Stabilitatsbedingung MSV


Ein MSV erfu llt die Stabilitatsbedingung, falls alle NST des charakteristi-
schen Polynoms () = k k +. . .+1 +0 im abgeschlossenen Einheitskreis
von C liegen und diejenigen auf dem Rand nur einfach sind:

Falls () = 0 = || 1.
}
() = 0
Falls = ist einfache NST. (4.19)
und || = 1

r alle NST gilt || < 1 auer fu


Das MSV heit stark stabil: Fu r = 1,
ansonsten schwach stabil.

Aufgrund der Testgleichung y = 0 spricht man manchmal auch von 0


Stabilitat oder, zu Ehren von Dahlquist, von D-Stabilitat. Abb. 25 illustriert
die Lage der Nullstellen bei Erfulltsein der Stabilitatsbedingung.

Bei konsistenten MSV ist = 1 immer eine NST von , denn

(1) = 0 + 1 + . . . + k = 0 (nach Satz 4.1).

Was bedeutet die Stabilitatsbedingung fu


r die oben eingefu
hrten Verfah-
rensklassen? Bei AdamsBashforth und AdamsMoulton ist

k = 1 , k1 = 1 , k2 = . . . = 0 = 0

74
Im
x einfache NST
x evt. mehrfache NST
x
x
Re
x

Abbildung 25: Nullstellen des -Polynoms bei Erf


ulltsein der Stabilitatsbed.

und damit

() = k k1 = k1 (1) mit NST = 1 einfach , = 0 k 1-fach.

Die Adams-Verfahren sind demnach stark stabil.

Die Verfahren nach Nystrom und Milne haben Koezienten


k = 1, k1 = 0, k2 = 1, k3 = = 0 = 0. Daher

() = k k2 = k2 ( 2 1) = k2 ( 1)( + 1)

mit NST 1 = 0, 2 = 1, 3 = 1. Diese MSV sind nur schwach stabil.

r k 6, ansonsten instabil
Die BDF-Verfahren sind stark stabil nur fu
(s. Hairer/Norsett/Wanner, Kap. III.3).

Die bisherige Analyse des Stabilitatsproblems kann wie folgt zusammenge-


fasst werden: Die Konsistenz eines MSV reicht nicht aus, um Konvergenz
r die Testgleichung y = 0 zu erzielen. Zusatzlich notwendig ist die Stabi-
fu
litatsbedingung (4.19)!

Welche maximale Konsistenzordnung kann ein stabiles MSV haben? Ohne


Beru
cksichtigung der Stabilitatsbedingung war die maximale Ordnung 2k

75
bzw. 2k1, s.o. Diese Verfahren sind aber instabil, und es zeigt sich, dass die
in Abschnitt 4.1 eingefu
hrten Verfahrensklassen (Adams, Milne/Simpson)
bereits optimal sind.

Es gilt der beru


hmte

Satz 4.3 1. DahlquistBarriere (1956/59)


k
k
Ein lineares k-SchrittVerfahren l yi+l = h l fi+l , das die Stabilitats-
l=0 l=0
bedingung (4.19) erfu
llt, hat maximale Konsistenzordnung

k + 2, falls k gerade
k + 1, falls k ungerade
k, falls k /k 0 (insbesondere falls MSV explizit).

Die Ordnung k+2 kann nur erzielt werden, wenn alle Nullstellen des charak-
teristischen Polynoms auf dem Rand des Einheitskreises liegen (schwach
stabiles Verfahren).

Der Beweis der DahlquistBarriere ist sehr aufwendig und verlangt einige
funktionentheoretische Hilfsmittel, s. Hairer/Norsett/Wanner, Kap. III.3.

Im Fall k = 1 haben wir also maximale Ordnung p = 2, wird erreicht vom


Adams-Moulton-Verfahren yi+1 yi = h2 (fi+1 + fi ) (Trapezformel).

Im Fall k = 2 ist p = 4 maximal erreichbar, wird erreicht vom Milne-


Simpson-Verfahren yi+1 = yi1 + h/3(fi1 + 4fi + fi+1 ), dieses ist aber nur
schwach stabil.

Wie sieht nun der allgemeine Fall, d.h. die Konvergenz fur y = f (x, y), aus?
Es zeigt sich, dass die anhand von y = 0 ermittelte Stabilitatsbedingung
(4.19) hinreichend ist, um die Konvergenz fu r ein konsistentes Verfahren zu
zeigen.

76
4.4 Konvergenz von MSV

Wie bei den Einschrittverfahren setzen wir im folgenden voraus, dass die
rechte Seite f der Dierentialgleichung global Lipschitzstetig ist und zudem
genugend glatt, damit der Begri der Konsistenzordnung Sinn macht. Im
Unterschied zu den ESV muss fu r die Konvergenz auch der Fehler in den
Startdaten y0 , . . . , yk1 beru
cksichtigt werden:

Definition 4.5 Konvergenz und Konvergenzordnung


Sei y(x) exakte Losung des AWP y = f (x, y), y(x0 ) = y0 . Weiter gelte fu
r
die Startdaten

y(x0 + jh) yj 0 r h 0,
fu j = 0, . . . , k 1.

Das MSV ist konvergent, falls dann

y(X) yn 0 r h 0,
fu X = x0 + nh fest.

r die Startdaten y(x0 + jh) yj c0 hp mit h h0 , dann ist das


Gilt fu
MSV konvergent von der Ordnung p, falls

y(X) yn chp

r Schrittweiten h h0 .
fu

Aus der Stabilitatsanalyse des vorangegangenen Abschnitts schliet man,


dass Konsistenz und Stabilitat des MSV notwendig sind, um Konvergenz
zu erhalten.
(i) Angenommen, das MSV ist nicht stabil. Betrachte das AWP y = 0, y(0) = 0 und st ore

den Startwert y0 mit h. Falls das erzeugende Polynom eine NST 1 mit |1 | > 1 hat, ist
X/h
yn = h1 , also Divergenz f ur h 0. Falls eine mehrfache NST 2 mit |2 | = 1 vorliegt, ist
X/h
yn = X/ h1 ebenfalls divergent. Also muss die Stabilitatsbedingung (4.19) erf
ullen.

(ii) Betrachte das AWP y = 0, y(0) = 1 mit Startdaten y0 = . . . = yk1 = 1. Wegen k yk +



ur alle h folgt aus der Konvergenz yk 1 die Forderung (1) =
k1 + . . . + 0 = 0 f j = 0.

(iii) Betrachte das AWP y = 1, y(0) = 0 mit exakter Losung y(x) = x. Das MSV mit Startdaten

77
ur j = 0 : k 1 lautet
yj = jh f


k1
k
k yk + h jj = h j k (yk hk) + h (1) = h(1)
j=0 j=0

und aus der Konvergenz yk kh ergibt sich (1) = (1). Zusammen mit (1) = 0 impliziert
dies die Konsistenz als notwendige Voraussetzung.

Stabilitat und Konsistenz sind also notwendig, aber sind sie auch hinrei-
chend fur die Konvergenz? Es heisst nun tief Luft holen, um den formalen
Rahmen fu r den Konvergenzbeweis bereit zu stellen. Wir schreiben das MSV
als

k1
k1
yi+k = j yi+j +h j f (xi + jh, yi+j ) + hk f (xi + kh, yi+k )
j=0 j=0

mit Koezienten j = j /k , j = j /k . Die letzten beiden Terme auf


der rechten Seite fassen wir zusammen zur implizit denierten Groe
= (xi , yi , . . . , yi+k1 , h) mit
( )
k1
k1
:= j f (xi + jh, yi+j ) + k f xi + kh, h j yi+j (4.20)
j=0 j=0

Das MSV lautet nun kurz



k1
yi+k = j yi+j + h.
j=0

Weiter denieren wir den m k-Vektor (m =Dimension f )

Yi := (yi+k1 , yi+k2 , . . . , yi )T ,

der alle Daten, die aus der Vergangenheit in die Berechnung von yi+k ein-
gehen, enthalt (die sog. Schleppe des MSV).

Die Grundidee fur die Konvergenzanalyse besteht nun darin, das MSV auf
ein Einschrittverfahren bez. Y zuru
ckzufu
hren. Ideal ware eine Formulie-

78
rung des MSV in der Gestalt Yi+1 = Yi + h(xi , Yi , h) mit einer Verfahrens-
funktion , doch dies ist nicht zu erreichen. Es gilt aber
k1
yi+k j=0 j yi+j + h(xi , Yi , h)
y
i+k1 yi+k1
Yi+1 = .. = .. .
. .
yi+1 yi+1
Im Fall m = 1 kann man dies neu schreiben als

Yi+1 = AYi + h(xi , Yi , h) (4.21)

mit


k1 k2 ... 1 0 (xi , Yi , h)

1 0 ... . 0 0

A :=
1 . 0 , (x, Yi , h) :=
0 .

... .. .. ..
. . .
1 0 0

Der Fall m > 1: Dann liefert das Kronecker-Produkt A B zweier Matrizen A, B die passende
Schreibweise. Es ist A B die aus Blocken ajl B zusammengesetzte Matrix,

a11 B . . . a1k B
..
A B = ... .
ak1 B . . . akk B

A und B m ussen dabei nicht unbedingt quadratische Matrizen sein. Die Verfahrensvorschrift
(4.21) lautet f
ur m > 1

Yi+1 = (A Imm )Yi + h(e1 Imm )(xi , Yi , h). (4.22)

Im folgenden wollen wir uns der Einfachheit halber auf den Fall m = 1 zur
uckziehen und uns mit
dem Hinweis begn
ugen, dass f
ur m > 1 die Argumentation mithilfe des Kroneckerproduktes ganz
analog ablauft.

Die Rekursion (4.21) charakterisiert also das Mehrschrittverfahren. Hatten


wir A = I, dann lage ein ESV in der u
blichen Notation vor, und wir waren

79
praktisch fertig. Aber: Die Matrix A enthalt mit den j die Koezien-
ten, die die Stabilitat des Verfahrens festlegen. Es gilt nun: Falls die Stabi-
litatsbedingung (4.19) vom MSV erfu llt wird, dann gibt es eine Vektornorm
auf dem Rk , so dass
Ax
A = sup 1. (4.23)
x=0 x

Man rechnet schnell aus, dass die Eigenwerte von A genau die Wurzeln des erzeugenden Polynoms
sind. Aufgrund der Stabilitatsbedingung (4.19) erf ullen alle EW |j | 1, und die Jordan-
Normalform von A ist

l+1 l+1

T 1 AT = diag 1 , . . . , l , ..
.
k1 .
k
Die mehrfachen EW seien dabei l+1 , . . . , k mit j = 0 oder j = 1 je nach Vielfachheit. Es
gibt nun ein > 0 mit 1 |j | > f
ur j = l + 1 : k (mehrfache EW liegen im Innern des
Einheitskreises). Setze ( )
D := diag 1, , 2 , . . . , k1 .
Mit einer weiteren Transformation ergibt sich

l+1 l+1

D1 JD = diag 1 , . . . , l , ..
. k1 ,
k

und in der Maximumnorm B = maxj l |Bjl | ist
D1 JD 1.
Nun denieren wir als Vektornorm x := D1 T 1 x , womit folgt
Ax = D1 T 1 AT D D1 T 1 x = D1 JD D1 T 1 x x.

Diese Argumentation kann auch auf die Matrix A I verallgemeinert werden, um A I 1


in einer geeigneten Norm zu zeigen.

Nach diesen Vorbereitungen kann das folgende Resultat gezeigt werden:

Satz 4.4 Konvergenz von MSV



k
k
Falls das lineare k-SchrittVerfahren l yi+l = h l fi+l die Konsistenz-
l=0 l=0
ordnung p besitzt und die Stabilitatsbedingung (4.19) erfu
llt, dann ist es auch
konvergent von der Ordnung p.

80
Beweis: Wir betrachten das MSV als ESV in der Vorschrift(4.21). F
ur zwei diskrete Approxi-
mationen Yi und Zi ist

Yi+1 = AYi + h(xi , Yi , h), Zi+1 = AZi + h(xi , Zi , h)

und somit
Yi+1 Zi+1 AYi Zi + h(xi , Yi , h) (xi , Zi , h).
Falls f Lipschitzstetig ist, so auch aus (4.20) und folglich (bezuglich Y ), und zwar mit
Lipschitzkonstante L . Wir nehmen die Norm mit A 1, falls die Stabilitatsbedingung (4.19)
erf
ullt ist, und folgern
Yi+1 Zi+1 (1 + hL )Yi Zi . (4.24)
Abb. 26 zeigt die weitere Vorgehensweise, die ahnlich der beim Satz 3.1 uber die Konvergenz
von ESV ist. Allerdings wird hier nicht eine Folge exakter Losungen mit Gronwall abgesch
atzt,
sondern umgekehrt eine Folge numerischer Approximationen mit (4.24).

Y(x0 ) Y(xn )
Y0

Y1

Y2 Yn
Y3 Y4

x1 x2 x3 x4 xn

Abbildung 26: Vorgehen beim Konvergenzbeweis


(i)
ur i = 0 : n 1. Wir nehmen sie als Startwert Yi := Y (xi )
Betrachte die exakte Losung Y (xi ) f
(i) (i)
f
ur das MSV, das dann die Folge Yi+1 , . . . , Yn von Approximationen liefert. Im ersten Schritt ist
(i)
Y (xi+1 ) Yi+1 = h (h)
(i+1)
mit dem lokalen Diskretisierungsfehler (h) = O(hp ). Starten wir in Yi+1 := Y (xi+1 ) ein
(i+1) (i+1)
weiteres MSV, das dann die Folge Yi+2 , . . . , Yn liefert, so gilt f
ur die Dierenz am Endpunkt
mit (4.24)

Yn(i+1) Yn(i) (1 + hL )ni1 Yi+1 Yi+1 (1 + hL )ni1 chp+1 .


(i+1) (i)

(0)
Die Fortpanzung der Dierenz Y (x0 ) Y0 = Y0 Y0 in den Startdaten ergibt sich mit (4.24)
zu
Yn(0) Yn (1 + hL )n Y0 Y0 .
(0)

81
Jetzt muss nur noch aufsummiert werden:
Y (xn ) Yn = Y (xn ) Yn(n1) + Yn(n1) Yn(n2) + . . . + Yn(1) Yn(0) + Yn(0) Yn

n1
(1 + hL )n Y0 Y0 + chp+1 (1 + hL )i
(0)

i=0

n1
exp(nhL )Y0 exp(ihL )
(0)
Y0 + chp+1
i=0n
exp(nhL )Y0 exp(shL )ds
(0)
Y0 + chp+1
s=0
hp
Y0 + c (exp(nhL ) 1) .
(0)
= exp(nhL )Y0
L
(0)
ur Startdaten Y0
F Y0 = Y (x0 ) Y0 = O(hp ) folgt Konvergenz der Ordnung p. 

Bemerkungen
1. Die Konvergenztheorie zu MSV kurz und pragnant zusammengefasst:

Stabilitat
Konvergenz
+ Konsistenz

2. Die gesamte hier diskutierte Theorie ist auf den Fall konstanter Schritt-
weiten beschrankt. Die Erweiterung auf variable Schrittweiten ist moglich,
verlangt aber erheblichen zusatzlichen Aufwand. Alle drei Punkte Kon-
sistenz, Stabilitat und Konvergenz mussen dazu neu aufgerollt werden!

4.5 Implementierung von MSV

Zum Abschluss des Kapitels u ber MSV noch ein paar Worte zur Implemen-
tierung. Im Gegensatz zu den Runge-Kutta-Verfahren ist diese sehr komplex
und lasst viel Spielraum fu
r Heuristiken. Die heute verfu
gbaren Codes glei-
chen in gewisser Hinsicht nervosen Rennpferden.

Die Adams-Verfahren, implementiert als Pradiktor-Korrektor-Paar mit va-


riabler Ordnung und variabler Schrittweite, sind die groen Konkurrenten
der expliziten Runge-Kutta-Verfahren.

82
Ein Integrationsschritt von xi nach xi+1 verlauft nach dem Schema:

Algorithmus 4.1 P (EC)m EVerfahren


(0)
Predict: yi+1 := yi + h(0 fik+1 + . . . + k1 fi )

% kSchrittAdamsBashforthVerfahren, bei variablem Gitter


% hangen 0 , . . . , k1 von den vorherigen Schrittweiten ab und
% werden uber dividierte Differenzen ermittelt.
(0) (0)
Evaluate: Auswertung f (xi+1 , yi+1 ) =: fi+1

For l = 0 : m 1

Correct: Fixpunktiteration

yi+1 := hk fi+1 + yi + h(0 fik+1 + . . . + k1



(l+1) (l)
fi )

% kSchrittAdamsMoulton,
% Koezientenber. verwendet Information des AdamsBashforth-Verf.
(l+1) (l+1)
Evaluate: Auswertung f (xi+1 , yi+1 ) =: fi+1

% (Abbruchkriterium oder feste Anzahl m von Iterationen)


(0) (m)
Die Schrittweitensteuerung erfolgt mit yi+1 yi+1 als Fehlerschatzer:
(0)
y(xi+1 ) yi+1 = O(hk+1 ) AdamsBashforth Ordnung k,
(m)
y(xi+1 ) yi+1 = O(hk+2 ) AdamsMoulton Ordnung k + 1
(0) (m)
= yi+1 yi+1 = O(hk+1 ) fu r Schrittweitensteuerung
Alle gangigen Codes haben zudem die Moglichkeit, die Ordnung von Schritt
zu Schritt zu verandern.

Numerische Software: LSODE, VODE, siehe elib.zib-berlin.de. In


MATLAB ist das Adams-Verfahren als ode113 implementiert, mit Ordnung
1 k 13. Der erste Schritt ist ein Eulerschritt, dann wird wahrend der
Anlaufrechnung sukzessive die Ordnung erhoht.

83
Vergleich der MATLAB-Integratoren ode45 und ode113
Was ist nun vorzuziehen, ein Runge-Kutta-Integrator wie ode45 oder ein
Adams-Verfahren wie ode113? Wir testen die MATLAB-Implementierungen
am Beispiel des Arenstorf-Problems, einer Dierentialgleichung zweiter Ord-
nung aus der Himmelsmechanik (3-Korper-Problem). Das folgende m-le
wertet die Dierentialgleichung aus.

function yprime = aren(x,y)


%
% Arenstorf orbit ode
% take xend = 17.06521656015796255
% and y0 = [ 0.994; 0; 0; -2.001585106379082522]
% to get a periodic trajectory
mu = 0.012277471;
mup = 1-mu;
D1 = ((y(1)+mu)^2 + y(2)^2)^(3/2);
D2 = ((y(1)-mup)^2 + y(2)^2)^(3/2);
yprime = [ y(3);
y(4);
y(1)+2*y(4)-mup*(y(1)+mu)/D1-mu*(y(1)-mup)/D2;
y(2)-2*y(3)-mup*y(2)/D1-mu*y(2)/D2 ];
end

1
10

ode23 ode45
10
10
0
RelTol

10
CPU

ode113

ode45 ode113
5
10
1
10

0 5 10 0 5 10
10 10 10 10 10 10
Fehler Fehler

Abbildung 27: Vergleich der MATLAB-Integratoren

84
Zum Zeitpunkt xend ist die Losung in den Komponenten y1 , y2 periodisch.
Wir bestimmen dort den absoluten Fehler der Integratoren (2-Norm), und
zwar fur immer genauer werdende Toleranzvorgaben. Zudem wird die Re-
chenzeit gemessen (auf einem Siemens-Fujitsu S6010 Notebook mit Pentium
III 1 GHz Prozessor).

rt(1) = 1.e-3; at(1) = 1.e-6;


for i = 1:20
options = odeset(RelTol,rt(i),AbsTol,at(i));
tic,[x,y] = ode45(@aren,[0,xend],y0,options);c=toc
% tic,[x,y] = ode113(@aren,[0,xend],y0,options);c=toc
cpu(i) = c;
err(i) = sqrt((y0(1)-y(length(y),1))^2+(y0(2)-y(length(y),2))^2);
rt(i+1) = rt(i)/2;
at(i+1) = at(i)/2;
end

Abb. 27 zeigt die so gewonnenen Ergebnisse. Links ist der tatsachliche Feh-
ler gegen die Vorgabe RelTol aufgetragen, in doppelt logarithmischer Ska-
lierung. Oensichtlich liegt der globale Fehler in der Groenordnung von
RelTol, die Integratoren arbeiten zuverlassig. Rechts ist ein Aufwandsdia-
gramm oder Work-Precision-Diagram zu sehen, mit dem Fehler gegen die
Rechenzeit. Bei niedriger Genauigkeit ist ode45 am ezientesten, bei hoher
dagegen ode113. Zum Vergleich ist auch der Runge-Kutta-Integrator ode23
mit Ordnung 2(3) eingetragen; er ist bei diesem glatten Problem chancen-
los. Bei der Analyse von ode113 fallt auf, dass dieses Verfahren sehr wenige
Funktionsauswertungen benotigt, aber durch die Koezientenberechnung
zusatzlicher Aufwand entsteht, so dass ode45 bei niedriger Genauigkeit im
Vorteil ist. Das Zittern der Werte von ode113 ist auf die komplexere Heuri-
stik mit simultaner Ordnungs- und Schrittweitensteuerung zuru ckzufu
hren.
Dadurch verhalt sich das MSV nicht so vorhersehbar - eine hohere Tole-
ranzforderung resultiert nicht unbedingt in einer besseren numerischen Ap-
proximation.

85
Kapitel 5
Numerik steifer Differentialgleichungen

Nachdem wir mit den expliziten Ein- und Mehrschrittverfahren zwei groe
Klassen von Integratoren fur gewohnliche Dierentialgleichungen kennenge-
lernt haben, wenden wir uns nun den sogenannten steifen Differentialglei-
chungen zu. Steife Dierentialgleichungen treten in vielen Anwendungen auf
und sind im Prinzip mit den bereits eingefu hrten Methoden losbar. Aller-
dings mussen explizite Verfahren die Schrittweiten bei dieser Problemklasse
sehr klein wahlen und sind nicht mehr ezient. Warum das so ist, soll
zunachst geklart werden, bevor Alternativen in Form von impliziten bzw.
semi-impliziten Ein- und Mehrschrittverfahren eingefu hrt werden.

5.1 Das Ph
anomen der Steifheit (Stiffness)

Als Motivation betrachten wir den Van-der-Pol-Oszillator in den Koordina-


ten von Lienhart (2.3)
1
y1 = y2 , y2 = (y1 y23 /3 + y2 )

mit Anfangswert y1 (0) = 1, y2 (0) = 2. Die Anwendung des Runge-Kutta-
Verfahrens ode45 aus MATLAB liefert dann zum Parameterwert = 103
die in Abb. 28 dargestellte numerische Losung bei 1204 erfolgreichen und

86
Van der Pol, = 1.e3, ode45 Ausschnitt
1.99
2

1 1.995

0
y

y
2

1
2.005
2

0 0.5 1 1.5 2 0.994 0.996 0.998 1 1.002 1.004


x x

Abbildung 28: Integration der Van-der-Pol-Gleichung mit ode45

288 verworfenen Schritten. Bei genauem Hinsehen erkennt man, dass der
Integrator extrem kleine Schrittweiten wahlt, obwohl sich die Losung kaum
andert. Im Ausschnitt rechts sieht man ein Zittern der Losung, was auf ein
Stabilitatsproblem hindeutet. Andere Toleranzvorgaben beeinussen die-
ses Verhalten nur wenig, und auch die Anwendung des Adams-Verfahrens
ode113 fu hrt auf ahnliche Eekte (bei 2471 bzw. 339 erfolgreichen / ver-
worfenen Schritten).

Um die Problematik naher zu analysieren, nehmen wir ein einfacheres Test-


problem, dessen exakte Losung eine fallende Exponentialfunktion ist:

y = y mit < 0. (5.1)

D.h., y(x) = ex y0 soll durch ein numerisches Verfahren approximiert


werden.

In der Abb. 29 sieht man das Ergebnis zu = 10 fu r den expliziten


Euler als einfachstem numerischen Verfahren. Nur wenn die Schrittweite h
klein genug gewahlt wird, erhalt man eine gute Approximation. Andernfalls
oszilliert die numerische Losung (Fall h = 0.2) oder sie explodiert gar (Fall
h > 0.2). Dagegen liefert der implizite Euler unabhangig von der Schrittweite
eine gute Approximation! Mit anderen Worten: Die Schrittweite h kann bei

87
diesem Beispiel fu
r den impliziten Euler beliebig gro gewahlt werden, beim
expliziten Euler dagegen nicht.
Expliziter Euler

0 h = 0.1

1 0 1 2 3 4 5

0 h = 0.2

1 0 1 2 3 4 5

0 h=1

1 0 1 2 3 4 5
x

Impliziter Euler

0 h=0.1

1 0 1 2 3 4 5

0 h=0.2

1 0 1 2 3 4 5

0 h=1

1 0 1 2 3 4 5
x

Abbildung 29: Anwendung des expliziten u. impliziten Eulers auf (5.1)

88
Sowohl bei der Van-der-Pol-Gleichung (2.3) als auch bei der Testgleichung
(5.1) spricht man von einer steifen Differentialgleichung (wobei der Grad der
Steifheit von den Parametern bzw. abhangt). Bevor der Begri steif
naher erlautert wird, eine Analyse der Diskretisierung von (5.1):

(i) Expliziter Euler y1 = y0 +hy0 , d.h. yi+1 = (1+h)yi = (1+h)i+1 y0


( 1 )i+1
(ii) Impliziter Euler y1 = y0 + h y1 , d.h. yi+1 = 1h
1
yi = 1h y0

Damit im Fall (i) die fallende Losung ex approximiert wird, mu mindestens


gelten
|1 + h | 1.
Erfu
llt h zu geg. diese Restriktion nicht, wachst die Losung, also Diver-
genz.

Im Fall (ii) ist wegen < 0 die Ungleichung



1

1 h 1

fu
r alle h > 0 erfu
llt, d.h. die numerische Losung fallt stets! Das implizite
Verfahren ist hier also u
berlegen.

Ahnliche Beobachtungen machten Curtiss/Hirschfelder 1952 an Beispielen


aus der chemische Reaktionskinetik, und sie fu
hrten den Begri der steifen
Dierentialgleichung ein (sti equation):

Stiff equations are equations where certain implicit


methods perform better, usually tremendously better,
than explicit ones.

Dies ist natu


rlich keine Denition im mathematischen Sinn. Bis heute tut
man sich jedoch sehr schwer, den Begri der Steifheit formal zu erfassen.
Einige Denitionsversuche:

89
1) Implizit besser als Explizit (s.o.)
Ein System gewohnlicher Dierentialgleichungen ist steif, wenn expli-
zite Verfahren aus Stabilitatsgru
nden extrem kleine Schrittweiten ver-
wenden, obwohl sich die Losung kaum andert; implizite Verfahren da-
gegen groe Schrittweiten einsetzen konnen.

2) Eigenwertansatz
Ein lineares System y = Ay ist steif, wenn A einige Eigenwerte j
mit stark negativem Realteil besitzt und einige mit schwach negativem
Realteil, d.h. das Verhaltnis

max |Re(j )|/ min |Re(j )|


j j

ist sehr gro. Im nichtlinearen Fall y = f (y) betrachtet man die Jaco-
bimatrix Df (y).

3) Singul
ar gest orte Systeme
Dierentialgleichungen der Form

y = f (y, z)
z = g(y, z) (vgl. Van-der-Pol)

mit reellem Parameter 1 sind singular gestort und fu


hren typi-
scherweise auf steife Dierentialgleichungen. Man unterscheidet beim
Losungsverhalten Grenzschichten und asymptotische Phasen, Abb.30.
y,z

Grenzschicht

asymptotische Phasen

Abbildung 30: Losungsverhalten singular gestorter Systeme

90
Zur Auosung einer Grenzschicht benotigt jedes numerische Verfahren
kleine Schrittweiten. In der asymptotischen Phase jedoch sind groe
Schrittweiten von Vorteil, und hier sind implizite Verfahren im steifen
Fall u
berlegen.

Im Abschnitt 5.4 werden wir ru ckblickend diese verschiedenen Interpreta-


tionen von Steifheit nochmals diskutieren und eine weitere Sichtweise, die
auf dem Begri der Kondition basiert, kennenlernen. Steifheit ist demnach
nicht klar deniert. Dieses Manko spielt aber keine groe Rolle, wichtiger ist
vielmehr, dass steife Dierentialgleichungen in einer Vielzahl von Anwen-
dungen auftreten. Alle bisher eingefu
hrten Verfahren versagen dort klaglich!

Warum das so ist, lasst sich auch zeichnerisch veranschaulichen. Betrachte


nach Prothero/Robinson (1973)

y = (y ) + (5.2)

mit 0 und exakter Losung y(x) = (y0 (x0 ))e(xx0 ) + (x). Die
gegebene Funktion sei langsam variierend.

y * y

*
y
0 * y
0
*
*
*

*
x x1 x 2 * x x x x2 x
0 0 1

Expliziter Euler Impliziter Euler

Abbildung 31: Modellproblem nach Prothero-Robinson

91
Obwohl das Modellproblem (5.2) (und allgemein steife Dierentialgleichun-
gen) extrem gut konditioniert ist, zeigt ein Verfahren wie der explizite Euler
ein katastrophales Verhalten.

Um Verfahren fu r steife Dierentialgleichungen zu bewerten und zu analy-


sieren, fu
hrt man nach Dahlquist (1963) die Testgleichung
y = y mit C, Re 0, (5.3)
ein. Eine Mindestforderung ist nun

Definition 5.1 A-stabil (Absolut stabil)


Ein numerisches Verfahren heit A-stabil, falls seine Anwendung auf (5.3)
fu
r jede Schrittweite h > 0 stets eine nicht wachsende Folge von Approxi-
mationen {yi } produziert, |yi | |y0 | fu
r alle i.

Auch im Fall Re = 0 fordert man also nichtwachsende Losungen. Konkret


bedeutet dies, dass die Schwingungsgleichung q = 2 q, die wir komplex-
wertig als y = iy schreiben konnen, auch bei beliebig groer Schrittweite
eine nicht wachsende numerische Losung haben soll.

Welche Verfahren sind A-stabil? Im folgenden untersuchen wir die bereits


bekannten Klassen der Ein- und Mehrschrittverfahren unter diesem Ge-
sichtspunkt.

5.2 Einschrittverfahren

Zunachst betrachten wir nochmals den expliziten Euler. Anwendung auf die
Testgleichung (5.3) liefert
y1 = y0 + h y0 = R(z) y0 mit R(z) := 1 + z, z = h .
Die Stabilitatsfunktion R des Euler-Verfahrens charakterisiert das Verhalten.
Sei C fest mit Re 0. Dann gibt es Schrittweiten h > 0 mit
|R(z)| = |R(h )| = |1 + h| > 1

92
und demnach y0 < y1 < y2 < y3 < . . ., also nicht A-stabil! Wu
rde stattdes-
sen
|R(z)| 1 z C := {z C : Re z 0}
gelten, so ware das Verfahren A-stabil.

Fu
r alle gangigen Einschrittverfahren y1 = y0 + h(x0 , y0 , h) fu
hrt die An-
wendung auf die Testgleichung (5.3) auf eine Vorschrift

y1 = R(z) y0

mit der zum Verfahren gehorigen Stabilitatsfunktion R. Beim expliziten


Euler ist R(z) := 1 + z, beim impliziten Euler dagegen R(z) = 1/(1 z),
weitere Beispiele s.u. Mit Hilfe der Stabilitatsfunktion kann man nun die
Stabilitatseigenschaften des Verfahrens noch genauer beschreiben:

Definition 5.2 Stabilitatsgebiet eines ESV


Das Stabilitatsgebiet eines ESV ist die Menge

S := {z C : |R(z)| 1}.


Man hat die Aquivalenz

Astabil |R(z)| 1 z C C S

Das Stabilitatsgebiet des expliziten Euler ist eine Kreisscheibe mit Radius
1 und Mittelpunkt 1, siehe Abb. 32. Falls z = h S, arbeitet das
Verfahren stabil, ansonsten aber instabil!

Man kann schnell zeigen, dass alle expliziten Runge-Kutta-Verfahren nicht


A-stabil sind:

Die Stabilitatsfunktion ist ein Polynom in z vom Grad s mit der Stufen-
r ein Polynom R kann |R(z)| 1 in C nicht erfu
zahl s. Fu llt werden
also kann das Verfahren nicht Astabil sein!

93
Im

S
i

2 Re
i

Abbildung 32: Stabilitatsgebiet expliziter Euler

Das Stabilitatsgebiet von DOPRI5 (bzw. ode45 in Matlab) ist in Abb. 33


dargestellt. Es umfasst, im Gegensatz zum expliziten Euler, einen Teil der
imaginaren Achse.

Im

S
2i

Re

Abbildung 33: Stabilitatsgebiet DOPRI5

94
Aus der Kenntnis des Stabilitatsgebietes kann man Aussagen u ber die ma-
ximal moglichen Schrittweiten des Verfahrens zu einer gegebenen Dierenti-
algleichung treen, vorausgesetzt man hat eine zumindest grobe Naherung
fu
r die Eigenwerte.
Beispiel 5.1: Wir betrachten das lineare System
( )
998 1998
y = Ay mit A = .
999 1999

A hat die Eigenwerte 1 = 1 und 2 = 1000. Zum Anfangswert y0 = (1, 0)T ndet man als
exakte Losung ( ) ( )
2 1
y(x) = ex + e1000x .
1 1
Die Losung besteht also aus einem langsamen und einem sehr schnell abklingenden Term. Der
ur die Steifheit verantwortlich. Diagonalisierung von A auf T 1 AT = diag (1 , 2 )
letztere ist f
und Transformation auf neue Variable u = T 1 y f uhrt auf die entkoppelten Gleichungen
ui = i ui , i = 1, 2.
Ein Runge-Kutta-Verfahren ist invariant unter einer solchen linearen Transformation. D.h., es
spielt keine Rolle, ob man das urspr
ungliche System direkt diskretisiert oder das transformierte
und dann das Ergebnis zur ucktransformiert, das Ergebnis ist dasselbe.

Im transformierten System erkennen wir die Testgleichung (5.3), und entsprechend konnen wir
nun die Schrittweiteneinschrankungen fur numerische Verfahren u
ber die Stabilitatsfunktion bzw.
direkt u
ber das Stabilitatsgebiet bestimmen. Der betragsgrote Eigenwert 2 ist entscheidend.
Im Fall expliziter Euler mu h so gewahlt werden, dass
|R(h2 )| 1 h 2/|2 | = 0.002,

denn 2 markiert den linken Rand des Stabilitatsgebietes S. Bei DOPRI5 liegt der linke Rand
bei ca. 3.3, daher folgt f
ur dieses Verfahren die Einschrankung h 3.3/|2 | = 0.0033.

Im Fall nichtlinearer Dierentialgleichungen y = f (y) erhalt man u


ber die
Eigenwerte der Jacobimatrix Df (y) entlang einer Losung Information u ber
die Steifheit.
(Betrachte u = y + y zur bekannten Losung y. Dann folgt u = f (u) = f (y + y) = y + y
und mit Linearisierung y = Df (y)y.)

Eine Bestimmung der Eigenwerte ist im allgemeinen aber zu aufwandig und


auch nicht unbedingt notwendig. Steifheit zeigt sich bei expliziten Verfahren

95
mit Schrittweitensteuerung direkt u ber die Reaktion der Schrittweitensteue-
rung, denn diese erkennt die mogliche Instabilitat und arbeitet hart an der
Stabilitatsgrenze, es sei denn, die Genauigkeitsanforderungen verlangen per
se kleinere Schrittweiten. Haug kommt es dabei zu sehr vielen Schrittver-
werfungen und einem Zittern der Schrittweiten (vergl. Hausaufgabe H18).

Grundlage der Schrittweitensteuerung ist die Dierenz y1 y1 mit dem ein-


gebetteten Verfahren y1 . Bei Anwendung auf die Testgleichung (5.3) lautet
der Fehlerschatzer (R(z) R(z))y
0 , wobei die Stabilit
nur
atsfunktion R
innerhalb von S mit R bis auf O(hp+1 ) u bereinstimmt. Auerhalb von S
ist h nicht mehr klein genug, und die beiden Stabilitatsfunktionen laufen
aufgrund ihrer polynomiellen Struktur schnell auseinander.

Implizite Runge-Kutta-Verfahren

Der implizite Euler wurde bereits oben analysiert. Angewandt auf die Test-
gleichung (5.3) erhalten wir
1
y1 = y0 + h y1 = y1 = R(z) y0 mit R(z) := .
1z
r Re z das gleiche
Die Stabilitatsfunktion ist rational und hat fu
asymptotische Verhalten wie exp. Wegen |R(z)| 1 fu r alle z C ist
dieses Verfahren A-stabil.
ur z C hat man
(F

|R(z)|2 = 1/((1 z)(1 z)) = 1/((1 x iy)(1 x + iy)) = 1/(1 + x2 + y 2 2x) 1/(1 + x2 + y 2 ),

da x 0, und somit |R(z)| 1.)

Das Stabilitatsgebiet des impliziten Eulers ist in Abb. 34 skizziert. Es gilt


C S, und auch der Groteil von C+ ist in S enhalten, weswegen man
manchmal von einem superstabilen Verfahren spricht.

Gibt es weitere implizite Verfahren, die wie der implizite Euler A-stabil sind
und damit fur steife Dierentialgleichungen geeignet?

96
C
S i

1
i

Abbildung 34: Stabilitatsgebiet des impliziten Eulerverfahrens

Ein Beispiel ist die Trapezregel aus (3.3)


( )
h 1 1
y1 = y0 + (f (x0 , y0 ) + f (x1 , y1 )) = y0 + h K1 + K2
2 2 2
mit K1 = f (x0 , y0 ), K2 = f (x1 , y1 ) = f (x1 , y0 + h (K1 /2 + K2 /2)).

Dieses Verfahren ist von der Ordnung p = 2 (Herleitung z.B. als Sonderfall
k = 1 der Adams-Moulton-Verfahren). Seine Stabilitatsfunktion ergibt sich
zu
h 1 + h/2 1 + z/2
y1 = y0 + (y0 + y1 ) y1 = y0 , , d.h. R(z) = .
2 1 h/2 1 z/2
Wiederum ist R eine rationale Funktion und das Verfahren A-stabil:

Betrachte die imaginare Achse z = iy. Dort ist



1 + iy/2

1 iy/2 1 |1 + iy/2| |1 iy/2|
2 2

und wegen |1 + iy/2|2 = (1 + iy/2)(1 iy/2) = |1 iy/2|2 ist diese Un-


r alle y R erfu
gleichung fu llt. Die Funktion R ist also auf dem Rand von
C dem Betrage nach kleiner gleich 1. Zugleich ist sie im Innern von C
analytisch, und nach dem Maximumprinzip folgt |R(z)| 1 fu r alle z C .
Genauer: Das Maximumprinzip besagt: Ist f : G C holomorph (analytisch) im beschrankten
Gebiet G, dann nimmt f sein Maximum auf dem Rande G an. Das Innere von C ist ein Gebiet,

97
aber nicht beschrankt! Deswegen muss man die Kompaktifizierung C {} betrachten und deren
Rand
(C {}) = {z C : Re z = 0} {}

Auf dem Rand ist |R(z)| 1, denn |R(iy)| 1 und |R()| = 1.

Ein weiteres implizites Verfahren ist die implizite Mittelpunktregel


y1 = y0 + hK1 , K1 = f (x0 + h/2, y0 + h/2K1 ). (5.4)
Sie besitzt diesselbe Stabilitatsfunktion wie die Trapezregel und ist damit
auch A-stabil. (Zu unterscheiden von der expliziten Mittelpunktregel, einem
2-Schritt-Verfahren.)
Wie sieht das Stabilitatsgebiet S dieser beiden Verfahren aus?

Die Beispiele der Trapez- und Mittelpunktregel legen nahe, die bereits ein-
gefuhrte Klasse der Runge-Kutta-Verfahren geeignet zu erweitern, um wei-
tere A-stabile Verfahren zu gewinnen. Butcher (1964) fuhrte dazu die im-
pliziten RungeKuttaVerfahren ein, kurz IRK-Verfahren. Das allgemeine
Diskretisierungsschema fu
r einen Schritt lautet
y1 = y0 + h(b1 K1 + b2 K2 + . . . + bs Ks ) (5.5)
mit Korrekturen / Zuwachsen
( )

s
Ki = f x0 + ci h, y0 + h aij Kj , i = 1, . . . , s. (5.6)
j=1

Wie im expliziten Fall legen die Verfahrenskoezienten bi , ci fu r i = 1, . . . , s


sowie aij fu
r i, j = 1, . . . , s die Methode fest. Erste Beispiele mit zugehorigem
Butcher-Tableau sind
0 0 0
1 1 1/2 1/2
c A 1 1/2 1/2
1 1
bT 1/2 1/2
Impl. Euler Mittelpunktregel
Trapezregel
Im Vergleich zum expliziten Ansatz hat man durch die insgesamt 2s+s2 Ver-
fahrenskoezienten nun noch mehr Freiheitsgrade, um Ordnung, aber auch

98
Stabilitatseigenschaften festzulegen. Falls die Koezienten auf der Diago-
nalen und im rechten oberen Dreieck verschwinden, aij = 0 fu r j i, liegt
der bekannte explizite Fall vor.

Aufgrund der impliziten Denition ist nicht klar, ob solche Verfahren wohl-
deniert sind, d.h., ob das nichtlineare Gleichungssystem fu r die Stufen
K1 , . . . , Ks u
berhaupt eine eindeutige Losung besitzt. Wir verschieben die-
se Frage aber auf spater und bleiben vorerst bei der Frage der Stabilitat.

Satz 5.1 Stabilitatsfunktion von IRK-Verfahren


Die Stabilitatsfunktion des IRK-Verfahrens (5.5)-(5.6) hat die Darstellun-
gen
(i) R(z) = 1 + zbT (I zA)1 1l
mit 1l = (1, . . . , 1)T und
det(I zA + z1lbT )
(ii) R(z) = .
det(I zA)
Ferner ist R eine rationale Funktion
P (z)
R(z) = ,
Q(z)
wobei die Polynome P und Q vom Grad s sind.
Beweis: ur die Testgleichung y = y
Aus der Denition der Ki in (5.6) folgt f

K1 K1 K1
.. . .
. = y0 1l + hA .. (I hA) .. = y0 1l.
Ks Ks Ks
Also ist

K1

s

y1 = y0 + h bi Ki = y0 + hbT ... = y0 + hbT (I hA)1 y0 1l = y0 (1 + zbT (I hA)1 1l),
i=1
Ks
womit (i) gezeigt ist. Die zweite Darstellung gewinnt man aus dem linearen System

K1
( ) ( )
..
I hA 0 .
= y 0 1
l
.
hbT 1 Ks
y0
y1

99
Die Cramersche Regel liefert
( ) ( )
I hA y0 1l I hA 0
y1 = det / det
hbT y0 hbT 1

Der Nenner reduziert sich auf det(I zA), der Zahler auf
( ) ( )
I hA y0 1l I hA + h1lbT 0
det = det = y0 det(I hA + h1lbT ).
hbT y0 hbT y0

Aus der Determinantendarstellung folgt schlielich die behauptete Struktur als rationale Funktion
in z. 

Die Stabilitatsfunktion eines IRK-Verfahrens ist demnach eine rationale


Funktion R(z) = P (z)/Q(z), die von den Verfahrenskoezienten abhangt.
Welche Eigenschaften soll R(z) haben?

Exakte Losung und numerische Approximation der Testgleichung sollten


moglichst gut sowohl fur z 0 (klassische Approximation bei kleinen
r z (gleiches asymptotisches Verhalten bei
Schrittweiten) als auch fu
groen Schrittweiten) u
bereinstimmen. D.h., wunschenswert ist R(z) mit
{
z0
r z C und
y(h) y1 = (ez R(z))y0 0 fu
z

Im Fall z 0 erhalt man die optimale Approximation der Exponential-


funktion durch die Pade-Approximation:

Definition 5.3 Sei g(z) analytisch in einer Umgebung von z = 0. Dann


heit die rationale Funktion
Pjk (z)
Rjk (z) =
Qjk (z)

mit Pjk (z) = a0 + a1 z + . . . + ak z k und Qjk (z) = 1 + b1 z + . . . + bj z j die


Pade-Approximation vom Index (j, k), falls
(l)
Rjk (0) = g (l) (0) fu
r l = 0, . . . , j + k.

100
Mit anderen Worten, Rjk (z) = g(z) + O(z j+k+1 ) fur z 0. Man kann zei-

gen (Ubung H21), dass zu g(z) = exp(z) eindeutige Pade-Approximationen
existieren, die in der Pade-Tafel, Tab. 1, zusammengefasst sind. Die erste
Zeile in der Tafel (Nennergrad j = 0) enthalt die Stabilitatsfunktionen der
expliziten Runge-Kutta-Verfahren mit p = s = 1, 2, 3 und ist daher uninter-
essant. Ferner erkennt man als (1, 0)-Approximation die Stabilitatsfunktion
des impliziten Euler, als (1, 1)-Approximation in der Diagonalen die Stabi-
litatsfunktion der Trapezregel (bzw. Mittelpunktregel).

1 1+z 1+z+z 2 /2
1 1 1
1 1+z/2 1+2z/3+z 2 /6
1z 1z/2 1z/3
1 1+z/3 1+z/2+z 2 /12
1z+z 2 /2 12z/3+z 2 /6 1z/2+z 2 /12

Tabelle 1: Pade-Tafel f
ur j, k = 0, 1, 2

Fu
r den steifen Fall wichtig:

Die Diagonaleintrage (j, j) liefern bestmogliche Approximationsordnung


2j an die Exponentialfunktion fu r z 0. Gleichzeitig hat man immer ein A-
stabiles Verfahren, allerdings mit |R()| = 1 (zeigt man mit Argumentation
analog zur A-Stabilitat der Trapezregel oben). Falls Re < 0, ist dieses
Verhalten fur groe Schrittweiten nicht optimal. Sinnvoll kann es aber im
Fall Re = 0 sein, d.h. bei Schwingungsproblemen.

Die erste und zweite Subdiagonale enthalten Stabilitatsfunktionen, die


ebenfalls einem A-stabilen Verfahren entsprechen. Die Approximationsord-
nung an die Exponentialfunktion ist mit 2j 1 bzw. 2j 2 geringer als
auf der Diagonalen, doch gilt nun R() = 0. Im Fall Re < 0 bekommt
man fur groe Schrittweiten das gleiche asymptotische Verhalten wie bei
der Exponentialfunktion. Dagegen hat man fu r Re = 0 die Eigenschaft
der numerischen Dampfung: Eine Schwingung wird bei groen Schrittweiten
nicht erhalten, sondern weggedampft.

101
Bemerkung: Wahrend die Exponentialfunktion entlang der imaginaren
Achse fu r z ein anderes Verhalten aufweist als entlang der rellen Ach-
se, ist dies bei den Pade-Approximationen nicht der Fall. Man hat entweder
|R()| = 1 oder R() = 0, mit den jeweiligen Vor- und Nachteilen.

Definition 5.4 L-Stabilitat


Ein Einschrittverfahren heit L-stabil, falls es A-stabil ist und zusatzlich gilt

lim R(z) = 0.
z

Wir suchen nun IRK-Verfahren, die folgende Eigenschaften aufweisen:

(i) A-Stabilitat oder besser noch L-Stabilitat; die Stabilitatsfunktion soll in


der Pade-Tafel auf der Diagonalen oder auf der ersten Subdiagonalen liegen.

(ii) Moglichst hohe Konsistenzordnung.

Zur Bestimmung solch eines Verfahrens stehen uns die 2s + s2 Verfahrens-


koezienten zur Verfu gung, doch bedeutet dies eine sehr groe Zahl an
Freiheitsgraden, die schnell nicht mehr handhabbar sind. Deswegen spezia-
lisieren wir uns hier auf eine besonders wichtige Klasse von IRK-Verfahren:

Kollokationsverfahren. Wir betrachten y = f (x, y) mit y(x0 ) = y0 im


Intervall [x0 , x0 + h] und bezeichnen das Polynom w(x) als Kollokationspo-
lynom, falls

w(x0 ) = y0
(5.7)
w (x0 + ci h) = f (x0 + ci h, w(x0 + ci h)) i = 1, . . . , s.
In den gegebenen Stu tzstellen 0 c0 < c1 < . . . < cs 1 erfu
llt w demnach
die Dierentialgleichung. Die Punkte x0 +ci h heien Kollokationspunkte. Mit
w(x0 + h) liefert das Verfahren eine Approximation der Losung y(x0 + h).

Da w implizit deniert ist, mu


sste man zunachst die Existenz des Kollo-
kationspolynoms klaren. Die Antwort darauf liefert aber die weiter unten
folgende Analyse der IRK-Verfahren, denn:

102
Satz 5.2 Das Kollokationsverfahren (5.7) ist aquivalent zu einem s-
stufigen Runge-Kutta-Verfahren mit Koeffizienten
ci 1
aij = lj (x) dx, bj = lj (x) dx, i, j = 1 : s,
0 0

mit den Lagrange-Polynomen lj (x) = l=j (x cl )/(cj cl ).
Beweis: Das Polynom w besitzt die Darstellung


s
w (x0 + th) = w (x0 + cj h)lj (t), t [0, 1].
j=1

Zugleich ist ci
1
w (x0 + th) dt = w(x0 + th)|c0i = (w(x0 + ci h) w(x0 ))/h
0 h
und damit
ci
s
s

w(x0 + ci h) = w(x0 ) + h w (x0 + cj h)lj (t) dt = y0 + h aij f (x0 + cj h, w(x0 + cj h)).
0 j=1 j=1
s
Wir setzen Ki := f (x0 + ci h, w(x0 + ci h)) = f (x0 + ci h, y0 + h j=1 aij Kj ) und erhalten so das
nichtlineare System (5.6) f
ur die Korrekturen. Weiter ist
1
s
s

w(x0 + h) = w(x0 ) + h w (x0 + cj h)lj (t) dt = y0 + h bj Kj = y1 .
0 j=1 j=1

Die Beziehung Ki = w (x0 + ci h) zeigt im u


brigen den Zusammenhang zwischen Korrektur und
Kollokationspolynom. 

Jedes Kollokationsverfahren ist durch die Kollokationspunkte c1 , . . . , cs ein-


deutig festgelegt. Statt 2s + s2 Koezienten brauchen wir also nur noch
diese s Koezienten zu betrachten. Welche Konsistenzordnung lasst sich so
erreichen?

r t [0, 1] und k s gilt die Darstellung (Interpolation mit den Lagrange-


Fu
Polynomen lj als Basis von Ps1 )

s
k1
t = ck1
j lj (t)
j=1

103
Daraus folgt
1
s 1
s
1 k1
= t dt = ck1
j lj (t) dt = bj ck1
j . (5.8)
k 0 j=1 0 j=1

Speziell ist daher fu
r k = 1 die Konsistenzbedingung bj = 1 erfullt.
Analog zeigt man
cki s
= aij ck1
j , (5.9)
k j=1

was fu
r k = 1 die bekannte Bedingung aij = ci liefert: Jedes Kollokati-
onsverfahren ist konsistent und invariant unter Autonomisierung.

Die Beziehungen (5.8) und (5.9) charakterisieren die Koezienten des Kol-
lokationsverfahrens. Allgemein deniert man bei IRK-Verfahren die verein-
fachenden Annahmen

s
1
B(p) : bj ck1
j = , k = 1 : p; (5.10)
j=1
k

s
1 k
C(l) : aij ck1
j = ci , i = 1 : s, k = 1 : l; (5.11)
j=1
k

s
1
D(m) : bi ck1
i aij = bj (1 ckj ), j = 1 : s, k = 1 : m. (5.12)
i=1
k

Diese Bedingungen dienen zur Vereinfachung des Dschungels an 2s + s2


Koezienten im allgemeinen Fall. B(p) besagt, dass die zugrundeliegende
Quadraturmethode exakt ist fur Polynome bis zum Grad p 1. C(l) besagt,
dass die den Korrekturen zugrundeliegende Quadraturmethode exakt ist fur
Polynome bis zum Grad l 1 (Nachweis als Ubung).

Aus (5.8) folgt die Eigenschaft B(s), und aus (5.9) folgt C(s) fu
r die Kolloka-
tionsverfahren. Damit sind diese weitgehend charakterisiert, doch es bleibt
die Frage der Konsistenzordnung: Wie soll man die ci wahlen, damit das
Verfahren moglichst hohe Konsistenzordnung hat?

104
Satz 5.3 Ein durch Kollokation erzeugtes Runge-Kutta-Verfahren hat
r f C p (D) die Konsistenzordnung p genau dann, wenn die durch die
fu
Stutzstellen ci und Gewichte bi gegebene Quadraturformel die Ordnung p
besitzt.
Beweisskizze: Wir betrachten das Integral
x0 +h 1
s
g(x) dx = h g(x0 + th) dt = h bj g(x0 + cj h) + e(g)
x0 0 j=1

samt seiner Approximation durch die Quadraturformel mit Fehler e(g). Der Fehler e(g) ist von
der Ordnung p, falls
|e(g)| Chp+1 max |g (p) ()|.
(Vergleiche Gauquadratur: Dort war
1
s
a(t) dt = bj a(j ) + C D2s a()
1 j=1


1
1 1 s
1 1+ 1 + j 1 d2s 1+
g(x0 +th) dt = g(x0 +h ) d = bj g(x0 +h )+ C 2s g(x0 +h )|=
0 2 1 2 2 2 2 d 2
j=1

ur diese Quadraturformel die optimale Ordnung e(g) = O(h2s+1 ).)


und daher dann f

Das Kollokationspolynom w erf


ullt die triviale Dierentialgleichung

w (x) = f (x, w(x)) + (w (x) f (x, w(x))) = f (x, w(x)) + r(x, w(x)),

wobei r als Defekt oder Storung aufgefasst wird. Verglichen mit der urspr unglichen Dierential-

gleichung y = f (x, y(x)) folgt f
ur die Dierenz
x
y
w(x) y(x) = (x, s, w(s)) r(s, w(s)) ds
x0 y 0

(Sogenannte Formel von Alekseev/Grobner oder nichtlineare Variation der Konstanten). Ersetzt
man die Integration durch die Quadraturformel, so fallen alle Terme in der Summe heraus, da
r(x0 + ci h, w(x0 + ci h)) = w (x0 + ci h) f (x0 + ci h, w(x0 + ci h)) = 0 aufgrund der Kollokation.

Ubrig bleibt der Fehler der Quadraturformel, also

w(x0 + h) y(x0 + h) Chp+1 max g (p) ()

mit
y
g(t) = (x, t, w(t)) (w (t) f (t, w(t))).
y0
Aufgepasst: Die Beschranktheit von g (p) () f
ur h 0 muss noch gezeigt werden! 

105
Bemerkung: Satz 5.3 liefert fu r alle Kollokationsverfahren die zugehorige
Konsistenzordnung (Beispiele s.u.). Alternativ kann man zu einem gegebe-
nen IRK-Verfahren (Kollokationsverf. oder andere) die Konsistenzordnung
mit den in Satz 3.2 angegebenen Ordnungsbedingungen bestimmen. D.h.,
der Abgleich u
ber Taylorreihenentwicklungen lauft im impliziten Fall genau-
so ab wie im expliziten, nur die Summationen in den Bedingungsgleichungen
laufen immer von 1 bis s.

Verfahrensklassen. In Anlehnung an die Quadraturformeln erhalten wir


folgende durch Kollokation erzeugte IRK-Verfahren:

(i) Gau-Verfahren: Wahle die ci als Nullstellen des (auf [0, 1] verschobenen)
Legendre-Polynoms ds /dxs [xs (x 1)s ].

Konsistenzordnung p = 2s (optimal!), Stabilitatsfunktion ist Index (s, s)


der Pade-Tafel.

Der Fall s = 1 ist die implizite Mittelpunktregel (5.4), Beispiel zu s = 2:



1/2 3
1/4 1/4 3
6
3
6 1 + 21 z + 12
1 2
z
1/2 + 1/4 + 63 1/4 , R(z) = 1 2.
6 1 12 z + 12 z
1/2 1/2

(ii) Radau-Verfahren: Wahle die ci als NST von ds1 /dxs1 [xs (x 1)s1 ]
(Radau IA) oder ds1 /dxs1 [xs1 (x 1)s ] (Radau IIA). Die letzte Klasse ist
durch 0 < c1 und cs = 1 charakterisiert und vorteilhafter:

Konsistenzordnung p = 2s 1, Stabilitatsfunktion ist Index (s, s 1) der


Pade-Tafel (Subdiagonale, also L-stabil).

Der Fall s = 1 ist der implizite Euler, Beispiel zu s = 2:

1/3 5/12 1/12


1 + z/3
1 3/4 1/4 , R(z) = .
1 2z/3 + z 2 /6
3/4 1/4

106
Mit den Gau- und Radau IIA-Verfahren stehen damit zwei spezielle Ver-
fahrensklassen mit sehr guten Eigenschaften bereit.

Losung des nichtlinearen Systems. Nun kommen wir zur lange aufge-
schobenen Frage der Losung des nichtlinearen Gleichungssystems (5.6) in
den Korrekturen,
( )
s
Ki = f x0 + ci h, y0 + h aij Kj , i = 1 : s.
j=1

Wir schreiben es mit K := (K1 , K2 , . . . , Ks )T neu als s m-dimensionale


Fixpunktgleichung
( )
s
K = F (K), Fi (K) := f x0 + ci h, y0 + h aij Kj , i = 1 : s. (5.13)
j=1

Naheliegend ist die Losung mit der wenig aufwandigen Fixpunktiteration


(wie bei den MSV vom Pradiktor-Korrektor-Typ). Die Kontraktivitat von
F analysieren wir u
ber

s
s
Fi (K) Fi (K)
= f (. . . , y0 + h aij Kj ) f (. . . , y0 + h j )
aij K
j=1 j=1

s
Lh aij (Kj K
j )
j=1

s
Lh |aij |Kj K
j .
j=1

Daraus folgt mit maxi j |aij | = A fu
r die Koezientenmatrix A die
Abschatzung

max Fi (K) Fi (K)


LhA max Ki K
i .
i i

Kontraktivitat in der Norm K := maxi Ki liegt vor, falls


1
LhA < 1 h< . (5.14)
LA
107
Obwohl damit die Existenz der Losung nachgewiesen ist (Banachscher Fix-
punktsatz), ist dieses Ergebnis eine groe Enttauschung: Im steifen Fall gilt
r die Lipschitzkonstante L = Df (y) (Df (y)) 1, wobei (B) =
fu
maxj |j (B)| den Spektralradius bezeichnet. Deswegen stellt die Bedingung
(5.14) eine sehr starke Einschrankung an die Schrittweite h dar das Ziel
groer Schrittweiten ist so nicht erreichbar! Schon bei linearen Systemen
y = By konvergiert die Fixpunktiteration nur falls h 1/(A B).

Abhilfe schat hier das Newton-Verfahren, konkret das vereinfachte Newton-


Verfahren fur K F (K) = 0. Es lautet mit Start K0 = 0
Ki+1 = Ki + Ki , (I DF (K0 ))Ki = (Ki F (Ki )). (5.15)
Als konstante Approximation der Funktionalmatrix DF verwendet man

ha11 J . . . ha1s J
.. = hA J,
DF (K0 ) = ... ... .
has1 J . . . hass J
wobei J = f (x0 , y0 )/y. Warum dieses vereinfachte Newtonverfahren im
steifen Fall sinnvoll ist und groere Schrittweiten h erlaubt, wollen wir im
Fall des impliziten Eulers naher erlautern. Wir betrachten also das nichtli-
neare System 0 = K F (K) = K f (x1 , y0 + hK) in der einzigen Stufe
K. Die Iteration (5.15) schreibt sich dann
K i+1 = (K i ) := K i (I hJ)1 (K i f (x1 , y0 + hK i )).
Fu
r die Ableitung der Iterationsvorschrift folgt
D(K) = I (I hJ)1 (I f (x1 , y0 + hK)/K).
Im steifen Fall nehmen wir an, dass die Steifheit im linearen Anteil von f
steckt, also f (x, y) = Jy + g(x, y) mit nichtsteifem Term g. Unter dieser
Annahme ist
D(K) = I (I hJ)1 (I hJ + hg(x1 , y0 + hK)/y)
= (I hJ)1 (hg(x1 , y0 + hK)/y)
h(I hJ)1 g/y.

108
Auf den ersten Blick sieht diese Abschatzung wegen (I hJ)1 nicht
besser aus, aber es gilt nun:
1
ist EW von J :=
ist EW von (I hJ)1 . (5.16)
1 h
Reelle, stark negative Eigenwerte von J, die steifen Anteile, werden also
auf positive Eigenwerte 1 transformiert. Die Matrix (I hJ)1 kann
demnach als Filter interpretiert werden, der die steifen Anteile herausl-
tert. Es ist (I hJ)1 1 + c mit einer von der Steifheit unabhangigen
Konstanten c; falls J symmetrisch ist und nur reelle, negative Eigenwerte
vorliegen gilt c = 0. Also
1
D(K) < 1 falls h< , (5.17)
(1 + c)g/y
wobei g/y die von der Steifheit unabhangige Nichtlinearitat des Problems
beschreibt. Im Fall linearer Dierentialgleichungen konvergiert das verein-
fachte Newtonverfahren in einem Schritt.

Details zur Implementierung. An dieser Stelle folgen ein paar Hinwei-


se zur im Allgemeinen aufwandigen und sehr komplexen Implementierung
impliziter Runge-Kutta-Verfahren.

In der Praxis lost man statt des nichtlinearen Gleichungssystems fu r die


Korrekturen K1 , . . . , Ks das dazu aquivalente (fu r invertierbare Koezien-
tenmatrix A)

s
zi = h aij f (x0 + ci h, y0 + zj ).
j=1

Welcher Zusammenhang besteht zwischen den Variablen zi und den Ki ?


Der Vorteil dieser Formulierung liegt in geringeren Rundungsfehlern, da
die Variablen zi von kleinerer Groenordnung als die Korrekturen Ki und
weniger anfallig fu
r Ausloschung sind.

Das vereinfachte Newton-Verfahren in den Variablen Z = (z1 , . . . , zs )T


konvergiert linear. Als Abschatzung fu
r den Fehler im k-ten Schritt hat

109
man nach dem Banachschen Fixpunktsatz
. Z k
Z k+1
Z
Z k , = k := .
1 Z k1
Dabei ist k eine Approximation an die Konvergenzrate .

Die Losung des ms ms-linearen Gleichungssystems

(Imsms hA J)Z = r.S.

stellt den Hauptaufwand eines IRK-Verfahrens dar. Um hier den Aufwand


zu senken, hat man Verfahren entwickelt, die eine Koezientenmatrix A
mit spezieller Struktur besitzen, sogenannte DIRK- und SDIRK-Verfahren
(Diagonally Implicit Runge-Kutta bzw. Singly DIRK):

c1 a11 0 0 c1 a11 0 0
.. .. . . . .. .. . . .
. . 0 . . 0
.
cs as1 . . . ass cs as1 . . . a11
DIRK b1 . . . bs SDIRK b1 . . . bs

Die Struktur der Koezientenmatrix ubertragt sich blockweise,



Imm ha11 J 0 0
. . ..
Imsms hA J = .. .. . , (5.18)
has1 J . . . Imm hass J

so dass mit Block-Gau-Elimination gearbeitet werden kann. Diese Verfah-


ren sind aber keine Kollokationsverfahren!

Zur Schrittweitensteuerung verwendet man eine eingebettete Losung y1 ,


wie bei den expliziten Verfahren. Weitere Anforderung: Der Fehlerschatzer
muss auch im steifen Fall sinnvolle Schrittweitenvorschlage ermoglichen.
D.h., man fordert y1 y1 1 fu
r z .

110
Numerische Software. Die Codes RADAU5 und RADAU von Hairer und
Wanner sind die zur Zeit wohl besten IRK-Verfahren (ftp-Adresse Kap. 3,
siehe auch www-m3.ma.tum.de/m3/software.html). RADAU5 basiert auf
dem L-stabilen Kollokationsverfahren Radau IIA zu s = 3 Stufen und hat
die Ordnung 2s 1 = 5 ( y1 Ordnung 3). RADAU enthalt zusatzlich die
Varianten mit s = 5 und s = 7 Stufen und ist als Verfahren mit variabler
Ordnung (5, 7, 13) und variabler Schrittweite implementiert. Bei diesen IRK-
Verfahren ist die Matrix Imsms hAJ nicht von der Blockgestalt (5.18); es
existiert aber eine Transformation, die den Aufwand fur eine LR-Zerlegung
z.B. im Fall s = 3 von (3m)3 /3 auf 5m3 /3 Operationen reduziert.

Linear-implizite Einschrittverfahren

Da die Implementierung der IRK-Verfahren sehr aufwandig ist und bis En-
de der 80er Jahre nicht klar war, ob solche Verfahren uberhaupt ezient
realisiert werden konnen, hat man bereits fru
h nach Alternativen gesucht.
Die Grundidee der linear-impliziten ESV wollen wir am Beispiel des linear-
impliziten Eulerverfahrens studieren:

Wir beschranken uns auf den autonomen Fall y = f (y). Der implizite Euler
lautet hier y1 = y0 + hK, K = f (y0 + hK). Wir fu hren nun eine einzige
r 0 = K f (y0 + hK) aus,
Newtoniteration mit Startwert K 0 = 0 fu
K 1 = K 0 (I hDf (y0 ))1 (K 0 f (y0 + hK 0 )) = (I hDf (y0 ))1 f (y0 ),
und setzen als neue Approximation
y1 = y0 + hK 1 = y0 + h(I hDf (y0 ))1 f (y0 ). (5.19)
Dieses Verfahren ist der linear-implizite Euler. Die Multiplikation mit der
Matrix (I hDf (y0 ))1 erfullt hier wie bei der Newton-Iteration der IRK-
Verfahren eine Filterfunktion. Oensichtlich hat der linear-implizite Euler
diesselbe Stabilitatsfunktion wie der implizite Euler und ist demnach L-
stabil. Daru
berhinaus hat dieses Verfahren die Konsistenzordnung 1.

111
ur lineare Probleme wie die Testfunktion y = y stimmt der semi-implizite Euler mit dem
F
berein. Daher ist R(z) = 1/(1 z). Die Ordnung folgt (i) f
impliziten u ur hDf (y0 ) < 1 aus der
Neumannschen Reihe

(I hDf (y0 ))1 = I + hDf (y0 ) + (hDf (y0 ))2 + (hDf (y0 ))3 + . . . ,

denn damit ist


y1 = y0 + hf (y0 ) + h2 Df (y0 )f (y0 ) + O(h3 ).
Abgleich mit der exakten Losung y(x0 + h) = y0 + hf (y0 ) + h2 /2Df (y0 )f (y0 ) + O(h3 ).
Anderer Weg, der ohne die starke Schrittweitenbeschrankung auskommt: (ii) Wir schreiben die
Diskretisierung als
y1 = y0 hDf (y0 )y0 + hDf (y0 )
y1 + hf (y0 )
und fassen nun y1 als Funktion y1 (h) auf. Dann ist die numerische Losung die Taylorreihe

y1 (0) + O(h2 )
y1 (h) = y1 (0) + h

mit y1 (0) = y0 und y1 (0) = (Df (y0 )y0 + Df (y0 ) y1 (h) + f (y0 ))|h=0 = f (y0 ).
y1 (h) + hDf (y0 )

Neben A-Stabilitat und Konsistenz des linear-impliziten Eulers gilt zudem:


Liegen alle Eigenwerte der Jacobimatrix Df (y0 ) in C , so ist die Matrix
I hDf (y0 ) fu
r alle Schrittweiten h > 0 invertierbar.

ur C folgt Re (h) 0
= 1 h EW von I hDf (y0 ). F
Sei EW von Df (y0 ), dann ist
1. Vergleiche auch die Aquivalenz
und somit Re (5.16).

Der linear-implizite Euler ist damit eine deutlich weniger aufwandige Alter-
native zum impliziten Euler. In jedem Integrationsschritt ist nur ein lineares
Gleichungssystem

(I hDf (y0 ))y1 = y0 + hf (y0 ) hDf (y0 )y0

fu
r die neue Approximation y1 (jetzt ohne ) zu losen.

Um zu linear-impliziten Verfahren mit hoherer Ordnung zu gelangen, kann


man nun zwei Wege einschlagen:

Extrapolation. Der linear-implizite Euler besitzt eine h-Entwicklung (Satz


3.4), die als Grundlage fu
r ein Extrapolationsverfahren dient. Auf diese Wei-
se kann man die Ordnung beliebig hoch treiben, muss aber mit einem kleinen

112
Verlust an Stabilitat rechnen: Ab der Spalte 3 des Extrapolationstableaus
liegt keine A-Stabilitat mehr vor, da Teile von C in der Nahe der ima-
ginaren Achse nicht mehr zum Stabilitatsgebiet gehoren. Man spricht auch
.
von A()-Stabilitat mit = 89, 7o , vergl. Abb. 35.
Numerische Software fu r diesen Zugang: Codes LIMEX (Deuhard/Nowak)
sowie SEULEX (Hairer/Wanner).

S
C

Abbildung 35: A()-Stabilitat: Der Sektor {z : |arg (z)| < } ist in S enthalten.

ROW-Verfahren. Diese Verfahrensklasse geht auf Rosenbrock und Wan-


ner zuru
ck und soll im folgenden naher untersucht werden. Wir betrachten
wiederum zunachst nur autonome Systeme y = f (y) und schreiben die
Dierentialgleichung als

y = Jy + (f (y) Jy), J = Df (y).

Nun wird ein Runge-Kutta-Verfahren angesetzt, das den ersten Term Jy


auf der rechten Seite implizit diskretisiert (der steife Anteil) und den Term

113
(f (y) Jy) explizit. Wir denieren so das ROW-Verfahren

s
y1 = y0 + h bj Kj , (5.20)
j=1
( )

i1
i1
Ki = hJii Ki + f y0 + h ij Kj + hJ ij Kj . (5.21)
j=1 j=1

Die Vorschrift fu
r die Korrekturen Ki fu
hrt auf das lineare Gleichungssystem
( )

i1 i1
(I hii J)Ki = f y0 + h ij Kj + hJ ij Kj , (5.22)
j=1 j=1

das in jeder Stufe zu losen ist. Die Koezienten bi , ij , ij legen die Methode
fest. (Eine andere Herleitung geht von einem DIRK-Verfahren aus, auf das
1 Newtoniteration angewandt wird.)

Um das Verfahren auch fu r nicht autonome Dierentialgleichungen zu de-


nieren, diskretisieren wir
( ) ( )

y f (x, y)
y = = = f(
y ).
x 1

Anwendung des ROW-Verfahrens liefert


( i1 ) ( ) ( )
f (x0 + h ij 1, y0 + h
i
i = j=1 ij Kj ) Dy f Dx f Kj
K +h ij
1 0 0 j=1
1

mit Dy f = /yf (x0 , y0 ), Dx f = /xf (x0 , y0 ).

Nach Elimination der Korrekturen fu r die triviale x-Komponente erhalten


wir so die Vorschrift
( )

i1
(I hii Dy f (x0 , y0 ))Ki = f x0 + i h, y0 + h ij Kj (5.23)
j=1

i1
+hi Dx f (x0 , y0 ) + hDy f (x0 , y0 ) ij Kj
j=1

114
i1 i
mit Koezienten i = j=1 ij sowie i = j=1 ij .

Diese Verfahrensklasse ist nun wiederum nach den Gesichtspunkten Konsi-


stenz und A-Stabilitat zu analysieren. Man erhalt folgende Ergebnisse:

Die Ordnungsbedingungen folgen wie bei den Runge-Kutta-Verfahren


aus den Taylorentwicklungen der exakten Losung und der numerischen
Approximation. Fur Ordnung p = 1 notwendig ist

bj = 1, (5.24)
j

fu
r p = 2 zusatzlich

bj (jk + jk ) = 1/2, (5.25)
j,k

und fu
r p = 3 zusatzlich

bj jk jl = 1/3, bj (jk + jk )(kl + kl ) = 1/6. (5.26)
j,k,l j,k,l

Die Stabilitatsfunktion hat die Darstellung

R(z) = 1 + zbT (I zB)1 1l (5.27)

mit B = (ij )i,j=1:s , ij = ij + ij .

Fur die Verfahrenskonstruktion ist zusatzlich der Gesichtspunkt der Ezi-


enz zu berucksichtigen. Die linearen Gleichungssysteme (5.22) bzw. (5.23)
fu
r die Stufen lost man geschickter Weise mit nur einer LR-Zerlegung der
Matrix I hii J, d.h. man wahlt in der Verfahrenskonstruktion ii = fu
r
i = 1 : s.

Das folgende Schema beschreibt einen Schritt eines ROW-Verfahrens (im


autonomen Fall, sonst siehe (5.23)).

115
Algorithmus 5.1 ROW-Verfahren

Berechne J = Df (y0 ) oder Approximation (numer. Dierentiation);

Berechne LR-Zerlegung von I hJ;

fu
r i = 1 : s
( )

i1
i1
Lose (I hJ)Ki = f y0 + h ij Kj + hJ ij Kj ;
j=1 j=1
s
y1 = y0 + h j=1 bj Kj ;

Anforderungen in der Praxis:

Zur Schrittweitensteuerung wird wie u blich ein eingebettetes Verfah-


ren herangezogen und dann wie im adaptiven Grund-Algorithmus 3.1
verfahren. Dabei ist zu beachten, dass das eingebettete Verfahren auch
fu
r steife Dierentialgleichungen geeignet sein sollte. Optimal ist ein
L-stabiles Verfahrens fur y1 und ein A-stabiles fur y1 .

Die Berechnung des Terms hJ i1 j=1 ij Kj erfordert teure Matrix-Vektor-
multiplikationen. Durch geschickte Einfu hrung neuer Variablen ui =
i
j=1 ij Kj kann dieser Aufwand vermieden werden.

Die ersten ROW-Verfahren GRK4A und GRK4T gehen auf Kaps/Rentrop


(1979) zuruck. In MATLAB implementiert ist das Verfahren ode23s von
Shampine/Reichelt (1996). Seine Koezienten sind

s = 2, = 1/(2 + 2), 21 = 1/2, 21 = , b1 = 0, b2 = 1.

Mit der FSAL-Strategie (siehe Abschnitt 3.5) wird eine weitere Stufe aus-
gewertet,

(I hJ)K3 = f (x1 , y1 ) (6 + 2)(K2 f (x0 + 21 h, y1 + h21 K1 ))
2(K1 f (x0 , y0 )) + hDx f (x0 , y0 ).

116
Als Fehlerschatzer verwendet man
h
y1 y1 = (K1 2K2 + K3 )
6
Dabei ist y1 ein L-stabiles Verfahren der Ordnung 2 und y1 ein A-stabiles
Verfahren der Ordnung 3.

Bemerkungen
Beim Verfahren ode23s wird keine lokale Extrapolation durchgefu hrt
und mit der Approximation 2.ter Ordnung weitergerechnet. Die bessere
Stabilitat wird wichtiger als die hohere Ordnung eingeschatzt.

Wenn keine gute Approximation der Jacobimatrix J zur Verfu gung


steht, bleibt die Ordnung des Verfahrens erhalten, die Stabilitatseigen-
schaften konnen sich jedoch verschlechtern. Das Verfahren stellt dann
eine W-Methode dar (nach Wolfbrandt).

Bei singular gestorten Problemen

y = f (y, z), z = g(y, z)

arbeiten ROW-Methoden manchmal nicht zufriedenstellend. Eine Er-


weiterung auf diesen Fall, die zusatzliche Ordnungsbedingungen beru
ck-
sichtigt, ist das Verfahren RODAS von Hairer/Wanner. Es hat s = 6
Stufen und Ordnung p = 4.

5.3 Mehrschrittverfahren fu
r steife Differentialgleichungen

Wie verhalten sich MSV bei steifen Dierentialgleichungen? Die Anwendung


des Adams-Verfahrens ode113 auf den Van-der-Pol-Oszillator im steifen Fall
zeigt die gleichen Phanomene wie bei expliziten Runge-Kutta-Codes. Zur
Analyse ziehen wir wieder die Dahlquistsche Testgleichung y = y heran
und gehen der Frage nach, ob es A-stabile MSV gibt.

117

Das MSV j yi+j = h j fi+j , angewandt auf y = y, ergibt die homo-
gen Dierenzengleichung

k
(j zj )yi+j = 0 mit z = h. (5.28)
j=0

Mit den Techniken aus Abschnitt 4.3 (Satz 4.2) kann die homogene Rekur-
sion (5.28) abhangig vom komplexen Parameter z analysiert werden. Das
zu (5.28) gehorige charakteristische Polynom ist

() z() , () = l
l , () = l l .

Eine Losung {yi } von (5.28) ist Nullfolge genau dann, wenn fur jede Null-
stelle von () z() gilt || < 1, und zwar unabhangig von z!

Bei der AStabilitat nehmen wir den Fall || = 1 mit und fordern nur, dass
Losungen der Testgleichung nicht wachsen. Es gilt damit

Satz 5.4 Das MSV j yi+j = h j fi+j ist A-stabil
Jede NST von () z() erfu r alle z C .
llt || 1 fu
Falls mehrfache NST ist, gilt || < 1.

Die Abhangigkeit von z wird wie bei ESV durch den Begri des Stabi-
litatsgebietes genauer beschrieben:

Definition 5.5 Stabilitatsgebiet eines MSV


Das Stabilitatsgebiet eines MSV ist die Menge
{ }
() z() hat nur NST mit || 1.
S := z C :
Falls mehrf. NST, so gilt || < 1

Beispiele fu
r Stabilitatsgebiete sind in Abb. 36 dargestellt.

Die Adams-Bashforth-Verfahren sind fu r alle k nicht A-stabil, die Adams-


Moulton-Verfahren nur fu
r k = 1 (Trapezregel). Damit ist das schlechte
Verhalten von ode113 im steifen Fall klar.

118
S
C 3i C
111111
000000
C
5
11111
00000
S
000000
111111
000000
111111
00000
11111
i
00000
11111 000000
111111
00000
11111 000000
111111
000000
111111
00000
11111 000000
111111
5
00000 i
11111
1
000000
111111
000000
111111 S
0000003i
111111
Adams-Bashforth k = 2 Adams-Moulton k = 2 BDF k = 2
Abbildung 36: Stabilitatsgebiete von MSV

Was kann man mit MSV bezu glich Stabilitat und Ordnung maximal errei-
chen? Die Antwort (ohne Beweis):

Satz 5.5 2. DahlquistBarriere (1963)


Fu
r lineare MSV gilt

(i) Kein explizites Verfahren ist A-stabil

(ii) Kein implizites Verfahren ist A-stabil,


falls seine Konsistenzordnung p > 2 ist

A-stabile Verfahren mit p = 2 sind u.a. die Trapezregel (optimale Fehler-


konstante) und BDF-2.

Trotz dieser groen Einschrankung gibt es eine Verfahrensklasse, die sehr er-
folgreich bei steifen Problemen eingesetzt wird, namlich die BDFVerfahren
(bis k = 6). Die negative reelle Halbachse ist bei den BDF-Verfahren immer
in S enhalten, daher hat man dort gute Stabilitatseigenschaften. Ab k = 3
sind die Verfahren aber nur noch A()-stabil und daher nicht geeignet fu r
oszillatorische Probleme.

119
k=6
k=5
k=3 k=4

Abbildung 37: Stabilitatsgebiete BDF-k

Im Spezialfall Re z streben die Nullstellen von ()z() bei allen


BDF-Verfahren gegen Null, so dass zumindest entlang der reellen Achse das
Analogon zur L-Stabilitat vorliegt.

Beginnend mit Gear (1971) waren die BDF-Verfahren die ersten erfolgrei-
chen Methoden fu r steife Dierentialgleichungen. Auch heute noch gelten
sie als Standard fu r diese Problemklasse. Da die Verfahrenskoezienten fest
sind, unterscheiden sich die eingesetzten Verfahren nur in Bezug auf die, wie
bei MSV u blich, sehr komplexe Implementierung mit variabler Ordnung und
variabler Schrittweite. Basis ist der Ansatz (vergl. Abschnitt 4.1)

q (xn+1 ) = f (xn+1 , yn+1 ) (5.29)

mit dem Interpolationspolynom q vom Grad k, das (xnk+1 , ynk+1 ) bis


(xn+1 , yn+1 ) interpoliert. Da q von yn+1 abhangt, ist die Gleichung (5.29) ein
nichtlineares Gleichungssystem fu r yn+1 , das wie bei den IRK-Verfahren mit
einer vereinfachten Newton-Iteration gelost werden muss. Eine Fixpunkt-
iteration wu rde nur bei sehr kleinen Schrittweiten konvergieren.
Hauptunterschied zu den IRK-Verfahren: Das nichtlineare Gleichungssy-
stem besitzt nur die Dimension m und ist damit deutlich weniger aufwandig
zu losen als bei den IRK-Verfahren.

120
Dazu noch ein paar Details: Die Verfahren werden als Pradiktor-Korrektor-Schema implemen-
tiert. Das Korrektorpolynom ist obiges Polynom q, das wir im folgenden mit qC bezeichnen. Das
Pradiktorpolynom qP interpoliert (xnk , ynk ) bis (xn , yn ) und liefert mit Extrapolation auf xn+1
den Pradiktor- oder Startwert
0
yn+1 := qP (xn+1 ).
Die Dierenz der beiden Polynome interpoliert (xnk+1 , 0) bis (xn , 0) sowie (xn+1 , yn+1 yn+1
0 ).

Nach Lagrange hat die Dierenz die Darstellung


(x xn ) . . . (x xnk+1 )
qC (x) qP (x) = (yn+1 yn+1
0
),
(xn+1 xn ) . . . (xn+1 xnk+1 )
und f
ur die Ableitung ndet man

qC (xn+1 ) qP (xn+1 ) = n+1 (yn+1 yn+1
0
)

mit
1 1 1
n+1 := + + ... + .
xn+1 xn xn+1 xn1 xn+1 xnk+1
Der Faktor n+1 (nicht mit den j des allgemeinen MSV zu verwechseln!) wird f uhrender Ko-
effizient (leading coefficient) genannt. Nun kann die Gleichung (5.29) neu formuliert werden.
0
Mithilfe des Pradiktors yn+1 0
und seiner Ableitung yn+1 := qP (xn+1 ) ist (5.29) aquivalent mit
dem nichtlinearen System
0
0 = yn+1 + n+1 (yn+1 yn+1
0
) f (xn+1 , yn+1 ) =: F (yn+1 ).

Das vereinfachte Newtonverfahren lautet dann


i+1
yn+1 i
= yn+1 y i , (n+1 I Dy f (xn+1 , yn+1
0
))y i = F (yn+1
i
).

Man beachte, dass hier ganz analog zu den IRK- und ROW-Verfahren die Matrix n+1 I Dy f =
1
n+1 (I n+1 Dy f ) auftaucht und das Konvergenzverhalten im Vergleich zur Fixpunktiteration
im steifen Fall entscheidend verbessert. Als Schatzer f
ur den Fehler

e = y(xn+1 ) yn+1

verwendet man die Dierenz zwischen Pradiktor und Korrektor in den Formen
. 1 1
(i) e = (y 0 yn+1 )
n+1 xn+1 xnk n+1
. 1
(ii) e = (n+1 I Dy f (xn+1 , yn+1
0
))1 (y 0 yn+1 ).
xn+1 xnk n+1

Die zweite Schatzung (ii) erfordert eine weitere Vorwarts-R uckwarts-Substitution, ist aber im
steifen Fall besser und liefert groere Schrittweiten. In den meisten Codes wird aber die billigere
Schatzung (i) eingesetzt.

Als Beispiel sei noch der Algorithmus f


ur einen Schritt im Fall k = 2 angegeben:

121
BDF-2-Verfahren mit SWS
Gegeben: yn2 , yn1 , yn zu Zeitpunkten xn2 , xn1 , xn
(zur
uckliegende Schritte oder Anlaufrechnung, impl. Euler).

Zeitschritt mit Schrittweite hn = xn+1 xn :

Berechne dividierte Differenzen:


[yn1 , yn2 ] = (yn1 yn2 )/(xn1 xn2 );
[yn , yn1 ] = (yn yn1 )/(xn xn1 );
[yn , yn1 , yn2 ] = ([yn , yn1 ] [yn1 , yn2 ])/(xn xn2 );

Pr
adiktor:
0
yn+1 = yn + (xn+1 xn )[yn , yn1 ] + (xn+1 xn )(xn+1 xn1 )[yn , yn1 , yn2 ];
0
yn+1 = [yn , yn1 ] + (2xn+1 xn xn1 )[yn , yn1 , yn2 ];

Korrektor - l
ose nach yn+1 :
0
0 = yn+1 n+1 yn+1
0 + n+1 yn+1 f (yn+1 , xn+1 );

Fehlersch
atzer und neue Schrittweite:

. 1 1 (0)
ERR = yn+1 yn+1 ;
n+1 xn+1 xn2
hnew = hn min(u , max(l , s ERR1/3 ));

falls ERR < 1: akzeptiere Schritt; hn+1 = hnew ;


sonst: wiederhole Schritt mit hn = hnew ;

1 1
Dabei sind n+1 = + der leading coecient,
xn+1 xn1 xn+1 xn
( )2
1 m yi
y2 := m die Fehlernorm mit Gewichtung w,
i=1
ATOL+RTOL |wi |

u 1 + 2 die obere Schranke f
ur die Anderung h,
l = 0.2 die untere Schranke f
ur die Anderung h und s = 0.9 der Sicherheitsfaktor.

Numerische Software: Ausgereifte Fortran-Codes sind LSODE von Hind-


marsh und DASSL von Petzold. Das letztere Verfahren ist auch fu r voll-

implizite Dierentialgleichungen F (y , y, x) = 0 und dierential-algebraische
Gleichungen geeignet. In MATLAB implementiert ist ode15s (Shampine).
Es handelt sich hier um eine Variante der BDF-Verfahren mit leicht verklei-
nerten Stabilitatsgebieten, aber besseren Fehlerkonstanten.

122
Van der Pol, = 1.E6
2.5 Van der Pol, = 1.E6
2
10

2 y(2)

1.5

0.5

ode23s

CPU
1
0 10
y(1)

0.5

ode15s
1

1.5

0
2.5 10
1 2 3 4 5 6 7 8
0 2 4 6 8 10 12 10 10 10 10 10 10 10 10
x Fehler

Abbildung 38: Van-der-Pol-Gleichung, Losung und Aufwandsdiagramm

Vergleich der Integratoren ode23s und ode15s

Wir testen die in MATLAB verfu gbaren steifen Integratoren anhand des
Van-der-Pol-Oszillators in den Koordinaten von Lienhart (2.3)
1
y1 = y2 , y2 = (y1 y23 /3 + y2 )

mit Anfangswert y1 (0) = 2, y2 (0) = 0. Die Anwendung des ROW-Verfahrens
ode23s aus MATLAB liefert dann zum Parameterwert = 106 die in
Abb. 38 dargestellte numerische Losung im Intervall [0, 11]. Ein explizites
Verfahren ist hier chancenlos, da Schrittweiten in der Groenordnung von
notwendig sind.

Auf der rechten Seite von Abb. 38 sieht man ein Aufwandsdiagramm, in
dem die erreichte Genauigkeit gegen die Rechenzeit fu r verschiedene Tole-
ranzvorgaben aufgetragen ist (vergl. Abschnitt 4.5, Abb. 27). Der Fehler am
Endpunkt xend = 11 wurde dabei durch Vergleich mit einer mit hoher Ge-
nauigkeit berechneten Referenzlosung ermittelt. Wahrend ode23s bei nied-
rigen Toleranzvorgaben ezienter und auch etwas genauer ist, schneidet das
BDF-Verfahren ode15s bei hoheren Genauigkeiten klar besser ab.

123
Exkurs: Lininenmethode Als zweites Beispiel betrachten wir das N -dimensionale System

y = Ay + d(y) (5.30)

wobei
2 1
.
1 2 2 . .
A=N
.. ..
. . 1
1 2
und
D(1 + y1 ) exp(/y1 ) + N 2 y2
D(1 + y2 ) exp(/y2 )


d(y) =

..
. .


D(1 + yN 1 ) exp(/yN 1 )
D(1 + yN ) exp(/yN ) + N 2 1
Dieses Dierentialgleichungssystem entsteht durch Anwendung der Linienmethode auf die Reaktions-
Diusionsgleichung

Tt = Txx + D(1 + T ) exp(/T ), t > 0, 0 x 1

mit Randwerten Tx (0, t) = 0 und T (1, t) = 1 f ur 0 x 1.


ur t > 0 und Anfangswert T (x, 0) = 1 f

Die Variable T (x, t) beschreibt dabei den Temperaturverlauf einer chemischen Reaktion im ein-
dimensionalen Kontinuum 0 x 1. ist die Warmefreisetzung, die Aktivierungsenergie und
D = R exp()/() mit Reaktionsrate R.

Bei der Linienmethode wird zunachst aquidistant in x diskretisiert und dann auf dem Gitter
0 = x1 < x2 < . . . xN < 1 die Ableitung Txx durch einen Dierenzenoperator approximiert,

. 1
Txx (xj , t) = (T (xj1 , t) 2T (xj , t) + T (xj+1 , t)), j = 1 : N, x = 1/N.
x2
Die Variable yj approximiert nun T (xj , t) und gen
ugt dem System (5.30), wobei die Randwerte
u
ber
. T (x, t) T (x, t)
T (xN +1 , t) = T (1, t) = 1 und 0 = Tx (x0 , t) = T (x, t) = y2
2x
eingearbeitet werden.

Abb. 39 zeigt die numerische Losung der im Ort diskretisierten Gleichung (5.30) zu N = 100
Gitterpunkten. Zahlwerte der Konstanten sind R = 5, = 20, = 1, der Anfangswert ist yj,0 = 1
f
ur alle Komponenten. Man sieht, wie sich nach einer gewissen Anlaufzeit von links nach rechts
eine Front ausbreitet.

124
2
Temperature T

1.5

1
0.4

0.3 1
0.8
0.2
0.6
0.1 0.4
0.2
0 0
Time t
x

Abbildung 39: Linienmethode bei der Reaktions-Diusionsgleichung (5.30)

Das Dierentialgleichungssystem (5.30) ist steif, da die Eigenwerte von A negativ sind und mit N 2
wachsen. Im Fall N = 100 liegt der betragsgrote Eigenwert bereits bei 3.9 104 , der kleinste bei
9.6. Die beiden Verfahren ode23s und ode15s arbeiten hier wiederum zuverlassig und berechnen
die Losung bei Standardeinstellung der Toleranzen (RelTol = 103 ) in 124 bzw. 129 Schritten
und 7.53 bzw. 2.62 Sekunden Rechenzeit (Pentium III 1 GHz). Falls N noch groer gewahlt wird,
kommt der linearen Algebra (Losung der linearen Gleichungssysteme im ROW-Verfahren bzw. in
der Newton-Iteration bei BDF) entscheidende Bedeutung zu. Ohne eine eziente lineare Algebra
kann auch der beste steife Integrator dann nichts mehr ausrichten (Option JPattern in odeset).

5.4 Dissipative Differentialgleichungen und B-Stabilit


at

Der Begri der A-Stabilitat war bisher das zentrale Kriterium zur Analyse
und Einteilung von numerischen Verfahren fu r steife Dierentialgleichun-
gen. Da man bei der A-Stabilitat nur eine lineare autonome Testgleichung

125
betrachtet, stellt sich die Frage, wie dieses Konzept auf den nichtlinearen
Fall verallgemeinert werden kann. Wir beschranken uns in diesem Abschnitt
auf den autonomen Fall y = f (y).

Bei der linearen Theorie war unsere Modellvorstellung, dass alle Eigenwerte
negative Realteile haben und daher die Losungen zu einer stabilen Trajek-
torie hin streben. Eine nichtlineare Verallgemeinerung ist

Definition 5.6 Die Abbildung f : D Rm heit dissipativ bezu glich des


Skalarproduktes , , wenn fu
r alle y, z D die Ungleichung

f (y) f (z), y z y z, y z (5.31)

mit 0 erfu
llt ist.

Man bezeichnet die Bedingung (5.31) auch als einseitige Lipschitzbedingung.


Im Sonderfall y = Ay lautet (5.31)
Av, v
A(y z), y z y z, y z v Rm . (5.32)
v, v
Falls A symmetrisch ist und wir die 2-Norm annehmen, bedeutet dies
v T Av
= max T = max (A) 0
v v
mit dem Rayleigh-Quotienten v T Av/v T v.

Aus (5.31) mit 0 folgt die Kontraktivitatseigenschaft

y(x) z(x) e(xx0 ) y0 z0 y0 z0 , (5.33)

d.h. zwei Losungen y, z mit verschiedenen Anfangswerten y0 , z0 laufen zu-


sammen. Man spricht auch von einem dissipativen (gedampften) System.
Um (5.33) zu zeigen, setze m(x) := y(x) z(x)2 = y z, y z. Dann ist

m (x) = 2y z , y z = 2f (y) f (z), y z 2y z, y z = 2m(x).

Also m(x) e2(xx0 ) m(x0 ) und m(x)1/2 e(xx0 ) m(x0 )1/2 .

126
Eine naturliche Forderung an numerische Verfahren ist nun, dass sie die
Dissipativitat an die diskrete Approximation vererben. Auf Butcher (1975)
geht die folgende Denition zuru ck.

Definition 5.7 B-Stabilitat


Ein Einschrittverfahren heit B-stabil, falls aus der Dissipativitat
f (y) f (z), y z 0 fu
r alle Schrittweiten h > 0 und zwei Anfangswerte
y0 , z0 folgt
y1 z1 y0 z0 .

Aus der B-Stabilitat eines Verfahrens folgt die A-Stabilitat: Wir betrachten
y = y mit R, 0. Die Ungleichung (5.32) ist dann erfu llt, die
Gleichung ist dissipativ. Falls das Verfahren B-stabil ist, gilt
|y1 z1 | = |R(h)(y0 z0 )| |y0 z0 |
und damit |R(h)| 1 fur alle Schrittweiten h. Im komplexen Fall =
+ i mit 0 verwendet man die reellwertige Dierentialgleichung
( )

u = Au, A := ,

die wegen uT Au = (u21 + u22 ) 0 ebenfalls dissipativ ist.

Die Umkehrung dieser Aussage gilt nicht: So sind z.B. alle linear-impliziten
Einschrittverfahren nicht B-stabil. Nur in der Klasse der impliziten Runge-
Kutta-Verfahren ndet man B-stabile Vertreter.

Satz 5.6 IRK-Verfahren vom Gau-Typ sind B-stabil


Beweis: Wir verwenden die Interpretation als Kollokationsverfahren und bezeichnen mit w das
Kollokationspolynom zum AW y0 und mit w das zum AW z0 . Sei m(x) := w(x) w(x)
2 =

y z, y z. Dann ist

m (x) = 2w w
, w w
= 2f (w(x0 + ci h)) f (w(x
0 + ci h)), w w
0.

Integration liefert
x0 +h
s
m(x0 + h) = m(x0 ) + m (x) dx = m(x0 ) + h bi m (x0 + ci h) m(x0 ).
x0 i=1

127
Dabei geht ein, dass m ein Polynom vom Grad 2s1 ist und durch die Quadratur exakt integriert
wird. Dar
uberhinaus sind die Gewichte bi positiv. Also folgt

y1 z1 2 = m(x0 + h) m(x0 ) = y0 z0 2

und damit die B-Stabilitat. 

Weiter kann man zeigen (ohne Bew.)

Satz 5.7 Falls die Koeffizienten eines IRK-Verfahrens die Bedingungen

(i) bi 0, i = 1 : s;
(ii) M := (bi aij + bj aji bi bj )i,j=1:s ist positiv semidefinit

erfu
llen, ist das Verfahren B-stabil. Insbesondere sind RadauIIA-Verfahren
B-stabil.

Verfahren, die (i) und (ii) erfu


llen, nennt man auch algebraisch stabil.

Bemerkung: Bei Mehrschrittverfahren spricht man statt der B-Stabilitat


von G-Stabilitat. Allerdings existiert kein lineares MSV mit Ordnung p > 2,
das G-stabil ist, d.h. das die Dissipativitat der Dierentialgleichung auf die
Folge der diskreten Approximationen vererbt. Unter den BDF-Verfahren
sind BDF-1 (impliziter Euler) und BDF-2 G-stabil.

Abschlieende Bewertung der steifen Differentialgleichungen

Die Denition 5.6 klassiziert die Dierentialgleichungen eindeutig in dis-


sipative und nicht dissipative. Deshalb liegt es nahe, diese Denition auch
zur Bestimmung der steifen Dierentialgleichungen heran zu ziehen. Aber:

Nicht jede dissipative Dierentialgleichung ist steif!

Nicht jede steife Dierentialgleichung ist dissipativ!

Damit kommt dieser Zugang nicht in Frage, um Steifheit eindeutig fest zu

128
legen. Trotzdem konnen wir die in Abschnitt 5.1 gegebene Charakterisierung
noch etwas prazisieren.

a) Problemorientierte Charakterisierung. Die Ungleichung (5.32) zur


Dissipativitat im linearen Fall ziehen wir heran, um die Groe
Av, v
(A) := max (5.34)
v=0 v, v
als sogenannte logarithmische Norm zu denieren. Im Fall der 2-Norm ist
(A) = max ((A + AT )/2). Falls (A) 0, ist das lineare Problem y = Ay
dissipativ.

Bei steifen Problemen ist nun (A) A = L mit der Lipschitzkonstan-


ten L. Zusatzlich spielt aber die Lange des Integrationsintervalls eine Rolle,
denn die schnell abfallenden Losungsanteile sorgen nur bei groen Interval-
len fu
r starke Einschrankungen der Schrittweiten im expliziten Fall.

Wir sagen daher: Ein Anfangswertproblem y = f (y), y(x0 ) = y0 , ist auf


dem Intervall [x0 , xend ] steif, wenn fu
r z aus einer Umgebung der exakten
Losung y gilt

sup (Df (z)) (xend x0 ) sup Df (z). (5.35)

Betrachten wir zum Test den Fall y = Ay mit A symmetrisch und Eigenwerten m m1
. . . 1 . Im Fall der 2-Norm ist dann (A) = 1 und A = (max (AT A))1/2 = maxi |i |. Die
Bedingung (5.35) bedeutet dann, dass

1 (xend x0 ) max |i |,
i

was wegen i 1 nur gelten kann, wenn i = m und m 0 ist.

b) Diskrete Kondition. Bei diesem Zugang nach Deuhard/Bornemann


fassen wir die exakte Losung als Abbildung

y0 y(xend )

auf, die eine Kondition (x0 , xend ) besitzt.Im steifen Fall ist dieses Problem

129
sehr gut konditioniert. Die numerische Approximation ist eine weitere Ab-
bildung
y0 yn , y(xend ) yn Chp ,
die ebenfalls eine Kondition h (x0 , xend ) besitzt, die von der Schrittweite h
und dem Verfahren abhangt. Damit ist

yn yn h (x0 , xend )y0 y0 ,

wenn der Anfangswert mit y0 gestort wird. Man fordert nun sinnvollerweise
h (x0 , xend ) (x0 , xend ), was im steifen Fall bei expliziten Verfahren aber
nur mit sehr kleinen Schrittweiten h zu erreichen ist. Mit anderen Worten:
Das Anfangswertproblem ist steif, wenn die diskrete Kondition h (x0 , xend )
bei expliziten Verfahren nur fu r sehr kleine Schrittweiten h mit (x0 , xend )
u
bereinstimmt.

130
Kapitel 6

Stochastische Differentialgleichungen

6
Stochastische Dierentialgleichungen spielen eine groe Rolle in der Finanz-
mathematik, speziell bei der Modellierung von Aktienkursen. In diesem Ka-
pitel wollen wir die Grundlagen dazu bereitstellen und einfache numerische
Integrationsverfahren kennenlernen.

Weiterfu
hrende Literatur: Seydel, R.: Einfu
hrung in die numerische
Berechnung von Finanzderivaten. Springer, 2000
Gu
nther, M., Ju
ngel, A.: Finanzderivate mit MATLAB. Vieweg 2003

6.1 Wiener-Prozess und Ito-Differentialgleichung

Die bisher betrachteten Dierentialgleichungen aus Naturwissenschaft und


Technik waren deterministisch und lieen stochastische Einu sse auer Acht.
Fur Aktienkurse ist eine solche Modellierung nicht angemessen - man be-
trachte nur einmal die Entwicklung des DAX u ber der Zeit. Zur Modellie-
rung einer stochastischen Fluktuation setzt man im Allgemeinen additiv an
mittels
d
X(t) = a(X(t), t) + b(X(t), t) t . (6.1)
dt

131
Dabei ist X die gesuchte (skalarwertige) Variable, die von der Zeit t abhangt,
die Funktion a ist der sogenannte Driftterm und b(X, t) t der Diffusions-
term mit einem verallgemeinerten stochastischen Prozess t (der Zufall).

Man hat also eine Uberlagerung von deterministischen und stochastischen
Eekten.

Um den stochastischen Term zu prazisieren, benotigen wir den Wiener-


Prozess, der ein mathematisches Modell fu r die Brownsche Bewegung von
Molekulen oder Partikeln darstellt. Ein stetiger stochastischer Prozess ist
r stetige Zeit t [0, T ] deniert
eine Familie von Zufallsvariablen X(t), die fu
sind. Oft schreibt man auch Xt , und man spricht von einer Realisierung des
Prozesses, wenn man Xt fu r alle t im Beobachtungszeitraum auswertet.

Definition 6.1 Ein Wiener-Prozess Wt ist ein stetiger stochastischer Pro-


zess mit den Eigenschaften
(i) W0 = 0
r alle t 0 normalverteilt mit Erwartungswert E(Wt ) = 0
(ii) Wt ist fu
und Varianz Var(Wt ) = E(Wt2 ) = t, kurz Wt N (0, t).
(iii) Alle Zuwachse W sind unabhangig voneinander, d.h. Wt Ws und
Wv Wu sind unabhangig fu
r 0 s < t < u < v.

Aquivalent zu (ii) ndet man in der Literatur oft Wt Ws N (0, t s) als


denierende Eigenschaft angegeben.
Zur Herleitung des Wiener-Prozesses: Die von R. Brown um 1826 anhand von Pollen-
Partikeln in Wasser beobachtete Molekularbewegung wurde spater von L. Bachelier (1900) und
A. Einstein (1905) in ein mathematisches Modell umgesetzt. Aber erst mit den Arbeiten von
N. Wiener in den zwanziger Jahren des letzten Jahrhunderts steht eine saubere mathematische
Grundlage zur Verf
ugung.

Wir betrachten ein unendlich langes Rohr, das mit Wasser oder Gas gef ullt ist. In der Mitte bei
x = 0 bringen wir einen Tropfen Farbe mit (normierter) Masse 1 ein und verfolgen, wie sich die
Farbmolekule nach links und rechts ausbreiten. Dieser Diusionsprozess kann als Random Walk
approximiert werden Wir fuhren dazu ein Gitter
xi = ix ur i = 0, 1, 2, . . . ;
f tj = jt f
ur j = 0, 1, 2, . . .

132
ein. Im Punkt (i, j) = (0, 0), also bei x = 0 und zum Zeitpunkt t = 0, startet nun ein Partikel
seine Bewegung nach folgendem Gesetz: Entweder es bewegt sich nach links zur Position i 1 mit
Wahrscheinlichkeit 1/2, oder es bewegt sich rechts zur Position i + 1 mit gleicher Wahrscheinlich-
keit 1/2.

Sei nun p(i, j) die Wahrscheinlichkeit, dass sich das Partikel zum Zeitpunkt tj = jt im Punkt
xi = ix bendet. Dann gelten
{
0 fur i = 0 1 1
p(i, 0) = und p(i, j + 1) = p(i 1, j) + p(i + 1, j) .
1 fur i = 0 2 2

uhrung der Konstanten D := x2 /t


Also ist mit Einf
p(i, j + 1) p(i, j) D p(i 1, j) 2p(i, j) + p(i + 1, j)
=
t 2 x2
Fuhrt man den Grenzprozess t 0 und x 0 mit festem Verhaltnis D = x2 /t durch,
erhalt man f
ur die Wahrscheinlichkeitsdichte f (x, t) als kontinuierlichem Analogon der diskreten
Verteilung p die folgende Beziehung
f D 2f
(x, t) = (x, t) ,
t 2 x2
in der man die Diffusions- bzw. W armeleitungsgleichung erkennt. Ihre Losung zum Anfangswert
f (x, 0) = 0 (Delta-Impuls) lautet
1 x2
f (x, t) = exp
(2Dt)1/2 2Dt
Damit ist f (, t) N (0, Dt), also zu jedem Zeitpunkt t normalverteilt mit Varianz Dt.

In der Physik ergibt sich die Konstante aus D = RT /(NA F ) mit Gaskonstante R, Temperatur
T , Reibungskoezient F und Avogadro-Zahl NA .
In der Stochastik setzt man D = 1 und motiviert so den Wiener-Prozess. Die prazise Durchf
uhrung
des Grenzubergangs basiert im u
brigen auf dem Satz von Laplace - DeMoivre.

Fu
r eine numerische Realisierung des Wiener-Prozesses benotigen wir ein
diskretes Modell. Dazu sei h = t ein konstantes Zeitinkrement, mit dem
wir das Gitter tj = jh fu
r j = 0 : n festlegen. Dann ist

n
n
Wtn = (Wtj Wtj1 ) = Wj
j=1 j=1

mit Zuwachsen Wj , die N (0, t)-normalverteilt sind. Fu


r eine Zufallszahl

Z N (0, 1) ist Z t N (0, t), und damit haben wir alles an der Hand,
um eine Realisierung fu
r einen diskreten Wiener-Prozess zu implementieren:

133
Algorithmus 6.1 Diskreter Wiener-Prozess
t0 = 0; W0 = 0; h = T /n;
Fur j = 0 : n 1
tj+1 = tj + h;
Ziehe Zufallszahl Z N (0, 1);

Wj+1 = Wj + Z h;

In MATLAB stehen mit dem Befehl randn Zufallszahlen zur Verfu gung,
die N (0, 1)-normalverteilt sind. Diese werden mit einem speziellen Zufalls-
zahlengenerator erzeugt, und sukzessive Aufrufe von randn liefern eine Fol-
ge von entsprechenden Zufallszahlen. Eine Reproduktion dieser Folge ist
moglich, wenn man mit der Option state den Generator zuru cksetzt. Da-
mit lautet der Algorithmus 6.1 in MATLAB

randn(state,1);
T = 10; h = 0.01; n = T/h; W(1) = 0;
t = 0:h:T;
for i=1:n, W(i+1) = W(i)+randn*sqrt(h); end

In Abbildung 40 sind zwei Realisierungen zu sehen, die durch obige Kom-


mandos und einen erneuten Aufruf der for-Schleife erzeugt wurden (damit
basiert die zweite Realisierung auf anderen Zufallszahlen).
Die Realisierungen des Wiener-Prozess sind stetig, jedoch fast nirgends die-

renzierbar (betrachte (Wt+h Wt )/h mit Varianz h fu r den Zahler). Aber
nicht nur die Dierentiation, auch die Integration macht Schwierigkeiten
und erfordert einen eigenen Kalku l, da das Riemann-Stieltjes-Integral hier
i.A. nicht existiert (der Wiener-Prozess hat keine endliche Totalvariation).

Definition 6.2 Das Ito-Integral mit Integrator Wt ist gegeben durch


t
n1
Xs dWs := lim Xtk (Wtk+1 Wtk ), (6.2)
0 n
k=0
wobei Xs ein stochastischer Prozess und 0 = t0 < t1 < . . . < tn = t
Partitionen von [0, t] sind mit max |ti+1 ti | 0.

134
h=0.01
3

1
Wt

6
0 1 2 3 4 5 6 7 8 9 10
t

Abbildung 40: Realisierungen des Wiener-Prozesses

(Fur Fragen zur Wohldeniertheit verweisen wir auf die entsprechende Li-
teratur). Mit diesem Integralbegri gilt
t
1 t
Ws dWs = Wt2 ,
0 2 2
im Unterschied zur klassischen Analysis, wo wir nur den ersten Term erwar-
ten wu
rden.
Bemerkung: Es existiert jedoch ein alternativer Integralbegri, das Stratonovich-Integral, bei
dem der obige Extraterm nicht auftritt. Es ist deniert als
t
n1
Xs dWs := lim X1/2(tk +tk+1 ) (Wtk+1 Wtk ). (6.3)
0 n
k=0

Das Ergebnis ist aber, im Gegensatz zum Ito-Integral, kein Martingal.

Mit dem Begri des Ito-Integrals konnen wir nun eine stochastische Diffe-
rentialgleichung nach Ito einfu
hren. Dazu schreiben wir (6.1) in Integralform
t t
Xt = X0 + a(Xs , s)ds + b(Xs , s)dWs (6.4)
0 0

135
mit dem gesuchten stochastischen Prozess Xt . Das erste Integral in (6.4) ist
ein Riemann- oder Lebesgue-Integral, das zweite jedoch ein Ito-Integral. Als
Kurzschreibweise verwendet man fur die stochastische Dierentialgleichung
(6.4) oft auch
dXt = a(Xt , t)dt + b(Xt , t)dWt (6.5)
mit Drift a und Diusion b dWt .

6.2 Euler-Maruyama-Verfahren und Monte-Carlo-Simulation

Das einfachste Verfahren zur Berechnung einer numerischen Approximation


fu
r die stochastische Dierentialgleichung (6.4) bzw. (6.5) ist das Euler-
Maruyama-Verfahren. Dazu u berfuhren wir die Dierentialgleichung in die
diskrete Form

X1 X0 = X = a(X0 , t0 )t + b(X0 , t0 )W. (6.6)

Fu
r verschwindenden Diusionsterm ist dies nichts anderes als der explizite
Euler. Die Implementierung des Verfahrens verknupft Euler-Zeitschritt mit
dem Wiener-Prozess:

Algorithmus 6.2 Euler-Maruyama-Verfahren


t0 = 0; h = T /n; X0 gegeben;
Fur j = 0 : n 1
tj+1 = tj + h;
Ziehe Zufallszahl Z N (0, 1);

W = Z h;
Xj+1 = Xj + a(Xj , tj )h + b(Xj , tj )W ;

Wir wollen dieses Verfahren nun anhand der speziellen stochastischen Dif-
ferentialgleichung (sog. geometrische Brownsche Bewegung)

dSt = rSt dt + St dWt (6.7)

136
Brownsche Bew., r=0.1, =0.4
14

12

10

8
S

0
0 1 2 3 4 5 6 7 8 9 10
t

Abbildung 41: Zwei Pfade der Brownschen Bewegung (6.7)

studieren. Dabei ist r 0 z.B. ein konstanter risikofreier Zinssatz und > 0
die konstante Volatilitat. In MATLAB lautet die Simulation mit dem Euler-
Maruyama-Verfahren, mit gleichzeitiger Berechnung des Wiener-Prozesses,

T = 10; h = 0.01; n = T/h; W(1) = 0;


r = 0.1; sigma = 0.4; S(1) = 1; t = 0:h:T;
for i=1:n,
W(i+1) = W(i)+randn*sqrt(h);
S(i+1) = S(i)* (1+r*h+sigma*(W(i+1)-W(i)));
end

In der Abbildung 41 sind zwei Pfade dargestellt, die mit diesem Algorithmus
berechnet wurden (r = 0.1, = 0.4, S0 = 1). Andere Realisierungen des
Wiener-Prozess fu
hren wiederum auf andere Pfade, und es ist oensichtlich,
dass es wenig Sinn macht, die Pfade punktweise zu interpretieren oder zu
bewerten. Stattdessen wendet man die Monte-Carlo-Simulation an:

137
1) Lose die stochastische Dierentialgleichung M mal, um Approximationen
ST,1 , . . . , ST,M zu erhalten.

2) Schatze den Erwartungswert

1
M
.
E(ST ) = M = ST,i
M i=1

u
ber den Mittelwert M .

Dieses Vorgehen wollen wir nun anwenden, um die Konvergenzordnung des


Euler-Maruyama-Verfahrens experimentell zu bestimmen.

Definition 6.3 Sei Xt eine Losung einer stochastischen Differentialglei-


chung und Xth eine numerische Approximation mit der Schrittweite h. Die
Approximation XTh konvergiert stark mit Ordnung > 0 gegen XT , falls fu
r
genu
gend kleine h gilt
e(h) C h
mit dem absoluten Fehler

e(h) = E(|XT XTh |).

Im Fall der Brownschen Bewegung (6.7) ist die exakte Losung bekannt. Sie
lautet
St = S0 exp((r 2 /2)t + Wt )
und hangt naturlich von der Realisierung des Wiener-Prozess Wt ab. Zur
Bestimmung der Konvergenzordnung berechnet man nun M 1 Realisie-
rungen des Wiener-Prozess. Zu jeder Realisierung i berechnet man weiter N
h
numerische Approximationen ST,ij mit Schrittweiten hj = 21j h. Der Fehler
zur Schrittweite hj ergibt sich geschatzt zu

1
M
h
e(hj ) = |ST,i ST,ij |.
M i=1

138
Es ist nun
log e(hj ) log C + log hj ,
und zur Bestimmung der Parameter log C sowie ziehen wir die lineare
Ausgleichsrechnung heran. Das Ergebnis ist 0.5, was u
ber eine theore-
tische Analyse veriziert werden kann: Die starke Konvergenzordnung des
Euler-Maruyama-Verfahrens ist = 1/2.

Der Begri der schwachen Konvergenz basiert dagegen auf dem Fehler

ew (h) = |E(XT ) E(XTh )|.

Bezu
glich dieses Fehlermaes konvergiert das Euler-Maruyama-Verfahren
mit der Ordnung 1.

6.3 Stochastische Taylorentwicklung und weitere Verfahren

Um zu Verfahren hoherer Ordnung zu gelangen, bedient man sich wie im


deterministischen Fall der Taylorentwicklung. Allerdings benotigt man dazu
einen speziellen Kalku
l, der auf dem Ito-Integral aufbaut. Wir beschranken
uns auf den autonomen Fall

dXt = a(Xt )dt + b(Xt )dWt

und verwenden als zentrales Hilfsmittel die Ito-Formel


t( ) t
1
f (Xt ) = f (X0 )+ f (Xs )a(Xs ) + f (Xs )b(Xs ) ds+ f (Xs )b(Xs )dWs
2
0 2 0

Im deterministischen Fall b = 0 ergibt sich diese Formel direkt aus der partiellen Integration
t t
f (X(s))|t0 = f (X(s))X (s) ds + 0 f (X(s)) ds
0 0

und X (s) = a(X(s)). Mit Dierentiation nach t folgt daraus die Kettenregel
d d d
f (X(t)) = f (X(t)) X(t).
dt dX dt

Die Ito-Formel ist also die Verallgemeinerung der Kettenregel auf den stochastischen Kalk
ul.

139
Mit der Ito-Formel als verallgemeinerter Kettenregel kann man nun wie bei
den Einschrittverfahren im deterministischen Fall die Taylorentwicklung der
exakten Losung aufstellen. Wir setzen f (X) = X und erhalten
t t
Xt = X0 + a(Xs )ds + b(Xs )dWs .
0 0
Im nachsten Schritt werden a und b mit der Ito-Formel substituiert,
t( s s )
1 2
Xt = X0 + a(X0 ) + (a a + a b )dz + a b dWz ds
2
t( 0
s 0
s 0
)
1
+ b(X0 ) + (b a + b b2 )dz + b b dWz dWs .
0 0 2 0

Bei Vernachlassigung der Doppelintegrale erhalt man aus dieser Entwick-


lung das Euler-Maruyama-Verfahren. Hohere Ordnung erreicht man, wenn
man gewisse weitere Terme berucksichtigt.

Beispiele:
1) Das Milstein-Verfahren basiert auf der Darstellung
t t s

Xt = X0 + a(X0 )t + b(X0 ) dWs + b (X0 )b(X0 ) dWz dWs + R
0 0 0
mit Termen hoherer Ordnung, die in R zusammegefasst sind. Wichtig: Das
Doppelintegral kann man explizit berechnen. In diskreter Form lautet das
Verfahren dann (jetzt nichtautonom angeschrieben)
1
X1 = X0 + a(X0 , t0 )t + b(X0 , t0 )W + b (X0 , t0 )b(X0 , t0 )((W )2 h).
2
Das Milstein-Verfahren ist von der starken Konvergenzordnung 1.

2) Der Ableitungsterm b b beim Milstein-Verfahren lasst sich durch einen


Runge-Kutta-Ansatz vermeiden:

X = X0 + a(X0 , t0 )t + b(X0 , t0 ) t,
X1 = X0 + a(X0 , t0 )t + b(X0 , t0 )W
1
+ (b(X, t0 ) b(X0 , t0 ))((W )2 h).
2 t
140
Dieses stochastische Runge-Kutta-Verfahren hat ebenfalls die starke Kon-
vergenzordnung 1.

Bemerkungen:

Alles hier Dargestellte bezieht sich auf eine skalare stochastische Dif-
ferentialgleichung. Der mehrdimensionale Fall lauft ganz analog, falls
man es in allen Komponenten mit demselben Wiener-Prozess zu tun
hat. Ist dies nicht der Fall, treten zusatzliche gemischte Ableitungen
und Integrale auf, so dass sich die Verfahren hoherer Ordnung deutlich
komplizierter gestalten. Nur das Euler-Maruyama-Verfahren ist auch
in diesem Fall einfach zu handhaben.

Bei stochastischen Dierentialgleichungen tritt manchmal Steifheit auf.


In diesem Fall wird nur der Drift-Term implizit oder semi-implizit dis-
kretisiert.

141
Kapitel 7

Randwertprobleme

Zum Abschluss wollen wir noch eine Einfu


hrung in die numerische Behand-
lung von Randwertproblemen

y = f (x, y(x)) , r(y(a), y(b)) = 0, (7.1)

geben. Solche Problemstellungen resultieren haug aus den notwendigen


Bedingungen der Variationsrechnung, z.B. in der Optimalsteuerung. Aber
auch die Ermittlung periodischer Losungen (Grenzzyklusberechnung) fu
hrt
auf ein Randwertproblem (7.1).
Beispiel 7.1: Gegeben sei ein dynamisches System z(t) = g(z(t)), von dem man die Existenz
periodischer Losungen erwartet (vgl. den Bruselator in Abschnitt 2.3). Eine periodische Losung
wird durch das RWP
} }
z = g(z) z(0) = z(0 + T )
DGl. Randbed.
T = 0 zj (0) =

charakterisiert, mit unbekannter Periode T und Phasenxierung der Komponente zj . Wir trans-
formieren das System auf die neue Zeit x = Tt , so dass x [0, 1]. Das Ergebnis ist
} }
z = T g(z) z(0) = z(0 + 1)
DGL Randbed. (7.2)
T = 0 zj (0) =

Mit y(x) := (z T (x), T (x))T und a = 0, b = 1 liegt damit ein Randwertproblem (7.1) vor. Insge-
samt hat man m + 1 Dierentialgleichungen und m + 1 Randbedingungen.

142
7.1 EinfachSchieen

Die einfachste Technik zur Losung eines RWP ist das EinfachSchieen:
Betrachte dazu die skalare Dierentialgleichung zweiter Ordnung

u = w(x, u, u ) , u(a) = , u(b) = .

Wir losen das AWP u = w(x, u, u ), u(a) = , u (a) = s abhangig von


der Steigung s und bestimmen s so, dass die zugehorige Losung u(x; s) die
rechte Randbedingung u(b; s) = erfu
llt, Abb. 42.

u
u(x;s)
Steigung s
^
u(x;s)

x
a b
Abbildung 42: Einfachschieen

Es ist also eine Nullstelle s der Funktion

F (s) := u(b; s)

gesucht. Diese nichtlineare Gleichung fu


r s muss numerisch gelost wer-
den, und zwar mit dem Newtonverfahren (im skalaren Fall auch Bisektion
moglich).

Im allgemeinen Fall eines Systems y = f (x, y) von m Dierentialgleichun-


gen und m Randbedingungen r(y(a), y(b)) = 0 lost man das AWP

y = f (x, y), y(a) = s (7.3)

143
abhangig von s Rm und sucht den Anfangswert s mit r( s, y(b; s)) = 0. Es
ist also eine Losung des nichtlinearen Gleichungssystems

F (s) = 0 mit F (s) := r(s, y(b; s)) (7.4)

gesucht. Das Newton-Verfahren fu


r (7.4) lautet

si+1 = si + si , DF (si )si = F (si ). (7.5)

Zur Auswertung der rechten Seite F mu jeweils ein Anfangswertproblem


(7.3) gelost werden. Dazu kommt die Berechnung der Jacobimatrix DF (si ),
die im Allgemeinen mit numerischer Dierentiation erfolgt. Man approxi-
miert DF mittels

.
DF (s) = (Fi /sj )i,j=1:m = a1 a2 . . . an Rmm

wobei
F (s1 , . . . , sk + k , . . . , sm ) F (s1 , . . . , sm )
ak = .
k
Notwendig dazu ist die Auswertung von F (s1 , . . . , sk + k , . . . , sm ) fu r k =
1, . . . , m, d.h. weitere m AWP der Form (7.3). Hinzu kommt schlielich der
Aufwand zur Losung des linearen Gleichungssystems fu r si . Der Haupt-
aufwand liegt damit in der Berechnung von DF (si ).

Die numerische Dierentiation kann hier sehr empndlich reagieren, denn


man bildet den Dierenzenquotienten mit Daten, die ihrerseits diskrete Ap-
proximationen sind. In manchen Fallen ist es dann sinnvoll, die Ableitungs-
information anders bereit zu stellen, und zwar mithilfe der Sensitivitats-
gleichungen aus Abschnitt 2.2.
Beispiel 7.2: Grenzzyklusberechnung beim Brusselator
Das Randwertproblem (7.2) zur Grenzzyklusberechnung lautet im Fall des Brusselators

y1 = y3 (A + y12 y2 (B + 1)y1 ) y1 (0) = y1 (1)


y2 = y3 (By1 y12 y2 ) und y2 (0) = y2 (1) (7.6)
y3 = 0 y1 (0) =

144
Dabei sind y1 , y2 die Komponenten des dynamischen Systems und y3 = T die gesuchte Periode.
Die erste Komponente wird am linken Rand xiert. Beim Einfach-Schieen ist nun das nichtlineare
Gleichungssystem
s1 y1 (1; s)

0 = F (s) = s2 y2 (1; s)
s1
zu losen, wobei die Variable s3 indirekt u
ber y1 (1; s) und y2 (1; s) eingeht. Als Jacobimatrix
erhalten wir
1 0 0 y1 /s1 y1 /s2 y1 /s3

DF (s) = 0 1 0 y2 /s1 y2 /s2 y2 /s3 .
1 0 0 0 0 0
Der zweite Term besteht aus Ableitungen der Losung nach den Anfangswerten und kann statt
u
ber numerische Dierentiation durch die Integration der Sensititivitatengleichung (Satz 2.5)
bestimmt werden:
f
(x) = (x, y(x; s)) (x), (x0 ) = I33 , (7.7)
y
mit
y1 /s1 y1 /s2 y1 /s3

(x) = y2 /s1 y2 /s2 y2 /s3 .
y3 /s1 y3 /s2 y3 /s3
Man lost nun simultan die Dierentialgleichung (7.6) und die Sensitivitatendierentialgleichung
(7.7) und erhalt so am rechten Rand x = 1 die Auswertung von F (s) sowie von DF (s).

Dieses Vorgehen erfordert seinerseits die Berechnung der Jacobimatrix f y der rechten Seite ent-
lang der Losung y(x; s). Die numerische Dierentiation hierf
ur ist aber langst nicht so empndlich.
Im Falle eines steifen Systems mit impliziter oder semi-impliziter Integration wird diese Informa-
tion sowieso benotigt.

Iter = 1 Iter = 2 Iter = 3


6 6 6

4 4 4
y2

y2

y2

2 2 2

0 0 0
0 2 4 0 2 4 0 2 4
y y y
1 1 1

Abbildung 43: Grenzzyklusberechnung Brusselator

Die Abbildung 43 zeigt die Trajektorien zu den ersten 3 Iterationen beim Einfachschieen mit
dem Startwert s0 = (1, 2, 6) und = 1 sowie A = 1, B = 3. Das Verfahren konvergiert rasch
gegen die Periode T = 7.1569.

145
Im allgemeinen Fall F (s) = r(s, y(b; s)) hat man als Jacobimatrix
r(s, y(b; s)) r(s, y(b; s)) y(b; s)
DF (s) = + ,
s y s
so dass auch hier das in Beispiel 7.2 skizzierte Vorgehen u
ber die Sensiti-
vitaten zur Berechnung der Ableitungsinformation y(b; s)/s moglich ist.

Schwierigkeiten beim EinfachSchieen

Das EinfachSchieen stot bei praxisnahen Problemen schnell an seine


Grenzen. Die folgenden Problemkreise treten auf:

a) Erreichbare Genauigkeit: Nach Satz 2.2 gilt fu


r zwei Trajektorien y(x; s1 )
und y(x; s2 ) die Abschatzung

y(b; s1 ) y(b; s2 ) s1 s2 eL|ba|

Fu
r groe Lipschitzkonstanten L und lange Intervalle [a, b] kann eine kleine
Dierenz s1 s2 extrem verstarkt werden.
Abhilfe: Unterteile das Intervall [a, b] Mehrzielmethode, s.u.

b) Schlechte Konvergenzeigenschaften des Newtonverfahrens: Das Newton-


verfahren konvergiert nur mit sehr gutem Startwert, und seine Konvergenz-
geschwindigkeit ist durch die Approximation der Jacobimatrix oft reduziert.
Abhilfe: Gedampftes Newtonverfahren oder Homotopietechniken
Dieser Punkt entfallt bei linearen Randwertproblemen

y = T (x)y + c(x), Ay(a) + By(b) = C.

In diesem Fall erhalt man die Losung u


ber das Fundamentalsystem, daraus resultiert ein lineares
Gleichungssystem in s.

c) Die Jacobimatrix DF (s) ist bei empndlichen Problemen sehr schlecht


konditioniert.
Abhilfe: Skalierung, Mehrzielmethode

146
7.2 Mehrzielmethode (MehrfachSchieen, Multiple Shooting)

Die Mehrzielmethode ist dem EinfachSchieen deutlich u berlegen. Sie geht


u.a. auf Bulirsch (1971) zuru
ck und hat sich insbesondere bei der Losung von
Optimalsteuerungsproblemen aus Luft- und Raumfahrt vielfach bewahrt,
siehe z.B. das Re-entry Problem in Stoer-Bulirsch, Abschnitt 7.3.7.

Der Ansatz ergibt sich aus den Schwierigkeiten beim Einfach-Schieen: Wir
unterteilen das Intervall [a, b] durch ein Gitter

a = x1 < x2 < . . . < xk = b

mit k Stu
tzpunkten oder Mehrzielknoten xj .

(x3 ,s3 )

(x1,s1 ) (x2,s2 ) (xk1 ,sk1 )

a=x1 x2 x3 x x =b x
k1 k
Abbildung 44: Mehrzielmethode

In jedem Teilintervall [xj , xj+1 ] bezeichne y(x; xj , sj ) die Losung des An-
fangswertproblems y = f (x, y), y(xj ) = sj . Von den durch Einfach-Schieen
gewonnenen Losungsabschnitten fordern wir, dass die daraus stu ckweise zu-
sammengesetzte Funktion stetig ist.

Mit Einbezug der Randwerte lautet die Aufgabenstellung dann: Bestim-


me simultan die Anfangswerte s1 , . . . , sk1 , so dass die Funktion Y (x) mit

147
r x [xj , xj+1 ] und j = 1 : k 1 stetig ist und die
Y (x) = y(x; xj , sj ) fu
Randbedingungen erfu llt. Also haben wir die Bedingungen
y(xj+1 ; xj , sj ) = sj+1 r j = 1, . . . , k 2,
fu
r(s1 , y(xk ; xk1 , sk1 ) = 0.
Dieses nichtlineare Gleichungssystem der Dimension m (k 1) schreiben
wir unter Hinzunahme des rechten Randwertes sk um als

y(x2 ; x1 , s1 ) s2

y(x3 ; x2 , s2 ) s3 s1

(S) :=
.
.. = 0,
S := ... . (7.8)

y(xk ; xk1 , sk1 ) sk sk
r(s1 , sk )
Zur Losung von (7.8) wird wiederum das Newtonverfahren eingesetzt. Wich-
tig ist dabei die spezielle Struktur der Jacobimatrix

G1 I

G2 I
.
D(S) =
.. ... ... ,


Gk1 I
A 0 ... 0 B
die man auch als Mehrzielmatrix bezeichnet. Die Blocke stellen ihrerseits
Funktionalmatrizen dar,
Gj = y(xj+1 ; xj , sj )/sj , A = r(s1 , sk )/s1 , B = r(s1 , sk )/sk .
Aufgrund dieser speziellen Struktur kann die Losung linearer Gleichungssy-
steme D(S i )S = (S i ) im Newtonverfahren mittels Blockelimination
erfolgen:
G1 s1 s2 = 1 ,
G2 s2 s3 = 2 ,
..
.
Gk1 sk1 sk = k1 ,
As1 + Bsk = k .

148
Durch sukzessives Eliminieren von s2 bis sk folgt das lineare Gleichungs-
system
(A + BGk1 Gk2 . . . G1 )s1 = r.S.
fu
r den Anfangswert s1 . Nach dessen Losung berechnet man s2 bis sk
u
ber die blockweise Ru
cksubstitution, so dass der Aufwand in der linearen
Algebra trotz Einfu
hrung der Mehrzielknoten nicht all zu viel hoher ist als
beim EinfachSchieen. Allerdings neigt das lineare Gleichungssystem fu r
s1 wie beim EinfachSchieen zu schlechter Kondition, weswegen man bei
empndlichen Problemen lieber die Gesamtmatrix D(S) mit einer QR-
Zerlegung behandelt (ist aufgrund der schlechten Kondition einer billigeren
LR-Zerlegung vorzuziehen).

Die lineare Algebra entscheidet jedoch weniger u ber die Ezienz als die Be-
rechnung der Mehrzielmatrix, die wie beim Einfach-Schieen u ber numeri-
sche Dierentiation oder die Sensitivitatengleichung bestimmt wird. Da die
Integrationsintervalle durch die intervallweise Vorgehensweise ku rzer sind,
ist der Aufwand kaum hoher als beim EinfachSchieen: Statt u ber ein lan-
ber k 1 Intervalle der Lange (b a)/(k 1)
ges Intervalls [a, b] wird u
integriert.

Numerische Software

Der Fortran-Code BOUNDS geht auf Bulirsch zuru ck und wurde seit 1971
fortlaufend weiterentwickelt. Eine aktuelle und vollstandige Neu-Implemen-
tierung ist der Code JANUS (Callies).

Die Idee der Kollokation (vergl. IRK-Verfahren) kann man auch zur Losung
von Randwertproblemen einsetzen. Ein bekannter Code hierzu ist COLSYS
(Ascher/Bader/Mattheij/Russel, ab 1981).

149

Das könnte Ihnen auch gefallen