Sie sind auf Seite 1von 204

Numerische Mathematik f ur Physiker

Daniel Scholz und Lothar Nannen im Sommer 2008

Uberarbeitete Version vom 23. Januar 2009.


Inhaltsverzeichnis
1 Einleitung 5
1.1 Bezeichnungen . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Iterative Verfahren 11
2.1 Sukzessive Approximation . . . . . . . . . . . . . . . . . . . . 11
2.2 Matrixnorm . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Banachscher Fixpunktsatz . . . . . . . . . . . . . . . . . . . . 20
2.4 Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 Lineare Gleichungssysteme 34
3.1 Notationen und Grundlagen . . . . . . . . . . . . . . . . . . . 34
3.2 Gau-Verfahren und LU-Zerlegung . . . . . . . . . . . . . . . 36
3.3 Kondition von Gleichungssystemen . . . . . . . . . . . . . . . 46
3.4 QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5 Cholesky-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 52
3.6 Gleichungssysteme mit Tridiagonalmatrizen . . . . . . . . . . 56
3.7 Iterative Verfahren f ur lineare Gleichungssysteme . . . . . . . 58
3.8 CG-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.9 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4 Eigenwertaufgaben 71
4.1 Grundlagen zu Eigenwerten . . . . . . . . . . . . . . . . . . . 71
4.2 Lokalisation von Eigenwerten . . . . . . . . . . . . . . . . . . 74
2
Inhaltsverzeichnis 3
4.3 Vektoriteration . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4 QR-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.5 Lanczos-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 84
4.6 Singularwertzerlegung . . . . . . . . . . . . . . . . . . . . . . 87
4.7 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5 Interpolation 91
5.1 Polynominterpolation . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Spline-Interpolation . . . . . . . . . . . . . . . . . . . . . . . 100
5.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6 Numerische Integration 110
6.1 Interpolationsquadraturen . . . . . . . . . . . . . . . . . . . . 112
6.2 Gausche Quadraturformeln . . . . . . . . . . . . . . . . . . . 119
6.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
7 Anfangswertprobleme 128
7.1 Notationen und Grundlagen . . . . . . . . . . . . . . . . . . . 128
7.2 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . 134
7.3 Evolutionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7.4 Euler-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 144
7.5 Konsistenz und Konvergenz . . . . . . . . . . . . . . . . . . . 147
7.6 Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . . 152
7.7 Adaptive Schrittweitensteuerung . . . . . . . . . . . . . . . . 167
7.8 Eingebettete Runge-Kutta-Verfahren . . . . . . . . . . . . . . 172
7.9 Implizite Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . 174
7.10 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
8 Randwertprobleme 181
8.1 Notationen und Grundlagen . . . . . . . . . . . . . . . . . . . 181
8.2 Schieverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 186
8.3 Methode der niten Dierenzen . . . . . . . . . . . . . . . . . 188
Inhaltsverzeichnis 4
8.4 Methode der niten Elemente . . . . . . . . . . . . . . . . . . 193
8.5 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
Literaturverzeichnis 200
Stichwortverzeichnis 202
1 Einleitung
Die numerische Mathematik beschaftigt sich mit der Konstruktion und Ana-
lyse von Algorithmen f ur kontinuierliche mathematische Probleme. Das In-
teresse an numerischen Methoden zu bestimmten Problemen besteht meist
aus einem der folgenden Gr unde:
( 1 ) Es gibt keine explizite Losungsdarstellung.
( 2 ) Es gibt zwar eine Losungsdarstellung, diese ist jedoch nicht geeignet,
um die Losung schnell auszurechnen.
( 3 ) Es gibt zwar eine Losungsdarstellung, diese liegt aber in einer Form
vor, in welcher sich Rechenfehler stark bemerkbar machen.
Damit besteht auch in der Physik auerordentlicher Nutzen in der numeri-
schen Mathematik, wie die folgenden Beispiel zeigen:
( 1 ) Die Navier-Stokes-Gleichung besitzt oft keine explizite Losungsdarstel-
lung, trotzdem gibt es numerische Verfahren, welche eine Losung sehr
gut approximieren konnen.
( 2 ) Auch Losungen der Schrodinger-Gleichung konnen teilweise nur durch
numerische Methoden ausreichend gut beschrieben werden.
( 3 ) Das Schwingverhalten von Saiten einer Gitarre oder des Felles einer
Trommel kann auf das Losen einer Eigenwertaufgabe zur uckgef uhrt
werden. Da diese Probleme oft sehr viele Unbekannte haben, werden
eziente numerische Verfahren benotigt.
( 4 ) Die Bahn eines Satelliten im Weltraum kann durch ein System von Dif-
ferentialgleichungen beschrieben werden. Auch hierzu kann die Exis-
tenz einer eindeutigen Bahn gezeigt werden, trotzdem eignen sich nur
Mittel der numerischen Mathematik diese tatsachlich zu berechnen.
Auch wenn es bei diesen Beispielen oft um das Losen von Dierentialglei-
chungen geht, werden f ur die entsprechenden numerischen Methoden viele
5
Einleitung 6
Bereiche der Analysis und Algeba benotigt. Daher werden wir uns in diesem
Skript zunachst mit Iterationsverfahren beschaftigen, welche eine Grundla-
ge vieler der spateren Verfahren bieten. Anschlieend werden wir uns mit
Losungmethoden von linearen Gleichungssystemen und Eigenwertaufgaben
befassen. Schlielich werden wir die numerische Interpolation und Integrati-
on besprechen, was uns eine Grundlage zur numerischen Losung von gewohn-
lichen Dierentialgleichungen liefern wird.
Bevor wir mit diesem Vorhaben beginnen, wollen wir jedoch noch anhand
einiger Beispiele verdeutlichen, dass es gute und weniger gute numerische
Verfahren zum Losen eines Problemes geben kann.
Beispiel 1.1. In diesem Beispiel wollen wir

2 numerisch bestimmen und
betrachten dazu die Gleichung x
2
= 2 f ur x > 0.
Ein Verfahren zur Losung solcher nichtlinearer Gleichungen, welches wir
spater noch genauer untersuchen werden, ist das Verfahren der sukzessi-
ven Approximation. Dazu bringen wir die Gleichung in Fixpunktgestalt und
erhalten die beiden aquivalenten Formulierungen
f
1
(x) :=
1
x
+
x
2
= x und f
2
(x) :=
2
x
= x.
Beginnen wir mit dem Startwert x
0
= 5 und nutzen die Iterationsvorschrift
x
k+1
= f(x
k
), so erhalten wir f ur f
1
(x) die Folge
5.0 2.7 1.72 1.441 1.415 . . .
und f ur f
2
(x) die Folge
5.0 0.4 5.0 0.4 5.0 . . . .
Wir sehen also, dass die zweite aquivalente Darstellung keineswegs geeignet
ist

2 zu approximieren, die erste Darstellung jedoch schon.
Beispiel 1.2. Wir betrachten den Einheitskreis in der Ebene und die ein-
geschriebenen regelmaigen n-Ecke mit dem Umfang u
n
. Der Anschauung
entnehmen wir sofort
u
n
< u
2n
< 2.
Durch einfache geometrische

Uberlegungen lassen sich zwei Rekursionsfor-
mel zur Bestimmung von u
n
herleiten, namlich
u
2n
=
_
4n
_
2n
_
4n
2
u
2
n
_
=

_
4n u
2
n
_
2n +
_
4n
2
u
2
n
_
mit dem Startwert u
3
= 3

3. Im folgenden haben wir beide Rekursionsfor-


mel in Mathematica 5.0 eingegeben und einige Iterationsschritte berechnen
Einleitung 7
lassen. Wie Tabelle 1.1 zeigt, liefert die erste Vorschrift bis zur 16. Iteration
eine gegen 2 monoton wachsende Folge wahrend sie f ur spatere Iterationen
ein nicht mehr beschreibbares Verhalten zeigt und schlieliche den konstan-
ten Wert 0 zur uckgibt. Die zweite Vorschrift konvergiert oenbar gegen 2
und zeigt keine derart unschones Verhalten.
Iteration erste Vorschrift zweite vorschrift
1 6.00000 6.00000
2 6.21166 6.21166
3 6.26526 6.26526
4 6.27870 6.27870
.
.
.
.
.
.
.
.
.
15 6.28319 6.28319
16 6.28318 6.28319
.
.
.
.
.
.
.
.
.
26 6.00000 6.28319
27 6.92820 6.28319
28 0.00000 6.28319
.
.
.
.
.
.
.
.
.
40 0.00000 6.28319
Tabelle 1.1: Numerische Berechnung von 2.
Nochmals sehen wir, dass es stabile und weniger stabile Algorithmen gibt.
Obwohl theoretisch beide Rekursionsformel gegen 2 konvergieren, machen
sich hier bei der ersten Vorschrift Rechenungenauigkeiten derart bemerktbar,
dass die Losung unbrauchbar wird.
Speziell kommt es in Beispiel 1.2 zur sogenannten Ausloschung. Bei der
ersten Iterationsvorschrift werden f ur groe n zwei fast gleich groe Zahlen
voneinander subtrahiert. Da jede reelle Zahl im Rechner aber nur mit endlich
vielen Nachkommastellen genau angezeigt werden kann, werden wahrend der
rekursion sehr kleine Zahlen auf 0 gerundet, obwohl ihr eigentlicher Wert
durchaus bedeutsam f ur das exakte Ergebnis ware. Dieses Problem tritt bei
der zweiten Vorschrift nicht auf.
Beispiel 1.3. Auch bei quadratischen Gleichungen kann es zur Ausloschung
kommen. Wird zur Losung einer Gleichung der Form
x
2
+p x +q = 0
Einleitung 8
die pq-Formel
x
1
=
p
2
+
_
_
p
2
_
2
q und x
2
=
p
2

_
_
p
2
_
2
q
verwendet, so kann es auch hier vorkommen, dass zwei gleich groe Zah-
len voneinander subtrahiert werden, was zu numerischen Ungenauigkeiten
f uhren kann. Daher ist es numerisch sinnvoller, die Formel
x
1
=
p
2
sgn(p)
_
_
p
2
_
2
q und x
2
=
q
x
1
zu verwenden, welche nach dem Satz von Vieta die gleichen Losungen liefert.
Beim letzten Beispiel kann es auch beim Term unter der Wurzel zu Pro-
blemen kommen. Diese lassen sich jedoch nicht so einfach vermeiden, wie
folgende Fehleranalyse zeigt.
Wenn wir annehmen, dass an die Stelle der exakten Werte p und q die
fehlerbehafteten Werte p = p +
p
und q = q +
q
treten, so erhalten wir als
Nullstellen
x
1,2
= f
1,2
( p, q) mit f
1,2
(p, q) =
p
2

_
_
p
2
_
2
q.
Eine Taylorentwicklung der Funktion f(x, y) um (p, q) ergibt
f
1,2
( p, q) = f
1,2
(p, q)
1
2
_
_
p
2
_
2
q

_
p
2

q
_
. . . .
Damit ist der Fehler x = ( x
1,2
x
1,2
) in erster Naherung
x
1,2
x
1,2

1
2
_
_
p
2
_
2
q

_
p
2

q
_
.
Selbst wenn die Anfangsfehler
p
und
q
sehr klein sind, wird der resultie-
rende Fehler in den Nullstellen sehr gro, wenn
_
p
2
_
2
q gilt. In solchen
Fallen nennt man das Problem schlecht gestellt.
Im Gegensatz zur Ausloschung ist diese Eigenschaft mit dem Problem selber
und nicht mit dem numerischen Verfahren verbunden. Im Klartext: Gleich
welches numerische Verfahren man bei schlecht gestellten Problemen ver-
wendet, relativ kleine Eingangsfehler konnen zu sehr groen Fehlern in der
Losung f uhren. Einziger Ausweg ist eine Umformulierung des Problems wie
zum Beispiel Regularisierung.
Einleitung 9
Diese Beispiele verdeutlichen uns, dass mit numerischen Ergebnissen durch-
aus kritisch umgegangen werden muss. Trotzdem werden wir nun damit
beginnen moglichst stabile Algorithmen zur Losung von Problemen der Al-
gebra und der Analysis herzuleiten.
Weiterhin sei bemerkt, dass groe Teile dieser Arbeit den Skripten Schobel
(2006), Schobel (2007), Lube (2005b), Hohage (2005) und Hohage (2006)
entnommen sind, zum Teil wortlich.
1.1 Bezeichnungen
In diesem Abschnitt wollen wir kurz einige Bezeichnungen einf uhren, die im
folgenden immer wieder auftreten werden.
Da es in vielen Kapiteln egal ist, ob wir uns im Korper der reellen oder
der komplexen Zahlen benden, schreiben wir oft nur K und meinen damit
K = R oder K = C.
Seien weiter a
1
, . . . , a
m
K
n
gegeben. Dann bezeichnen wir den kleinsten
Unterraum von K
n
, der die Vektoren a
1
, . . . , a
m
enthalt, mit
span(a
1
, . . . , a
m
) :=
_
m

k=1

k
a
k
:
1
, . . . ,
m
K
_
.
Eine Diagonalmatrix mit den Diagonalelementen d
1
, . . . , d
n
schreiben wir
auch als
diag(d
1
, . . . , d
n
) :=
_
_
_
d
1
0
.
.
.
0 d
n
_
_
_
.
Matrizen, die nur auf ihrer Diagonalen und auf ihren beiden Nebendiagona-
len von Null verschiedene und jeweils identische Eintrage haben, bezeichnen
wir mit
tridiag(a, b, c) :=
_
_
_
_
_
_
_
_
_
b c 0 0
a b c
.
.
.
0 a
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
c
0 0 a b
_
_
_
_
_
_
_
_
_
.
Geschlossene Intervalle werden gegeben durch [a, b] und oene Intervalle
schreiben wir als (a, b).
Einleitung 10
Der lineare Raum aller stetigen Funktionen auf einem Intervall [a, b] sei
(([a, b]). Der Raum aller k-mal stetig dierentierbaren Funktionen sei analog
(
k
([a, b]).
Im folgenden wiederholen wir einige Denitionen, die dem Leser sicherlich
schon bekannt sind.
Denition 1.1. Eine Matrix A K
nn
heit hermitesch, falls
A

= A
gilt. Ist speziell K = R, so nennt man A auch symmetrisch und wir schrei-
ben A
T
statt A

.
Dabei ist A

= (a

ji
) die konjugiert komplexe Matrix zu A, es gilt also
a

ji
= a
ij
f ur alle 1 i, j n.
Denition 1.2. Eine Matrix Q K
nn
heit unitar, falls
Q

Q = Q Q

= I
gilt. Ist speziell K = R, so nennt man Q auch orthogonal und wir schreiben
Q
T
statt Q

.
Denition 1.3. Eine hermitesche Matrix A K
nn
heit positiv denit,
falls
x
T
A x > 0 f ur alle x R
n
0.
A heit positiv semi-denit, falls
x
T
A x 0 f ur alle x R
n
.
Denition 1.4. Eine Menge U R
n
heit konvex, wenn
x + (1 ) y U
f ur alle x, y U und [0, 1].
2 Iterative Verfahren
In diesem Kapitel beginnen wir mit einer der wichtigsten Grundlage f ur viele numeri-
schen Losungsansatze, namliche mit iterativen Verfahren. Wir beginnen sehr einfach mit
der sukzessiven Approximation, f uhren anschlieend Normen und Matrixnormen ein, um
schlielich den Banachschen Fixpunktsatz genau verstehen und beweisen zu konnen. Ab-
schlieend diskutieren wir noch das mehrdimensional Newton-Verfahen ein Anwendung
der sukzessiven Approximation.
2.1 Sukzessive Approximation
In diesem Abschnitt betrachten die Grundlagen zu einer Klasse von Ver-
fahren, die man zur Losung von linearen und nichtlinearen Gleichungssys-
temen verwenden kann. Wir betrachten dazu relativ allgemein Funktionen
f
1
, . . . , f
m
mit
f
i
: R
n
R f ur i = 1, . . . , m
und bezeichnen das System
f
1
(x
1
, . . . , x
n
) = 0
f
2
(x
1
, . . . , x
n
) = 0
.
.
. (2.1)
f
m
(x
1
, . . . , x
n
) = 0
als nichtlineares Gleichungssystem mit den Variablen x
1
, . . . , x
n
. De-
nieren wir weiter
F : R
n
R
m
mit F(x) =
_
_
_
_
_
f
1
(x)
f
2
(x)
.
.
.
f
m
(x)
_
_
_
_
_
,
so konnen wir das Gleichungssystem in Kurzform auch schreiben als
F(x) = 0.
11
Kapitel 2 Iterative Verfahren 12
Gilt F(x) = 0 f ur ein x R
n
, so nennt man x eine Losung des Gleichungs-
systems. Dass wir in dem Gleichungssystem die rechte Seite zu Null ge-
setzt haben ist keine Einschrankung, da ein Gleichungssystem F(x) = b mit
b = (b
1
, . . . , b
m
) R
m
jederzeit zu G(x) = F(x) b = 0 umformt werden
kann.
Nichtlineare Gleichungssysteme lassen sich im Allgemeinen nicht durch al-
gebraische Manipulationen exakt auosen. Wir betrachten daher iterative
Verfahren, die eine gegebene Losung in jedem Schritt verbessern, bis eine
vorgegebene Genauigkeit erreicht ist. Dazu untersuchen wir Gleichungssys-
teme, die in Fixpunktgestalt vorliegen.
Denition 2.1. Gegeben sei : R
n
R
n
. Dann heit die Gleichung
(x) = x
Fixpunktgleichung. Jedes x R
n
, f ur welches (x) = x gilt, wird als
Fixpunkt von bezeichnet.
Ein Zusammenhang zwischen Fixpunktgleichungen und nichtlineares Glei-
chungssystem wird im folgenden Lemma beschrieben. Diese Aussage wird
in Abschnitt 3.7 noch wichtig sein.
Lemma 2.1. Zunachst sei m n und das Gleichungssystem F(x) = 0 wie in
Gleichung (2.1) gegeben. Weiter sei M : R
m
R
n
eine lineare und injektive
Abbildung. Zudem denieren wir
(x) = M(F(x)) +x. (2.2)
Dann ist x genau dann ein Fixpunkt von , wenn x das Gleichungssystem
F(x) = 0 lost.
Nun sei andererseits die Abbildung : R
n
R
n
gegeben und wir denieren
F(x) = (x) x.
Dann ist das Gleichungssystem F(x) = 0 aquivalent zu der Fixpunktglei-
chung (x) = x.
Beweis. Aus (x) = x folgt M(F(x)) = 0. Da M aber injektiv ist, folgt
sofort F(x) = 0 und damit die erste Aussage.
Die zweite Aussage ist trivial.
Kapitel 2 Iterative Verfahren 13
Gleichungssystem F(x) = 0 mit m n konnen wir also losen, wenn wir Fix-
punkte bestimmen konnen. Damit werden wir uns im folgenden beschaftigen.
Die grundlegende Idee besteht darin zu einem gegebenem x
(0)
R
n
die
Folge
x
(k+1)
:=
_
x
(k)
_
f ur k = 0, 1, 2, . . .
zu bestimmen. Angenommen ist stetig und die Folge der x
(k)
konvergiert,
dann gibt es auch einen Grenzwert
x

= lim
k
x
(k)
.
F ur diesen Grenzwert w urde dann x

= (x

) gelten, x

ware also ein


Fixpunkt von . Dies motiviert die folgende Denition.
Denition 2.2. Die Iterationsvorschrift
x
(k+1)
:=
_
x
(k)
_
(2.3)
heit Verfahren der sukzessiven Approximation.
Abbildung 2.1: Das Verfahren der sukzessiven Approximation.

Ahnlich zum ersten Beispiel in der Einleitung konnen bei der sukzessiven
Approximation mehrere Falle auftreten, wie das folgende Beispiel noch ein-
mal verdeutlicht.
Beispiel 2.1. Wir betrachten die Gleichung
f(x) = 2x tan(x) = 0
und formen diese Gleichung in Fixpunktgestalt um.
Kapitel 2 Iterative Verfahren 14
( 1 ) In der ersten Variante schreiben wir
(x) = f(x) +x = 3x tan(x)
und suchen einen Fixpunkt von mittels der Folge
x
(k+1)
= 3x
(k)
tan(x
(k)
).
( 2 ) In einer zweiten Variante schreiben wir
x =
1
2
tan(x)
und erhalten die Folge
x
(k+1)
=
1
2
tan(x
(k)
).
( 3 ) Schlielich lasst sich auch
x = arctan(2x)
verwenden, was uns zur Folge
x
(k+1)
= arctan(2x
(k)
)
f uhrt.
Verwenden wir in allen drei Fallen den Startwert x
(0)
= 1.2, so konvergiert
die Folge aus ( 1 ) gegen . Die zweite Folge hingegen konvergiert gegen 0,
nur die dritte Vorschrift geht gegen die eigentlich gesuchte Losung
x

1.1656 .
Nat urlich besteht unser anliegen auf den nachsten Seiten darin Aussagen
zu nden, wann das Verfahren der sukzessiven Approximation gegen eine
gesuchte Losung konvergiert. Dazu betrachten wir zunachst nur den skalaren
Fall.
Satz 2.2. Sei I R ein abgeschlossenes Intervall, q [0, 1) und : I I
eine Funktion, die
[(x) (y)[ q [x y[ f ur alle x, y I (2.4)
erf ullt. Besitzt einen Fixpunkt x

I, so konvergiert die Folge


x
(k+1)
= (x
(k)
)
f ur jeden Startwert x
(0)
I gegen x

und es gilt
[x
(k)
x

[ q
k
[x
(0)
x

[ f ur k = 0, 1, 2, . . . .
Kapitel 2 Iterative Verfahren 15
Beweis. Zunachst ist die Iterationsformel f ur x
(k)
wohldeniert, da x
(k)
I
f ur alle k. Die Aussage lasst sich nun leicht durch Induktion zeigen. Der
Induktionsanfang f ur k = 0 ist klar. Den Induktionsschritt rechnen wir leicht
nach:
[x
(k+1)
x

[ = [(x
(k)
) (x

)[ q [x
(k)
x

[
q q
k
[x
(0)
x

[
= q
(k+1)
[x
(0)
x

[,
wobei wir im zweiten Schritt die Induktionsannahme verwendet haben.
Aufgabe 2.1. Verwende Satz 2.2, um alle drei Falle aus Beispiel 2.1 zu er-
klaren.
Bevor wir Satz 2.2 verallgemeinern konnen, m ussen wir uns mit Matrixnor-
men beschaftigen.
2.2 Matrixnorm
Zunachst wiederholen wir kurz den Begri einer Norm.
Denition 2.3. Sei V ein Vektorraum uber K. Dann heit eine Abbildung
| | : V R
eine Norm auf V , falls sie die folgenden vier Bedingungen erf ullt:
( 1 ) |x| 0 f ur alle x V .
( 2 ) |x| = 0 x = 0 f ur alle x V .
( 3 ) | x| = [[ |x| f ur alle K und alle x V .
( 4 ) |x +y| |x| +|y| f ur alle x, y V .
Der Raum (V, | |) heit dann normierter Raum. Weiterhin ist
B = x V : |x| 1
der abgeschlossene Einheitskreis der Norm | |.
Kapitel 2 Iterative Verfahren 16
Die wichtigsten Normen auf dem K
n
sind die folgenden:
|x|
1
=
n

i=1
[x
i
[,
|x|

= max
i=1,...,n
[x
i
[,
|x|
2
=
_
n

i=1
x
2
i
_
1/2
=

x
T
x,
|x|
p
=
_
n

i=1
[x
i
[
p
_
1/p
f ur 1 p .
Schlielich denieren wir Konvergenz bez uglich einer Norm.
Denition 2.4. Sei (V, | |) ein normierter Raum.
Dann heit eine Folge (x
n
) V konvergent bez uglich der Norm | |, falls
es ein Element x

V mit der folgenden Eigenschaft gibt:


F ur jedem > 0 existiert eine nat urliche Zahl N N, so dass
|x

x
n
| <
f ur alle n N.
In diesem Fall nennen wir x

den Grenzwert der Folge (x


n
). Eine nicht-
konvergente Folge heit divergent.
Die Frage ist nun, in wie weit sich Konvergenz-Denitionen f ur verschiedene
Normen unterscheiden. Dazu ist die folgende Denition hilfreich.
Denition 2.5. Zwei Normen | |
a
und | |
b
auf einem Vektorraum V
heien aquivalent, wenn es positive reelle Zahlen c, C > 0 gibt, so dass
c |x|
a
|x|
b
C |x|
a
f ur alle x V gilt.
Nach dieser Denition gelten die folgenden beiden Aussagen, die wir hier
aber nicht beweisen wollen.
Satz 2.3. Zwei Normen | |
a
und | |
b
auf einem Vektorraum V sind
genau dann aquivalent, wenn jede bez uglich der Norm | |
a
konvergente
Folge aus V auch bez uglich der Norm | |
b
konvergiert.
Kapitel 2 Iterative Verfahren 17
Satz 2.4. Auf einem endlich-dimensionalen Vektorraum V sind alle Nor-
men aquivalent.
Damit sind allen folgenden Konvergenzaussagen in endlich dimensionalen
Raumen unabhangig von der Norm.
Trotzdem darf nicht vergessen werden, dass auf Raumen unendlicher Di-
mension nicht alle Normen aquivalent sind. Betrachten wir zum Beispiel
den Raum der stetigen Funktionen (([a, b]) uber einem Intervall [a, b], so
konnen wir f ur eine Funktion f (([a, b]) die folgenden Normen denieren:
|f|
p
=
__
b
a
[f(x)[
p
dx
_
1/p
f ur 1 p < ,
|f|

= max
x[a,b]
[f(x)[.
Hier sind zum Beispiel |f|
1
und |f|

nicht aquivalent.
Nachdem wir Vektornormen zusammenfassend diskutiert haben, wollen wir
nun Normen f ur Abbildungen und Matrizen denieren.
Denition 2.6. Es seien (V, | |
V
) und (W, | |
W
) zwei normierte Raume
und F : V W eine lineare Abbildung.
Dann heit F beschrankt, falls es eine Konstante C > 0 gibt, sodass
|F(v)|
W
C |v|
V
f ur alle v V gilt.
Wir untersuchen zunachst die Stetigkeit solcher linearen Abbildungen.
Lemma 2.5. Sei F : V W eine lineare Abbildung zwischen normier-
ten Vektorraumen (V, | |
V
) und (W, | |
W
). Dann ist F genau dann
beschrankt, wenn F stetig ist.
Beweis. Ist F beschrankt, so folgt aus
|F(v) F(w)|
W
= |F(v w)|
W
C |v w|
v
direkt die Stetigkeit von F.
Nun sei F stetig. Dann gibt es zu jedem > 0 ein > 0, sodass
|F(v) Fw|
W
<
Kapitel 2 Iterative Verfahren 18
f ur alle v, w V mit |v w|
V
. F ur = 1 und w = 0 erhalt man wegen
F(0) = 0 also ein > 0 so, dass
|F(v)|
W
< 1 f ur alle |v|
V
.
F ur jedes v V 0 gilt aber
_
_
_
_

v
|v|
V
_
_
_
_
V

_
_
_
_
F
_

v
|v|
V
__
_
_
_
W
1
und somit folgt
|F(v)|
W
=
|v|
V


_
_
_
_
F
_

v
|v|
V
__
_
_
_
W

|v|
V
.
Damit ergibt sich die Beschranktheit mit C = 1/.
Zwischen endlich-dimensionalen Raumen stellt sich die Situation noch ein-
facher dar.
Lemma 2.6. Sei F : V W eine lineare Abbildung zwischen zwei endlich-
dimensionalen und normierten Vektorraumen (V, | |
V
) und (W, | |
W
).
Dann ist F beschrankt und stetig.
Beweis. Sei v
1
, . . . , v
n
eine Basis von V . Dann gilt f ur
v =
n

k=1

k
v
k
V
zunachst
F(v) = F
_
n

k=1

k
v
k
_
n

k=1

k
F(v
k
)
und damit folgt
|F(v)|
W
=
_
_
_
_
_
n

k=1

k
F(v
k
)
_
_
_
_
_
W

k=1
[
k
[|F(v
k
)|
W
max
k=1...n
|F(v
k
)|
W
n

k=1
[
k
[ = max
k=1...n
|F(v
k
)|
W
|v|
1
C |v|
V
,
wobei beim letzten Schritt ausgenutzt wurde, dass alle Normen auf V aquiva-
lent sind. Damit ist F also beschrankt und nach Lemma 2.5 auch stetig.
Kapitel 2 Iterative Verfahren 19
Auf dem Raum der beschrankten linearen Abbildungen zwischen zwei nor-
mierten Vektorraumen denieren wir nun folgende Norm.
Denition 2.7. Sei F : V W eine beschrankte und lineare Abbildung
zwischen normierten Vektorraumen (V, | |
V
) und (W, | |
W
). Dann de-
nieren wir die zu | |
V
und | |
W
zugeordnete Norm durch
|F|
V,W
:= sup
vV \0
|F(v)|
W
|v|
V
= sup
vV
v
V
=1
|F(v)|
W
.
Gilt V = W und | |
V
= | |
W
, so schreiben wir auch einfach nur |F|
V
.
Weil F als beschrankt vorausgesetzt wurde, gilt
|F(v)|
W
|v|
V

C |v|
V
|v|
V
= C
f ur alle v V 0 und wir erhalten
|F|
V,W
< .
Die Norm der Abbildung F ist also die kleinstmogliche Konstante C, mit
der man die Beschranktheit der Abbildung abschatzen kann.
Mit diesen allgemeinen Betrachtungen kommen wir nun endlich zu Matrizen
zur uck.
Satz 2.7. Wir betrachten die normierten Vektorraume (K
n
, | |
p
) und
(K
m
, | |
p
) mit p 1, . Weiter sei A = (a
ik
) K
mn
eine lineare
Abbildung von K
n
nach K
m
. Dann gilt
|A|
1
= sup
xK
n
x
1
=1
|Ax|
1
= max
k=1,...,n
m

i=1
[a
ik
[,
|A|

= sup
xK
n
x

=1
|Ax|

= max
i=1,...,m
n

k=1
[a
ik
[.
Die Norm |A|
1
wird daher als Spaltensummennorm und die Norm |A|

als Zeilensummennorm bezeichnet.


Der Beweis zu diesen Satz lasst sich durch einfache aber langere Rechnungen
f uhren und kann in jedem Buch zur numerischen Mathematik nachgeschla-
gen werden, zum Beispiel Hanke-Bourgeois (2006).
Kapitel 2 Iterative Verfahren 20
Sind K
n
und K
m
mit der selben Norm | | versehen, so sagen wir die
Matrixnorm |A| ist der Vektornorm | | zugeordnet.
Schlielich wollen wir noch die Matrixnorm zur Euklidischen Norm | |
2
f ur
quadratische Matrizen untersuchen und benotigen daf ur einige Denitionen.
Denition 2.8. Eine Zahl K heit Eigenwert einer Matrix A K
nn
,
falls es einen Vektor x K
n
0 gibt mit
A x = x.
Ein solcher Vektor x heit Eigenvektor von A zum Eigenwert .
Denition 2.9. Der Spektralradius (A) einer Matrix A K
nn
ist der
betragsmaig grote Eigenwert von A, also
(A) = max[[ : K ist ein Eigenwert von A.
Damit konnen wir schlielich die |A|
2
Norm berechnen, wobei der Beweis
auch hier wieder in Hanke-Bourgeois (2006) nachgeschlagen werden kann.
Satz 2.8. sei A = (a
ik
) K
mn
eine lineare Abbildung von K
n
nach K
m
.
Dann gilt
|A|
2
= sup
xK
n
x
2
=1
|Ax|
2
=
_
(AA

).
Ist speziell A K
nn
hermitesch, so folgt
|A|
2
= (A).
Man nennt |A|
2
auch die Spektralnorm von A.
2.3 Banachscher Fixpunktsatz
In diesem Abschnitt werden wir die Konvergenzeigenschaften der sukzessi-
ven Approximation weiter untersuchen. Unser Ziel ist eine Verallgemeine-
rung von Satz 2.2, bei der wir die Existenz eines Fixpunktes nicht mehr
voraussetzen m ussen. Auerdem wird das neue Ergebnis der Banachsche
Fixpunktsatz nicht nur f ur skalare Funktionen sondern auch f ur Opera-
toren in beliebigen Banachraumen X gelten. Damit kann die Unbekannte
x X nicht nur ein Vektor, sondern sogar eine Funktion sein. Dies wird
Kapitel 2 Iterative Verfahren 21
spater bei der numerischen Untersuchung von Anfangswertproblemen wich-
tig sein.
Bevor wir den Banachschen Fixpunktsatz formulieren, wiederholen wir noch
die Denition eines Banachraumes.
Denition 2.10. Sei (X, | |) ein normierter Raum. Dann heit eine Folge
(x
n
) X Cauchy-Folge bez uglich der Norm | |, falls es zu jedem > 0
eine nat urliche Zahl N N gibt, so dass
|x
n
x
m
| <
f ur alle n, m N. Ein Raum, in dem jede Cauchy-Folge zusatzlich auch
konvergiert, siehe Denition 2.4, heit vollstandig.
Denition 2.11. Ein vollstandiger und normierter Raum (X, | |) heit
Banachraum.
Damit besitzt jede Cauchy-Folge in einem Banachraum einen Grenzwert.
Weiterhin ubertragen wir auch Gleichung (2.4) allgemein auf normierte
Raume.
Denition 2.12. Sei X ein Banachraum mit Norm | | und U X eine
abgeschlossene Teilmenge von X.
Eine Abbildung : U X heit kontrahierend, falls es einen reellen
Kontraktionsfaktor 0 q < 1 gibt, so dass
|(x) (y)| q |x y| f ur alle x, y U
gilt.
Nun konnen wir den Banachschen Fixpunktsatz formulieren und beweisen.
Satz 2.9 (Banachscher Fixpunktsatz). Sei (X, | |) ein Banachraum und
U X eine abgeschlossene Teilmenge von X. Weiter sei : U U eine
Selbstabbildung und zusatzlich sei kontrahierend mit Kontraktionsfaktor
q < 1. Dann gelten die folgenden Asusagen.
( 1 ) besitzt genau einen Fixpunkt x

U.
( 2 ) Die Iterationsvorschrift der sukzessiven Approximation
x
(k+1)
=
_
x
(k)
_
konvergiert f ur jeden Startwert x
(0)
U gegen x

.
Kapitel 2 Iterative Verfahren 22
( 3 ) Es gilt die a priori Fehlerschranke
|x
(k)
x

|
q
k
1 q
|x
(1)
x
(0)
| f ur alle k N. (2.5)
( 4 ) Es gilt die a posteriori Fehlerschranke
|x
(k)
x

|
q
1 q
|x
(k)
x
(k1)
| f ur alle k N. (2.6)
Beweis. Zunachst ist die Folge x
(k)
wohldeniert, da x
(k)
U f ur alle k N.
F ur den Beweis nutzen wir die zentrale Aussage, dass in einem Banachraum
alle Cauchy-Folgen konvergieren.
Schritt 1 (Cauchy-Folge) Dazu zeigen wir zunachst, dass x
(k)
eine Cauchy-
Folge ist. F ur alle 0 j k 1 gilt
|x
(k)
x
(k1)
| = |(x
(k1)
) (x
(k2)
)|
q|x
(k1)
x
(k2)
| . . .
q
j
|x
(kj)
x
(kj1)
|.
und somit erhalten wir
|x
(l)
x
(k)
|
|x
(l)
x
(l1)
| +|x
(l1)
x
(l2)
| +. . . +|x
(k+1)
x
(k)
|
q
lk
|x
(k)
x
(k1)
| +q
lk1
|x
(k)
x
(k1)
| +. . . +q|x
(k)
x
(k1)
|
= |x
(k)
x
(k1)
|
lk

j=1
q
j
|x
(k)
x
(k1)
|

j=1
q
j
= |x
(k)
x
(k1)
|
q
1 q
(2.7)
q
k1
|x
(1)
x
(0)
|
q
1 q
=
q
k
1 q
|x
(1)
x
(0)
|. (2.8)
Da q
k
/(1 q) 0 f ur k , ist x
(k)
eine Cauchy-Folge.
Schritt 2 (Existenz des Fixpunktes) Weil x
(k)
eine Cauchy-Folge ist, gibt es
ein x

mit
x

= lim
k
x
(k)
.
F ur x

gilt dann aber


|(x

) (x
(k)
)| q |x

x
(k)
| f ur k ,
entsprechend haben wir
(x

) = lim
k
(x
(k)
) = lim
k
x
(k+1)
= x

.
Kapitel 2 Iterative Verfahren 23
Schritt 3 (Eindeutigkeit des Fixpunktes) Angenommen x

x und seien zwei


Fixpunkt von . Dann gilt
|x

x| = |(x

) ( x)| q |x

x|.
Da q < 1, folgt |x

x| = 0 und somit x

= x.
Schritt 4 (Fehlerschranken) Nutzen wir die in Schritt 1 aufgestellte Unglei-
chungskette und speziell die Gleichungen (2.7) und (2.8), so erhalten wir
|x

x
(k)
| = lim
l
|x
(l)
x
(k)
|

q
1 q
|x
(k)
x
(k1)
|

q
k
1 q
|x
(1)
x
(0)
|.
Damit ist der Satz gezeigt.
Die Bedeutung des Banachschen Fixpunktsatzes f ur die numerische Mathe-
matik liegt im konstruktiven Charakter seines Beweises. Neben dem Nach-
weis der Existenz und der Eindeutigkeit eines Fixpunktes beschreibt er
gleichzeitig mit dem Verfahren der sukzessiven Approximation einen ein-
fachen Algorithmus zur naherungsweisen Bestimmung des Fixpunktes. Zu-
dem sollte man nie vergessen, dass der Banachsche Fixpunktsatz auch in
unendlich-dimensionalen Banachraumen gilt.
Weiterhin bemerken wir, dass die Umgebung U auch sehr klein werden kann.
Wir beschaftigen uns nun noch mit dem Nachweis der Kontraktionseigen-
schaft von . Dazu bezeichnen wir f ur eine total dierenzierbare Funktion
= (
1
, . . . ,
n
) : R
n
R
m
die Jacobi-Matrix von an einer Stelle
a R
n
mit
D(a) =
_
_
_

1
x
1
(a) . . .

1
x
n
(a)
.
.
.
.
.
.

m
x
1
(a) . . .

m
x
n
(a)
_
_
_
.
F ur : R
n
R schreiben wir auch
grad(a) =
_

x
1
(a), . . . ,

x
n
(a)
_
und f ur eine skalare Funktion : R R wie gehabt einfach nur f
t
(a).
Kapitel 2 Iterative Verfahren 24
Lemma 2.10. Sei U R
n
eine konvexe Menge und : U R
n
stetig
dierenzierbar mit
|D(x)| q < 1 f ur alle x U,
wobei die Matrixnorm hier einer Vektornorm zugeordnete sein soll.
Dann ist kontrahierend mit Kontraktionsfaktor q.
Beweis. Zu zwei festen x, y U denieren wir eine Abbildung f : R R
n
durch
f(t) = (x +t(y x)) f ur t [0, 1].
Damit gilt nach dme Hauptsatz der Dierential- und Integralrechnung und
der Kettenregel
|(y) (x)| = |f(1) f(0)| =
_
_
_
_
_
1
0
f
t
(t) dt
_
_
_
_
=
_
_
_
_
_
1
0
D(x +t(y x)) (y x) dt
_
_
_
_

_
1
0
|D(x +t(y x))| |y x| dt
|y x|
_
1
0
q dt = q |x y|.
Somit ist die Kontraktionseigenschaft gezeigt
Wollen wir den Banachschen Fixpunktsatz anwenden und nach Lemma 2.10
zeigen, dass kontrahierend ist, so m ussen wir f ur |D(x)| die Matrixnom
verwenden, die der Vektornorm des Banachraumes zugeordnet ist. Damit
muss die Wahl der Norm bedacht werden, um mittels Lemma 2.10 zu zeigen,
dass eine Kontraktion ist.
Abschlieend untersuchen wir noch, wie wir bei der Approximation des Fix-
punktes eine Genauigkeit von > 0 garantieren konnen, also
|x
(k)
x

|
in der k-ten Iteration. Dazu konnen wir wahrend des Verfahrens die a pos-
teriori Fehlerschranke aus dem Banachschen Fixpunktsatz verwenden, also
|x
(k)
x

|
q
1 q
|x
(k)
x
(k1)
|.
Kapitel 2 Iterative Verfahren 25
Dies f uhrt zum Abbruchkriterium
q
1 q
|x
(k)
x
(k1)
| .
Leider ist der Kontraktionsfaktor q oft nicht bekannt und man behilft sich
mit der Abschatzung
q
k
=
|x
(k)
x
(k1)
|
|x
(k1)
x
(k2)
|
.
Damit gilt q
k
q, denn
q
k
=
|x
(k)
x
(k1)
|
|x
(k1)
x
(k2)
|
=
|(x
(k1)
) (x
(k2)
)|
|x
(k1)
x
(k2)
|
q.
Somit brechen wir das Verfahren der sukzessiven Approximation ab, wenn
q
k
1 q
k
|x
(k)
x
(k1)
|
gilt.
Es bleibt zu bemerken, dass es sich hierbei um ein heuristisches Abbruchkri-
terium handel, da die Fehlerschranke |x
(k)
x

| im Allgemeinen nicht
garantiert werden kann, was an der Abschatzung
q
k
1 q
k

q
1 q
liegt. Meistens konvergiert q
k
jedoch gegen q, sodass das Abbruchkriterium
in der Regel ausreichend gut funktioniert.
2.4 Newton-Verfahren
Mit dem Verfahren der sukzessiven Approximation und dem Banachschen
Fixpunktsatz haben wir eine Methode zur Nullstellenbestimmung von nicht-
linearen Gleichungssystemen kennengelernt, sofern gewissen Konvergenzkri-
terien erf ullt sind. Wir haben aber bereits auch bemerkt, dass das Verfah-
ren sehr langsam konvergieren kann, wenn der Kontraktionsfaktor nahe an 1
liegt. Daher wollen wir nun ein weiteres Verfahren vorstellen, welches wieder
unter gewissen Voraussetzung eine bessere Konvergenz liefert.
Dazu betrachten wir zunachst den skalaren Fall und kehren anschlieend
zum mehrdimensionalen Fall zur uck. Wir beginnen somit mit einer reellen
Funktion f : R R.
Kapitel 2 Iterative Verfahren 26
Gesucht ist eine Nullstelle x

von f. Angenommen wir haben schon eine


Schatzung der Nullstelle x
(0)
und die Funktion f ist stetig dierenzierbar,
so besteht die Idee des Newton-Verfahrens darin, f durch seine Tangente
f(x) f(x
(0)
) +f
t
(x
(0)
)(x x
(0)
)
durch den Punkt x
(0)
zu ersetzen. Dies entspricht damit auch der linearen
Taylorentwicklung in x
(0)
.
Abbildung 2.2: Das skalare Newton-Verfahren.
Wir approximieren nun die gesuchte Nullstelle x

durch die Nullstelle der


linearen Naherung, also
f(x
(0)
) +f
t
(x
(0)
)(x x
(0)
) = 0 x =
f(x
(0)
)
f
t
(x
(0)
)
+x
(0)
,
falls f
t
(x
(0)
) ,= 0. Wir gehen nun davon aus, dass diese Nullstelle eine bessere
Approximation von x

ist als x
(0)
und setzen daher
x
(1)
= x
(0)

f(x
(0)
)
f
t
(x
(0)
)
.
Wiederholen wir dieses Vorgehen, so erhalten wir das Newton-Verfahren.
F ur f
t
(x) ,= 0 konnen wir somit die Fixpunktgleichung
g(x) = x
f(x)
f
t
(x)
denieren und erhalten das Iterationsverfahren x
(k+1)
= g(x
(k)
). Dazu gilt
die folgende theoretische Konvergenzaussage.
Kapitel 2 Iterative Verfahren 27
Satz 2.11. Sei x

eine einfache Nullstelle einer Funktion f : R R. Wei-


terhin sei f in einer Umgebung von x

zweimal stetig dierenzierbar. Dann


konvergiert das Newton-Verfahren f ur jeden Startwert x
(0)
, der hinreichend
nahe bei x

liegt.
Beweis. Da x

eine einfache Nullstelle von f ist, gilt f


t
(x

) ,= 0 und entspre-
chend gibt es eine Umgebung U := U(x

), sodass f
t
(x) ,= 0 f ur alle x U.
Die Verfahrensvorschrift x
(k+1)
= g(x
(k)
) mit
g(x) = x
f(x)
f
t
(x)
ist somit f ur alle x U deniert. Die Ableitung von g ist
g
t
(x) = 1
(f
t
(x))
2
f(x)f
tt
(x)
(f
t
(x))
2
=
f
tt
(x)
(f
t
(x))
2
f(x),
und damit folgt g
t
(x

) = 0. Aufgrund der Stetigkeit von g


t
existieren reelle
Zahlen > 0 und q < 1 mit
[g
t
(x)[ q < 1
f ur alle x U
t
= [x

, x

+] U. Daraus folgt
[g(x) x

[ = [g(x) g(x

)[ q [x x

[ f ur alle x U
t
,
also ist g eine Kontraktion sowie eine Selbstabbildung auf U
t
. Der Banach-
sche Fixpunktsatz liefert schlielich die Behauptung.
Damit kommen wir nun zum mehrdimensionalen Fall mit F : R
n
R
n
.
Die Motivation hierf ur ist die gleiche wie f ur skalare Funktionen. Anstatt
die Nullstelle F(x) = 0 einer stetig dierenzierbaren Funktion F : R
n
R
n
zu suchen, nutzen wir die lineare Taylorentwicklung
F(x) F(x
(0)
) + (DF(x
(0)
)) (x x
(0)
).
Existiert (DF(x
(0)
))
1
, so konnen wir diese Gleichung nach x auosen und
erhalten
x
(1)
= x
(0)
(DF(x
(0)
))
1
F(x
(0)
)
als nachste Iterierte. Das entspricht der Fixpunktgleichung (2.2),
G(x) = x + (DF(x))
1
F(x),
und somit erhalten wir das Iterationsverfahren x
(k+1)
= G(x
(k)
). Wir fassen
das Ergebnis noch einmal zusammen.
Kapitel 2 Iterative Verfahren 28
Denition 2.13. Sei U R
n
oen und F : U R
n
eine stetig dieren-
zierbare Funktion mit einer f ur alle x U regularen Jacobi-Matrix DF(x).
Dann heit das Verfahren
x
(k+1)
= x
(k)
(DF(x
(k)
))
1
F(x
(k)
)
mit einem Startwert x
(0)
U Newton-Verfahren.
Um das Newton-Verfahren numerisch zu realisieren, wird zur Bestimmung
von x
(k+1)
in jedem Schritt das lineare Gleichungssystem
DF(x
(k)
) (x
(k+1)
x
(k)
) = F(x
(k)
)
gelost. Dies geschieht durch das Losen des Systems
DF(x
(k)
) w
(k)
= F(x
(k)
)
und anschlieendes Berechnen von
x
(k+1)
= x
(k)
+w
(k)
.
Da die Berechnung der Jacobi-Matrix f ur groe n sehr aufwandig wird und
um den Konvergenzbereich des Newton-Verfahrens zu vergroern, wird in
der Praxis oft eine der folgenden Varianten verwendet:
( 1 ) Frozen Newton. Es wird nur einmal die Jacobi-Matrix berechnet,
f ur die dann mittels LU-Zerlegung (siehe nachstes Kapitel) alle in den
Iterationen auftretende Gleichungssysteme ezient losbar sind.
( 2 ) Quasi Newton. Die Jacobi-Matrix wird in jedem Schritt approxima-
tiv angepasst.
( 3 ) Gedampftes Newton. Es wir die Iterationsvorschrift
x
(k+1)
= x
(k)
+
k
w
(k)
mit
k
[0, 1] verwendet.
Das Konvergenzverhalten des mehrdimensionalen Newton-Verfahrens lasst
sich nicht so einfach analysieren wie im eindimensionalen Fall. Trotzdem
beweisen wir im folgenden Satz sogar mehr, namlich dass das Newton-
Verfahren quadratisch konvergiert. Dazu die folgende Denition.
Kapitel 2 Iterative Verfahren 29
Denition 2.14. Eine gegen x

konvergente Folge (x
(k)
) in einem normierten
Raum (X, | |) besitzt die Konvergenzordnung p 1, wenn es eine
positive Konstante C > 0 gibt mit
|x
(k+1)
x

| C |x
(k)
x

|
p
f ur alle k N.
Den Fall p = 1 bezeichnet man als lineare Konvergenz und den Fall p = 2
als quadratische Konvergenz.
Man beachte, dass sich die Anzahl der korrekt gefundenen Stellen einer
Zahl bei quadratischer Konvergenz in jedem Schritt etwa verdoppelt. Wir
formulieren jetzt den Satz zur Konvergenz des Newton-Verfahrens.
Satz 2.12. Sei U R
n
oen und konvex und sei F : U R
n
stetig die-
renzierbar. F ur alle x
(0)
U gelten zudem die folgenden vier Bedingungen
mit einer beliebigen Norm | | auf dem R
n
:
( 1 ) F besitzt eine Nullstelle x

U.
( 2 ) DF(x) ist f ur alle x U regular.
( 3 ) Es gibt ein > 0, sodass f ur alle x, y U und := |x

x
(0)
| gilt:
|(DF(x))
1
(DF(y) DF(x))| |xy| und

2
< 1.
( 4 ) Es gilt B

(x

) := x R
n
: |x x

| < U.
Dann gelten f ur das Newton-Verfahren
x
(k+1)
= x
(k)
(DF(x
(k)
))
1
F(x
(k)
)
die folgenden Aussagen:
( 1 ) F ur alle k N ist x
(k)
B

(x

).
( 2 ) x
(k)
konvergiert gegen x

.
( 3 ) F ur alle k N 0 gilt die a priori Fehlerschranke
|x
(k)
x

|
_

2
_
2
k
1
.
( 4 ) F ur alle k N 0 gilt die a posteriori Fehlerschranke
|x
(k+1)
x

|

2
|x
(k)
x

|
2
.
Beweis. Der Beweis gliedert sich in mehrere Teile.
Kapitel 2 Iterative Verfahren 30
Schritt 1 (A posteriori Fehlerschranke) Wir zeigen zunachst, dass aus x
(k)

U die a-posteriori Fehlerschranke f ur k folgt. Dazu denieren wir die Funk-


tion g : [0, 1] R
n
mit
g(t) = F(x
(k)
+t(x

x
(k)
)).
Durch die mehrdimensionale Kettenregel erhalten wir
g
t
(t) = DF(x
(k)
+t(x

x
(k)
)) (x

x
(k)
),
woraus nach dem Hauptsatz der Dierential- und Integralrechnung wie in
Lemma 2.10 folgt, dass
F(x

) F(x
(k)
) = g(1) g(0) =
_
1
0
g
t
(t)dt
=
_
1
0
DF(x
(k)
+t(x

x
(k)
)) (x

x
(k)
)dt
gilt. Nun setzen wir voraus, dass x
(k)
U f ur alle k N. Nach der Denition
des Newton-Verfahrens gilt dann
A = x
(k+1)
x

= x
(k)
(DF(x
(k)
))
1
F(x
(k)
) x

= x
(k)
x

(DF(x
(k)
))
1
(F(x
(k)
) F(x

))
= (DF(x
(k)
))
1

_
F(x

) F(x
(k)
) DF(x
(k)
) (x

x
(k)
)
_
= (DF(x
(k)
))
1

_
g(1) g(0) DF(x
(k)
) (x

x
(k)
)
_
= (DF(x
(k)
))
1

_
1
0
DF(x
(k)
+t(x

x
(k)
)) (x

x
(k)
) dt
(DF(x
(k)
))
1

_
DF(x
(k)
) (x

x
(k)
)
_
=
_
1
0
(DF(x
(k)
))
1

_
DF(x
(k)
+t(x

x
(k)
)) DF(x
(k)
)
_
(x

x
(k)
) dt.
Gehen wir zur Norm davon uber, so erhalten wir
|A| = |x
(k+1)
x

_
1
0
_
_
_(DF(x
(k)
))
1

_
DF(x
(k)
+t(x

x
(k)
)) DF(x
(k)
)
__
_
_
|x

x
(k)
| dt.
Nach der Voraussetzung ( 3 ) gilt aber
(DF(x
(k)
))
1

_
DF(x
(k)
+t(x

x
(k)
)) DF(x
(k)
)
_
|x
(k)
(x
(k)
+t(x

x
(k)
))|
= t |x
(k)
x

|.
Kapitel 2 Iterative Verfahren 31
Setzen wir dies in die obige Ungleichung ein, so erhalten wir
|A| = |x
(k+1)
x

_
1
0
t |x
(k)
x

| |x
(k)
x

| dt
=
_
1
0
t |x
(k)
x

|
2
dt
=

2
|x
(k)
x

|
2
.
Damit ist die a posteriori Fehlerschranke gezeigt, sofern x
(k)
U gilt.
Schritt 2 (Induktion) Alle weiteren Aussagen zeigen wir nun per Induktion.
F ur k = 0 sind nur die beiden Fehlerschranken zu zeigen: Mit
_

2
_
2
k
1
= 1 f ur k = 0
folgt direkt |x
(0)
x

| = nach der Denition von . Da weiter x


(0)
U
gilt, konnen wir Schritt 1 des Beweises verwenden und erhalten
|x
(1)
x

|

2
|x
(0)
x

|
2
.
Damit ist der Induktionsanfang gezeigt.
Nun machen wir die Induktionsannahme, dass alle Aussagen f ur k N gelten
und wir wollen im Induktionsschritt von k auf k + 1 schlieen.
Nach Schritt 1, der Induktionsannahme und nach Voraussetzung ( 3 ) erhal-
ten wir
|x
(k+1)
x

|

2
|x
(k)
x

|
2


2

_

2
_
2(2
k
1)

2
=
_

2
_
2
k+1
1
< .
Aus der letzten Zeile folgt genau die a priori Fehlerschranke f ur k +1, sowie
die Aussage x
(k+1)
B

(x

).
Somit ist die Folge wohldeniert und nach Voraussetzung ( 4 ) haben wir
x
k+1
U. Schritt 1 liefert damit auch die a posteriori Fehlerschranke f ur
k + 1 und schlielich erhalten wir direkt die Konvergenz gegen x

.
Es sei bemerkt, dass wir durch die a posteriori Fehlerschranke auch die qua-
dratische Konvergenz des Newton-Verfahrens gezeigt haben. Zum Abschluss
Kapitel 2 Iterative Verfahren 32
geben wir noch einen weiteren Satz mit strengeren Voraussetzung an, der
eine lokale Konvergenzordnung 2 in der Nahe eine Nullstelle verspricht.
Satz 2.13. Sei U R
n
oen und F : U R
n
eine zweimal stetig
dierenzierbare Funktion. Weiter sei x

U eine Nullstelle von F mit


det(DF(x

)) ,= 0.
Dann existiert ein > 0, sodass das Newton-Verfahren f ur alle Startwerte
x
(0)
U := B

(x

) quadratisch konvergiert.
Beweis. Wir f uhren den Beweis auf Satz 2.12 und untersuchen dessen Vor-
aussetzungen. Zunachst gilt ( 1 ) nach Voraussetzung. Da die Funktion
h(x) = (DF(x))
1
als Matrixinversion stetig ist, gibt es ein > 0, sodass
|h(x)| |h(x

)| |h(x) h(x

)|
f ur alle x B

(x

). Mit = |(DF(x

))
1
| erhalten wir also
|(DF(x))
1
| |(DF(x

))
1
| |(DF(x

))
1
|
f ur alle x B

(x

). Dies ist aber eine aquivalente Aussage zu


|(DF(x))
1
| 2 |(DF(x

))
1
|
f ur alle x B

(x

) und somit folgt Voraussetzung ( 2 ) und mit U = B

(x

)
trivialerweise auch ( 4 ).
Als letztes m ussen wir noch Voraussetzung ( 2 ) zeigen. Hierf ur nutzen wir
aus, dass DF(x) nach Voraussetzung f ur x U dierenzierbar ist. Somit
gibt es eine Lipschitzkonstante L > 0, sodass
|DF(x) DF(y)| L |x y| f ur alle x, y U.
Wahlen wir = 2L |(DF(x

))
1
|, so folgt
|(DF(x))
1
(DF(y) DF(x))| |(DF(x))
1
| |(DF(y) DF(x))|
2 |(DF(x

))
1
| L |x y|
= |x y|
und dies ist der erste Teil von ( 3 ). Da wir weiter stets < 2/ wahlen
konnen, folgt mit

2
< 1
auch der zweite Teil. Somit liefert Satz 2.12 die Behauptung.
Kapitel 2 Iterative Verfahren 33
Abschlieend sei noch bemerkt, dass wir bei allen Konvergenzaussagen zum
Newton-Verfahren nur lokale Konvergenz gezeigt haben. Damit benotigen
wir theoretisch eine hinreichend gute Approximation an die gesuchte Null-
stelle x

, um Konvergenz garantieren zu konnen. Praktisch kommt man je-


doch oft mit einer groben Naherung aus.
2.5 Ausblick
In diesem Kapitel haben wir begonnen Gleichungssystem F(x) = 0 mit
m n zu losen. Nat urlich lassen sich auch Probleme mit m > n behandeln,
dies f uhrt zu linearen Ausgleichsproblemen.
Zudem gibt es eine Vielzahl von weiteren Newton-Varianten, die alle spezielle
Vor- und Nachteile besitzen.
3 Lineare Gleichungssysteme
Grundsatzlich werden bei der numerischen Losung von linearen Gleichungssystemen zwei
Verfahren angewandt. Wahrend direkte Verfahren eine exakte Losung in endlich vielen
Rechenschritten bestimmen, wird die Losung bei iterativen Verfahren durch wiederholtes
anwenden der gleichen Rechenvorschrift sukzessive angehahert. Dabei werden iterative
Verfahren vor allem f ur groe oder speziell strukturierte Gleichungssysteme eingesetzt.
Wir werden in diesem Abschnitt sowohl direkte als auch iterative Verfahren diskutieren.
3.1 Notationen und Grundlagen
Bevor wir Losungsverfahren f ur lineare Gleichungssysteme besprechen, f uh-
ren wir zunachst die notigen Notationen ein und wiederholen einige Begrie
und Ergebnisse aus der Linearen Algebra.
Notation 3.1. Mit A K
mn
bezeichnen wir eine reelle oder komplexe
(mn)-Matrix, d.h. eine Matrix mit m Zeilen und n Spalten.
Wir schreiben
A = (a
ij
)i=1,...,m
j=1,...,n
=
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
=
_
A
1
. . . A
n
_
=
_
_
_
a
1
.
.
.
a
m
_
_
_
.
Dabei bezeichnen A
j
die Spalten der Matrix und a
i
ihre Zeilen f ur i =
1, . . . , m und j = 1, . . . , n.
Gilt m = n so nennen wir die Matrix quadratisch.
Damit denieren wir nun formal, was ein lineares Gleichungssystem ist.
34
Kapitel 3 Lineare Gleichungssysteme 35
Denition 3.2. Ein lineares Gleichungssystem
A x = b
ist gegeben durch eine Matrix A K
mn
, einen Vektor b = (b
1
, . . . , b
m
)
K
m
und n Variablen x
1
, . . . , x
n
, kurz x = (x
1
, . . . , x
n
) K
n
. Ausgeschrieben
erhalten wir m Gleichungen
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
.
Falls b = 0 gilt, nennt man das Gleichungssystem homogen. Ist m < n, so
heit das Gleichungssystem unterbestimmt.
Lineare Gleichungssysteme haben ausgesprochen viele Anwendungen. Ei-
nerseits tauchen sie direkt als praktische Probleme auf, andererseits sind sie
ein wichtiger Baustein f ur viele numerische Verfahren, z.B. zur numerischen
Losung von Dierentialgleichungen.
Sicherheitshalber erinnern wir noch an den Begri der linearen Unabhangig-
keit.
Denition 3.3. Die Vektoren A
1
, . . . , A
p
heien linear unabhangig, falls
aus
p

i=1

i
A
i
= 0
folgt, dass
i
= 0 f ur i = 1, . . . , p. Die Anzahl der linear unabhangigen
Spalten einer Matrix A deniert den Spaltenrang der Matrix und dieser
entspricht ihrem Zeilenrang. Daher sprechen wir nur von dem Rang einer
Matrix.
Weiterhin wiederholen wir die folgenden Aussagen aus der linearen Algebra
ohne Beweis.
Satz 3.1. Sei A K
nn
eine quadratische Matrix. Dann sind die folgenden
Aussagen aquivalent:
( 1 ) A ist invertierbar.
Kapitel 3 Lineare Gleichungssysteme 36
( 2 ) det(A) ,= 0.
( 3 ) Die Spalten A
1
, . . . , A
n
von A sind linear unabhangig.
( 4 ) Die Zeilen a
1
, . . . , a
n
von A sind linear unabhangig.
Eine invertierbar Matrix nennen wir regular oder nicht singular. Ist eine
Matrix nicht invertierbar, so nennen wir sie singular.
Zudem sollte klar sein, dass wir eine (mn)-Matrix A als lineare Abbildung
A : K
n
K
m
mit A(x) = A x
auassen konnen und dementsprechend auch vom Kern
ker(A) = x K
n
: A x = 0
der Matrix sprechen konnen.
Bevor wir numerische Verfahren zur Losung eines linearen Gleichungssys-
tems entwickeln, fassen wir einige Ergebnisse uber die Losbarkeit linearer
Gleichungssysteme zusammen.
Satz 3.2. Es gelten die folgenden Aussagen:
( 1 ) Das Gleichungssystem A x = b hat genau dann mindestens eine Lo-
sung, wenn b spanA
1
, . . . , A
n
gilt.
( 2 ) Das Gleichungssystem Ax = b hat genau dann hochstens eine Losung,
wenn A
1
, . . . , A
n
linear unabhangig sind.
( 3 ) Das Gleichungssystem A x = b hat genau dann eine eindeutig Losung,
wenn die Matrix A regular ist. In diesem Fall ist
x = A
1
b
die eindeutige Losung.
3.2 Gau-Verfahren und LU-Zerlegung
In diesem Abschnitt stellen wir ein direktes Verfahren zur Losung von qua-
dratischen linearen Gleichungssystemen vor, d.h. wir haben n Gleichungen
mit n Unbekannten. Die grundlegende Idee besteht in der Beobachtung,
dass Gleichungssysteme mit Dreiecksmatrizen besonders einfach gelost wer-
den konnen, nun aber alles der Reihe nach.
Kapitel 3 Lineare Gleichungssysteme 37
Denition 3.4. Eine quadratische Matrix A K
n,n
heit untere Drei-
ecksmatrix, falls a
ij
= 0 f ur alle i < j. A heit obere Dreiecksmatrix,
falls a
ij
= 0 f ur alle i > j.
Eine Dreiecksmatrix heit normiert, falls a
ii
= 1 f ur i = 1, . . . , n.
Es sei bemerkt, dass eine (n n)-Dreiecksmatrix genau dann regular ist,
wenn a
ii
,= 0 f ur alle i = 1, . . . , n gilt. Lineare Gleichungssysteme mit Drei-
ecksmatrizen lassen sich besonderns einfach losen, wie die folgenden beiden
einfache Ergebnisse zeigen.
Lemma 3.3 (R uckwartselimination). Sei A K
nn
eine obere Dreiecksma-
trix mit a
ii
,= 0 f ur i = 1, . . . , n und b K
n
. Dann lasst sich die Losung des
lineare Gleichungssystems A x = b sukzessive durch
x
j
=
1
a
jj

_
_
b
j

k=j+1
a
jk
x
k
_
_
f ur j = n, . . . , 1
bestimmen.
Lemma 3.4 (Vorwartselimination). Sei A K
nn
eine untere Dreiecksma-
trix mit a
ii
,= 0 f ur i = 1, . . . , n und b K
n
. Dann lasst sich die Losung des
lineare Gleichungssystems A x = b sukzessive durch
x
j
=
1
a
jj

_
b
j

j1

k=1
a
jk
x
k
_
f ur j = 1, . . . , n
bestimmen.
Um den Aufwand von derartigen Algorithmen in Abhangigkeit der Einga-
begroe n wiederzugeben, werden die wesentlichen Rechenoperationen
gezahlt. Zu den wesentlichen Rechenoperationen zahlen wir Addition, Sub-
traktion, Multiplikation, Division und Vergleiche, nicht aber Zuweisungen.
Bei der R uckwarts- bzw. Vorwartselimination benotigen wir n Divisionen,
1
2
n(n1) Multiplikationen und
1
2
n(n1) Subtraktionen und erhalten damit
n +n(n 1) = n
2
wesentliche Rechenoperationen. Um das asymptotische Verhalten f ur n
besser verdeutlichen zu konnen, kann das Landau-Symbol O verwendet
werden.
Kapitel 3 Lineare Gleichungssysteme 38
Denition 3.5. Seien (a
n
) und (b
n
) zwei reelle Folgen. Dann denieren wir
a
n
= O(b
n
), wenn es ein C > 0 und ein N N gibt mit
[a
n
[ C [b
n
[ f ur alle n N.
Wir bezeichnen daher den Aufwand der R uckwarts- bzw. Vorwartselimina-
tion mit O(n
2
).
Beispiel 3.1. Um das Landau-Symbol besser verstehen zu konnen, geben wir
einige Beispiele.
( 1 ) Ein Algorithmus mit
3n
3
+
1
2
n
2
3n
wesentlichen Rechenoperationen, besitzt den Aufwand O(n
3
).
( 2 ) Ein Algorithmus mit
_
n
2
_
+n
wesentlichen Rechenoperationen, besitzt den Aufwand O(
1
2
n
2
).
( 3 ) Ein Algorithmus mit
n! + 2
n
wesentlichen Rechenoperationen, besitzt den Aufwand O(n!).
Weiterhin sei bemerkt, dass es neben O auch noch weitere Landau-Symbole
wie O, und gibt. F ur unsere Betrachtungen beschranken wir uns aber
auf O.
Unser Ziel im folgenden ist es eine quadratische Matrix als Produkt von zwei
Dreiecksmatrizen zu schreiben, um dann durch R uckwarts- bzw. Vorwart-
selimination eine Losung des Gleichungssystems zu erhalten.
Denition 3.6. Eine Faktorisierung einer Matrix A K
nn
der Form
A = L U
mit einer regularen unteren Dreiecksmatrix L und einer regularen oberen
Dreiecksmatrix U heit LU-Zerlegung von A.
Ist eine LU-Zerlegung von A bekannt, so lasst sich die Losung des Glei-
chungssystems Ax = b durch das Losen von zwei Gleichungssystemen mit
Kapitel 3 Lineare Gleichungssysteme 39
Dreiecksmatrizen bestimmen. Durch Vorwartselimination losen wir zuerst
das Gleichungssystem
L z = b
und anschlieend durch R uckwartselimination
U x = z.
Die so erhaltene Losung x erf ullt dann
A x = L U x = L z = b
und ist somit eine Losung von Ax = b.
Bevor wir uns mit der Berechnung einer LU-Zerlegung beschaftigen, machen
wir noch eine theoretische Aussage zu Dreiecksmatrizen. Der Beweis sei dem
Leser als

Ubung uberlassen.
Satz 3.5. Die Folgende Mengen von Matrizen bilden eine Gruppe bez uglich
der Matrixmultiplikation als Verkn upfung.
( 1 ) Die Menge aller regularen oberen Dreiecksmatrizen.
( 2 ) Die Menge aller regularen unteren Dreiecksmatrizen.
( 3 ) Die Menge aller normierten oberen Dreiecksmatrizen.
( 4 ) Die Menge aller normierten unteren Dreiecksmatrizen.
Damit erhalten wir sofort das folgende Lemma.
Lemma 3.6. Hat eine regulare Matrix A eine LU-Zerlegung mit normierter
unterer Dreiecksmatrix L, so ist diese eindeutig.
Beweis. Da A regular ist, sind auch die Dreiecksmatrizen jeder LU-Zerlegung
regular. Seien nun L
1
U
1
= L
2
U
2
= A zwei LU-Zerlegung von A mit
normierten unteren Dreiecksmatrizen. Dann ist dies aquivalent zu
U
1
U
1
2
= L
1
1
L
2
.
Nach Satz 3.5 steht links eine obere und rechts eine normierte untere Drei-
ecksmatrix. Um Gleichheit zu gewahren, muss also
U
1
U
1
2
= I = L
1
1
L
2
gelten und dementsprechend folgt L
1
= L
2
und U
1
= U
2
.
Kapitel 3 Lineare Gleichungssysteme 40
Mit dieser Eindeutigkeitsaussage kommen wir nun zur Berechnung einer LU-
Zerlegung. Die Idee des im folgenden diskutierte Gau-Verfahren besteht
darin die gegeben Matrix A durch elementare Zeilenoperationen in eine Ma-
trix in Dreiecksform zu transformieren.
Denition 3.7. F ur einen Vektor
l
(k)
T
= (0, . . . , 0, t
k+1
, . . . , t
n
) K
n
mit 1 k n und dem k-ten Einheitsvektor e
k
K
n
denieren wir die
Gau-Matrix M
k
durch
M
k
:= I
n
l
(k)
e
T
k
=
_
_
_
_
_
_
_
_
_
_
_
_
1
1
.
.
.
1
t
k+1
1
.
.
.
.
.
.
t
n
1
_
_
_
_
_
_
_
_
_
_
_
_
.
Wir sammeln zunachst einige Eigenschaften der Gau-Matrizen.
Lemma 3.7. F ur die Gau-Matrizen M
k
gilt
det(M
k
) = 1 und M
1
k
= I
n
+l
(k)
e
T
k
.
Beweis. Da Gau-Matrizen normierte untere Dreiecksmatrizen sind, ist die
Aussage det(M
k
) = 1 trivial. Den zweiten Teil rechnen wir leicht nach:
M
k
M
1
k
= (I
n
l
(k)
e
T
k
) (I
n
+l
(k)
e
T
k
)
= I
n
+l
(k)
e
T
k
l
(k)
e
T
k
l
(k)
e
T
k
l
(k)
e
T
k
= I
n
,
wobei im letzten Schritt ausgenutzt wurde, dass e
T
k
l
(k)
= 0 gilt.
Multiplizieren wir eine Gau-Matrix M
k
von links mit einer Matrix A, so
erhalten wir als Ergebnis eine Matrix A
t
, die aus A entsteht, indem man
das t
j
-te Vielfache der k-ten Zeile a
k
von A von der j-ten Zeile abzieht. In
Kapitel 3 Lineare Gleichungssysteme 41
Formeln liefert dies
M
k
A =
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
k
a
k+1
t
k+1
a
k
.
.
.
a
n
t
n
a
k
_
_
_
_
_
_
_
_
_
_
.
Man nennt diese Operation auch die Anwendung elementarer Zeilen-
operationen. Lemma 3.7 besagt dabei, dass die Anwendung von elementa-
ren Zeilenoperationen die Determinante der Matrix nicht verandert.
Setzen wir f ur einen Vektor c = (c
1
, . . . , c
n
) K
n
und ein k 1, . . . , n mit
c
k
,= 0
l
(k)
=
_
0, . . . , 0,
c
k+1
c
k
, . . . ,
c
n
c
k
_
,
so erhalten wir
M
k
c = (c
1
, c
2
, . . . , c
k
, 0, . . . , 0). (3.1)
Genau das wird im Gau-Verfahren zur Transformation einer Matrix auf
Dreiecksform ausgenutzt, siehe Algorithmus 3.1.
Input: Matrix A K
nn
.
A
(1)
:= A;
for k = 1, . . . , n 1 do
l
(k)
:=
_
_
0, . . . , 0,
a
(k)
k+1,k
a
(k)
kk
, . . . ,
a
(k)
n,k
a
(k)
kk
_
_
;
M
k
:= I
n
l
(k)
e
T
k
;
A
(k+1)
:= M
k
A
(k)
;
end for.
Output: LU-Zerlegung von A mit U = A
(n)
und L = M
1
1
. . . M
1
n1
.
Algorithmus 3.1: Gau-Verfahren ohne Spaltenpivotisierung.
Beispiel 3.2. In diesem Beispiel wollen wir die LU-Zerlegung der Matriz
A =
_
_
2 1 3
2 0 2
4 4 10
_
_
Kapitel 3 Lineare Gleichungssysteme 42
in der Matrixversion vorf uhren. Dazu multiplizieren wir die Matrix A mit
der Matrix M
1
, sodass wir im Produkt in der ersten Spalte von A die 2
und 4 eliminieren konnen:
M
1
A =
_
_
1 0 0
1 1 0
2 0 1
_
_

_
_
2 1 3
2 0 2
4 4 10
_
_
=
_
_
2 1 3
0 1 1
0 2 4
_
_
= A
(1)
.
Nun multiplizieren wir A
(1)
analog mit M
2
, um eine obere Dreiecksmatrix
A
(2)
zu erhalten:
M
2
A
(1)
=
_
_
1 0 0
0 1 0
0 2 1
_
_

_
_
2 1 3
0 1 1
0 2 4
_
_
=
_
_
2 1 3
0 1 1
0 0 2
_
_
= A
(2)
.
Damit erhalten wir direkt
U = A
(2)
=
_
_
2 1 3
0 1 1
0 0 2
_
_
und auch dir normierte Matrix L = (l
ij
) konnen wir durch

Andern der
Vorzeichen f ur i > j direkt aus M
1
und M
2
ablesen:
L =
_
_
1 0 0
1 1 0
2 2 1
_
_
.
Wir wollen nun zeigen, dass Algorithmus 3.1 tatsachlich eine LU-Zerlegung
von A liefert. Zudem wollen wir uns mit der Durchf uhrbarkeit des Verfahren
beschaftigen. Dazu die folgende Denition.
Denition 3.8. Sei A = (a
ij
) K
nn
eine quadratische (n n)-Matrix.
Dann bezeichnen wir mit
A
[k]
=
_
_
_
a
11
. . . a
1k
.
.
.
.
.
.
a
k1
. . . a
kk
_
_
_
(3.2)
f ur k = 1, . . . , n den k-ten Hauptminor von A.
Satz 3.8. Sei A K
nn
mit det(A
[k]
) ,= 0 f ur k = 1, . . . , n 1. Dann ist
Algorithmus 3.1 durchf uhrbar und es gilt:
( 1 ) a
(k)
kk
,= 0 f ur alle k = 1, . . . , n 1.
Kapitel 3 Lineare Gleichungssysteme 43
( 2 ) U ist eine obere Dreiecksmatrix.
( 3 ) L ist eine untere Dreiecksmatrix.
( 4 ) A = L U.
Beweis. Zunachst zeigen wir die ersten beiden Aussagen. Nach der Wahl der
Vektoren l
(k)
und nach Gleichung (3.1) folgt iterativ
_
_
_
a
(k)
11
. . . a
(k)
1k
.
.
.
.
.
.
a
(k)
k1
. . . a
(k)
kk
_
_
_
=
_
_
_
_
_
_
a
(k)
11
a
(k)
12
. . . a
(k)
1k
0 a
(k)
22
. . . a
(k)
2k
.
.
. 0
.
.
.
.
.
.
0 . . . 0 a
(k)
kk
_
_
_
_
_
_
und damit ist bereits ( 2 ) gezeigt. Weiter wissen wir nach Lemma 3.7, dass
det(A
(k)
) = det(M
k1
A
(k1)
) = det(M
k1
) det(A
(k1)
)
= det(A
(k1)
) = . . . = det(A).
gilt. Wenden wir die elementaren Zeilenoperationen ausschlielich auf Sub-
matrizen der Form (3.2) an, gilt diese Gleichung weiterhin und wir erhalten
det
_
_
_
a
11
. . . a
1k
.
.
.
.
.
.
a
k1
. . . a
kk
_
_
_
= det
_
_
_
a
(k)
11
. . . a
(k)
1k
.
.
.
.
.
.
a
(k)
k1
. . . a
(k)
kk
_
_
_
.
Nach Voraussetzung folgt schlielich
0 ,= det
_
_
_
a
11
. . . a
1k
.
.
.
.
.
.
a
k1
. . . a
kk
_
_
_
= det
_
_
_
_
_
_
a
(k)
11
a
(k)
12
. . . a
(k)
1k
0 a
(k)
22
. . . a
(k)
2k
.
.
. 0
.
.
.
.
.
.
0 . . . 0 a
(k)
kk
_
_
_
_
_
_
= a
(k)
11
a
(k)
22
. . . a
(k)
kk
,
also insbesondere a
(k)
kk
,= 0. Damit ist auch ( 1 ) gezeigt.
Die Matrix L ist deniert als Produkt der M
1
k
. Da die M
k
alle untere Drei-
ecksmatrizen sind, sind nach Satz 3.5 auch ihre Inversen Dreiecksmatrizen,
ebenso die Produkte ihrer Inversen, also auch L und damit ist ( 3 ) bewiesen.
Algorithmus 3.1 liefert uns
U = A
(n)
= M
n1
A
(n1)
= M
n1
M
n2
. . . M
1
A.
Kapitel 3 Lineare Gleichungssysteme 44
Wegen L = M
1
1
. . . M
1
n1
gilt weiter
L
1
= M
n1
. . . M
1
,
also U = L
1
A und damit folgt ( 4 ).
Lemma 3.9. Ist Algorithmus 3.1 durchf uhrbar, so gilt
L = I +
n1

k=1
l
(k)
e
T
k
.
Beweis. Nach Denition von L und Lemma 3.7 folgt
L = M
1
1
. . . M
1
n1
= (I +l
(1)
e
T
1
) . . . (I +l
(n1)
e
T
n1
).
Zu zeigen bleibt damit, dass f ur alle m = 1, . . . , n 1
I +
m

k=1
l
(k)
e
T
k
= (I +l
(1)
e
T
1
) . . . (I +l
(m)
e
T
m
).
gilt. F ur m = 1 ist die Behauptung klar. Weiter gelte die Behauptung f ur
m1. Dann erhalten wir
(I +l
(1)
e
T
1
) . . . (I +l
(m)
e
T
m
)
=
_
I +
m1

k=1
l
(k)
e
T
k
_
(I +l
(m)
e
T
m
)
= I +l
(m)
e
T
m
+
m1

k=1
l
(k)
e
T
k
+
m1

k=1
l
(k)
e
T
k
l
(m)
. .
=0
e
T
m
= I +
m

k=1
l
(k)
e
T
k
,
womit der Induktionsschritt bewiesen ist.
Diese Beobachtung hilft uns, das Gau-Verfahren ezient zu organisieren.
Wir speichern die Vektoren l
(1)
bis l
(n1)
uber die erzeugten Nullen im un-
teren Teil der Matrix A, wahrend der obere Teil die Matrix U enthalt. Dann
konnen wir spater die Matrix L einfach ablesen.
Bei dieser Grundversion des Gau-Verfahrens treten oft zwei Probleme auf.
Kapitel 3 Lineare Gleichungssysteme 45
( 1 ) Das Verfahren ist nicht f ur alle regularen Matrizen durchf uhrbar. Es
scheitert zum Beispiel schon an einer einfachen Matrix wie
_
0 1
1 1
_
.
( 2 ) Bei kleinen, aber von Null verschiedenen Elementen a
(k)
kk
konnen groe
Rundungsfehler auftreten.
Erfreulicherweise lassen sich die beiden aufgef uhrten Schwierigkeiten durch
das nun zu beschreibende Verfahren der Pivotisierung vermeiden. Im ein-
fachsten Fall der Spaltenpivotisierung vertauschen wir wahrend des k-ten
Schritts des Gau-Verfahrens die k-te Zeile mit einer darunterliegenden Zei-
le, und zwar mit der, die den betragsmaig groten Eintrag in der k-ten
Spalte aufweist. Das Ziel dabei ist, dass nach der Vertauschung das neue
Element a
(k)
kk
so gro wie moglich wird.
Formal wahlt man im k-ten Schritt ein j k, k + 1, . . . , n, sodass
[a
(k)
jk
[ [a
(k)
lk
[ f ur alle l = k, . . . , n.
In diesem Fall nennt man a
(k)
jk
das Pivotelement. Zur formalen Beschrei-
bung dieser Vertauschungen benotigen wir Permutationsmatrizen.
Denition 3.9. Eine bijektive Abbildung : 1, . . . , n 1, . . . , n heit
Permutation der Menge 1, . . . , n.
Eine (n n)-Matrix P heit Permutationsmatrix, falls es eine Permuta-
tion gibt mit
P e
i
= e
(i)
f ur alle i = 1, . . . , n.
P entsteht also durch Permutation der Spalten der Einheitsmatrix. Wir
stellen ohne Beweis einige Eigenschaften zusammen.
Satz 3.10. P sei eine Permutationsmatrix zur Permutation . Dann gilt:
( 1 ) P ist invertierbar.
( 2 ) P
1
ist die Permutationsmatrix zur Permutation
1
.
( 3 ) P ist orthogonal, es gilt also P
1
= P
T
.
Kapitel 3 Lineare Gleichungssysteme 46
Um das Gau-Verfahren zu verbessern, benotigen wir spezielle Permutatio-
nen , namlich solche, die genau zwei Elemente r und s vertauschen, also
(r) = s,
(s) = r,
(i) = i f ur alle i 1, . . . , n r, s.
Entsprechend erhalten wir die Permutationsmatrix
P
rs
= (e
1
, . . . , e
r1
, e
s
, e
r+1
, . . . , e
s1
, e
r
, e
s+1
, . . . , e
n
).
Wir halten fest: Die Matrixmultiplikation P
rs
A vertauscht die r-te mit der
s-ten Zeile von A.
Das Gau-Verfahren mit Spaltenpivotisierung liefert schlielich das folgende
Ergebnis.
Satz 3.11. Sei A K
nn
eine regular Matrix. Dann ist das Gau-Verfahren
mit Spaltenpivotisierung durchf uhrbar und wir erhalten eine Zerlegung der
Form
P A = L U,
wobei P Permutationsmatrizen, L eine normierte untere Dreiecksmatrix L
und U eine obere Dreiecksmatrix ist.
Der Beweis hierzu kann in Hanke-Bourgeois (2006) gefunden werden.
Abschlieend sei noch bemerkt, dass zur ezienten Implementierung ein
Gau-Verfahren gewahlt werden sollte, welches ohne Matrixmultiplikatio-
nen auskommt. Der Rechenaufwand eines derartigen Verfahrens ist von der
Groenordnung O(
1
3
n
3
).
3.3 Kondition von Gleichungssystemen
In der numerischen Mathematik heit ein Verfahren stabil , wenn es ge-
gen uber kleinen Storungen der Daten unempndlich ist. Insbesondere bedeu-
tet dies, dass sich Rundungsfehler nicht zu stark auf die Berechnung auswir-
ken, siehe Beispiel 1.2. Die Kondition eines Problems ist hingegen der im
ung unstigsten Fall auftretende Vergroerungsfaktor f ur den Einu von re-
lativen Eingangsfehlern auf relative Ergebnisfehler. Die Beziehung zwischen
Kondition eines Problems und Stabilitat lasst sich wie folgt beschreiben.
Kapitel 3 Lineare Gleichungssysteme 47
Es sei f(y) das mathematische Problem in Abhangigkeit einer Eingangs-
groe y und es sei

f der numerische Algorithmus, sowie y die gestorten
Eingangsdaten. Wir interessieren uns f ur den absoluten Fehler
[

f( y) f(y)[.
Mit der Dreiecksungleichung gilt folgt
[

f( y) f(y)[ = [

f( y) f( y) +f( y) f(y)[
[

f( y) f( y)[ +[f( y) f(y)[.


Hierbei sagt der erste Fehlerterm aus, wie gut sich das Verfahren

f im Ver-
gleich mit der exakten Losung f des Problems bei gestorten Eingangsdaten
y verhalt. Dieser Term ist klein, wenn das Verfahren stabil ist. Der zweite
Term hangt dagegen nicht von dem Verfahren ab, sondern ausschlielich von
dem Problem. Er ist klein, wenn das Problem gut konditioniert ist. Die
Stabilitat ist also eine Eigenschaft des Algorithmus und die Kondition eine
Eigenschaft des Problems.
In diesen Abschnitt untersuchen wir nun die Kondition bei der Losung eines
linearen Gleichungssystems Ax = b. Dazu m ussen wir lediglich die Kondition
einer Matrix denieren.
Denition 3.10. Sei A eine regulare Matirx und | | eine Matrixnorm.
Dann heit
cond(A) := |A| |A
1
|
die Kondition von A.
Zunachst halten wir fest, dass stets
1 = |I| = |A A
1
| |A| |A
1
| = cond(A)
gilt. Nach Satz 2.8 erhalten wir
cond
2
(A) =

max

min
,
wobei
max
und
min
die Betrage der betragsgroten und betragskleinsten
Eigenwerte von A sind. Weiter soll der Index verdeutlichen, dass wir die
Spektralnorm verwenden.
Folgendes Storungslemma gibt Auskunft uber die Losbarkeit eines gestor-
ten Gleichungssystems:
Kapitel 3 Lineare Gleichungssysteme 48
Lemma 3.12. Sei A K
nn
eine regulare Matrix und es gelte f ur eine belie-
bige einer Vektornorm zugeordneten Matrixnorm die Ungleichung |A| < 1.
Dann ist die Matrix I A regular, und es gilt
|(I A)
1
|
1
1 |A|
.
Beweis. F ur alle x K
n
mit x ,= 0 gilt wegen der umgekehrten Dreiecksun-
gleichung
|(I A)x| |x| |Ax| |x| |A||x| = (1 |A|)|x| 0.
Damit ist (I A)x = 0 nur f ur x = 0 moglich und die Matrix I A ist
invertierbar. Weiter gilt
1 = |(I A)
1
(I A)| |(I A)
1
| |(I A)
1
||A|
= (1 |A|)|(I A)
1
|
und daraus die Behauptung.
Mit diesem Lemma konnen wir nun den Fehler abschatzen, den wir beim
Losen eines zum Beispiel durch Rundungsfehler gestorten Gleichungssystems
machen.
Satz 3.13. Sei A K
nn
eine regulare Matrix und b K
n
0. Weiter
sei x eine Losung Ax = b. Dann gilt f ur die fehlerbehaftet Losung x + x
des fehlerbehafteten Problems
(A+A) (x +x) = (b +b)
die Abschatzung
|x|
|x|

cond(A)
1 cond(A)
|A|
|A|

_
|A|
|A|
+
|b|
|b|
_
,
sofern |A
1
||A| < 1 gilt.
Beweis. Mit Hilfe des vorigen Lemmas ist die Matrix A+A = A(I+A
1
A)
invertierbar. Aus
(I +A
1
A) (x +x) = A
1
(b +b)
konnen wir somit
x +x = (I +A
1
A)
1
(x +A
1
b)
Kapitel 3 Lineare Gleichungssysteme 49
sowie
x = (I +A
1
A)
1
A
1
(b Ax)
eliminieren. Damit erhalten wir
|x| |(I +A
1
A)
1
| |A
1
| (|b| +|A| |x|)
und es folgt
|x|
|x|
|(I +A
1
A)
1
| cond(A)
_
|b|
|A| |x|
+
|A|
|A|
_
.
Unter Beachtung von |A| |x| |b| und
|(I +A
1
A)
1
|
1
1 cond(A)
|A|
|A|
folgt schlielich die Behauptung.
Eine kleine Kondition heit also, dass das zugehorige lineare Gleichungssys-
tem gut konditioniert ist. Eine groe Kondition bedeutet, dass das zugehori-
ge lineare Gleichungssystem schlecht konditioniert ist.
Spater wird das folgende Lemma uber unitare Matrizen noch wichtig werden.
Lemma 3.14. Sei Q K
nn
unitare und A K
nn
regular. Dann gilt
cond
2
(Q) = 1 sowie cond
2
(QA) = cond
2
(A) = cond
2
(AQ).
Die Multiplikation von A mit einer unitaren Matrix Q hat also keine Aus-
wirkung auf die Kondition von A.
3.4 QR-Zerlegung
In diesen Abschnitt beschaftigen wir uns nun mit einem weiteren Eliminati-
onsverfahren. Diese Faktorisierung f uhrt meistens zu Matrizen mit kleinerer
Kondition als bei der LU-Zerlegung und ist daher weniger anfallig f ur Run-
dungsfehler.
Denition 3.11. Eine Faktorisierung einer Matrix A K
mn
der Form
A = Q R
mit einer unitaren Matrix Q K
mm
und einer oberen Dreiecksmatrix
R K
mn
heit QR-Zerlegung von A.
Kapitel 3 Lineare Gleichungssysteme 50
Es sei bemerkt, dass die Matrix A nicht quadratisch sein muss.
Satz 3.15. Sei A K
nn
regular. Dann gibt es eine QR-Zerlegung von A.
Beweis. Der Beweis erfolgt mit dem Schmidtschen-Orthonormalisierungs-
verfahren. Da A regular ist, sind die Spalenvektoren a
1
, . . . , a
n
linear un-
abhangig und konnen orthonormalisiert werden:
q
1
=
1
|a
1
|
a
1
,
q
2
=
1
|a
2
a

2
q
1
q
1
|
(a
2
a

2
q
1
q
1
) ,
.
.
.
q
n
=
1
| . . . |
_
_
a
n

n1

j=1
a

n
q
j
q
j
_
_
.
Die Matrix Q mit den Spalen q
1
, . . . , q
n
ist unitar und es gilt Q = A R mit
einer oben Dreiecksmatrix R. Da auch R
1
eine obere Dreiecksmatrix ist
folgt die Behauptung.
Bemerkung 3.1. Wenn eine QR-Zerlegung von A bekannt ist, so kann wegen
Q
1
= Q

das Gleichungssystem Ax = b sehr einfach durch R uckwartelimi-


nation von Rx = Q

b gelost werden.
Mit dem Schmidtsche Orthogonalisierungsverfahren haben wir theoretisch
bereits ein Verfahren zur Bestimmung einer QR-Zerlegung gefunden. Da
dieses jedoch empndlich gegen uber dem Einu von Rundungsfehlern ist,
nutzen wir Householder Matrizen.
Denition 3.12. Eine Matrix H K
nn
der Form
H = I
2
v

v
vv

mit einem von 0 verschiedenen Vektor v heit Householder-Matrix.


Satz 3.16. Householder-Matrizen H sind unitar und erf ullen H = H

.
Beweis. Beide Behauptungen konnen leicht nachgerechnet werden. Wir er-
halten mit normiertem v
H

= I

2(vv

= I 2vv

= H
Kapitel 3 Lineare Gleichungssysteme 51
sowie
H H

= (I 2vv

) (I 2vv

) = I 4vv

+ 4vv

vv

= I
wobei wir v

v = 1 genutzt haben.
Es sei bemerkt, dass eine Householder-Matrix einer Spiegelung an der Ebene
durch den Koordinatenursprung senkrecht zu v entspricht.
Wir mochten Householder-Matrizen ahnlich wie Gau-Matrizen verwenden.
Dazu m ussen wir uns uberlegen, ob es zu einem gegebenen Vektor x
K
n
0 einen Vektor v K
n
0 gibt, so dass Hx = e
1
mit einer Zahl
K, d.h.
x v
2v

x
v

v
= e
1
.
Hinreichend hierf ur sind die Gleichungen
2v

x
v

v
= 1 und v = x +ce
1
mit c R.
Die erste Gleichung lasst sich umformen zu
v

(2x v) = 0.
Einsetzen der zweiten Gleichung in diese Gleichung liefert dann
v

(2x v) = (x +ce
1
)

(x ce
1
) = |x|
2
2
c
2
= 0,
d.h. c = |x|
2
. Um Ausloschung zu vermeiden entscheiden wir uns f ur
c = sign(x
1
)|x|
2
. Zudem wird so garantiert, dass v ,= 0 gilt.
Lemma 3.17. Ist x K
n
0 und setzt man v := x + sign(x
1
)|x|
2
e
1
und
H := I
2
v

v
vv

, so gilt
Hx = sign(x
1
)|x|
2
e
1
.
Wir werden dieses Lemma nun iterativ auf die Spaltenvektoren a
1
, . . . , a
n
der Matrix A anwenden. Nach der Transformation des ersten Spaltenvektors
a
1
erhalten wir eine Matrix der Form
H
(1)
A =
_
_
_
_
_
_
_
_
_
sign(a
1
)|a|
2

0 (n 1) (n 1)
_
_
_
_
_
_
_
_
_
.
Kapitel 3 Lineare Gleichungssysteme 52
Die beschriebene Elimination wird auf die verbleibende (n 1) (n 1)-
Matrix angewandt. Das fehlende obere Diagonalelement wird dabei auf 1
erganzt, um wieder eine n-dimensionale Householder-Matrix H
(2)
zu erhal-
ten. Fortgesetztes Eliminieren ergibt nach n 1 Schritten
R = H
(n1)
. . . H
(1)
A
und weiterhin
Q = (H
(n1)
. . . H
(1)
)

= H
(1)
. . . H
(n1)
und damit die gesuchte QR-Zerlegung.
Input: Matrix A K
nn
.
A
(0)
:= A;
for k = 1, . . . , n 1 do
d := a
(k1)
k,k
+ sign(a
(k1)
k,k
)
n

i=k

a
(k1)
i,k

2
v
(k)
:= (0, . . . , 0
. .
k1 mal
, d, a
(k1)
k+1,k
, . . . , a
(k1)
n,k
)
T
H
(k)
:= I
n

2
_
v
(k)
_

v
(k)
v
(k)
_
v
(k)
_

A
(k)
:= H
(k)
A
(k1)
end for.
Output: A = QR mit R = A
(n)
und Q = H
(1)
. . . H
(n1)
.
Algorithmus 3.2: QR-Zerlegung nach Householder
Die Elimination mittels unitarer Householder-Matrizen ist im allgemeinen
etwas weniger empndlich gegen Rundungsfehlern als die LU-Zerlegung mit
dem Gau-Verfahren.
Allerdings ist der Rechenaufwand von der Groenordnung O(
2
3
n
3
) und damit
doppelt so gro wie beim Gau-Algorithmus.
3.5 Cholesky-Verfahren
Wir betrachten auch in diesem Abschnitt Gleichungssysteme Ax = b, al-
lerdings nehmen wir nun an, dass A eine hermitesche und positiv denite
Matrix ist. Dazu fassen wir zunachst einige Eigenschaften zusammen.
Kapitel 3 Lineare Gleichungssysteme 53
Lemma 3.18. Sei A K
nn
eine hermitesche Matrix. Dann gilt:
( 1 ) A ist genau dann positiv denit, wenn alle ihre Eigenwerte echt positiv
sind.
( 2 ) A ist genau dann positiv semi-denit, wenn alle ihre Eigenwerte groer
oder gleich Null sind.
( 3 ) A ist genau dann positiv denit, wenn ihre Hauptminoren positiv sind,
d.h. det(A
[k]
) > 0 f ur alle k = 1, . . . , n.
Insbesondere sind damit positiv denite Matrizen regular.
Denition 3.13. Eine Faktorisierung einer hermiteschen Matrix A K
nn
der Form
A = L D L

mit einer normierten unteren Dreiecksmatrix L und einer Diagonalmatrix


D heit LDL-Zerlegung von A .
Satz 3.19. Sei A K
nn
eine positiv denite hermitesche Matrix. Dann
existiert eine eindeutig bestimmte LDL-Zerlegung von A.
Beweis. Da A positiv denit ist und damit det(A
[k]
) ,= 0 gilt f ur k = 1, . . . , n,
kann nach Satz 3.8 eine LU-Zerlegung mit normierter unterer Dreiecksmatrix
L ohne Spaltenpivotisierung bestimmt werden. Da A weiterhin regular ist,
ist diese Zerlegung sogar eindeutig.
Sei daher A = L U eine LU-Zerlegung von A mit normierter unterer Drei-
ecksmatrix L und oberer Dreiecksmatrix U.
Nun setzen wir
D = diag(u
11
, . . . , u
nn
)
als die Diagonalmatrix mit den Eintragen aus der Hauptdiagonalen von U.
Da U regular ist, ist auch D regular, sodass wir

U := D
1
U
denieren konnen und es gilt
L D

U = L U = A.
Wir wollen nun zeigen, dass

U = L

gilt. Dazu betrachten wir


A = A

= (L D

U)

=

U

=

U

(D

). (3.3)
Kapitel 3 Lineare Gleichungssysteme 54

U ist nach Konstruktion eine normierte obere Dreiecksmatrix, also ist



U

eine normierte untere Dreiecksmatrix. Weiter ist D

eine obere Drei-


ecksmatrix, also haben wir auch mit Gleichung (3.3) eine LU-Zerlegung von
A mit normierter unterer Dreiecksmatrix.
Wegen der Eindeutigkeit der LU-Zerlegung von A folgt damit L =

U

und
damit haben wir die LDL-Zerlegung von A gefunden. Es bleibt zu zeigen,
dass die gefundene LDL-Zerlegung eindeutig ist.
Sei daher A = L
t
D
t
(L
t
)

eine weitere LDL-Zerlegung von A mit normierter


unterer Dreiecksmatrix L. Dann konnen wir wiederum
A = L
t
(D
t
(L
t
)

)
als LU-Zerlegung auassen und die Eindeutigkeit der LU-Zerlegung liefert
L
t
= L und D
t
(L
t
)

= D L

.
Durch die Invertierbarkeit von L = L
t
folgt auch D
t
= D.
Der Beweis des Satzes zeigt damit auch, wie die LDL-Zerlegung einer her-
miteschen und positiv deniten Matrix A aus der LU-Zerlegung ohne Pi-
votisierung bestimmt werden kann. Damit kommen kommen wir nun zur
Cholesky-Zerlegung.
Denition 3.14. Eine Faktorisierung einer hermiteschen Matrix A K
nn
der Form
A = L L

mit einer unteren Dreiecksmatrix L heit Cholesky-Zerlegung von A .


Satz 3.20. Sei A K
nn
eine positiv denite hermitesche Matrix. Dann
existiert eine Cholesky-Zerlegung von A mit positiven Diagonalelementen
von L. Unter dieser Nebenbedingung ist L eindeutig bestimmt.
Beweis. Nach Satz 3.19 gibt es eine eindeutig bestimmt LDL-Zerlegung
A = L D L

.
Weiterhin bezeichnen wir im folgenden mit A
[k]
und D
[k]
die Hauptminoren
von A und D. Weil L eine untere Dreiecksmatrix ist, gilt
A
[k]
= L
[k]
D
[k]
(L
[k]
)

und insbesondere det(A


[k]
) = det(D
[k]
). Wegen der positiven Denitheit von
A gilt det(A
[k]
) > 0 und zusammen erhalten wir
d
11
. . . d
kk
= det(D
[k]
) = det(A
[k]
) > 0.
Kapitel 3 Lineare Gleichungssysteme 55
Diese Aussage gilt f ur alle k, also sind die Diagonalelemente von D positiv.
Jetzt setzen wir

L = L diag(
_
d
11
, . . . ,
_
d
nn
)
und erhalten aus der normierten unteren Dreiecksmatrix L eine untere Drei-
ecksmatrix

L mit positiven Diagonalelementen, f ur die

L

L

= L diag(
_
d
11
, . . . ,
_
d
nn
) diag(
_
d
11
, . . . ,
_
d
nn
) L

= L D L

= A
gilt. Damit haben wir die Cholesky-Zerlegung gefunden.
Um die Eindeutigkeit zu zeigen, sei neben A =

L

L

auch A =

L
t
(

L
t
)

eine Cholesky-Zerlegung mit Diagonalelementen

1
,
2
, . . . ,
n
> 0.
Mit D
t
:= diag(
2
1
, . . . ,
2
n
) und
L
t
:=

L
t
diag
_
1

1
, . . . ,
1

n
_
erhalten wir
A = L
t
D
t
(L
t
)

,
also eine weitere LDL-Zerlegung von A mit normierter unterer Dreiecksma-
trix L
t
. Aus der Eindeutigkeit der LDL-Zerlegung folgt L = L
t
und D = D
t
.
Letzteres bedeutet d
ii
=
2
i
f ur i = 1, . . . , n und wegen der Positivitat der

i
und d
ii
also

i
=
_
d
ii
f ur alle i = 1, . . . , n.
Zusammen ergibt sich

L
t
= L
t
diag(
1
, . . . ,
n
) = L diag(
_
d
11
, . . . ,
_
d
nn
) =

L
und genau dies war noch zu zeigen.
Nachdem Existenz und Eindeutigkeit einer Cholesky-Zerlegung nachgewie-
sen ist, wollen wir nun noch einen ezienten Algorithmus herleiten. Dazu
nutzen wir die Dreicksstruktur von L um aus A = LL

folgende Gleichungen
abzuleiten:
a
kk
=
n

j=0
l
kj
l
kj
=
k

j=0
[l
kj
[
2
, k = 1, . . . , n, (3.4)
a
ik
=
n

j=0
l
ij
l
kj
=
k

j=0
l
ij
l
kj
, k = 1, . . . , n, i = k + 1, . . . , n. (3.5)
Kapitel 3 Lineare Gleichungssysteme 56
Daraus konnen nun iterativ die Eintrage l
ik
von L bestimmt werden und wir
erhalten folgenden Algorithmus:
Input: A K
nn
hermitesch und positiv denit
for k = 1, . . . , n do
A(k, k) =
_
A(k, k)

k1
j=1
[A(k, j)[
2
for i = k + 1, . . . , n do
A(i, k) =
1
A(k,k)
_
A(i, k)

k1
j=1
A(i, j)A(k, j)
_
end for.
end for.
Output: Cholesky-Zerlegung von A = LL

mit L in der unte-


ren Halfte von A abgespeichert.
Algorithmus 3.3: Cholesky-Zerlegung
3.6 Gleichungssysteme mit Tridiagonalmatrizen
In diesen Abschnitt wollen wir noch die LU-Zerlegung von Tridiagonalmatri-
zen diskutieren, welche zum Beispiel bei der Methode der niten Dierenzen
zur Losung von Randwertproblemen gewohnlicher Dierentialgleichungen
auftreten.
Wir untersuchen also Matrizen A K
nn
mit
A =
_
_
_
_
_
_
_
_
a
1
d
1
c
1
a
2
d
2
c
2
.
.
.
.
.
.
.
.
.
.
.
.
d
n1
c
n1
a
n
_
_
_
_
_
_
_
_
und nehmen an, dass eine LU-Zerlegung von A ohne Spaltenpivotisierung
existiert. Dann erhalten wir eine Zerlegung der Form
_
_
_
_
_
_
_
_
a
1
d
1
c
1
a
2
d
2
c
2
.
.
.
.
.
.
.
.
.
.
.
.
d
n1
c
n1
a
n
_
_
_
_
_
_
_
_
(3.6)
Kapitel 3 Lineare Gleichungssysteme 57
=
_
_
_
_
_
_
_
_
1
l
1
1
l
2
.
.
.
.
.
.
.
.
.
l
n1
1
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
m
1
r
1
m
2
r
2
.
.
.
.
.
.
.
.
.
r
n1
m
n
_
_
_
_
_
_
_
_
, (3.7)
wobei wir alle Unbekannten durch Koezientenvergleich iterativ berechnen
konnen. Es ergibt sich sofort
m
1
= a
1
,
r
1
= d
1
,
l
1
m
1
= c
1
,
l
1
r
1
+m
2
= a
2
,
r
2
= d
2
und so weiter. Damit ist die G ultigkeit von Algorithmus 3.4 leicht einzuse-
hen.
Input: Tridiagonalmatrix A K
nn
wie in Gleichung (3.6).
m
1
:= a
1
;
for k = 1, . . . , n 1 do
r
k
:= d
k
;
l
k
:= c
k
/m
k
;
m
k+1
:= a
k+1
l
k
r
k
;
end for.
Output: LU-Zerlegung von A wie in Gleichung (3.7).
Algorithmus 3.4: LU-Zerlegung f ur Tridiagonalmatrizen.
In jeden Schritt des Algorithmus haben wir nur 3 wesentliche Rechenopera-
tionen. Da wir genau (n1) Schritte durchlaufen m ussen, sind in Algorith-
mus 3.4 3(n1) wesentlich Rechenoperationen durchzuf uhren. Wir erhalten
also einen Aufwand von O(n), also einen auerst g unstigen Fall.
Zudem lasst sich auch die R uckwarts- bzw. Vorwartselimination mit der
berechneten LU-Zerlegung jeweils mit dem Aufwand O(n) durchf uhren, so-
dass wir Gleichungssysteme mit Tridiagonalmatrizen insgesamt mit einem
linearen Aufwand O(n) losen konnen, sofern eine LU-Zerlegung ohne Spal-
tenpivotisierung existiert.
Es sei noch bemerkt, dass sich auch Spaltenpivotisierungen bei Tridiagonal-
matrizen mit einem Aufwand von O(n) durchf uhren lassen. Darauf wollen
wir aber nicht weiter eingehen.
Kapitel 3 Lineare Gleichungssysteme 58
3.7 Iterative Verfahren f ur lineare Gleichungssysteme
In diesem Abschnitt untersuchen wir die Anwendung des Banachschen Fix-
punktsatzes zur Losung von linearen Gleichungssystemen Ax = b mit einer
Matrix A K
nn
und b K
b
.
Dazu zerlegen wir die Matrix A in zwei Teilmatrizen
A = M +N.
Ist M invertierbar, so konnen wir die Gleichunng Ax = b in die aquivalente
Fixpunktgleichung
x = M
1
Nx +M
1
b
umformen. Dies f uhrt auf die Fixpunktiteration
x
(k+1)
:= M
1
Nx
(k)
+M
1
b.
Zur Implementierung eines solchen Verfahrens sollte wiederum M
1
nicht
ausgerechnet werden, sondern im (k + 1)-ten Iterationsschritt das Glei-
chungssystem
Mx
(k+1)
= Nx
(k)
+b
gelost werden. Dabei konnen wir nur dann einen Ezienzgewinn erhoen,
wenn sich ein Gleichungssystem mit der Matrix M leichter losen lasst als
ein Gleichungssystem mit der Matrix A.
Zur theoretischen Analyse der Verfahren untersuchen wir zunachst an li-
neare Abbildungen
(x) = Bx z
mit B K
nn
und z K
b
. Weiter sei | | eine Norm auf K
n
mit der
zugeordneten Matrixnorm | | auf K
nn
. Damit gilt
|(x) (y)| = |B(x y)| |B| |x y|.
Nach dem Banachschen Fixpunktsatz konvergiert damit die Iteration
x
(k+1)
:= Bx
(k)
+z
bez uglich der Vektornorm | |, falls |B| < 1 gilt.
Da aber alle Normen auf dem K
n
aquivalent sind, m ussen wir nur eine Norm
| |

mit |B|

< 1 nden, sodass die Folge (x


(k)
) bez uglich jeder Norm
konvergiert.
Dazu geben wir ohne Beweis das folgende Ergebnis an, welches jede nat urli-
chen Matrixnormen von B durch den Spektralradius nach unten beschrankt.
Kapitel 3 Lineare Gleichungssysteme 59
Lemma 3.21. F ur jede nat urliche Matrixnorm | | auf K
nn
und jede Ma-
trix B K
nn
gilt
(B) |B|,
wobei (B) der Spektralradius von B ist. Umgekehrt gibt es zu jeder Matrix
B K
nn
und jedem > 0 eine nat urliche Matrixnorm | | auf K
nn
mit
|B| (B) +.
Mit diesen Ergebnis erhalten wir schlielich den f ur die folgenden Aussagen
wichtigen Satz.
Satz 3.22. Sei B K
nn
. Dann konvergiert die lineare Fixpunktiteration
x
(k+1)
= Bx
(k)
+z
genau dann f ur alle Startwerte x
(0)
K
n
und alle z K
n
, wenn der Spek-
tralradius von B die Ungleichung
(B) < 1
erf ullt.
Beweis. Falls (B) < 1 existiert nach dem vorigen Lemma eine nat uliche
Matrixnorm | |, so dass |B| < 1. Deshalb ist die Abbildung (x) =
Bx+z kontrahierend auf K
n
bez uglich der Norm| | mit Kontraktionsfaktor
|B|. Damit konvergiert Folge (x
(k)
) nach dem Banachschen Fixpunktsatz
bez uglich der Norm | |.
Da aber alle Normen auf K
n
aquivalent sind, konvergiert die Folge (x
(k)
)
auch bez uglich jeder anderen Vektornorm.
Ist (B) 1, so existiert ein Eigenwert von B mit [[ 1. Sei x ein
zugehoriger Eigenvektor. Dann ist die Iterationsfolge zum Startwert x
(0)
= x
mit der rechten Seite z = x gegeben durch
x
(k)
=
_
_
k

j=0

j
_
_
x,
wie man leicht durch Induktion nach k zeigt. Da aber [[ 1 gilt, ist diese
Folge nicht konvergent.
Damit besprechen wir nun die zwei einfachsten Verfahren zur iterativen
Losung von linearen Gleichungssystemen.
Kapitel 3 Lineare Gleichungssysteme 60
Sei dazu A = (a
ij
) K
nn
gegeben. Dann zerlegen wir A in
A = A
D
+A
L
+A
U
(3.8)
mit der unteren Diagonalmatrix
A
D
= diag(a
11
, . . . , a
nn
),
mit der untere Dreiecksmatrix
A
L
=
_
_
_
_
_
_
_
0
a
21
0
a
31
a
31
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n1
a
n,n1
0
_
_
_
_
_
_
_
und mit der oberen Dreiecksmatrix
A
U
=
_
_
_
_
_
_
_
0 a
12
a
1,n1
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
0 a
n2,n1
a
n2,n
0 a
n1,n
0
_
_
_
_
_
_
_
.
Wie oben erwahnt, sollte die Matrix M in einer Zerlegung der Form
A = M +N
leicht invertierbar sein. Die einfachste Wahl ist M = A
D
. Diese Wahl f uhrt
uns auf das Jacobi-Verfahren oder Gesamtschrittverfahren
x
(k+1)
= A
1
D
(A
L
+A
U
)x
(k)
+A
1
D
b. (3.9)
Um die Durchf urbarkeit dieses Verfahrens zu gewahrleisten, m ussen wir of-
fenbar annehmen, dass alle Diagonalelemente von A von 0 verschieden sind.
Wir wollen nun die Konvergenz des Jacobi-Verfahrens untersuchen und de-
nieren daher
B = A
1
D
(A
L
+A
U
).
Nach Satz 3.22 erhalten wir mit (B) < 1 ein theoretisches Ergebnis zur
Konvergenz des Verfahrens, allerdings ist der Spektralradius von B meist
schwer zu berechnen.
Stattdessen schatzen wir die Norm von B bez uglich der gebrauchlichsten
nat urlichen Matrixnormen ab. Mit
b
jl
=
a
jl
a
jj
f ur j ,= l
Kapitel 3 Lineare Gleichungssysteme 61
Input: Matrix A K
nn
und rechte Seite b K
n
.
Startvektor: x
(0)
for k = 1, . . . do
for l = 1, . . .,n do
x
(k)
l
=
1
a
ll
_
_
b
l

j,=l
a
lj
x
(k1)
j
_
_
end for
end for.
Output: Angenaherter Losungsvektor x = x
(k)
des Gleichungssystems
Ax = b.
Algorithmus 3.5: Jacobi-Verfahren.
und b
jj
= 0 sonst denieren wir
q

:= |B|

= max
j=1,...,n
n

l=1
l=j

a
jl
a
jj

,
q
1
:= |B|
1
= max
l=1,...,n
n

j=1
l=j

a
jl
a
jj

,
q
2
:= |B|
F
=

_
n

j,l=1
l,=j

a
jl
a
jj

2
.
Somit haben wir (B) minq
1
, q
2
, q

und durch Anwendung des Banach-


schen Fixpunktsatzes erhalten wir damit den folgenden Konvergenzsatz f ur
das Jacobi-Verfahren.
Satz 3.23. Gegeben sei eine Matrix A K
nn
. Mit den oben eingef uhrten
Bezeichnungen gelte q

< 1 f ur mindestens ein 1, 2, .


Dann konvergiert das Jacobi-Verfahren
x
(k+1)
= A
1
D
(A
L
+A
U
)x
(k)
+A
1
D
b
f ur jede rechte Seite b K
n
und jeden Startwert x
(0)
K
n
gegen die ein-
deutige Losung x des Gleichungssystems Ax = b. Ist dies der Fall, so gelten
die a-priori und a-posteriori Fehlerschranken
|x
(k)
x


q
k

1 q

|x
(1)
x
(0)
|

,
|x
(k)
x

1 q

|x
(k)
x
(k1)
|

Kapitel 3 Lineare Gleichungssysteme 62


f ur 1, 2, mit q

< 1.
Zunachst sei bemerkt, dass die Bedingungen q
1
< 1, q
2
< 1 und q

< 1
nicht aquivalent sind.
Zudem lasst sich die Bedinung q

< 1 umformulieren als


n

l=1
l=j
[a
jl
[ < [a
jj
[ f ur alle j = 1, . . . , n.
Dieses Kriterium wird als starkes Zeilensummenkriterium bezeichngen.
Analog ist die Bedingung q
1
< 1 aquivalent zu
n

j=1
j=l
[a
jl
[ < [a
ll
[ f ur alle l = 1, . . . , n.
Dieses Kriterium heit starkes Spaltensummenkriterium.
Da sich Gleichungssysteme mit unteren Dreiecksmatrizen ebensfalls sehr ef-
zient durch Vorwartssubstitution losen lassen, liegt neben M = A
D
auch
die Wahl M = A
D
+A
L
nahe. Das resultierende Verfahren
x
(k+1)
= (A
D
+A
L
)
1
A
U
x
(k)
+ (A
D
+A
L
)
1
b (3.10)
wird als Gau-Seidel-Verfahren oder Einzelschrittverfahren bezeich-
nen.
Wiederum m ussen alle Diagonalelemente von A von 0 verschieden sein, um
die Durchf uhrbarkeit dieses Verfahrens zu gewahrleisten.
Input: Matrix A K
nn
und rechte Seite b K
n
.
Startvektor: x
for k = 1, . . . do
for l = 1, . . .,n do
x
l
=
1
a
ll
_
_
b
l

j,=l
a
lj
x
j
_
_
end for
end for.
Output: Angenaherter Losungsvektor x = x des Gleichungssystems
Ax = b.
Algorithmus 3.6: Gau-Seidel-Verfahren.
Kapitel 3 Lineare Gleichungssysteme 63
Die Konvergenzuntersuchung ist diesmal ein wenig aufwendiger als beim
Jacobi-Verfahren.
Satz 3.24. Die Matrix A K
nn
erf ulle das Sassenfeld-Kriterium
p := max
j=1,...,n
p
j
< 1,
wobei die Zahlen p
j
rekursiv deniert sind durch
p
1
:=
n

l=2

a
1l
a
11

sowie durch
p
j
:=
j1

l=1

a
jl
a
jj

p
l
+
n

l=j+1

a
jl
a
jj

f ur j = 2, . . . , n.
Dann konvergiert die Gau-Seidel-Verfahren
x
(k+1)
= (A
D
+A
L
)
1
A
U
x
(k)
+ (A
D
+A
L
)
1
b
f ur jede rechte Seite b K
n
und jeden Startwert x
(0)
K
n
gegen die ein-
deutige Losung x des Gleichungssystems Ax = b. Ist dies der Fall, so gelten
die a-priori und a-posteriori Fehlerschranken
|x
(k)
x


p
k
1 p
|x
(1)
x
(0)
|

,
|x
(k)
x


p
1 p
|x
(k)
x
(k1)
|

.
Beweis. Die Aussage des Satzes folgt wieder aus dem Banachschen Fixpunkt-
satz, falls wir f ur die Iterationsmatrix die Abschatzung
|(A
D
+A
L
)
1
A
U
|

p
zeigen konnen. Dazu betrachten wir die Gleichung
(A
D
+A
L
)x = A
U
z
f ur ein x K
n
mit |x|

= 1. Komponentenweise lautet diese Gleichung


x
j
=
j1

l=1
a
jl
a
jj
x
l

j+1
a
jl
a
jj
z
l
f ur j = 1, . . . , n.
Durch Induktion zeigt man leicht, dass x
j
p
j
f ur j = 1, . . . , n und daher
gilt |x|

p. Somit folgt
|(A
D
+A
L
)
1
A
U
|

p
und damit ergibt sich die Behauptung.
Kapitel 3 Lineare Gleichungssysteme 64
Falls die Matrix A das starke Zeilensummen-Kriterium erf ullt, so erf ullt A
auch das Sassenfeld-Kriterium und das Gau-Seidel-Verfahren konvergiert.
Das folgende Beispiel zeigt jedoch, dass die Umkehrung im Allgemeinen
falsch ist.
Beispiel 3.3. Gegeben sei die Matrix
A =
_
_
_
_
_
_
_
2 1
1 2 1
.
.
.
.
.
.
.
.
.
1 2 1
1 2
_
_
_
_
_
_
_
.
Oenbar ist q

= 1, das starke Zeilensummenkriterium ist also nicht erf ullt.


Weiter gilt
p
1
=
1
2
p
j
=
1
2
p
j1
+
1
2
f ur j = 2, . . . , n 1
p
n
=
1
2
p
n1
.
Daraus folgt durch Induktion
p
n
=
1
2

1
2
n
und daher
p = 1
1
2
n1
< 1,
also ist das Sassenfeld-Kriterium hingegen erf ullt.
Obwohl das Gau-Seidel-Verfahren in diesem Beispiel konvergiert, ist die
Konvergenz extrem langsam, da der Kontraktionsfaktor p sehr nahe bei 1
liegt. Dieses Phanomen ist leider typisch f ur lineare Gleichungssystem, die
durch Diskretisierung von Randwertproblemen f ur elliptische Dierential-
gleichungen entstehen.
Abschlieend wollen wir noch einen weiteren Konvergenzsatz f ur das Gau-
Seidel-Verfahren ohne Beweis angeben.
Satz 3.25. Sei A K
nn
hermitesch und positiv denit. Dann konvergiert
das Gau-Seidel-Verfahren f ur jede rechte Seite b K
n
und jeden Startwert
x
(0)
K
n
gegen die eindeutige Losung x des Gleichungssystems Ax = b.
Kapitel 3 Lineare Gleichungssysteme 65
3.8 CG-Verfahren
In diesem Abschnitt betrachten wir lineare Gleichungssysteme Ax = b mit
einer hermiteschen und positiv deniten Matrix A K
nn
. Zunachst benoti-
gen wir die folgende Bezeichnung.
Satz 3.26. Sei A K
nn
symmetrisch und positiv denit. Dann wird durch
x, y)
A
= x

A y
f ur x, y K
n
ein Skalarprodukt auf K
n
deniert. Die zugehorige Norm
|x|
A
=
_
x, x)
A
heit Energienorm.
Beweis. Oensichtlich ist , )
A
antilinear im ersten und linear im zweiten
Argument. Da weiter A

= A gilt, folgt
x, y)
A
= y

x = y, x)
A
.
Schlielich gilt x, x)
A
= x

A x > 0 f ur x ,= 0, da A positiv denit.


Der Einfachkeit halber werden wir bei der folgenden Herleitung nur den Fall
K = R betrachten, die Ergebnisse gelten jedoch auch f ur K = C.
Die Losung x = A
1
b des Gleichungssystems Ax = b ist das eindeutige
Minimum des quadratischen Funktionals
(x) =
1
2
x

Ax x

b
f ur x R
n
, denn es gilt
(x) ( x) =
1
2
x

Ax x

b
1
2
x

A x + x

b
=
1
2
(x x)

A (x x) +x

A x x

b x

A x + x

b
=
1
2
(x x)

A (x x)
=
1
2
|x x|
2
A
.
Geometrisch bedeutet dies, dass der Graph der Funktion (x) bez uglich der
Energienorm ein kreisformiges Paraboloid ist, dessen Mittelpunkt uber x
Kapitel 3 Lineare Gleichungssysteme 66
liegt. Diese Beobachtung ist die Grundlage unserer Herleitung des Verfahrens
der oder kurz CG-Verfahren.
Ausgehend von einer Naherungslosung x
k
, bestimmen wir im k-ten Itera-
tionsschritt zunachst eine Suchrichtung d
k
R
n
0 und wahlen die
nachste Iterierte uber den Ansatz
x
k+1
= x
k
+
k
d
k
.
Dabei wahlen wir die Schrittweite
k
R als Minimum der Funktion
f() = (x
k
+d
k
)
= (x
k
) + (d

k
Ax
k
d

k
b) +

2
2
d

k
Ad
k
.
Da A positiv denit ist, folgt d

k
Ad
k
> 0 und somit erhalten wir das Mi-
nimum von f() durch Auosen der Gleichung f
t
(
k
) = 0 nach
k
und
erhalten

k
=
(b Ax
k
)

d
k
d

k
A d
k
=
r

k
d
k
d

k
A d
k
,
wobei wir hier und im folgenden
r
k
= b Ax
k
als das Residuum im k-ten Iterationsschritt denieren.
Oen ist noch die Wahl der Suchrichtungen d
k
. Eine naheliegende Moglich-
keit ware die Richtung des steilsten Abstiegs von (x) zu verwenden, also
d
k
= grad(x
k
) = (Ax
k
b) = r
k
.
Abbildung 3.1: Suchrichtung als negativer Gradient (links) und Suchrichtung
in der Energienorm beim CG-Verfahren.
Dies muss allerdings nicht die beste Wahl der Suchrichtung sein, wie Abbil-
dung 3.1 an einem zweidimensionalen Beispiel veranschaulicht.
Kapitel 3 Lineare Gleichungssysteme 67
Bez uglich der Energienorm, also in der | |
A
-Geometrie, sind die Niveauli-
nien aber Kreise. Aufgrund der Minimalitatseigenschaft von
k
ist x
k+1
der
Punkt, in dem die Gerade
x
k
+ d
k
: R
eine Niveaulinie tangential ber uhrt. Wahlen wir daher d
k+1
orthogonal zu
d
k
bez uglich des Skalarproduktes , )
A
, so liegt x
k+2
genau im Kreismit-
telpunkt. Dies f uhrt uns auf den Ansatz
d
k+1
= r
k+1
+
k
d
k
,
wobei wir
k
so bestimmen wollen, dass
d
k+1
, d
k
)
A
= 0
gilt. Durch einfache Rechnungen erhalten wir damit die Gleichung

k
=
r

k+1
A d
k
d

k
A d
k
.
Vektoren, die bez uglich des Skalarproduktes , )
A
orthogonal sind, wer-
den auch A-konjugiert genannt. Da wir die Suchrichtungen d
k
zueinander
A-konjugiert gewahlt haben, ergibt sich der Name Verfahren der kon-
jugierten Gradienten. Algorithmus 3.7 zeigt dieses Verfahren in seiner
Grundversion.
Dieser Verfahren ist eine der am haugsten verwendete Methode zur Losung
groer linearer Gleichungssysteme mit hermiteschen und positiv deniten
Matrizen. Wir werden nun zunachst das Abbruchkriterium r
k
= 0 diskutie-
ren.
Dazu lasst sich zeigen, dass nicht nur aufeinanderfolgende, sondern alle Such-
richtungen paarweise A-konjugiert zueinander sind. Weiterhin sind auch alle
Residuen paarweise orthogonal bez uglich des Euklidischen Skalarprodukts.
Da Orthogonalsysteme aber linear unabhangig sind, muss spatestens nach
n Schritten die Abbruchbedingung r
k
= 0 erf ullt sein:
Satz 3.27. Das CG-Verfahren bricht nach spatestens n Schritten mit der
exakten Losung ab.
F ur die Praxis ist dieses Resultat allerdings nur von eingeschrankter Bedeu-
tung, da das CG-Verfahren meist nur mit deutlich weniger als n Schritten
Kapitel 3 Lineare Gleichungssysteme 68
Input: Hermitesche und positiv denite Matrix A K
nn
,
Vektor b K
n
und Startvektor x
0
K
n
.
k := 0;
r
0
:= b Ax
0
;
d
0
:= r
0
;
while r
k
,= 0

k
:=
r

k
d
k
d

k
A d
k
;
x
k+1
:= x
k
+
k
d
k
;
r
k+1
:= b A x
k+1
;

k
:=
r

k+1
A d
k
d

k
A d
k
;
d
k+1
:= r
k+1
+
k
d
k
;
k := k + 1 ;
end.
Output: Exakte Losung x
k
zum Gleichungssystem Ax = b.
Algorithmus 3.7: Das CG-Verfahren in seiner Grundversion.
ezient ist. Zudem treten durch Rundungsfehler Verluste der Orthogona-
litatseigenschaften auf. F ur die Interpretation des CG-Verfahrens als itera-
tives Verfahren gilt aber die Fehlerabschatzung
|x
k
x|
A
2
_
_
cond
2
(A) 1
_
cond
2
(A) + 1
_
k
|x
0
x|
A
.
Diese Ungleichung kann mit Hilfe einer Optimalitatseigenschaft des CG-
Verfahrens bez uglich der Energienorm bewiesen werden, ein genauer Beweis
kann dem Lehrbuch Hanke-Bourgeois (2006) entnommen werden.
Abschlieend benotigen wir noch die folgende allgemeine Denition, um eine
weitere theoretische Aussage zum CG-Verfahren angeben zu konnen.
Denition 3.15. Sei A K
nn
eine Matrix und b K
n
ein Vektor. Dann de-
nieren wir den zugehorigen k-ten Krylov-Raum als kleinsten Unterraum
von K
n
, der die Vektoren b, Ab, A
2
b, . . . A
k1
b enthalt, also
/
k
(A, b) := spanb, Ab, A
2
b, . . . A
k1
b.
Damit erhalten wir das folgende entscheidene Ergebnis.
Kapitel 3 Lineare Gleichungssysteme 69
Satz 3.28. F ur die k-te Iterierte des CG-Verfahrens gilt
x
k
x
0
+/
k
(A, r
0
),
sofern das Verfahren nicht vorher abbricht. Zudem ist x
k
in diesem anen
Unterraum das eindeutige Minimum von (x).
In jedem Schritt k des CG-Verfahrens losen wir somit das Gleichungssys-
tem, welches durch Projektion des gegebenen Systems auf den Krylov-Raum
/
k
(A, r
0
) entsteht.
Es sei noch bemerkt, dass f ur eine Implementation des CG-Verfahrens f ur
groe Matrizen die Werte
k
und
k
auf eine alternative Weise berechnet
werden sollten, da die neuen Formeln etwas stabiler sind. Auch hier sei f ur
weitere Ausf uhrungen auf Hanke-Bourgeois (2006) verwiesen.
3.9 Ausblick
In diesem Kapitel haben wir viele zum Teil stark unterschiedliche Verfahren
zur losung von linearen Gleichungssystemen Ax = b kennengelernt. Da-
bei sind wir fast immer einer quadratische Matrix A mit einer eindeutigen
Losung von Ax = b vorausgesetzt. Angenommen Ax = b ist nicht losbar, so
besteht die Aufgabe von linearen Ausgleichsproblemen darin, das Problem
min
xK
n
|Ax b|
2
zu losen. Auch hierzu kann die QR-Zerlegung von A verwendet werden,
welche wir auch f ur nicht quadratische Matrizen untersucht haben.
Im folgenden Stellen wir noch einmal zusammen, unter welchen Annahmen
welches Verfahren zur losung eines linearen Gleichungssystems verwendet
werden sollte.
( 1 ) F ur voll besetzte quadratische Matrizen A mit nicht zu groer Dimen-
sion liefert uns das Gau-Verfahren einen einfachen Algorithmus zur
Losung von Ax = b. Zudem bricht der Algorithmus automatisch ab,
falls A nicht regular ist.
( 2 ) F ur regulare quadratische Matrizen A lasst sich auch dass QR-Ver-
fahren verwenden. Der Vorteil hierbei ist, dass wir uns eine g unstigere
Konditionen der Matrizen erhoen als bei der LU-Zerlegung.
( 3 ) F ur schwach besetzte Matrizen ist die LU- bzw. QR-Zerlegung hinge-
gen ungeeignet, da wir hier Matrizen L und U bzw. Q und R erhalten,
die meist voll besetzt sind. Daher sollten hier nach Moglichkeit itera-
tive Verfahren bevorzugt werden.
Kapitel 3 Lineare Gleichungssysteme 70
( 4 ) F ur quadratische Matrizen in groer Dimension hingegen liefert das
CG-Verfahren sehr schnell eine gute Approximation der optimalen
Losung.
4 Eigenwertaufgaben
In diesen Kapitel beschaftigen wir uns mit der numerischen Berechnung von Eigenwerten.
Dabei stehen uns sehr unterschiedliche Mittel und Methoden zur Verf ugung. Nachdem wir
einige Aussagen uber die Lokalisation der Eigenwerte einer Matrix zusammengestellt ha-
ben, werden wir verschiedene Verfahren herleiten. Dabei beginnen wir mit der Berechnung
des groten bzw. kleinsten Eigenwertes durch Vektoriteration, bestimmen einige Eigenwer-
te mit zugehorigem Eigenvektor und berechnen schlielich alle Eigenwerte. Hierzu werden
wir einige Grundlagen der Algebra wiederholen und schlielich auf zuvor besprochene In-
halte zur uckgreifen, so zum Beispiel auf die QR-Zerlegung. Abschlieend werden wir kurz
ein Verfahren vorstellen, welches sich auch auf sehr groe und d unn besetzte Matrizen
anwenden lasst, das Lanczos-Verfahren.
4.1 Grundlagen zu Eigenwerten
Im folgenden steht K wie auch in einigen Kapitel zuvor f ur den Korper
R der reellen Zahlen oder den Korper C der komplexen Zahlen. Zunachst
wiederholen wir einige Denitionen.
Denition 4.1. Eine Zahl K heit Eigenwert einer Matrix A K
nn
,
falls es einen Vektor x K
n
0 gibt mit
A x = x.
Ein solcher Vektor x heit Eigenvektor von A zum Eigenwert .
Die folgenden Ergebnisse sollten aus der linearen Algebra bekannt sein und
werden daher an dieser Stelle ohne Beweis wiederholt.
Satz 4.1. Die Eigenwerte einer Matrix A K
nn
sind die Nullstellen des
charakteristischen Polynoms
p() = det(AI). (4.1)
Insbesondere besitzt A hochstens n Eigenwerte und eine komplexe Matrix
besitzt mindestens einen Eigenwert.
71
Kapitel 4 Eigenwertaufgaben 72
Beweis. Nach Denition ist K genau dann Eigenwert von A, falls die
Gleichung (AI)x = 0 eine von 0 verschiedene Losung x besitzt. Dies ist
genau dann der Fall, wenn die Matrix A I nicht regular ist bzw. wenn
det(AI) = 0 gilt.
Nach Denition der Determinante ist p() ein Polynom vom Grad n und
damit folgen alle Aussage aus dem Fundamentalsatz der Algebra.
Das folgende Resultat ist die Grundlage f ur mehrere Algorithmen zur nu-
merischen Berechnung von Eigenwerten.
Satz 4.2. Sei Q K
nn
eine regulare Matrix und seu A K
nn
. Dann
besitzen die Matrizen
A und Q
1
A Q
die gleichen Eigenwerte.
Beweis. F ur alle K gilt nach den Rechenregeln f ur Determinanten
det(Q
1
AQI) = det(Q
1
(AI)Q) = det Q
1
det(AI) det Q
= det(AI) det Q
1
Q = det(AI).
Damit folgt die Behauptung aus Satz 4.1.
Die Grundidee vieler numerischer Algorithmen zur Bestimmung der Eigen-
werte einer Matrix A K
nn
besteht darin, eine Folge von Matrizen (Q
n
)
zu konstruieren, so dass die Folge
A
k
= Q
1
k
A
k1
Q
k
mit A
0
= A
gegen eine Matrix D konvergiert, deren Eigenwerte leicht zu bestimmen sind.
Dies ist zum Beispiel dann der Fall, wenn D eine Diagonalmatrix oder eine
Dreiecksmatrix ist.
Auch die folgenden Aussagen sollten aus der linearen Algebra bekannt sein
und werden nur kurz wiederholt, da wir sie spater verwenden werden.
Satz 4.3 (Schur-Zerlegung). Sei A C
nn
beliebig. Dann gibt es eine
unitare Matrix U C
nn
und eine obere Dreiecksmatrix R C
nn
mit
A = U R U

.
Kapitel 4 Eigenwertaufgaben 73
Eine derartige Zerlegung von A heit Schur-Zerlegung.
Da die Eigenwerte einer oberen Dreiecksmatrix R deren Diagonalelemente
sind, konnen wir an einer Schur-Zerlegung einer Matrix A deren Eigenwerte
ablesen. Eine einfache Folgerung aus der Schur-Zerlegung ist das folgende
Ergebnis.
Satz 4.4 (Hauptachsentransformation). Sei A C
nn
hermitesch. Dann
gibt es eine unitare Matrix U C
nn
und eine Diagonalmatrix D R
nn
mit
A = U D U

.
Dabei ist zu beachten, dass D nur reelle Eintrage besitzt.
Schreiben wir die Gleichung AU = UD spaltenweise auf, so ergibt sich
A u
j
=
j
u
j
,
wobei u
j
die j-te Spalte von U und D = diag(
1
, . . . ,
n
) ist. Wir konnen
Korollar 4.4 daher auch folgendermaen formulieren:
Zu jeder hermiteschen Matrix A gibt es eine Orthonomalbasis u
1
, . . . , u
n

aus Eigenvektoren von A und alle Eigenwerte von A sind reell.


Bevor wir mit der numerischen Berechnung von Eigenwerten so richtig los-
legen, wollen wir die Bestimmung von Eigenwerten noch an einem Beispiel
verdeutlichen.
Beispiel 4.1. Sei u(t, x) eine Funktion, die die vertikale Auslenkung einer
Saite an der Position x [0, 1] zur Zeit t beschreibt.
Damit wissen wir, dass u(t, x) naherungsweise die Wellengleichung

2
u
x
2
(t, x) =
1
c
2


2
u
t
2
(t, x) (4.2)
f ur alle x (0, 1) und t R erf ullt, wobei c die Ausbreitungsgeschwindigkeit
ist. Wir nehmen an, dass die Saite an den beiden Endpunkten 0 und 1 fest
eingespannt ist, es gelten also die Randbedingungen
u(t, 0) = u(t, 1) = 0
f ur alle t R. Wir suchen nun zeitharmonische Losungen dieser Dieren-
tialgleichung, d.h. wir machen den Ansatz
u(t, x) = re
_
v(x) e
it
_
Kapitel 4 Eigenwertaufgaben 74
mit einer unbekannten und gesuchten Frequenz C. Setzen wir diesen
Ansatz in die Dierentialgleichung ein, so erhalten wir f ur alle x (0, 1)
v
tt
(x) = v(x) und v(0) = v(1) = 0
mit = (/c)
2
. Dies ist ein Eigenwertproblem f ur den Dierentialoperator
Av = v
tt
, welchen wir nun in eine Matrix uberf uhren wollen.
Dazu f uhren wir den Raum
U = v (
2
([0, 1]) : v(0) = v(1) = 0
ein und denieren die Abbildung
A : U C([0, 1]) mit A(v) = v
tt
.
Weiter betrachten wir die Gitterpunkte x
k
= k h f ur k = 0, . . . , m mit
dem Abstand h = 1/m und approximieren die zweite Ableitungen durch die
Dierenzenquotienten
v
tt
(x
k
)
1
h
2
(v(x
k1
) + 2v(x
k
) v(x
k+1
)) .
Wahlen wir die Unbekannten v
k
v(x
k
), so erhalten wir das System
1
h
2
(v
k1
+ 2v
k
v
k+1
) = v
k
f ur k = 1, . . . , m. In Matrixform ergibt sich das Eigenwertproblem
1
h
2

_
_
_
_
_
_
_
2 1
1 2 1
.
.
.
.
.
.
.
.
.
1 2 1
1 2
_
_
_
_
_
_
_

_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
m2
v
m1
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
m2
v
m1
_
_
_
_
_
_
_
.
Durch Approximation der zweiten Ableitung durch einen Dierenzenquoti-
enten haben wir damit ein Eigenwertproblem f ur einen Dierenzialoperator
naherungsweise in ein Matrix-Eigenwertproblem uberf uhrt.
4.2 Lokalisation von Eigenwerten
Bevor wir uns mit weiteren Eigenschaften von Eigenwerten beschaftigen,
liefert uns Abschnitt 2.2 direkt die folgende Aussage.
Kapitel 4 Eigenwertaufgaben 75
Korollar 4.5. Sei | | eine zu einer Vektornorm passende Matrixnorm. Dann
gilt f ur jeden Eigenwert von A die Abschatzung
[[ (A) |A|.
Im folgenden sei A K
nn
eine hermitesche Matrix. Die der Groe nach
geordneten Eigenwerte von A bezeichnen wir mit

0
(A)
1
(A)
n1
(A).
Dabei wird es sich als praktisch herausstellen, die Zahlung der Eigenwerte
bei 0 zu beginnen. Nun denieren wir die Funktion
R
A
(x) :=
x

Ax
x

x
f ur x K
n
0 (4.3)
als Rayleigh-Quotienten von A.
Satz 4.6 (Rayleigh). Sei A K
nn
hermitesch. Dann gilt

0
(A) = max
xR\0
R
A
(x) und
n1
(A) = min
xR\0
R
A
(x)
bzw. anders geschrieben

0
(A) = max
|x|
2
=1
x

Ax und
n1
(A) = min
|x|
2
=1
x

Ax.
Beweis. Nach der Hauptachsentransformation gibt es ein Orthonormalsys-
tem u
0
, . . . , u
d1
von Eigenvektoren von A mit zugehorigen Eigenwerten

0
(A), . . . ,
n1
(A). F ur einen Vektor x K
n
der Lange |x|
2
= 1 gilt daher
x =
n1

k=0
(u

k
x)u
k
und
n1

k=0
[u

k
x[
2
= 1.
Es folgt
x

Ax = x

n1

k=0
(u

k
x)Au
k
=
n1

k=0

k
[u

k
x[
2

0
n1

k=0
[u

k
x[
2
=
0
.
Dies bedeutet aber gerade
sup
|x|
2
=1
x

Ax
0
.
Da das Supremum f ur x = u
0
angenommen wird, folgt die erste Behauptung.
Die zweite Teil verlauft analog.
Kapitel 4 Eigenwertaufgaben 76
Satz 4.7 (Courantsches Minimum-Maximum-Prinzip). Sei A K
nn
her-
mitesch. Dann gilt

k
(A) = min
P

=P
rang(P)=k
max
|x|
2
=1
x

(AP)x (4.4)
f ur k = 0, . . . , n 1, wobei rang(P) den Rang von P bezeichne.
Beweis. Wieder gibt es nach der Hauptachsentransformation ein Orthonor-
malsystem u
0
, . . . , u
d1
aus Eigenvektoren von A mit zugehorigen Eigen-
werten
0
(A), . . . ,
n1
(A), wobei wir teilweise einfach
k
statt
k
(A) schrei-
ben.
Wir bezeichnen die rechte Seite von Gleichung (4.4) mit
k
(A).
Zunachst zeigen wir, dass
k
(A)
k
(A). Es sei bemerkt, dass nach der
Hauptachsentransformation
A =
n1

i=0

i
u
i
u

i
gilt. Nun wahle
P =
k1

i=0

i
u
i
u

i
.
Dann gilt rang(P) = k sowie P

= P und f ur alle x K
n
mit |x|
2
= 1 gilt
die Ungleichung
x

(AP)x =
n1

i=k

i
[u

i
x[
2

k
n1

i=k
[u

i
x[
2

k
n1

i=1
[u

i
x[
2
=
k
.
Daraus folgt
max
|x|
2
=1
x

(AP)x
k
und durch Bildung des Minimums uber P ergibt sich
k
(A)
k
(A).
Nun zeigen wir, dass auch
j
(A)
j
(A) gilt. Dazu sei eine hermitesche
Matrix P mit Rang rang(P) = k gegeben. Aufgrund der Rangbedingung
besitzt die Abbildung
: spanu
0
, . . . , u
j
K
n
mit (x) = P x
einen nichttrivalen Nullraum, es existiert also ein Vektor x der Form
x =
k

i=0

i
u
i
Kapitel 4 Eigenwertaufgaben 77
mit
i
K, mit P x = 0 und mit
k

i=0
[
i
[
2
= | x|
2
2
= 1.
Es folgt
sup
|x|
2
=1
x

(AP)x x

(AP) x = x

A x
=
k

i=0

i
[
i
[
2

k

i=0
[
i
[
2
=
k
.
Wieder durch Bildung des Minimums uber P ergibt sich
k
(A)
k
(A),
was die Behauptung schlielich zeigt.
Wie bereits erwahnt, verwenden viele numerische Verfahren zur Berechnung
der Eigenwerten einer Matrix A eine Folge, die gegen eine Diagonalmatrix
konvergiert. Wir wollen nun untersuchen, welche Aussagen man nach endlich
vielen Schritten des Verfahrens uber die Lage der Eigenwerte von A machen
kann. Dazu werden wir Abschatzungen f ur Eigenwerte von Matrizen herlei-
ten, bei denen alle Nicht-Diagonalelemente klein sind.
Satz 4.8. Seien A, B K
nn
hermitesche Matrizen. Dann gilt
[
k
(A)
k
(B)[ |AB|
2
f ur k = 0, . . . , n1. Insbesondere hangen die Eigenwerte einer hermiteschen
Matrix damit bez uglich der Euklidischen Norm stetig von der Matrix ab.
Beweis. Sei P eine hermitesche Matrix vom Rang k und x K
n
ein Vektor
mit |x|
2
= 1. Dann gilt
x

(AP)x = x

(B P)x +x

(AB)x x

(B P)x +|AB|
2
.
Bildet wir in dieser Ungleichung zuerst das Supremum uber x auf der rechten
Seiten und anschlieend auf der linken Seite, so erhalten wir
sup
|x|
2
=1
x

(AP)x sup
|x|
2
=1
x

(B P)x +|AB|
2
.
Nun bilden wir das Inmum uber P, zuerst auf der linken und anschlieend
auf der rechten Seite. Aus dem Courantschen Minimum-Maximum-Prinzip
folgt

k
(A)
k
(B) |AB|
2
.
Kapitel 4 Eigenwertaufgaben 78
Durch Vertauschung der Rollen von A und B ergibt sich analog

k
(B)
k
(A) |AB|
2
,
was die Behauptung zeigt.
Schlielich erhalten wir noch eine weitere Aussage uber die Lage der Eigen-
werte von nicht notwendigerweise hermiteschen Matrizen.
Satz 4.9 (Gershgorin). Sei A = (a
ij
)K
nn
beliebig. Weiter denieren wir
die Gershgorin-Kreise
G
j
:=
_

_
K : [ a
jj
[
n

k=1
k=j
[a
jk
[
_

_
f ur j = 1, . . . , n und
G

k
:=
_

_
K : [ a
kk
[
n

j=1
j=k
[a
jk
[
_

_
f ur k = 1, . . . , n. Dann gilt f ur alle Eigenwerte von A

n
_
j=1
G
j
und
n
_
k=1
G

k
.
Beweis. Sei Ax = x mit |x|

= 1 und wahle einen Index j mit [x


j
[ =
|x|

= 1. Dann gilt
[ a
jj
[ = [( a
jj
)x
j
[ = [(Ax)
j
a
jj
x
j
[
=

k=1
k=j
a
jk
x
k

k=1
k=j
[a
jk
[[x
k
[
n

k=1
k=j
[a
jk
[.
Daraus folgt

n
j=1
G
j
. Da A

die konjugiert komplexen Eigenwerte von


A besitzt, folgt direkt auch

d
k=1
G

k
.
4.3 Vektoriteration
Das Verfahren von Mises ist eines der einfachsten Verfahren, welches in
der Regel aber nur sehr langsam konvergiert. Trotzdem ist sein Verstandnis
Kapitel 4 Eigenwertaufgaben 79
grundlegend f ur viele folgenden Methoden, so dass wir es hier besprechen
werden.
Zunachst benotigen wir noch eine Denition.
Denition 4.2. Eine Matrix A K
nn
heit diagonalisierbar, wenn es
eine regulare Matrix Q K
nn
gibt, so dass Q
1
AQ eine Diagonalmatrix
ist.
In diesem Falle bilden die Spalten q
1
, . . . , q
n
von Q ein vollstandiges System
von Eigenvektoren von A.
Wir nehmen an, dass A K
nn
diagonalisierbar ist mit Q = (q
1
, . . . , q
n
),
es gelte also A = QDQ
1
mit einer Diagonalmatrix D. Weiter gelte f ur die
zugehorigen Eigenwerte
[
1
[ > [
2
[ [
3
[ . . . [
n
[. (4.5)
Sei nun = (
1
, . . . ,
n
) K
n
ein Vektor mit
1
,= 0 und deniere
x =
1
q
1
+. . . +
n
q
n
.
Damit folgt
A
k
x =
n

i=1

i
A
k
q
i
=
n

i=1

k
i
q
i
=
1

k
1
q
1
+. . . +
n

k
n
q
n
.
Aufgrund der Annahme (4.5) dominiert auf der rechten Seite f ur n der
erste Summand, der ein Vielfaches des ersten Eigenvektors ist. Damit haben
wir ein einfaches Verfahren zur Berechnung des groten Eigenwertes einer
Matrix samt zugehorigem Eigenvektor gefunden, siehe Algorithmus 4.1.
Input: Diagonalisierbare Matrix A, Startvektor x
0
.
i := 0;
repeat
x
i+1
:= 1/|x
i
| A x
i
;
i := i + 1;
until stop.
Output: Eigenvektor x
1
x
i
zum Eigenwert [
1
[ |x
i
|
2
.
Algorithmus 4.1: Das Verfahren von Mises.
Um einen Over- und Underow zu vermeiden, wird dabei der Vektor x
i
in jedem Schritt normiert. Wir wollen nun auch eine Konvergenzaussage
beweisen.
Kapitel 4 Eigenwertaufgaben 80
Satz 4.10. Sei A K
nn
eine diagonalisierbare Matrix, deren Eigenwerte
die Annahme (4.5) erf ullen. Weiter sei x
0
=

n
j=1

j
q
j
mit
1
,= 0. Dann
gilt
_
_
_
_
x
i


i
1
[
1
[
i1


1
[
1
[

q
1
|q
1
|
2
_
_
_
_
= O
_

i
_
f ur i , (4.6)
d.h. x
i
konvergiert linear mit der Geschwindigkeit [
2
/
1
[ gegen einen Ei-
genvektor zum Eigenwert
1
.
Beweis. Per Induktion nach i folgt
x
i+1
=
1
|A
i
x
0
|
2
A
i+1
x
0
und somit
x
i
=
_

i+1
1
[
1
[
i

1
q
1
+. . . +

i+1
n
[
1
[
i

n
q
n
_
/
__
_
_
_

i
1
[
1
[
i

1
q
1
+. . . +

i
n
[
1
[
i

n
q
n
_
_
_
_
2
_
.
Die Behauptung folgt nun, da

n
j
[
1
[
n

= O
_

n
_
f ur j = 2, . . . , n.
Da das Verfahren von Mises stets gegen den groten Eigenwert konvergiert,
wollen wir nun ein ahnliches Verfahren f ur andere Eigenwerte untersuchen.
Dazu nehmen wir an, dass bereits eine Naherung eines Eigenwertes
k
von
A mit
[
k
[ < [
j
[ f ur alle j ,= k (4.7)
bekannt ist und wollen einen zugehorigen Eigenvektor berechnen.
Dazu betrachten wir die Matrix
B := (AI)
1
.
Oenbar besitzt B dieselben Eigenvektoren wie A, und die Eigenwerte von
B sind gegeben durch
1

f ur alle j = 1, . . . , n.
Kapitel 4 Eigenwertaufgaben 81
Input: Naherung eines Eigenwertes
k
von A, Startvektor x
0
.
i := 0;
repeat
x
i+1
:= 1/|x
i
| (AI)
1
x
i
;
i := i + 1;
until stop.
Output: Eigenvektor x
k
x
i
zum Eigenwert
k
.
Algorithmus 4.2: Das Verfahren von Wieland.
Mit der Annahme (4.7) ist 1/(
k
) der grote Eigenwert von B und somit
konnen wir das Verfahren von Mises auf die Matrix B anwenden. Diese Me-
thode wird als Verfahren von Wieland oder inverse Vektoriteration
bezeichnet, siehe Algorithmus 4.2
Es ist zu bemerken, dass die Konvergenzgeschwindigkeit von der Naherung
des Eigenwertes
k
abhangt. Weiterhin lasst sich das Verfahren von Wieland
durch die folgenden Beobachtungen noch verbessern.
Ist namlich q
k
ein Eigenvektor zum Eigenwert
k
, so gilt f ur den Rayleigh-
Quotienten aus Gleichung (4.3)
R
A
(q
k
) =
k
.
Damit liegt es nahe, die gegebene Naherung von
k
im Laufe des Algo-
rithmus durch die Rayleigh-Quotienten R
A
(x
n
) zu ersetzen. Dies f uhrt zur
Rayleigh-Quotienten-Iteration, siehe Algorithmus 4.3.
Input: Naherung eines Eigenwertes
k
von A, Startvektor x
0
.
i := 0;
repeat
x
i+1
:= (AI)
1
x
i
;
i := i + 1;
x
i
:= x
i
/|x
i
|2;
:= x

i
A x
i
;
until stop.
Output: Eigenvektor x
k
x
i
zum Eigenwert
k
.
Algorithmus 4.3: Die Rayleigh-Quotienten-Iteration.
Kapitel 4 Eigenwertaufgaben 82
4.4 QR-Verfahren
Wahrend wir im Abschnitt zuvor Verfahren zu Bestimmung eines Eigenwer-
tes bzw. Eigenvektors kennen gelernt haben, beschaftigen wir uns nun mit
Methoden, welche uns alle Eigenwerte einer Matrix liefern werden. Dazu
verwenden wir die bereits mehrfach angesprochenen

Ahnlichkeitstransfor-
mationen der Schur-Zerlegung aus Satz 4.3.
Lemma 4.11. Sei A
0
= A K
nn
eine beliebige Matrix. Weiter denieren
wir die Folge
A
k
= R
k1
Q
k1
,
wobei A
k1
= Q
k1
R
k1
eine QR-Zerlegung von A
k1
ist, siehe Abschnitt
3.4. Zudem sei
Q
k
= Q
0
. . . Q
k1
und R
k
= R
k1
. . . R
0
.
Dann gilt:
( 1 ) A
k
= Q

k1
A
k1
Q
k1
.
( 2 ) A
k
= Q

k
A Q
k
.
( 3 ) A
k
= Q
k
R
k
.
Beweis. Behauptung ( 1 ) folgt aus der folgenden Gleichungskette:
A
k
= R
k1
Q
k1
= Q

k1
Q
k1
R
k1
Q
k1
= Q

k1
A
k1
Q
k1
.
Aussage ( 2 ) folgt per Induktion aus ( 1 ) und auch ( 3 ) ergibt sich per
Induktion:
A
k+1
= A A
k
= A Q
k
R
k
= Q
k
Q

k
A Q
k
R
k
= Q
k
A
k
R
k
= Q
k
Q
k
R
k
R
k
= Q
k+1
R
k+1
,
wobei wir auch noch ( 2 ) verwendet haben.
Damit konnten wir nachweisen, dass die in Lemma 4.11 denierte Folge

Ahnlichkeitstransformationen liefert. Das folgende Ergebnis liefert die Kor-


rektheit des QR-Verfahrens, welches wir anschlieend vorstellen werden. Der
Beweis zu dieser folgenden Aussage ist jedoch erheblich schwieriger als das
vorherige Ergebnis, daher verweisen wir den interessierten Leser hier zum
Beispiel auf Hanke-Bourgeois (2006).
Kapitel 4 Eigenwertaufgaben 83
Satz 4.12. Sei A K
nn
diagonalisierbar und seien
1
, . . . ,
n
K die
Eigenwerte von A. Weiter gelte
[
1
[ > [
2
[ > . . . > [
n
[ > 0
und = diag(
1
, . . . ,
n
) sei die Eigenwert-Matrix und Q = (q
1
, . . . , q
n
) die
zugehorige Eigenvektor-Matrix, also A = QQ
1
. Wir nehmen weiterhin
an, dass eine LU-Zerlegung Q
1
= LU von Q
1
existiert.
Dann konvergiert die in Lemma 4.11 denierte Folge von Matrizen A
n
gegen
eine obere Dreiecksmatrix und ihre Diagonalelemente konvergieren mindes-
tens linear gegen die Eigenwerte
1
, . . . ,
n
.
Die Voraussetzung, dass Q
1
eine LU-Zerlegung besitzt, ist eine Verallge-
meinerung der Voraussetzung bei der Vektor-Iteration, dass der Startvektor
nicht eine Linearkombination der ubrigen Eigenvektoren ist. Wesentlich ein-
schrankender ist die Voraussetzung
[
1
[ > [
2
[ > . . . > [
n
[ > 0.
Diesie schliet insbesondere mehrfache Eigenwerte und konjugiert-komplexe
Eigenwerte von rellen Matrizen aus. Andererseits gibt es im allgemeinen
keine reelle Schur-Zerlegung mit einer oberen Dreiecksmatrix und bei mehr-
fachen Eigenwerten kann man nicht erwarten, dass das folgende Verfahren
gegen eine Schur-Zerlegung konvergiert.
Trotzdem liefern und die beiden Aussagen nun ein grundlegendes Verfah-
ren zur Berechnung aller Eigenwerte einer Matrix A K
nn
, sofern die
Voraussetzungen aus Satz 4.12 erf ullt sind, siehe Algorithmus 4.4.
Input: Matrix A K
nn
.
i := 0;
A
0
:= A;
repeat
Berechne QR-Zerlegung A
i
= Q
i
R
i
;
A
i+1
:= R
i
Q
i
;
i := i + 1;
until stop.
Output: Eigenwerte x
k
(A
i
)
kk
f ur k = 1, . . . , n.
Algorithmus 4.4: Das QR-Verfahren in seiner Grundversion.
Nat urlich ist das QR-Verfahren in seiner Grundversion sehr aufwendig, da
die Berechnung der QR-Zerlegung in jedem Schritt von der Groenordnung
Kapitel 4 Eigenwertaufgaben 84
O(n
3
) ist. Der Aufwand kann erheblich reduziert werden, wenn wir die Ma-
trix A zunachst durch eine unitare

Ahnlichkeitstransformation in sogenannte
Hessenberg-Form bringen. Das QR-Verfahren kann nun deutlich schnel-
ler durchgef uhrt werden, das sich die QR-Zerlegung einer Hessenber-Matrix
sehr einfach durch Givens-Rotationen bestimmen lasst. Weiterhin kann
das Verfahren auch durch Shift-Operationen beschleunigt werden. F ur all
diese Falle verweisen wir aber wiederum auf Hanke-Bourgeois (2006).
4.5 Lanczos-Verfahren
Im Abschnitt zuvor haben wir gezeigt, dass sich mit dem QR-Verfahren
samtliche Eigenwerte einer Matrix berechnen lassen, daf ur wachst der Auf-
wand kubisch mit der Groe der Matrix. In vielen Anwendungen, insbe-
sondere bei Eigenwertproblemen f ur gewohnliche und partielle Dierential-
operatoren wie in Beispiel 4.1 kennengelernt, ist man jedoch nur an einigen
wenigen extremalen, also besonders groen oder kleinen, Eigenwerten inter-
essiert. Zudem sind die auftretenden Matrizen oft sehr gro, aber nur d unn
besetzt.
Im Gegensatz zum QR-Verfahren sind wir daher an Verfahren interessiert,
die nur Matrix-Vektor-Multiplikationen benotigen. Mit der Vektor-Iteration
haben wir bereits ein solches Verfahren kennengelernt, allerdings konnten
wir damit nur eine Naherung des betragsgroten Eigenvektors berechnen.
Wir werden nun das Lanczos-Verfahren einf uhren, mit welchem sich auch
weitere Eigenwerte berechnen lassen.
Im folgenden sei A K
nn
eine hermitesche Matrix mit Eigenwerten

0
(A)
1
(A)
n1
(A).
Sind keine Verwechselungen moglich, schreiben wir auch einfach nur

0

1

n1
.
Bei der Vektoriteration wurden Vektoren der Form
x
j
= A
j
x
0
berechnet und als Naherung des groten Eigenwertes
0
von A die Zahlen

(j+1)
=
x

j
A x
j
x

j
x
j
verwendet, siehe Algorithmus 4.3. Weiterhin gilt nach Satz 4.6

0
= max
xR\0
x

Ax
x

x
.
Kapitel 4 Eigenwertaufgaben 85
Beim Lanczos-Verfahren betrachten wir den Krylov-Raum zur Matrix A und
zum Vektor x
0
, also
/
k
= (A, x
0
) = spanx
0
, x
1
, x
2
, . . . , x
k1
,
siehe Denition 3.15.
Die Idee das Lanczos-Verfahrens besteht nun darin, als Approximation von

0
das Maximum des Rayleigh-Quotienten uber dem Krylov-Raum /
k
zu
verwendet:

k
= max
x|
k
\0
x

Ax
x

x
.
Nat urlich gilt x
0
/
k
K
n
und damit erhalten wir

k

k

0
.
Nat urlich ist dieses Verfahren nur dann sinnvoll, wenn das Maximum des
Rayleigh-Quotienten uber dem Krylov-Raum /
k
und damit
k
eziente
berechnet werden kann. Genau dies wird nun das Ziel der folgenden Be-
trachtungen sein. Zudem werden wir auch sehen, dass wir nicht nur
0
ap-
proximieren, sondern gleich mehrere extremale Eigenwerte.
Wir konnen die Lanczos-Approximationen
(k)
0
des groten Eigenwertes von
A auch interpretieren, indem wir die Einschrankungen der durch A gegebe-
nen linearen Abbildung auf den k-ten Krylov-Raum betrachten, also
/
k
: /
k
/
k
mit /
k
(z) = P
k
A z.
Dabei sei P
k
K
nn
die eindeutig bestimmte orthogonale Projektion auf
/
k
, d.h. P
k
ist hermitesch und P
2
k
= P
k
.
Nun ist /
k
bez uglich des inneren Produktes x, y) = x

y selbstadjungiert,
da
/
k
z, y) = /
k
P
k
z, y) = z

P
k
AP
k
y = z, /
k
y)
gilt. Damit besitzt die lineare Abbildung /
k
nur reelle Eigenwerte, die wir
wieder der Groe nach anordnen:

0
(/
k
)
1
(/
k
)
k1
(/
k
).
Wieder nach Satz 4.6 erhalten wir nun

0
(/
k
) = sup
x|
k
\0
x, /
k
x)
x, x)
= sup
x|
k
\0
x

Ax
x

x
=
(k)
,
da
x, /
k
x) = x

P
k
Ax = x

k
Ax = P
k
x)

Ax = x

Ax
Kapitel 4 Eigenwertaufgaben 86
f ur alle x /
k
. Es liegt nun nahe f ur j < k den Wert

k
j
=
j
(/
k
)
als Approximationen des Eigenwertes
j
zu betrachten.
Um nun die Zahlen
k
j
berechnen zu konnen, benotigen wir eine Orthonor-
malbasis v
0
, . . . , v
k1
des Krylov-Raums /
k
und die Matrix T
k
, die die
Abbildung /
k
bez uglich dieser Basis reprasentiert. Die Matrixeintrage von
T
k
sind dann gegeben durch
(T
k
)
ij
= v

i
, /
k
v
j
) = v

i
Av
j
, i, j = 1, . . . , k
also haben wir
T
k
= V

k
A V
k
mit V
k
= (v
0
v
1
v
k1
) K
nk
.
Damit gilt

k
j
=
j
(/
k
) =
j
(T
k
)
und f ur k n konnen wir die Eigenwerte von T
k
K
kk
mit wenig Aufwand
mit dem QR-Verfahren berechnen.
Wir haben bereits beim cg-Verfahren 3.8 den Begri des Krylov-Raumes ver-
wendet. In der Tat lasst sich zeigen, dass sich die Eintrage der Matrix T
k
aus
den Zwischenresultaten des cg-Verfahrens berechnen lassen. Insbesondere er-
gibt sich auch, dass T
k
eine Tridiagonalmatrix ist. Wenn wir A
k
V
k
= V
k
T
k
spaltenweise aufschreiben und die Tridiagonalgestalt von T
k
nutzen, erhal-
ten wir den im folgenden Satz angegeben Algorithmus zu Bestimmung von
T
k
bzw. V
k
.
Satz 4.13. Sei A K
nn
hermitesch und v
0
K
n
0 Zufallsvektor mit
|v
0
|
2
= 1 und v
1
= (0, . . . , 0)
T
.
Dann berechnen wir iterativ f ur j = 0, . . . , k 2

j
= v

j
Av
j
,
r
j
= Av
j

j
v
j

j
v
j1
,

j+1
= |r
j
|
2
,
v
j+1
=
1

j+1
r
j
falls
j+1
,= 0.
Kapitel 4 Eigenwertaufgaben 87
Gilt dabei
j
,= 0 f ur j = 1, . . . , k 1, so folgt
T
k
=
_
_
_
_
_
_
_
_
_

0

1
0 0

1

1

2
.
.
.
0
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.

k1
0 0
k1

k1
_
_
_
_
_
_
_
_
_
und die Vektoren v
0
, . . . , v
k1
bilden eine Orthonormalbasis von /
k
.
Dabei ist zu beachten, dass das Verfahren je nach der Wahl von v
0
auch
vorzeitig abbrechen kann, wenn v
0
selbst schon ein Eigenvektor von A ist
bereits im ersten Schritt. Oen lassen wir an dieser Stelle den Beweis, dass
v
0
, . . . , v
k1
wirklich eine Orthonormalbasis von /
k
ist. Dazu verweisen wir
auf Hanke-Bourgeois (2006).
Abschlieend erhalten wir noch die folgende Fehlerabschatzung an das Lan-
czos-Verfahren. Dabei verwenden wir die Bezeichnungen aus dem Satz zuvor.
Satz 4.14. Sei (, w) ein Eigenpaar von T
k
mit |w|
2
= 1 und w
k
die letzte
Komponente von w. Dann besitzt A einen Eigenwert mit
[ [
k
[w
k
[.
Der Vektor x = V
k
w ist dann eine Approximation an den zu gehorenden
Eigenvektor.
4.6 Singularwertzerlegung
In diesen Abschnitt wollen wir noch eine Variante der Eigenwertzerlegung
A = U D V

einer nicht notwendigerweise quadratischen Matrix A ken-


nenlernen, bei der von links und rechts mit verschiedenen unitaren Matrizen
U und V multipliziert werden kann. Es wird sich zeigen, dass eine derartige
Zerlegung f ur jede Matrix existiert.
Denition 4.3. Die Singularwertzerlegung einer Matrix A K
mn
ist
Kapitel 4 Eigenwertaufgaben 88
eine Faktorisierung der Form A = V U

, wobei
=
_
_
_
_
_
_
_
_
_
_

0
.
.
.
0 R
r(nr)

r1
0 R
(mr)r
0 R
(mr)(nr)
_
_
_
_
_
_
_
_
_
_
mit
0

1
. . .
r1
> 0 gelte und U = (u
0
u
n1
) K
nn
sowie
V = (v
0
. . . v
m1
) K
mm
unitaren Matrizen seien.
Die Zahlen
0
, . . . ,
r1
heien Singularwerte von A und die Vektoren u
j
und v
j
rechte bzw. linke Singularvektoren von A.
Lemma 4.15. Sei A K
mn
beliebig. Dann gilt:
( 1 ) A besitzt eine Singularwertzerlegung.
( 2 ) Die Singularwerte von A sind eindeutig bestimmt.
( 3 ) Der Rang von A ist r.
( 4 ) Ist A = V U

eine Singularwertzerlegung von A, so sind


A

A = U (

) U

und A A

= V (

) V

Eigenwertzerlegungen von A

A bzw. AA

. Insbesondere sind die Spal-


ten von U Eigenvektoren von A

A und die Spalten von V Eigenvekto-


ren von AA

. Weiter gilt f ur j = 0, . . . , r 1
A u
j
=
j
v
j
und A

v
j
=
j
u
j
.
Beweis. Wir beweisen die Behauptung der Reihe nach.
( 1 ) Sei A

A = U diag(
0
, . . . ,
n1
) U

eine Eigenwertzerlegung mit


einer unitaren Matrix U = (u
1
u
n
). Da A

A positiv semidenit ist,


konnen wir die Eigenwertzerlegung so wahlen, dass

0

1
. . .
n1
0
gilt. Sei r N 0 die kleinste Zahl mit
r
= 0, wobei wir
n
= 0
vereinbaren. Dann setzen wir
j
=
_

j
und v
j
= A u
j
/
j
f ur j =
0, . . . , r 1. Da weiter
v

j
v
k
=
1

k
u

j
A

A u
k
=

2
k

k
u

j
u
k
=
jk
Kapitel 4 Eigenwertaufgaben 89
f ur i, k 0, . . . , r1 gilt, konnen wir die Vektoren v
j
zu einer Ortho-
normalbasis v
0
, . . . , v
m1
von K
m
erganzen. Mit V = (v
1
, . . . , v
m1
)
erhalten wir
V U

u
j
= V e
j
= V
j
e
j
=
j
v
j
= A u
j
f ur j = 0, . . . , r 1 und
V U

u
j
= V e
j
= 0 = A u
j
f ur j r. Da u
1
, . . . , u
n
aber eine Basis des K
n
bilden, haben wir eine
Singularwertzerlegung A = V U

gefunden.
( 2 ) Zunachst sind die Zahlen
2
0
, . . . ,
2
r1
als Eigenwerte von A

A eindeu-
tig bestimmt. Wegen der Forderung
j
> 0 sind damit aber auch die
Singularwerte selber eindeutig durch A bestimmt.
( 3 ) Da U und V unitar sind, gilt
rang(A) = rang(V

U) = rang() = r.
( 4 ) Die erste Aussage folgt direkt aus der Unitaritat von U und V . und
die zweite Aussage gilt wegen
A u
j
= V U

u
j
= V e
j
=
j
V e
j
=
j
v
j
f ur j = 0, . . . , r 1. Der Fall A

v
j
=
j
u
j
folgt analog.
Der Beweis von Teil ( 1 ) zeigt also auch, wie wir aus einer Eigenwertzerle-
gung von A

A eine Singularwertzerlegung von A konstruieren konnen.


Kommen wir nun auf quadratische Matrizen zur uck, so sagen in vielen Si-
tuationen die Singularwerte mehr uber die Matrix aus als ihre Eigenwerte.
So sind zum Beispiel alle Eigenwerte einer oberen Dreiecksmatrix mit Nullen
auf der Diagonalen 0, aber die euklidische Norm einer solchen Matrix kann
beliebig gro werden. F ur Singularwerte erhalten wir jedoch das folgende
Ergebnis.
Satz 4.16. Sei A = V U

eine Singularwertzerlegung einer Matrix


A K
mn
. Dann gilt
|A|
2
=
0
.
Ist insbesondere A K
nn
quadratisch und regular, so gilt
|A
1
|
2
=
1

n1
und cond
2
(A) =

0

n1
.
Kapitel 4 Eigenwertaufgaben 90
Beweis. Da f ur alle x ,= 0
|A x|
2
2
= x

A x |x|
2
2
|A

A|
2
gilt, folgt |A|
2
2
|A

A|
2
. Da weiter A

A hermitesch und positiv denit ist,


ergibt sich |A

A|
2
=
0
(A

A). Ist nun x


0
ein Eigenvektor zum Eigenwert

0
(A

A), so gilt andererseits


|A x
0
|
2
2
= x

0
A

A x
0
=
0
(A

A) |x
0
|
2
2
,
also |A|
2

0
(A

A). Insgesamt haben wir damit


|A|
2
=
_

0
(A

A) =
0
gezeigt. Die zweiten Aussagen folgen sofort, da die Singularwerte von A
1
gegeben sind durch 1/
n1
, . . . , 1/
0
.
4.7 Ausblick
Nat urlich gibt es noch sehr viel mehr Verfahren zur numerischen Berechnung
von Eigenwerten. Wie bereits hingewiesen, lassen sichvor allem beim QR-
Verfahren noch sehr viele Spezialfalle und Erweiterungen angeben, welche
die Ezienz der Verfahren zum Teil deutlich steigern.
Auch sind wir hier nur auf Eigenwerte einer Matrix eingegangen, nat urlich
lassen sich auch Eigenwerte von Operatoren numerisch berechnen. Zum Bei-
spiel treten auch wichtige Eigenwertaufgaben bei gewohnlichen Dierential-
gleichungen auf, siehe zum Beispiel Toring and Spellucci (1988).
5 Interpolation
Bei der Interpolation geht es darum, Funktionen aus einer bestimmten Klasse von Funktio-
nen zu nden, die an einigen Stellen mit gegebenen Werten ubereinstimmt. Dabei lassen
sich Interpolationsaufgaben zu vielen Klassen von Funktionen angeben. Wir werden an
dieser Stelle mit der Menge der Polynome zunachst den einfachsten Fall der Interpolation
betrachten. Anschlieend untersuchen wir die Splineinterpolation, was in Kapitel 8 bei
Randwertproblemen noch wichtig sein wird.
5.1 Polynominterpolation
Zunachst wiederholen wir kurz die grundlegenden Denition und Aussagen
zu Polynomen, die aber alle bekannt sein sollten.
Denition 5.1. Ein Polynom p ist eine Funktion der Form
p(x) = a
n
x
n
+. . . +a
1
x +a
0
mit x K und Koezienten a
0
, . . . , a
n
K. Ist a
n
,= 0, so ist n der Grad
des Polynoms. Der Grad von p(x) = 0 wird als 1 festgesetzt.
Notation 5.2. Die Menge aller Polynome vom Grad kleiner oder gleich n
bezeichnen wir mit
n
.
Aus der linearen Algebra ist bekannt, dass
n
mit komponentenweiser Ad-
dition und Skalarmultiplikation ein Vektorraum ist. Zudem wiederholen wir
den Hauptsatz der Algebra.
Satz 5.1 (Hauptsatz der Algebra). Sei p(x) = a
n
x
n
+ . . . + a
1
x + a
0
ein
komplexes Polynom vom Grad n. Dann gibt es eindeutig bestimmte Zahlen
b
1
, . . . , b
n
C mit p(x) = a
n
(x b
1
) . . . (x b
n
). Die Zahlen b
j
sind
damit die Nullstellen von p.
Kommt der Faktor (xb
j
) in p(x) genau k-mal vor, so sagen wir die Nullstelle
91
Kapitel 5 Interpolation 92
b
j
hat die Vielfachheit k.
Bemerkung 5.1. Sei b eine Nullstelle von p. Dann hat b genau dann die
Vielfachheit k, wenn p
(j)
(b) = 0 f ur j = 0, . . . , k 1 gilt.
Satz 5.2. Sei p(x) = a
n
x
n
+. . .+a
1
x+a
0

n
. Hat p mehr als n Nullstellen,
so verschwindet p identisch, also p(x) = 0 f ur alle x C.
Aus diesem Satz lasst sich direkt ableiten, dass die Monome
M
k
(x) := x
k

k
f ur k = 0, . . . , n
linear unabhangig sind. Da wir weiterhin durch Linearkombination der M
k
jedes Polynom erzeugen konnen, ist
M
0
(x), M
1
(x), . . . , M
n
(x)
eine Basis von
n
.
Mit der Wiederholung dieser Aussagen zu Polynomen konnen wir nun die
Lagrange Interpolationsaufgabe angeben.
Notation 5.3. Gegeben seien n + 1 paarweise verschiedene St utzstellen
x
0
, . . . , x
n
und n + 1 St utzwerte
y
0
, . . . , y
n
.
Gesucht ist ein Polynom p
n
mit
p(x
k
) = y
k
f ur k = 0, . . . , n. (5.1)
Als erste Idee zur Losung dieses Problems verwenden wir die Monome als
Basis des
n
und stellt das gesuchte Polynom dar durch
p(x) =
n

k=0

k
M
k
(x)
dar. Die Bedingungen 5.1 f uhren zu folgendem Gleichungssystem mit den
Unbekannten
0
, . . . ,
n
:
n

k=0

k
M
k
(x
j
) = y
j
f ur j = 0, . . . , n.
Kapitel 5 Interpolation 93
Die Koezienten-Matrix zu diesem Gleichungssystem wird gegeben durch
die Vandermonde-Matrix
A =
_
_
_
_
_
1 x
0
x
0
2
x
0
n
1 x
1
x
1
2
x
1
n
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
n
2
x
n
n
_
_
_
_
_
.
Obwohl dieses Problem im Allgemeinen schlecht konditioniert und daher f ur
praktischer Zwecke eher ungeeignet ist, ist es dennoch von theoretischem
Interesse, wie der folgende Satz zeigt.
Satz 5.3. Die Lagrange Interpolationsaufgabe ist f ur n + 1 paarweise ver-
schiedene St utzstellen x
0
, . . . , x
n
eindeutig losbar und die Losung ist gegeben
durch
L
n
(x) =
n

k=0
y
k
l
k
(x)
mit
l
k
(x) =
n

j=0
j=k
x x
j
x
k
x
j
f ur k = 0, . . . , n.
Die Polynome l
0
, . . . , l
n

n
heien Lagrange-Polynome.
Beweis. Per Konstruktion ist L
n

n
und es gilt
l
k
(x
j
) =
_
1 f ur k = j
0 f ur k ,= j
Damit erhalten wir
L
n
(x
j
) =
n

k=0
y
k
l
k
(x
j
) =
n

k=0
y
k

k
j
= y
j
f ur j = 0, . . . , n und somit lost L
n
(x) die Interpolationsaufgabe.
Es bleibt noch die Eindeutigkeit zu zeigen. Seien dazu p
1
, p
2

n
zwei
Polynome, die beide die Interpolationsaufgabe erf ullen. Dann gilt f ur ihre
Dierenz p(x) = p
1
(x) p
2
(x)
p(x
j
) = p
1
(x
j
) p
2
(x
j
) = y
j
y
j
= 0 f ur j = 0, . . . , n
und somit hat p mindestens n + 1 Nullstellen. Da aber p
n
gilt, folgt
p(x) = 0 und damit p
1
(x) = p
2
(x).
Kapitel 5 Interpolation 94
Beispiel 5.1. Gegeben seien die drei St utzstellen x
0
= 0, x
1
= 1 und x
2
= 3
mit den St utzwerten y
0
= 1, y
1
= 3 und y
2
= 2. Dann wird die Interpolati-
onsaufgabe gelost durch
L
2
(x) =
2

k=0
y
k
l
k
(x)
mit
l
0
(x) =
(x 1)(x 3)
(0 1)(0 3)
=
1
3
(x 1) (x 3)
l
1
(x) =
(x 0)(x 3)
(1 0)(1 3)
=
1
2
x (x 3)
l
2
(x) =
(x 0)(x 1)
(3 0)(3 1)
=
1
6
x (x 1).
Praktisch hat die Lagrange-Formel allerdings wenig Relevanz, da die Hinzu-
nahme einer weiteren St utzstelle eine komplette Neuberechnung erfordert.
Zudem ist das Gleichungssystem wie oben bereits erwahnt schlecht kondi-
tioniert. Daher untersuchen wir nun eine weitere Basis.
Bei den Newtonschen Interpolationsformeln verwenden wir als Basis
des
n
die Funktionen
h
k
(x) =
k1

i=0
(x x
i
) f ur k = 0, . . . , n,
wobei x
0
, x
1
, . . . , x
n
wieder die St utzstellen sind.
Lemma 5.4. Seien x
0
, . . . , x
n1
paarweise verschiedene St utzstellen. Dann
bilden die Newton-Polynome
h
k
(x) =
k1

i=0
(x x
i
) f ur k = 0, . . . , n
eine Basis des
n
.
Die Newton-Polynome h
0
(x) bis h
2
(x) haben also folgendes Aussehen:
h
0
(x) = 1,
h
1
(x) = (x x
0
),
h
2
(x) = (x x
1
)(x x
0
).
Kapitel 5 Interpolation 95
Beweis. Sei
p(x) =
n

k=0

k
h
k
(x) =
n

k=0

k
k1

i=0
(x x
i
) = 0
Insbesondere gilt dann
0 = p(x
0
) =
0
h
0
(x) =
0
und daraus folgern wir
0 = p(x
1
) =
0
+
1
(x
1
x
0
) =
1
(x
1
x
0
)
. .
,=0
,
also
1
= 0. Induktiv erhalten wir, dass alle Koezienten
0
, . . . ,
n
Null
sind.
Um das Lagrange-Interpolationsproblem mit den Newton-Polynomen zu
losen, betrachtet wir also das Gleichungssystem
n

k=0

k
h
k
(x
j
) = y
j
f ur j = 0, . . . , n. (5.2)
mit den Unbekannten
0
, . . . ,
n
. Da aber
n

k=0

k
h
k
(x
j
) =
j

k=0

k
h
k
(x
j
)
gilt, erhalten wir die Koezienten-Matrix
A =
_
_
_
_
_
_
_
_
h
0
(x
0
) 0 0
h
0
(x
1
) h
1
(x
1
) 0 0
h
0
(x
2
) h
1
(x
2
) h
2
(x
2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
h
0
(x
n
) h
1
(x
n
) h
n
(x
n
)
_
_
_
_
_
_
_
_
.
Es sei bemerkt, dass A eine untere Dreiecks-Matrix ist, die wegen h
k
(x
k
) ,= 0
f ur alle k = 0, . . . , n regular ist. Wir konnen die gesuchten Koezienten also
durch Vorwartselimination bestimmen. Dies ergibt

0
=
y
0
h
0
(x
0
)
=
y
0
1
= y
0
,

1
=
1
h
1
(x
1
)
(y
1

0
h
0
(x
1
)) =
1
x
1
x
0
(y
1
y
0
),

2
=
1
h
2
(x
2
)
(y
2

1
h
1
(x
2
)
0
h
0
(x
2
))
=
1
(x
2
x
0
)(x
2
x
1
)

_
y
2

1
x
1
x
0
(y
1
y
0
) y
0
_
Kapitel 5 Interpolation 96
und so weiter. Da diese Formeln aber recht m uhsam zu bestimmen werden,
gehen wir einen anderen Weg. Dazu denieren wir zunachst die Abschnitts-
polynome P
k
i
.
Notation 5.4. Gegeben seien paarweise verschiedene St utzstellen x
0
bis x
n
und St utzwerte y
0
bis y
n
. Dann bezeichne P
k
i

k
das Polynom mit der
Eigenschaft
P
k
i
(x
j
) = y
j
f ur i j i +k.
Insbesondere ist P
n
0
das Interpolationspolynom zu allen Daten.
Wir bemerken, dass P
k
i
nach Satz 5.3 eindeutig bestimmt ist. Untersuchen
wir speziell die Polynome P
k
0
, so erhalten wir nach Konstruktion
P
k
0
(x) =
k

j=0

j
h
j
(x) =
0
+
1
(xx
0
) +. . . +
k
(xx
0
) . . . (xx
k1
).
Weiter gelten die folgenden Eigenschaften.
Lemma 5.5. Es gilt:
( 1 ) P
k+1
0
(x) = P
k
0
(x) +
k+1
h
k+1
(x) f ur k = 0, . . . , n 1.
( 2 )
k
ist der Koezient von x
k
im Polynom P
k
0
(x) f ur k = 0, . . . , n.
Dies f uhrt uns zur folgenden Denition.
Denition 5.5. Gegeben seien paarweise verschiedene St utzstellen x
0
bis
x
n
und St utzwerte y
0
bis y
n
.
Dann denieren wir die dividierten Dierenzen rekursiv durch
D
0
i
:= y
i
f ur i = 0, . . . , n,
D
k
i
:=
D
k1
i+1
D
k1
i
x
i+k
x
i
f ur i = 0, . . . , n k und k = 1, . . . , n.
Die Hauptaussage des folgenden Satzes liefert uns damit
k
= D
k
0
.
Satz 5.6. Es gilt
P
k
i
(x) = D
0
i
+D
1
i
(x x
i
) +. . . +D
k
i
(x x
i
) . . . (x x
i+k1
),
also P
k
i
(x
j
) = y
j
f ur j = i, . . . , k +i. Insbesondere gilt
P
n
0
(x) =
n

j=0
D
j
0
h
j
(x)
Kapitel 5 Interpolation 97
und damit ist P
n
0
(x) die Losung der Lagrange Interpolationsaufgabe.
Da der etwas langliche Beweis keine neuen Erkenntnisse liefert, werden wir
ihn hier nicht vorf uhren und es sei auf Schobel (2006) verwiesen.
Wir wollen nun ein Schema angeben, mit dem wir D
k
i
ezient berechnen
konnen. Dazu ordnern wir die dividierten Dierenzen nach dem folgenden
Schema:
x
0
y
0
= D
0
0

D
1
0

x
1
y
1
= D
0
1

D
2
0

D
1
1

D
3
0
x
2
y
2
= D
0
2

D
2
1

D
1
2

x
3
y
3
= D
0
3

Beispiel 5.2. Verwenden wir auch hier das Beispiel mit den St utzstellen
x
0
= 0, x
1
= 1 und x
2
= 3 und den St utzwerten y
0
= 1, y
1
= 3 und y
2
= 2,
so erhalten wir
0 1 = D
0
0

D
1
0
= 2

1 3 = D
0
1

D
2
0
=
5/2
3
=
5
6
D
1
1
=
1
2

3 2 = D
0
2

und somit
P
2
0
(x) = 1 + 2 (x x
0
)
5
6
(x x
0
)(x x
1
)
= 1 + 2x
5
6
x(x 1).
Kapitel 5 Interpolation 98
Bemerkung 5.2. Im Gegensatz zur Konstruktion des interpolierenden Poly-
noms uber Lagrange-Polynome f uhrt eine Hinzunahme einer weiteren St utz-
stelle nicht zur kompletten Neuberechnung des Schemas. Es m ussen lediglich
die neuen dividierten Dierenzen D
0
n+1
, D
1
n
, . . . , D
n
1
, D
n+1
0
berechnet wer-
den.
Abschlieend m ussen wir uns noch mit dem Interpolationsfehler beschafti-
gen. Dazu sei im folgenden f : [a, b] R eine Funktion, welche die St utz-
werte liefert. Mit x
0
, . . . , x
n
[a, b] gelte also y
k
= f(x
k
) f ur k = 0, . . . , n.
Die Losung der Interpolationsaufgabe zu den St utzstellen x
0
, . . . , x
n
[a, b]
und den St utzwerten f(x
0
), . . . , f(x
n
) bezeichnen wir mit L
n
f
n
, es gelte
also
(L
n
f)(x
i
) = f(x
i
)
f ur i = 0, . . . , n.
Den Operator
L
n
: C[a, b]
n
nennen wir den Lagrange-Interpolationsoperator. Von Interesse ist nun
der Interpolationsfehler
R
n
f(x) := f(x) L
n
f(x).
Dabei mochten wir die grotmogliche Dierenz zwischen f(x) und L
n
f(x)
untersuchen.
Notation 5.6. F ur eine Funktion g : [a, b] R bezeichnen wir mit
|g|

:= max[g(x)[ : x [a, b]
den betragsmaig groten Funktionswert aus dem Intervall [a, b].
Satz 5.7. Sei f : [a, b] R eine (n+1)-mal stetig dierenzierbare Funktion.
Dann hat
R
n
f(x) = f(x) L
n
f(x).
bei der Polynominterpolation an den n + 1 paarweise verschiedenen St utz-
stellen x
0
, . . . , x
n
[a, b] die Darstellung
(R
n
f)(x) =
f
(n+1)
()
(n + 1)!
n

k=0
(x x
k
),
dabei ist ein von x abhangiger Wert aus [a, b].
Kapitel 5 Interpolation 99
Beweis. Sei x = x
j
f ur ein j 0, 1, . . . , n. Dann gilt (R
n
f)(x
j
) = 0 und
die Aussage ist richtig. Sei nun
h
n+1
(x) =
n

k=0
(x x
k
).
F ur ein festes x [a, b] mit x ,= x
k
f ur alle k = 0, . . . , n denieren wir die
Funktion g : [a, b] R durch
g(y) = f(y) (L
n
f)(y) h
n+1
(y)
f(x) (L
n
f)(x)
h
n+1
(x)
.
Diese Funktion ist (n + 1)-mal stetig dierenzierbar und hat die (n + 2)
Nullstellen
x, x
0
, . . . , x
n
.
Der Satz von Rolle besagt nun, dass es zu je zwei Nullstellen x
a
und x
b
von g
eine Zwischenstelle (x
a
, x
b
) gibt mit g
(1)
() = 0. Also hat die Ableitung
g
(1)
mindestens n+1 paarweise verschiedene Nullstellen auf [a, b]. Sukzessive
Wiederholung dieses Arguments ergibt die Aussage, dass g
(r)
mindestens
n + 2 r Nullstellen hat f ur alle r = 0, 1, . . . , n + 1.
Somit hat auch g
(n+1)
eine Nullstelle auf [a, b] und diese bezeichnen wir mit
. Es folgt
0 = g
(n+1)
() = f
(n+1)
() (n + 1)!
(R
n
f)(x)
h
n+1
(x)
,
denn mit L
n
f
n
folgt L
n
f
(n+1)
= 0. Der Term (n + 1)! ergibt sich,
da h
n+1

n+1
und als hochsten Koezienten Eins hat. Damit folgt die
Behauptung.
Aus der Darstellung des Restglieds ergibt sich sofort folgende Abschatzung
Korollar 5.8. Sei f : [a, b] R mindestens (n+1)-mal stetig dierenzierbar
und seien x
0
, . . . , x
n
paarweise verschiedene St utzstellen. Dann gilt
|R
n
f|

= |f L
n
f|


1
(n + 1)!
|h
n+1
|

|f
n+1
|

.
Mit |h
n+1
|

(b a)
n+1
folgt schlielich
|R
n
f|

= |f L
n
f|


(b a)
n+1
(n + 1)!
|f
(n+1)
|

.
Kapitel 5 Interpolation 100
Leider sind die Voraussetzungen normalerweise nicht erf ullt. Bei nur stetigen
Funktionen gilt die Aussage des Satzes nicht.
Beispiel 5.3. Sei k 0, . . . , n und
f(x) =
_
xsin

x
f ur x (0, 1]
0 f ur x = 0
.
Mit x
k
=
1
k+1
ist wegen f(x
k
) = 0 das Interpolationspolynom
L
n
f(x) = 0
f ur alle n N. Die Folge der Interpolationspolynome konvergiert also aus-
schlielich an den St utzstellen x
k
gegen die Funktion f und der Fehler
|R
n
f|

= |f L
n
f|

bleibt konstant.
Allerdings kann man zeigen, dass es zu jeder stetigen Funktion eine Folge
von St utzstellen gibt, so dass L
n
f gleichmaig auf [a, b] gegen f konvergiert.
Dennoch ist f ur beliebige St utzstellen die Interpolation mit Polynomen ho-
hen Grades im Allgemeinen nicht sinnvoll.
5.2 Spline-Interpolation
Wir haben anhand des Beispiels im letzten Abschnitt gesehen, dass die In-
terpolationspolynome nicht unbedingt gegen die zu interpolierende Funktion
f konvergieren. Einen Ausweg bietet die st uckweise polynomiale Interpola-
tion durch Splines. Anwendungen hat dieses Gebiet auch in der numerischen
Integration und bei der Diskretisierung von Dierentialgleichungen wie wir
in Kapitel 8 sehen werden.
Die folgenden Inhalte in diesem Abschnitt sind zum groen Teil dem Skript
Kress (2007) entnommen.
Denition 5.7. Sei a = x
0
< x
1
< . . . < x
n
= b eine Unterteilung des
Intervalls [a, b] und m N. Dann heit eine Funktion
s : [a, b] R
ein Spline vom Grad n, falls die folgenden beiden Bedingungen erf ullt sind:
( 1 ) s ist m1 mal stetig dierenzierbar auf [a, b], also s (
m1
([a, b]).
Kapitel 5 Interpolation 101
( 2 ) Es gilt s[
[x
j1
,x
j
]

m
f ur j = 1, . . . , n.
Die Menge aller Splines vom Grad m zu einer Unterteilung
a = x
0
< x
1
< . . . < x
n
= b
mit n + 1 St utzstellen wird mit S
n
m
([a, b]) oder kurz S
n
m
bezeichnet.
F ur m = 1 bezeichnen wir die Splines als linear, f ur m = 2 als quadratisch
und f ur m = 3 als kubisch.
Mit dieser Denition konnen wir die Spline Interpolationsaufgabe wie
folgt angeben.
Notation 5.8. Gegeben sei mit a = x
0
< x
1
< . . . < x
n
= b eine Unter-
teilung von [a, b], eine Zahl m N sowie die n + 1 St utzwerte y
0
, . . . , y
n
.
Gesucht ist ein Spline s S
n
m
mit
s(x
k
) = y
k
f ur k = 0, . . . , n. (5.3)
Abbildung 5.1: Beispiel einer Spline Interpolationsaufgabe: Linearer Spline
(gestrichelt) und kubischer Spline (durchgezogen).
Lineare Splines sind stetige und st uckweise lineare Funktionen. Die zugehori-
ge Interpolationsaufgabe wird durch die lineare Verbindung der Punkte
gelost. Der wichtigste Fall sind kubische Splines, also Splines vom Grad
3 zunachst beschaftigen wir und mit der Losbarkeit sowie der Eindeutigkeit
der Spline Interpolationsaufgabe.
Satz 5.9. S
n
m
ist ein linearer Raum mit Dimension n +m.
Beweis. Unter Verwendung der folgenden Bezeichnung
x
m
+
:=
_
x
m
f ur x 0,
0 f ur x < 0
Kapitel 5 Interpolation 102
denieren wir die Funktionen
u
k
(x) := (x x
0
)
k
f ur k = 0, . . . , m,
v
k
(x) := (x x
k
)
m
+
f ur k = 1, . . . , n 1.
Diese Funktionen sind linear unabhangig, denn aus
m

k=0

k
u
k
(x) +
n1

k=1

k
v
k
(x) = 0
folgt insbesondere
m

k=0

k
(x x
0
)
k
k = 0
f ur alle x [x
0
, x
1
]. Damit ergibt sich sofort
k
= 0 f ur k = 0, . . . , m. Weiter
folgt aus

1
(x x
1
)
m
= 0
f ur x [x
1
, x
2
] auch
1
= 0 und fortfahrend
k
= 0 f ur k = 1, . . . , n 1.
Wir wollen nun noch zeigen, dass die oben denierten Funktionen auch ein
Erzeugendensystem und damit eine Basis von S
n
m
darstellen. Dazu zeigen
wir durch Induktion die Darstellung
s(x) =
m

k=0

k
(x x
0
)
k
+
i1

j=1

k
(x x
k
)
m
+
(5.4)
f ur x [x
0
, x
i
]. Der Induktionsanfang i = 1 ist klar, da s auf [x
0
, x
1
] aus

m
ist. Wir nehmen an, dass eine Darstellung der Form (5.4) f ur ein i 1
existiert. Dann beschreibt
p(x) := s(x)
m

k=0
(x x
0
)
k
+
i1

j=1

k
(x x
k
)
m
+
auf dem Intervall [x
i
, x
i+1
] ein Polynom aus
m
. Da der Spline m 1 mal
stetig dierenzierbar ist, muss
p
(j)
(x
i
) = 0 f ur j = 0, . . . , m1
gelten und dies bedeutet
p(x) =
i
(x x
i
)
m
+
auf [x
i
, x
i+1
]. Da nun aber (xx
i
)
m
+
= 0 auf [x
0
, x
1
] gilt, ist die Darstellung
auch f ur i + 1 gezeigt.
Kapitel 5 Interpolation 103
Wir stellen die Basis von S
n
m
noch einmal zusammen.
Notation 5.9. Die Funktionen
u
k
(x) := (x x
0
)
k
f ur k = 0, . . . , m,
v
k
(x) := (x x
k
)
m
+
f ur k = 1, . . . , n 1.
sind die Kardinalsplines von S
n
m
.
Bei der Spline Interpolationsaufgabe haben wir n+1 St utzstellen, der Raum
S
n
m
hat aber die Dimension n +m. Somit konnen wir f ur die ubrigen m1
Freiheitsgrade bei der Interpolation zusatzliche Bedinungen am Rand des
Intervalls [a, b] fordern. Da wir diese gleichmaig auf beide Intervallenden
verteilen wollen, betrachten wir hier nur ungerade m.
Satz 5.10. Sei m = 2l 1 mit l N sowie f (([a, b]). Weiter sei s S
n
m
ein interpolierende Spline mit
s(x
j
) = f(x
j
) f ur j = 0, . . . , n.
Zusatzlich erf ulle s(x) die m1 Randbedingungen
s
(j)
(a) = f
(j)
(a) und s
(j)
(b) = f
(j)
(b)
f ur j = 1, . . . , l 1. Dann gilt
_
b
a
(f
(l)
(x) s
(l)
(x))
2
dx =
_
b
a
(f
(l)
(x))
2
dx
_
b
a
(s
(l)
(x))
2
dx
Der Beweis lasst sich durch zweifache partielle Integration unter Ber ucksich-
tigung der Randbedingungen f uhren, siehe Kress (2007).
Nun untersuchen wir die Eindeutigkeit der Spline Interpolation und benoti-
gen dazu eine kleine Vorarbeit.
Lemma 5.11. Unter den Voraussetzungen von Satz 5.10 sei f(x) = 0. Dann
gilt s(x) = 0.
Beweis. F ur f(x) = 0 folgt nach Satz 5.10
_
b
a
(s
(l)
(x))
2
dx = 0.
Hieraus ergibt sich s
(l)
(x) = 0 und daher s
l1
auf [a, b]. Die Randbe-
dingungen liefern nun s(x) = 0.
Kapitel 5 Interpolation 104
Satz 5.12. Sei m = 2l 1 mit l 2 sowie a
1
, b
1
, . . . , a
l
, b
l
R. Weiter sei
s S
n
m
ein interpolierende Spline mit
s(x
j
) = y
j
f ur j = 0, . . . , n.
Zusatzlich erf ulle s die m1 Randbedingungen
s
(j)
(a) = a
j
und s
(j)
(b) = b
j
f ur j = 1, . . . , l 1. Dann ist s eindeutig bestimmt.
Beweis. Unter Verwendung der Kardinalsplines erhalten wir
s(x) =
m

k=0

k
u
k
(x) +
i1

j=1

k
v
k
(x).
Die Interpolationsaufgabe sowie die Randbedingungen sind damit genau
dann erf ullt, wenn die m+n Koezienten
0
, . . . ,
m
,
1
, . . . ,
n1
das Sys-
tem
m

k=0

k
u
k
(x
j
) +
i1

j=1

k
v
k
(x
j
) = y
j
f ur j = 0, . . . , n,
m

k=0

k
u
(j)
k
(a) +
i1

j=1

k
v
(j)
k
(a) = a
j
f ur j = 0, . . . , l 1,
m

k=0

k
u
(j)
k
(b) +
i1

j=1

k
v
(j)
k
(b) = b
j
f ur j = 0, . . . , l 1
aus m+n linearen Gleichungen losen. Nach Lemma 5.11 besitzt die homo-
gene Form dieses Gleichungssystems nur die triviale Losung und daher ist
das inhomogene Gleichungssystem eindeutig losbar.
Zur Berechnung der interpolierende Splines konnten wir die Kardinalsplines
und das Gleichungssystem des vorherigen Satzes verwenden. Dieses System
ist jedoch aufgrund der gloablen Struktur der Kardinalsplines schlecht kon-
ditioniert.
Daher verwenden wir hier die B-Splines, welche einen lokalen Trager haben.
Zur Vereinfachung betrachten wir hier nur eine aquidistante Zerlegungen,
also
x
k
= a +hk f ur j = 0, . . . , n
mit h = (b a)/n.
Kapitel 5 Interpolation 105
Denition 5.10. Die B-Splines werden rekursiv deniert durch
B
m+1
(x) :=
_
x+
1
2
x
1
2
B
m
(y) dy
mit
B
0
(x) :=
_
1 f ur [x[
1
2
0 f ur [x[ >
1
2
.
Abbildung 5.2: Die Funktionen B
0
(x), B
1
(x) und B
2
(x).
Per Induktion lassen sich leicht die folgenden Aussagen zeigen.
Lemma 5.13. F ur die B-Splines gelten die folgenden Aussagen.
( 1 ) B
m
(x) 0 f ur alle x R und m 0.
( 2 ) B
m
(x) ist m1 mal stetig dierenzierbar f ur m 1.
( 3 ) B
m
(x) = 0 f ur alle x [m/2 1/2, m/2 + 1/2] und m 0.
( 4 ) B
m
(x) reduzieren sich zu Polynomen aus
m
f ur m 0 auf den
Teilintervallen [i, i + 1] f ur m ungerade und auf den Teilintervallen
[i 1/2, i + 1/2] f ur m gerade, i Z.
Somit sind die B
m
(x) tatsachlich Splines vom Grad m. Durch elementare
Rechnungen ergibt sich
B
1
(x) =
_
1 [x[ f ur [x[ 1
0 f ur [x[ > 1
,
Kapitel 5 Interpolation 106
B
2
(x) =
1
2

_
_
_
2 ([x[
1
2
)
2
([x[ +
1
2
)
2
f ur [x[
1
2
([x[
3
2
)
2
f ur
1
2
[x[
3
2
0 f ur [x[ >
3
2
,
B
3
(x) =
1
6

_
_
_
(2 [x[)
3
4(1 [x[)
3
f ur [x[ 1
(2 [x[)
3
f ur 1 [x[ 2
0 f ur [x[ > 2
.
Satz 5.14. F ur m N 0 sind die B-Splines B(x k) f ur k = 0, . . . , m
linear unabhangig auf dem Intervall
I
m
:=
_
m1
2
,
m+ 1
2
_
.
Beweis. Wieder f uhren wir eine vollstandige Induktion uber m durch. Der
Induktionsanfang m = 0 ist trivial. Wir nehmen an, die Behauptung sei
bewiesen f ur den Grad m1 mit m 1. Sei nun
m

k=0

k
B
m
(x k) = 0
f ur x I
m
. Nach Denition der B-Splines erhalten wir durch Dierentiation
m

k=1

_
B
m1
_
x k +
1
2
_
B
m1
_
x k
1
2
__
mit x I
m
. Nutzen wir nun, dass die Trager der Funktionen
B
m1
_
x +
1
2
_
und B
m1
_
x m
1
2
_
einen mit I
m
leeren Durchschnitt haben, konnen wir die Summe umformu-
lieren in
m

k=1
(
k

k1
) B
m1
_
x k +
1
2
_
f ur x I
m
. Hieraus folgt
k
=
k1
f ur k = 1, . . . , m aufgrund der Indukti-
onsannahme und daher
k
= f ur k = 0, . . . , m. Es folgt

m

k=0
B
m
(x k) = 0
f ur x I
m
und durch Integration uber I
m
ergibt sich

_ m
2
+
1
2

m
2

1
2
B
m
(x) dx = 0.
Dies impliziert schlielich = 0, da die B
m
nicht negativ sind.
Kapitel 5 Interpolation 107
Diese Vorarbeit liefert uns nun eine Basis des S
n
m
aus B-Splines.
Satz 5.15. Sei x
k
= a + hk f ur k = 0, . . . , n mit h = (b a)/n eine
aquidistante Zerlegung von [a, b] mit n 2 und sei m = 2l 1 mit l N.
Dann bilden die B-Splines
B
m,k
(x) := B
m
_
x x
k
h
_
f ur k = l + 1, . . . , n +l 1 eine Basis von S
n
m
.
Beweis. Oenbar gilt B
m,k
S
n
m
und nach Satz 5.14 erhalten wir die lineare
Unabhangigkeit auf [a, b]. Die Behauptung folgt dann aus Satz 5.9.
Wir wollen nun zeigen, dass die n + m B-Splines B
m,k
tatsachlich eine ge-
eignete Basis von S
n
m
sind, um die Spline Interpolationsaufgabe zu losen.
Dazu betrachten wir den wichtigsten Fall m = 3 mit l = 1, also kubische
Splines. Zunachst ergibt sich
B
3
(0) =
2
3
, B
3
(1) =
1
6
, B
t
3
(0) = 0, B
t
3
(1) =
1
2
.
Damit erf ullt der kubische Spline
s(x) =
n+1

k=1

k
B
3
_
x x
k
h
_
die Spline Interpolationsaufgabe unter den Randbedingungen aus Satz 5.12
genau dann, wenn die n +3 Koezienten
1
, . . . ,
n+1
das Gleichungssys-
tem

1
2

1
+
1
2

1
= ha
1
1
6

j1
+
2
3

j
+
1
6

j+1
= y
j
f ur j = 0, . . . , n,

1
2

n1
+
1
2

n+1
= hb
1
aus n + 3 linearen Gleichungen losen. Es sei bemerkt, dass das Jacobi-
Verfahren f ur jeden Startwert gegen die eindeutig Losung dieses Gleichungs-
systems konvergiert.
Abschlieend m ussen wir uns noch mit dem Interpolationsfehler beschafti-
gen. Der folgende Satz liefert schlielich eine weitaus starkere Aussage als
bei der Polynominterpolation.
Kapitel 5 Interpolation 108
Satz 5.16. Sei f : [a, b] R zweimal stetig dierenzierbar und sei s S
n
3
der eindeutig bestimmte kubische Spline, der die Interpolationsaufgabe unter
den Randbedingungen aus Satz 5.12 erf ullt. Dann gilt
|f s|


h
3/2
2
|f
tt
|
2
und |f
t
s
t
|

h
1/2
|f
tt
|
2
mit h = max(x
j
x
j1
) : j = 1, . . . , n
Beweis. Zunachst denieren wir
r(x) = f(x) s(x).
Damit hat r(x) die n + 1 Nullstellen x
0
, . . . , x
n
und der Abstand zwischen
zwei aufeinander folgenden Nullstellen von r(x) ist kleiner oder gleich h.
Nach dem Satz von Rolle hat die r
t
(x) dann n Nullstellen mit einen Abstand
kleiner oder gleich 2h. Wahlen wir nun ein z [a, b] mit
[r
t
(z)[ = |r
t
|

,
dann hat die nachste gelegene Nullstelle von r
t
(x) einen Abstand
[ z[ h.
Mit der Cauchy-Schwarz Ungleichung konnen wir nun abschatzen:
|r
t
|
2

_
z

r
tt
(y) dy

2
h

_
z

(r
tt
(y))
2
dy

h
_
b
a
(r
tt
(y))
2
dy.
Aus Satz 5.10 folgt damit
|r
t
|

h
1/2
|f
tt
|
2
,
also die zweite Aussage. Nun wahlen wir ein x [a, b] mit
[r(x)[ = |r|

.
Dann hat die nachst gelegene Nullstelle von r(x) einen Abstand
[ x[
h
2
.
Wieder konnen wir abschatzen:
|r|

_
x

r
t
(y) dy


h
2
|r
t
|


h h
1/2
2
|f
tt
|

Damit ist auch die erste Aussage gezeigt.


Der Satz besagt also auch, dass der interpolierende Spline s(x) bei einer
aquidistante Zerlegung von [a, b] f ur n gegen die Funktion f(x) kon-
vergiert. Dies ist bei der Polynominterpolation nicht der Fall.
Kapitel 5 Interpolation 109
5.3 Ausblick
In diesem Kapitel haben wir uns mit zwei einfachen Interpolationsaufgaben
beschaftigt, namlich der Polynom- und der Splineinterpolation. Nat urlich
gibt es noch sehr viele weitere Interpolationsaufgaben. Sind bei der Poly-
nominterpolation zu einigen St utzstellen auch St utzwerte der Ableitungen
bekannt, so f uhrt dies zur Hermite Interpolation, siehe Kress (1998). Dies
lasst sich wiederum durch ein Schema aus dividierten Dierenzen losen. Wei-
terhin nicht betrachtet haben wir trigonometrische Interpolation, welche zur
schnellen Fourier-Transformation f uhrt, siehe Hohage (2005). Auch die In-
terpolation von Kurven mittels Bezier Kurven sowie die mehrdimensionale
Interpolation haben wir komplett vernachlassigt, siehe und H. Wendland
(2004).
6 Numerische Integration
Gerade in der Physik ist die numerische Auswertung von Integralen von groer Bedeutung,
zum Beispiel bei der numerischen Losung der Schrodinger Gleichung. Da sich komplizierte
Funktionen oft nicht analytisch losen lassen oder die exakte Losung viel zu Aufwendig zu
berechnen ist, sind numerische Verfahren mit geeigneten Fehlerabschatzungen oft hilfreich.
Unser Ziel in diesem Kapitel ist es, eine einfache Formel zur Berechnung von
_
b
a
f(x) dx
zu nden. Eine Moglichkeit ware die Annaherung durch Rechtecke:
_
b
a
f(x) dx
n

j=1
a
j
f(x
j
),
wobei a
j
die Breite des jeweiligen Rechtecks und f(x
j
) die Hohe ist, siehe
Abbildung 6.1.
Abbildung 6.1: Numerische Integration durch Rechtecke.
Wir f uhren zunachst einige Notationen ein, bevor wir uns mit den Interpo-
lationsquadraturen beschaftigen werden.
110
Kapitel 6 Numerische Integration 111
Notation 6.1. Sei f (([a, b]) ein stetige Funktion. Eine Abbildung
Q : [a, b] R
heit Quadraturformel bez uglich der Quadraturstellen x
0
, . . . , x
n

[a, b], falls
Q(f) =
n

j=0
a
j
f(x
j
)
mit a
0
, . . . , a
n
R gilt.
Wir werden versuchen Quadraturformeln Q zu nden, die Integrale
I(f) :=
_
b
a
f(x) dx
annahern, also Q(f) I(f).
Notation 6.2. Sei T (([a, b]) ein endlich dimensionaler Unterraum von
(([a, b]). Eine Quadraturformel Q heit exakt f ur T, wenn
Q(f) = I(f)
f ur alle f T gilt.
Satz 6.1. Sei T (([a, b]) ein endlich dimensionaler Unterraum von
(([a, b]), sei f
0
, . . . , f
m
eine Basis von T und sei Q eine Quadraturformel.
Gilt dann Q(f
i
) = I(f
i
) f ur alle i = 0, . . . , m, so ist Q exakt f ur T.
Beweis. Sei f T. Dann kann f bez uglich der Basis f
0
, . . . , f
m
eine Dar-
stellung
f(x) =
m

i=0
a
i
f
i
(x).
Nun gilt
Q(f) = Q
_
m

i=0
a
i
f
i
_
=
m

i=0
a
i
Q(f
i
)
=
m

i=0
a
i
I(f
i
)
= I
_
m

i=0
a
i
f
i
_
= I(f)
und damit ist der Satz gezeigt.
Kapitel 6 Numerische Integration 112
6.1 Interpolationsquadraturen
Nach der allgemeinen Einleitung befassen wir uns nun mit Interpolations-
quadraturen, dass heit wir werden T =
n
als Raum der Polynome vom
Grad n annehmen.
Seien dazu Quadraturstellen a x
0
< . . . < x
n
b gegeben. Die Idee ist es,
das Integral von f durch das Integral des eindeutig bestimmten Interpolati-
onspolynoms (L
n
f)(x) zu approximieren.
Denition 6.3. Eine Quadraturformel
Q
n
(f) =
n

j=0
a
j
f(x
j
)
heit Interpolationsquadratur der Ordnung n, falls f ur alle f (([a, b])
Q
n
(f) =
n

j=0
a
j
f(x
j
) =
_
b
a
(L
n
f)(x)dx = I(L
n
f).
gilt. Dabei ist L
n
f
n
das eindeutig bestimmte Interpolationspolynom zu
f bez uglich der St utzstellen a x
0
< . . . < x
n
b.
Wir erinnern uns an die Lagrange Darstellung
(L
n
f)(x) =
n

j=0
f(x
j
)l
j
(x)
mit den Lagrange-Polynomen
l
j
(x) =
n

k=0
k=j
x x
k
x
j
x
k
.
Unser Ziel ist es nun die Koezienten a
j
von Interpolationsquadraturen
der Ordnung n herzuleiten. Kennen wir diese, so konnen wir alle Polynome
p
n
exakt integrieren. Erstaunlicherweise gilt auch die Umkehrung dieser
Aussage.
Satz 6.2. Eine Quadraturformel Q
n
ist genau dann eine Interpolationsqua-
dratur vom Grad n, wenn alle Polynome p
n
exakt integriert werden.
Beweis. Zunachst sei
Q
n
(f) =
_
b
a
(L
n
f)(x) dx
Kapitel 6 Numerische Integration 113
eine Interpolationsquadratur der Ordnung n und sei f
n
. Dann gilt
f(x) = (L
n
f)(x) nach Satz 5.3, also folgt
Q(f) =
_
b
a
(L
n
f)(x) dx =
_
b
a
f(x) dx = I(f)
und damit ist Q
n
exakt f ur alle f
n
.
Sei nun umgekehrt
Q(f) =
n

j=0
a
i
f(x
j
)
eine Quadraturformel, die I(p) = Q(p) f ur alle p
n
erf ullt. Weiter sei
f (([a, b]). Dann ist L
n
f
n
und es folgt
I(L
n
f) = Q(L
n
f) =
n

j=0
a
j
(L
n
f)(x
j
)
=
n

j=0
a
j
f(x
j
) = Q(f),
also ist Q(f) eine Interpolationsquadratur der Ordnung n.
Um schlielich die Koezienten a
j
von Interpolationsquadraturen der Ord-
nung n zu berechnen, kann der folgende Satz verwendet werden.
Satz 6.3. Gegeben seien Quadraturstellen a x
0
< . . . < x
n
b und weiter
sei
h
n+1
(x) =
n

j=0
(x x
j
).
Dann existiert genau eine Interpolationsquadratur der Ordnung n zu den
Quadraturstellen x
0
, . . . , x
n
[a, b], die durch die Gewichte
a
j
=
1
h
t
n+1
(x
j
)

_
b
a
h
n+1
(x)
x x
j
dx
f ur j = 0, . . . , n gegeben ist.
Der Beweis hierzu kann in Schobel (2007) gefunden werden. Wir werden uns
im Folgenden jedoch nur mit aquidistanten Quadraturstellen
x
j
= a +j h f ur j = 0, . . . , n
mit h = (b a)/n befassen.
Kapitel 6 Numerische Integration 114
Notation 6.4. Die Interpolationsquadraturen der Ordnung n zu den aqui-
distanten St utzstellen x
j
= a+j h f ur j = 0, . . . , n mit h = (ba)/n heien
Newton-Cotes-Formeln.
Nat urlich konnen wir die Gewichte a
j
der Newton-Cotes-Formeln nach Satz
6.3 bestimmen. Wir wollen nun aber zeigen, wie wir die a
j
mit Hilfe von
Satz 6.1 uber die Losung eines linearen Gleichungssystems sehr viel einfacher
berechnen konnen.
Dazu wahlen wir die Monom-Basis 1, x, x
2
, . . . , x
n
von
n
und fordern,
dass diese exakt integriert werden, also
Q(p
k
) =
n

j=0
a
j
p
k
(x
i
) =
_
b
a
p
k
(x) dx = I(p
k
)
f ur k = 0, . . . , n mit p
k
(x) = x
k
. Das genaue Vorgehen sei an den folgenden
Beispielen veranschaulicht.
Beispiel 6.1 (Trapez-Regel). F ur n = 1 und [a, b] = [1, 1] fordern wir,
dass die Funktionen p
0
(x) = 1 und p
1
(x) = x exakt integriert werden:
Q(p
0
) = a
0
+a
1
=
_
1
1
1 dx = 2,
Q(p
1
) = a
0
+a
1
=
_
1
1
xdx = 0.
Dies f uhrt uns zum Gleichungssystem
a
0
+a
1
= 2,
a
0
+a
1
= 0
mit der eindeutigen Losung a
0
= a
1
= 1. Die Newton-Cotes-Formel der
Ordnung n = 1 zu [1, 1] ist damit
Q
1
(f) = f(1) +f(1).
Allgemein gilt f ur [a, b]
Q
1
(f) =
b a
2
(f(a) +f(b)).
Diese Formel wird auch Trapez-Regel genannt.
Kapitel 6 Numerische Integration 115
Abbildung 6.2: Veranschaulichung der Trapez-Regel.
Beispiel 6.2 (Simpson-Regel). F ur n = 2 und [a, b] = [1, 1] fordern wir,
dass die Funktionen p
0
(x) = 1, p
1
(x) = x und p
2
(x) = x
2
exakt integriert
werden:
Q(p
0
) = a
0
+a
1
+a
2
=
_
1
1
1 dx = 2,
Q(p
1
) = a
0
+a
2
=
_
1
1
xdx = 0,
Q(p
2
) = a
0
+a
2
=
_
1
1
x
2
dx =
2
3
.
Dies f uhrt uns zum Gleichungssystem
a
0
+a
1
+a
2
= 2,
a
0
+a
2
= 0,
a
0
+a
2
=
2
3
mit der eindeutigen Losung a
0
=
1
3
, a
1
=
4
3
und a
2
=
1
3
. Die Newton-Cotes-
Formel der Ordnung n = 2 zu [1, 1] ist damit
Q
2
(f) =
1
3
f(1) +
4
3
f(0) +
1
2
f(1).
Allgemein gilt f ur [a, b]
Q
2
(f) =
b a
6

_
f(a) + 4 f
_
a +b
2
_
+f(b)
_
.
Diese Formel wird auch Simpson-Regel genannt.
Tabelle 6.1 stellt die Gewichte der Newton-Cotes-Formeln bis n = 5 zusam-
men.
Kapitel 6 Numerische Integration 116
n a
0
a
1
a
2
a
3
a
4
a
5
Bezeichnung
1
1
2
1
2
Trapez-Regel
2
1
6
2
3
1
6
Simpson-Regel
3
1
8
3
8
3
8
1
8
Newton-
3
8
-Regel
4
7
90
32
90
12
90
32
90
7
90
1. Milne-Regel
5
19
288
75
288
50
288
50
288
75
288
19
288
2. Milne-Regel
Tabelle 6.1: Gewichte der Newton-Cotes-Formeln bis n = 5 f ur ein Intervall
der Lange 1.
Wir wissen bereits, dass die Simpson-Regel alle Polynome vom Grad 2
exakt integriert. Es gilt jedoch noch mehr.
Lemma 6.4. Die Simpson-Regel Q
2
ist exakt f ur alle Polynome p
3
.
Beweis. Nach Satz 6.1 ist eine Quadraturformel auf
3
exakt, wenn sie auf
einer Basis von
n
exakt ist. Wir wahlen als Basis p
0
, . . . , p
3
mit
p
0
(x) = 1,
p
1
(x) = x
a +b
2
,
p
2
(x) =
_
x
a +b
2
_
2
,
p
3
(x) =
_
x
a +b
2
_
3
.
Wir wissen bereits, dass
Q(p
k
) = I(p
k
) f ur k = 0, 1, 2
gilt. Nun lasst sich aber auch einfach nachrechnen, dass
Q(p
3
) = I(p
3
)
gilt und damit werden alle Polynome aus
3
durch die Simpson-Regel exakt
integriert.
Analog lasst sich auch die folgende Verallgemeinerung beweisen.
Kapitel 6 Numerische Integration 117
Satz 6.5. Die Newton-Cotes-Formel Q
n
(f) mit geradem n ist exakt f ur alle
Polynome p
n+1
.
Leider tauchen bei den Newton-Cotes-Formeln ab n 8 negative Gewichte
auf, die unerw unschte Nebeneekte haben:
( 1 ) Es kann Ausloschung und damit numerischer Instabilitat auftreten.
( 2 ) Es lassen sich positive Funktionen f 0 konstruieren mit Q(f) < 0.
Um diese Probleme zu umgehen, konnen zusammengesetzte Newton-Cotes-
Formeln verwendet werden. Analog zur Spline-Interpolation zerlegen wir
dazu das Integrationsintervall in m Teilintervalle und wendet auf jedes Teil-
intervall eine Quadraturformel niedriger Ordnung an.
Verwenden wir auf jedem Teilintervall die Trapez-Regel, so erhalten wir die
zusammengesetzte Trapez-Regel
_
b
a
f(x) dx T
h
(f) := h
_
1
2
f(x
0
) +
m1

i=1
f(x
i
) +
1
2
f(x
m
)
_
,
mit x
i
= a +ih f ur i = 0, . . . , m mit h =
ba
m
.
Abbildung 6.3: Veranschaulichung der zusammengesetzten Trapez-Regel.
Analog ergibt sich die zusammengesetzte Simpson-Regel
_
b
a
f(x) dx S
h
(f)
:=
h
3

m/21

i=0
_
1
3
f(x
2i
) +
4
3
f(x
2i+1
) +
1
3
f(x
2i+2
)
_
f ur ein gerades m.
Kapitel 6 Numerische Integration 118
Abschlieend beschaftigen wir uns in diesem Abschnitt mit dem Fehler der
numerischen Integration unter der Verwendung von Newton-Cotes-Formeln.
Satz 6.6. Sei f C
2
([a, b]). Dann erf ullt der Fehler der Trapez-Regel die
Gleichung
I(f) Q
1
(f) =
(b a)
3
12
f
tt
()
f ur ein [a, b].
Bei der zusammengesetzten Trapez-Regel mit h = (b a)/m gilt die Fehler-
abschatzung
[I(f) T
h
(f)[
b a
12
h
2
|f
tt
|

.
Beweis. Ist L
1
f
1
das Interpolationspolynom zu den St utzstellen x
0
= a
und x
1
= b, so gilt f ur den Fehler bei der Trapezregel
I(f) Q
1
(f) =
_
b
a
(x a)(x b)
f(x) (L
1
f)(x)
(x a)(x b)
dx.
Da der erste Faktor des Integranden nicht positiv auf [a, b] ist und da der
zweite Faktor nach der Regel von lHopital stetig ist, folgt aus dem Mit-
telwertsatz der Integralrechnung, dass es eine Zwischenstelle t [a, b] gibt
mit
I(f) Q
1
(f) =
f(t) (L
1
f)(t)
(t a)(t b)

_
b
a
(x a)(x b) dx.
Da
_
b
a
(x a)(x b) dx =
(b a)
3
6
,
folgt die Fehlerabschatzung der Trapez-Regel aus der Fehlerdarstellung
f(t) (L
1
f)(t)
(t a)(t b)
=
f
tt
()
2!
f ur lineare Interpolation mit [a, b], siehe Satz 5.7.
Durch Summation dieser Fehlerabschatzungen erhalten wir direkt den Fehler
der zusammengesetzten Trapez-Regel, da jedes Teilintervall durch
1
12

(b a)
3
m
3
|f
tt
|

beschrankt ist.
Wieder unter der Verwendung von Satz 5.7 zur Polynominterpolation erhal-
ten wir die folgende Aussage.
Kapitel 6 Numerische Integration 119
Satz 6.7. Sei f C
4
([a, b]). Dann erf ullt der Fehler der Simpson-Regel die
Gleichung
I(f) Q
2
(f) =
1
90

_
b a
2
_
5
f
(4)
()
f ur ein [a, b].
Bei der zusammengesetzten Simpson-Regel mit h = (b a)/m gilt die Feh-
lerabschatzung
[I(f) S
h
(f)[
b a
180
h
4
|f
(4)
|

.
6.2 Gausche Quadraturformeln
Bislang haben wir zu gegebenen Quadraturstellen Interpolationsquadratu-
ren der Ordnung n bestimmt, sodass alle Polynome aus
n
exakt integriert
wurden.
Bei den Gausche Quadraturformeln wollen wir nun neben den Gewichten
a
0
, . . . , a
n
auch die St utzstellen x
0
, . . . , x
n
wahlen. Wir erhoen uns, dass
damit auch Polynome hoheren Grades exakt integriert werden.
Dazu ist es in verschiedenen Anwendungen g unstig, den allgemeineren Fall
von Quadraturformeln mit gemischten Integralen zu betrachten.
Denition 6.5. Sei [a, b] R ein Intervall. Eine stetige und positive Funk-
tion : (a, b) R heit positive Gewichtsfunktion, wenn
_
b
a
(x)x
k
dx
f ur alle k N0 existiert. Ist eine positive Gewichtsfunktion, so nennen
wir
I

(f) :=
_
b
a
(x)f(x) dx
das gemischte Integral zur Funktion f.
Typische Beispiele f ur positive Gewichtsfunktionen sind die folgenden:
( 1 ) Gau-Legendre: (x) = 1 auf [a, b].
( 2 ) Gau-Tschebysche 1. Art: (x) =
1

1x
2
auf x [1, 1].
Kapitel 6 Numerische Integration 120
( 3 ) Gau-Tschebysche 2. Art: (x) =

1 x
2
auf x [1, 1].
( 4 ) Gau-Laguerre: (x) = e
x
auf [0, ).
( 5 ) Gau-Hermite: (x) = e
x
2
auf (, ).
Notation 6.6. Eine Quadraturformel
Q
n
(f) =
n

i=0
a
i
f(x
i
)
nennen wir Gausche Quadraturformel der Ordnung n wenn sie alle
Polynome p
2n+1
exakt integriert.
Im Folgenden wollen wir uns damit beschaftigen, wie wir Gausche Quadra-
turformeln berechnen konnen. Zunachst ergibt sich das folgende Ergebnis.
Lemma 6.8. Seien x
0
, . . . , x
n
[a, b] paarweise verschieden und sei L
n
f
das Interpolationspolynom bez uglich der St utzstellen x
0
, . . . , x
n
und einer
Funktion f. Weiter sei eine positive Gewichtsfunktion. Dann ist
Q

n
(f) =
_
b
a
(x)(L
n
f)(x) dx
eine Quadraturformel zu den Quadraturstellen x
0
, . . . , x
n
. Genauer gilt
Q

n
(f) =
_
b
a
(x)(L
n
f)(x) dx =
n

j=0
a
j
f(x
j
)
mit
a
j
=
_
b
a
(x)l
j
(x) dx.
Der folgende Satz zeigt nun wann eine Quadraturformel eine Gausche Qua-
draturformel ist.
Satz 6.9. Seien x
0
, . . . , x
n
[a, b] paarweise verschieden und sei L
n
f das
Interpolationspolynom bez uglich der St utzstellen x
0
, . . . , x
n
und einer Funk-
tion f. Weiter sei eine positive Gewichtsfunktion und wir denieren
h
n+1
(x) =
n

j=0
(x x
j
)
n+1
.
Dann ist
Q

n
(f) =
_
b
a
(x)(L
n
f)(x) dx
Kapitel 6 Numerische Integration 121
genau dann eine Gausche Quadraturformel der Ordnung n, wenn
_
b
a
(x)h
n+1
(x)p(x) dx = 0
f ur alle p
n
gilt.
Beweis. Zunachst sei Q

n
(f) eine Gausche Quadraturformel, es gelte also
Q

n
(f) = I

(f) f ur alle f
2n+1
. F ur ein p
n
ist dann h
n+1
p
2n+1
und mit Lemma 6.8 erhalten wir
_
b
a
(x)h
n+1
(x)p(x)dx = Q

n
(h
n+1
p) =
n

j=0
a
j
h
n+1
(x
j
)
. .
=0
p(x
j
) = 0
und somit gilt der der zweite Teil der Aussage.
Nun gelte umgekehrt
_
b
a
(x)h
n+1
(x)p(x) dx = 0
f ur alle p
n
und es sei q
2n+1
. Dann ist L
n
q
n
und die Funktion
q L
n
q hat die Nullstellen x
0
, . . . , x
n
. Nach dem Hauptsatz der Algebra gibt
es also ein Polynom s
n
mit q(x) L
n
q(x) = h
n+1
(x) s(x). Damit gilt
_
b
a
(x)q(x) dx =
_
b
a
(x)L
n
q(x) dx +
_
b
a
(x)h
n+1
(x)s(x) dx
=
_
b
a
(x)L
n
q(x) dx = Q

n
(q),
also ist Q

n
eine Gausche Quadraturformel.
Notation 6.7. F ur f, g C([a, b]) denieren wir
(f, g)

:=
_
b
a
(x)f(x)g(x) dx.
Gilt (f, g)

= 0, so bezeichnet man f und g als -orthogonal .


Bemerkung 6.1. Der Ausdruck (f, g)

existiert f ur alle Polynome f und g,


sofern eine positive Gewichtsfunktion ist. Weiter lasst sich zeigen, dass
(f, g)

ein Skalarprodukt ist.


Mit dieser Notation konnen wir Satz 6.9 also folgendermaen umformulieren.
Kapitel 6 Numerische Integration 122
Korollar 6.10. Seien x
0
, . . . , x
n
[a, b] paarweise verschieden und sei L
n
f
das Interpolationspolynom bez uglich der St utzstellen x
0
, . . . , x
n
und einer
Funktion f. Weiter sei eine positive Gewichtsfunktion und wir denieren
h
n+1
(x) =
n

j=0
(x x
j
)
n+1
.
Dann ist
Q

n
(f) =
_
b
a
(x)(L
n
f)(x) dx
genau dann eine Gausche Quadraturformel der Ordnung n, wenn
(h
n+1
, p)

= 0
f ur alle p
n
gilt.
Satz 6.11. Sei eine positive Gewichtsfunktion zum Intervall [a, b]. Dann
existieren Polynome p
k

k
f ur alle k N 0 mit den folgenden Eigen-
schaften:
( 1 ) F ur alle n, m N 0 gilt
(p
n
, p
m
)

=
n,m
=
_
1 falls n = m
0 falls n ,= m
.
( 2 ) F ur alle n N 0 sind die n Nullstellen von p
n
reell und liegen in
(a, b).
Ein Beweis hierzu kann in Schobel (2007) gefunden werden. Wir fassen alle
Ergebnisse noch einmal zusammen.
Satz 6.12. Sei n N und sei eine positive Gewichtsfunktion. Dann
existiert eine Gausche Quadraturformel
Q

n
(f) =
n

j=0
a
j
f(x
j
),
wobei x
0
< x
1
< < x
n
(a, b) die Nullstellen des in Satz 6.11 konstru-
ierten -orthogonalen Polynoms p
n+1
sind und
a
j
=
_
b
a
(x)l
j
(x) dx
gilt. Insbesondere ist damit Q

n
(p) = I

(p) f ur alle p
2n+1
.
Kapitel 6 Numerische Integration 123
Beweis. Weil p
n+1

n+1
ist, gilt p
n+1
= h
n+1
mit ,= 0. Somit folgt
Q

n
(f) =
_
b
a
(x)(L
n
f)(x) dx
und Q

n
(f) ist nach Korollar 6.10 eine Gausche Quadraturformel, sofern
wir
(h
n+1
, p) = 0
f ur alle p
n
zeigen konnen. Dies gilt aber, da
(h
n+1
, p) =
1

(p
n+1
, p) =
1

_
p
n+1
,
n

i=0

i
p
i
_
=
1

i=0

i
(p
n+1
, p
i
) = 0
mit geeigneten
0
, . . . ,
n
R.
Im Gegensatz zu den Newton-Cotes-Formeln gilt f ur die Gauschen Qua-
draturformeln die folgende numerisch wertvolle Eigenschaft.
Lemma 6.13. Alle Gewichte a
0
, . . . , a
n
der Gauschen Quadraturformeln
sind positiv.
Beweis. Seien x
0
, . . . , x
n
die Quadraturstellen zu der Quadraturformel Q

n
.
Nach Konstruktion sind dies die Nullstellen von p
n+1
bez uglich der positive
Gewichtsfunktion . Wir denieren wie gehabt
h
n+1
(x) =
n

j=0
(x x
j
) sowie f
i
(x) =
_
h
n+1
(x)
x x
i
_
2
f ur i = 0, . . . , n. Es ist also f
i

2n
und nach Satz 6.12 gilt
0 <
_
b
a
(x)f
i
(x) dx = Q

n
(f
i
) =
n

j=0
a
j
f
i
(x
j
) = a
i
f
i
(x
i
).
Mit f
i
(x
i
) > 0 folgt auch a
i
> 0.
Nach diesen bislang nur theoretischen Ergebnissen, wollen wir nun einige
Beispiele diskutieren.
Kapitel 6 Numerische Integration 124
Beispiel 6.3 (Legendre-Polynome). Wir betrachten das Intervall [1, 1] und
die positive Gewichtsfunktion (x) = 1. Dann werden die orthogonalen Po-
lynome p
n

n
gegeben durch die Legendre-Polynome
L
n
(x) :=
1
2
n
n!

d
n
dx
n
(x
2
1)
n
.
Speziell gilt damit
L
0
(x) = 1,
L
1
(x) = x,
L
2
(x) =
1
2
_
3x
2
1
_
,
L
3
(x) =
1
2
_
5x
3
3x
_
,
L
4
(x) =
1
8
_
35x
4
30x
2
+ 3
_
.
Nun lasst sich leicht nachrechnen, dass L
k+1
orthogonal zu allen p
k
ist.
Dies zeigen wir am Beispiel von L
2
. Sei dazu p(x) = ax + b
1
beliebig.
Dann gilt
(L
2
, p)

=
_
1
1
L
2
(x)p(x) dx =
_
1
1
(x
2

1
3
)(ax +b) dx
=
_
1
1
ax
3
+bx
2

1
3
ax
1
3
b dx
=
_
a
4
x
4
+
b
3
x
3

a
6
x
2

b
3
x
_
1
1
=
a
4
+
b
3

a
6

b
3

_
a
4

b
3

a
6
+
b
3
_
= 0.
Um nun die Quadraturstellen Q

n
zu erhalten, m ussen jeweils die Nullstellen
von L
n+1
(x) bestimmt werden.
Betrachten wir den Fall n = 1. Die Nullstellen von
L
2
(x) = x
2

1
3
sind x
0
=
_
1
3
und x
1
=
_
1
3
. Wir erhalten somit die Quadraturformel
Q

1
(f) = a
0
f
_

_
1
3
_
+a
1
f
_
_
1
3
_
.
Die Gewichte a
0
und a
1
lassen sich nun wieder uber die Exaktheitsbedingung
aus einem linearen Gleichungssystem bestimmen. Es gilt f ur p
0
(x) = 1 und
Kapitel 6 Numerische Integration 125
p
1
(x) = x
Q

1
(p
0
) = a
0
+a
1
=
_
1
1
1 dx = 2,
Q

1
(p
1
) = a
0
_
1
3
+a
1
_
1
3
=
_
1
1
xdx = 0.
Die Losung dieses Systems ist oenbar a
0
= a
1
= 1 und somit folgt
Q

1
(f) = f
_

_
1
3
_
+f
_
_
1
3
_
.
Wir bemerken noch einmal, dass alle Polynome p
2n+1
=
3
auf dem
Intervall [1, 1] exakt durch Q

1
(p) integriert werden.
Beispiel 6.4 (Tschebysche-Polynome). Weiterhin betrachten wir das In-
tervall [1, 1], nun aber die positive Gewichtsfunktion
(x) =
1

1 x
2
.
Die orthogonalen Polynome p
n

n
werden gegeben durch die Tscheby-
sche-Polynome
T
n
(x) := cos(narccos(x)).
Die Additionstheoreme liefern die Rekursionsformel
T
0
(x) = 1,
T
1
(x) = x,
T
n+1
(x) = 2xT
n
(x) T
n1
(x)
und somit gilt T
n

n
. Weiter lasst sich zeigen, dass
(T
n
, T
m
)

=
_
1
1
T
n
(x)T
m
(x)

1 x
2
dx =
_
_
_
f ur n = m = 0

2
f ur n = m > 0
0 f ur n ,= m
gilt. Zudem werden die Nullstellen von T
n
(x) gegeben durch
x
i
= cos
_
2i + 1
2n

_
f ur i = 0, . . . , n 1.
Mit diesen Nullstellen erhalten wir die Gau-Tschebysche Quadratur
I

(f) =
_
1
1
f(x)

1 x
2
dx
n1

i=0
a
i
f
_
cos
_
2i + 1
2n

__
= Q

n1
(f).
Kapitel 6 Numerische Integration 126
Die Gewichte ergeben sich aus den Exaktheitsbedingungen f ur T
m
zu a
i
=

n
f ur i = 0, . . . , n 1. Damit erhalten wir schlielich
Q

n1
(f) =

n

n1

i=0
f
_
cos
_
2i + 1
2n

__
f ur n N.
Nun untersuchen wir noch den Interpolationsfehler von Gau-Quadraturen.
Satz 6.14. Sei f C
2n+2
([a, b]). Dann erf ullt der Fehler der Gau-Quad-
raturformel der Ordnung n die Gleichung
I

(f) Q

n
(f) =
f
(2n+2)
()
(2n + 2)!

_
b
a
(x)(h
n+1
(x))
2
dx
f ur ein [a, b] mit
h
n+1
(x) =
n

j=0
(x x
j
)
n+1
.
Beweis. F ur den Beweis benotigen wir die Hermite Interpolation, welche wir
nicht besprochen haben.
Sei H
n
f
2n+1
das durch
(H
n
f)(x
j
) = f(x
j
) und (H
n
f)
t
(x
j
) = f
t
(x
j
)
f ur j = 0, . . . , n eindeutig bestimmte Hermite Interpolationspolynom. Dann
gilt
Q

n
(f) =
n

j=0

j
f(x
j
) =
n

j=0

j
(H
n
f)(x
j
) = Q

n
(H
n
f) = I

(H
n
f)
und f ur den Fehler erhalten wir
I

(f) Q

n
(f) =
_
b
a
(x) (f(x) (H
n
f)(x)) dx
=
_
b
a
(x) h
n+1
(x)
2

(f(x) (H
n
f)(x))
h
n+1
(x)
2
dx.
Nach dem Mittelwertsatz der Integralrechnung gilt deshalb
I

(f) Q

n
(f) =
(f(t) (H
n
f)(t))
h
n+1
(t)
2

_
b
a
(x) h
n+1
(x)
2
dx
f ur eine Zwischenstelle t [a, b]. Nun folgt die Behauptung aus der Darstel-
lung des Interpolationsfehlers bei der Hermite Interpolation.
Kapitel 6 Numerische Integration 127
6.3 Ausblick
In diesem Kapitel haben wir zunachst den einfachsten Fall der numerischen
Integration behandelt, namlich die Newton-Cotes-Formeln. Anschlieend
haben wir Gau-Quadraturformeln untersucht und gesehen, dass Polyno-
me sogar hohen Grades exakt integriert werden konnen.
Ein weiteres Verfahren zur numerischen Integration ist das Rombergverfah-
ren, welches die zusammengesetzte Trapez-Regel verwendet. Weiterhin gar
nicht untersucht haben wir die mehrdimensionale Integration.
7 Anfangswertprobleme
Bei Anfangswertprobleme handelt es sich um (zeitabhangige) Dierentialgleichungen mit
bekannten Startinformationen. Bei der numerischen Losung von Anfangswertproblemen
konnen wir so zum Beispiel die Bahn eines Satelliten vorhersagen, wenn wir dessen Posi-
tion, Geschwindigkeit und Beschleunigung zum Zeitpunkt t = 0 kennen.
7.1 Notationen und Grundlagen
Bevor wir uns mit Losungsverfahren von Anfangswertproblemen beschafti-
gen konnen, stellen wir in diesem Abschnitt zunacht grundlegende Notatio-
nen und Eigenschaften zusammen.
Wir werden in diesem Kapitel ausschlielich gewohnliche, explizite Dieren-
tialgleichungen erster Ordnung untersuchen, die gegeben sind durch
x
t
(t) = f(t, x(t)) mit t I = [a, b]. (7.1)
Dabei ist x : I R
d
eine gesuchte und dierenzierbare Funktion oder Kurve
auf einem Intervall I = [a, b] und f : RR
d
R
d
ist eine gegebene Funktion.
Notation 7.1. Wir werden die folgenden Notationen verwenden:
( 1 ) Eine Dierentialgleichung heit gewohnlich, wenn die unbekannte
Funktion x nur von einer reellen Variablen abhangt, also x : I R
d
mit I R. Hangt x von mehreren Variablen ab, also x : B R
d
mit
B R
s
und s > 1, so liegt eine partielle vor.
( 2 ) Eine Dierentialgleichung hat die Ordnung k, falls nur Ableitungen
von x bis zur Ordnung k vorkommen. Sie hat somit die Ordnung 1,
falls nur die erste Ableitung von x vorkommt.
( 3 ) Eine gewohnliche Dierentialgleichung der Form
x
t
(t) = f(x(t)),
bei der die rechte Seite nicht explizit von t abhangt, heit autonom.
128
Kapitel 7 Anfangswertprobleme 129
( 4 ) Wir nennen eine Dierentialgleichung explizit, falls der hochste Ab-
leitungsterm isoliert auftaucht, anderenfalls implizit.
Beispiel 7.1. Wir stellen zunachst einige Beispiele zusammen.
( 1 ) x
t
(t) = x(t) ist eine gewohnliche und explizite Dierentialgleichung
erster Ordnung.
( 2 ) Durch
x
t
(t) = f(t, x(t), x
t
(t))
mit einer gegebenen Funktion f : RR
d
R
d
R
d
wird eine gewohn-
liche und implizite Dierentialgleichung erster Ordnung gegeben.
( 3 ) Durch
x
(k)
(t) = f(t, x(t), . . . , x
(k1)
(t))
mit einer gesuchten Funktion x : I R
d
, welche k-mal dierenzier-
bar ist, wird eine gewohnliche und explizite Dierentialgleichung der
Ordnung k gegeben.
Wir werden uns m Wesentlichen mit expliziten und gewohnlichen Dieren-
tialgleichungen beschaftigen.
Beispiel 7.2. Gegeben sei die gewohnliche, explizite und autonome Dieren-
tialgleichung
x
t
(t) = (x
t
1
(t), x
t
2
(t)) = f(x
t
1
(t), x
t
2
(t)) = (x
2
(t), x
1
(t))
mit f(x
1
, x
2
) = (x
2
, x
1
). Eine Losung dieser Dierentialgleichung ist
x(t) =
_
cos(t)
sin(t)
_
,
denn
x
t
1
(t) = cos
t
(t) = sin(t) = x
2
(t),
x
t
2
(t) = sin
t
(t) = cos(t) = x
1
(t).
Es gibt aber noch weitere Losungen, namlich
x(t) = C
_
cos(t t
0
)
sin(t t
0
)
_
mit C, t
0
R.
Anschaulich beschreibt f(x
1
, x
2
) = (x
2
, x
1
) ein Vektorfeld, welches wir
durch den Vektor (x
2
, x
1
) in jedem Punkt (x
1
, x
2
) skizzieren konnen. Jede
Losung der gegeben Dierentialgleichung beschreibt dann eine Kurve im R
2
,
zu der das Vektorfeld in jedem Punkt tangential ist.
Kapitel 7 Anfangswertprobleme 130
Abbildung 7.1: Vektorfeld zur gegebenen Dierentialgleichung.
Das Beispiel zeigt also, dass die Losung einer Dierentialgleichung im All-
gemeinen nicht eindeutig bestimmt ist. Um die Eindeutigkeit zu erhalten,
m ussen freie Variablen durch zusatzliche Bedingungen festgelegt werden.
Notation 7.2. Das Anfangswertproblem oder kurz AWP einer gewohn-
lichen Dierentialgleichung erster Ordnung wird gegeben durch
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
R
d
.
f ur ein t
0
R. Die Gleichung x(t) = x
0
legt damit d Parameter fest.
Lemma 7.1. Sei x : I = [a, b] R
d
eine Losung einer autonomen Dieren-
tialgleichung x
t
(t) = f(x(t)). Dann ist auch
y : I R
d
mit y(t) = x(t t
0
)
f ur alle t
0
R eine Losung der Dierentialgleichung.
Beweis. Es gilt
y
t
(t) = x
t
(t t
0
) = f(x(t t
0
)) = f(y(t))
und damit folgt direkt die Behauptung.
Oft beschreibt der Parameter t die Zeit. Die Aussage des Lemmas lautet
dann, dass die Losung einer autonomen Dierentialgleichung unabhangig
von der Startzeit ist, sie ist also invariant gegen uber Zeittransformationen.
Kapitel 7 Anfangswertprobleme 131
Wir wollen nun zeigen, warum wir im Folgenden nur autonome Dierenti-
algleichungen erster Ordnung betrachten werden.
Lemma 7.2. Jede gewohnliche und explizite Dierentialgleichung der Ord-
nung k kann in eine aquivalente Dierentialgleichung erster Ordnung trans-
formiert werden.
Beweis. Gegeben sei
y
(k)
(t) = g(t, y(t), . . . , y
(k1)
(t)) mit t I = [a, b]
und mit einer gesuchten k-mal dierenzierbaren Funktion y : I R
d
. Dann
denieren wir die Funktionen
x
j
: I R
d
mit x
j
(t) = y
(j)
(t)
f ur j = 0, . . . , k 1. Somit gilt
x
t
j
(t) =
_
y
(j)
_
t
(t) = y
(j+1)
(t) = x
j+1
(t)
f ur j = 0, . . . , k 2 sowie
x
t
k1
(t) =
_
y
(k1)
_
t
(t) = y
(k)
(t)
= g(t, y(t), . . . , y
(k1)
(t)) = g(t, x
0
(t), . . . , x
k1
(t)).
Damit erhalten wir das System
x
t
(t) =
_
_
_
_
_
_
_
x
t
0
(t)
x
t
1
(t)
.
.
.
x
t
k2
(t)
x
t
k1
(t)
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
x
1
(t)
x
2
(t)
.
.
.
x
k1
(t)
g(t, x
0
(t), . . . , x
k1
(t))
_
_
_
_
_
_
_
= f(t, x(t)).
Sei nun eine Losung dieses Systems gegeben durch dierenzierbare Funktio-
nen x
j
f ur j = 0, . . . , k 1. Dann ist
y(t) = x
0
(t)
k-mal dierenzierbar, denn es gilt
y
(j)
(t) = x
j
(t)
f ur j = 0, . . . , k 1 und alle x
j
sind mindestens einmal dierenzierbar.
Weiterhin folgt
y
(k)
(t) =
_
y
(k1)
_
t
(t) = x
t
k1
(t)
= g(t, x
0
(t), . . . , x
k1
(t)) = g(t, y(t), . . . , y
(k1)
(t))
Kapitel 7 Anfangswertprobleme 132
und damit haben wir die ursp unglich gegebene Dierentialgleichung in ein
System von Dierentialgleichungen erster Ordnung uberf uhrt.
Lemma 7.3. Jedes Anfangswertproblem der Form x
t
(t) = f(t, x(t)) mit
x(t
0
) = x
0
lasst sich in ein aquivalentes autonomes Anfangswertproblem
transformieren.
Beweis. Wir denieren s(t) = t und
y(t) =
_
s(t)
x(t)
_
.
Dazu betrachten wir das autonome System
y
t
(t) =
_
s
t
(t)
x
t
(t)
_
=
_
1
f(y(t))
_
mit y(t
0
) =
_
t
0
x
0
_
. (7.2)
Wir wollen nun zeigen, dass beiden Dierentialgleichungen aquivalent sind.
Zunachst sei x eine Losung von x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
. Dann
erhalten wir mit s(t) = t direkt
y
t
(t) =
_
s
t
(t)
x
t
(t)
_
=
_
1
f(t, x(t))
_
=
_
1
f(s(t), x(t))
_
=
_
1
f(y(t))
_
und mit dem zugehorigen Anfangswert y(t
0
) = (t
0
, x(t
0
)) = (t
0
, x
0
) eine
Losung von (7.2).
Nun sei y(t) = (s(t), x(t)) eine Losung von (7.2). Dann gilt s
t
(t) = 1 und
durch Integration ergibt sich s(t) = t + C mit einer Integrationskonstanten
C. Wegen des Anfangswertes s(t
0
) = t
0
ist C = 0 und es folgt
x
t
(t) = f(y(t)) = f(s(t), x(t)) = f(t, x(t)).
Damit ist x eine Losung von x
t
(t) = f(t, x(t)), die der Anfangsbedingung
x(t
0
) = x
0
gen ugt.
Den

Ubergang eines Anfangswertproblemes nach Lemma 7.3 nennt man
auch Autonomisierung des Anfangswertproblemes.
Bevor wir uns mit der Existenz und der Eindeutigkeit einer Losung von
Anfangswertproblemen befassen, wollen wir uns zwei weitere Anwendungs-
gebiete ansehen.
Kapitel 7 Anfangswertprobleme 133
Beispiel 7.3 (Lotka-Volterra-Zyklus). Wir betrachten ein okologisches Sys-
tem mit zwei Arten, bei denen die eine Art der anderen als Nahrung dient.
Entsprechend bezeichnen wir sie als Jager und Beute. Sei
x
J
(t) = Groe der Jager-Population zur Zeit t,
x
B
(t) = Groe der Beute-Population zur Zeit t.
Die Wachstumsrate der Populationen ergibt sich aus der Dierenz der Ge-
burtenrate und der Sterberate. Dabei nehmen wir an, dass f ur die Beute-
Population gen ugend Nahrung vorhanden sei, so dass sie sich (im unge-
storten Fall) exponentiell vermehren w urde, die Geburtenrate also konstant
ist.
Mit geeigneten Parametern , > 0 ergibt sich dann
x
t
B
(t) = x
B
(t) x
B
(t)x
J
(t).
Die Gleichung kann wie folgt interpretiert werden:
( 1 ) Das ungestorte eigene Wachstum der Beute-Population resultiert aus
einem exponentiellen Wachstum x
B
= e
x
und ist daher durch x
t
B
=
x
B
beschrieben.
( 2 ) Die Anzahl der durch Jagd gestorbenen Beutetiere ist proportional zur
Rate, mit der sich Jager und Beute treen, auf einem begrenzten Ge-
biet also proportional zu x
B
und proportional zu x
J
.
F ur die Jager-Population ergibt sich mit geeigneten Parametern , > 0
x
t
J
(t) = x
J
(t)x
B
(t) x
J
(t).
Die Interpretation dieser Gleichung ist wie folgt:
( 1 ) Die Jager-Population wachst exponentiell mit Rate und proportional
zur Beute-Population x
B
.
( 2 ) Die nat urliche Sterberate ist (bei exponentiellem Wachstum) gegeben
durch x
t
J
= x
J
.
Die Losung dieses Systems von Dierentialgleichungen f uhrt zu periodischen
Losungen, die man auch Lotka-Volterra-Zyklus nennt.
Ein weiteres klassisches Anwendungsgebiet von Anfangswertproblemen in
der Physik zeigt das folgende Beispiel.
Kapitel 7 Anfangswertprobleme 134
Abbildung 7.2: Beispiel eines Lotka-Volterra-Zyklus f ur unterschiedliche
Startpopulationen.
Beispiel 7.4 (Bewegung eines Massepunktes). Die Bewegung eines Mas-
sepunktes zur Zeit t am Ort x wird gegeben durch die Dierentialgleichung
m x
tt
(t) = g(t, x),
dabei beschreibt g(t, x) die Wirkung auerer Krafte.
Als Beispiel betrachten wir eine eingespannten Feder mit der Federkonstan-
ten D und erhalten nach dem Hookeschen Gesetz g(t, x) = Dx. Wei-
terhin sei der Anfangspunkt x
0
= x(t
0
) und die Anfangsgeschwindigkeit
v
0
= x
t
0
= x
t
(t
0
) aus einem Experiment bekannt.
Das System kann dann in das folgende aquivalente System erster Ordnung
uberf uhrt werden:
x
t
(t) =
_
x
t
1
(t)
x
t
2
(t)
_
=
_
x
2
(t)

k
m
x
1
(t)
_
mit den Anfangsbedingungen
x(t
0
) =
_
x
1
(t
0
)
x
2
(t
0
)
_
=
_
x
0
v
0
_
.
Dieses System von Dierentialgleichungen erster Ordnung ist linear und au-
tonom. Die Losung wird gegeben durch
x(t) = x
1
(t) = x
0
cos
_
_
k
m
t
_
+v
0
sin
_
_
k
m
t
_
.
7.2 Existenz und Eindeutigkeit
In diesem Abschnitt betrachten wir mit
x
t
(t) = f(x(t)) mit x(t
0
) = x
0
Kapitel 7 Anfangswertprobleme 135
weiterhin autonome Anfangswertprobleme erster Ordnung und wollen die
Existenz und die Eindeutigkeit von Losungen untersuchen. Dazu betrachten
wir zunachst zwei Beispiele.
Beispiel 7.5. Gegeben sei das Anfangswertproblem
x
t
(t) = [x(t)[

mit x(0) = 0
f ur einen Parameter (0, 1). Die Dierentialgleichung hat die beiden
Losungen
x(t) = 0 und x(t) =
_
((1 )t)
1/(1)
f ur t 0,
0 f ur t < 0
wie man leicht nachrechnet.
Dieses Beispiel zeigt also, dass die Losung im Allgemeinen nicht eindeutig
ist.
Beispiel 7.6. Gegeben sei das Anfangswertproblem
x
t
(t) = (x(t))
2
mit x(0) = 1.
Die Losung
x(t) =
1
t 1
ist nur f ur t ,= 1 deniert und kann wegen
lim
t1
x(t) =
nicht als stetige Funktion f ur t 1 fortgesetzt werden. Tatsachlich existiert
in diesem Fall keine Losung des Anfangswertproblemes f ur alle t > 0. Der
Eekt wird auch blow up genannt.
Das zweite Beispiel zeigt damit, dass keine Losung auf ganz I existieren
muss.
F ur alle folgenden Betrachtungen ist die nachste Aussage von zentraler Be-
deutung.
Lemma 7.4. Sei D R
d+1
oen, sei f : D R
d
stetig, sei a t
0
b und
sei x : [a, b] R
d
eine Funktion. Weiter gelte
(t, x(t)) : t [a, b] D.
Dann sind die folgenden Aussagen aquivalent:
Kapitel 7 Anfangswertprobleme 136
( 1 ) x(t) ist stetig dierenzierbar und lost das Anfangswertproblem
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
f ur alle t [a, b].
( 2 ) x(t) ist stetig und erf ullt die Integralgleichung
x(t) = x
0
+
_
t
t
0
f(, x()) d (7.3)
f ur alle t [a, b].
Beweis. Zunachst sei x(t) mit x
t
(t) = f(t, x(t)) und x(t
0
) = x
0
eine stetig
dierenzierbare Losung des Anfangswertproblemes. Nach dem Hauptsatz
der Dierential- und Integralrechnung gilt dann
x(t) = x(t
0
) +
_
t
t
0
x
t
() d = x
0
+
_
t
t
0
f(, x()) d.
Nun gelte umgekehrt die Integralgleichung
x(t) = x
0
+
_
t
t
0
f(, x()) d.
Da f(t, x(t)) und x(t) beide stetig sind, ist
_
t
t
0
f(, x()) d
stetig nach t dierenzierbar und somit auch x(t). Die Ableitung von x(t)
wird gegeben durch
x
t
(t) =
d
dt
_
t
t
0
f(, x()) d = f(t, x(t))
nach dem Hauptsatz der Dierential- und Integralrechnung. Weiter gilt
x(t
0
) = x
0
+
_
t
0
t
0
f(, x()) d = x
0
,
also ist auch die Anfangsbedingung erf ullt.
Der groe Vorteil von Lemma 7.4 liegt darin, dass wir durch die Integralglei-
chung (7.3) eine Fixpunktgleichung in der unbekannten Funktion x gefunden
haben.
Kapitel 7 Anfangswertprobleme 137
Sei (([a, b], R
d
) der (unendlich-dimensionale) Raum aller stetigen Funktio-
nen, die von I = [a, b] in den R
d
abbilden. Dann denieren wir den Operator
F, den wir auf Funktionen x : I R
d
aus (([a, b], R
d
) anwenden wollen,
durch
(F(x))(t) := x
0
+
_
t
t
0
f(, x()) d.
Wir konnen die Integralgleichung (7.3) dann schreiben als
x(t) = (F(x))(t).
Unsere gesuchte Losung x kann also als Losung einer Fixpunktgleichung in
einem unendlich-dimensionalen Raum aufgefasst werden. Wir wollen darauf
nun den Banachschen Fixpunktsatz anwenden, welcher nach Kapitel 2 ja
auch in unendlich-dimensionalen Banachraumen gilt.
Bevor wir auf dieser Idee basierend das Hauptergebnis dieses Abschnitts
angeben, fassen wir noch einige Schreibweisen zusammen.
Notation 7.3. Sei D R
d+1
und f : D R
d
. Dann heit f lokal Lip-
schitzstetig bez uglich der letzten d Variablen, falls zu jedem (t
0
, x
0
) D
eine Umgebung U = U(t
0
, x
0
) D und eine eine Konstante L = L(t
0
, x
0
)
gibt mit
|f(t, x) f(t, y)|
2
L |x y|
2
f ur alle (t, x), (t, y) U. Dabei ist | |
2
die Euklidische Norm.
f heit global Lipschitzstetig bez uglich der letzten d Variablen, falls es
eine Konstante L gibt mit
|f(t, x) f(t, y)|
2
L |x y|
2
f ur alle x, y R
d
.
Damit formulieren wir nun das Hauptergebnis dieses Abschnitts.
Satz 7.5 (Picard-Lindelof). Sei D R
d+1
oen und sei f : D R
d
stetig
und bez uglich der letzten d Variablen lokal Lipschitzstetig. Dann existiert zu
jedem (t
0
, x
0
) D eine Umgebung I von t
0
, auf der das Anfangswertproblem
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
eindeutig losbar ist.
Beweis. Wir wollen an dieser Stelle nur die Idee des Beweises wiedergeben,
ausf uhrlich kann dieser in Schobel (2007) oder Hohage (2006) nachgelesen
werden.
Kapitel 7 Anfangswertprobleme 138
Wie bereits beschrieben, wollen wir den Banachschen Fixpunktsatz anwen-
den. Dazu geben wir nun die Voraussetzungen an.
Zunachst lasst sich zu jedem (t
0
, x
0
) D ein Intervall I(t
0
) = [t
0
, t
0
+]
mit einem geeigneten > 0 nden, auf welchem wir die lokale Existenz und
Eindeutigkeit der Losung zeigen wollen.
Dazu verwenden wir den Raum X := ((I, R
d
) aller stetigen Funktionen, die
von I in den R
d
abbilden. Als Norm verwenden wir
|x|
B
:= sup
tI
exp(2L [t t
0
[) |x(t)|
2
f ur alle x X, wobei L die Lipschitskonstante der lokalen Lipschitzstetigkeit
ist. Als Teilmenge U von X verwenden wir
U :=
_
x X : sup
tI
|x(t) x
0
|
_
mit einem geeigneten > 0. Als Abbildung von U nach X verwenden wir
nat urlich den Opterator F : U X mit
(F(x))(t) := x
0
+
_
t
t
0
f(, x()) d.
Nun lassen sich alle Voraussetzungen des Banachschen Fixpunktsatzes zei-
gen:
( 1 ) (X, | |
B
) ist tatsachlich ein Banachraum.
( 2 ) Die Menge U ist abgeschlossen.
( 3 ) Es gilt F(x) U f ur alle x U und damit ist F eine Selbstabbildung.
( 4 ) F ist eine Kontraktion mit Kontraktionsfaktor 1/2.
Der Banachsche Fixpunktsatz liefert damit die Aussage, dass das Anfangs-
wertprobleme eine eindeutige Losung in U hat. Um allgemein eine eindeutige
Losung zu garantieren, muss nun noch gezeigt werden, dass F keinen Fix-
punkt in X U besitzen kann.
Ganz analog unter der Verwendung des Banachschen Fixpunktsatzes lasst
sich auch eine globale Existenz und Eindeutigkeit zeigen.
Satz 7.6. Sei I R ein Intervall, sei D = I R
d
und sei f : D R
d
stetig
und bez uglich der letzten d Variablen global Lipschitzstetig. Dann existiert
zu jedem (t
0
, x
0
) D eine eindeutige Losung des Anfangswertproblems
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
Kapitel 7 Anfangswertprobleme 139
und x : I R
d
.
Der Banachsche Fixpunktsatz liefert damit nicht nur theoretische Aussagen
uber Existenz und Eindeutigkeit, sondern mit dem Verfahren der sukzessi-
ven Approximation auch ein konvergentes Verfahren zur Bestimmung des
Fixpunktes. Dieses Verfahren lasst sich durch die Picard-Iteration auf
Anfangswertprobleme anwenden:
x
(n+1)
(t) := x
(n)
(t
0
) +
_
t
t
0
f(, x
(n)
()) d.
Als Startwert kann zum Beispiel x
(0)
(t) := x
0
gewahlt werden.
Das resultierende Verfahren ist allerdings durch die dazu notige numerische
Auswertung der zahlreich auftretenden Integrale inezient und wird in der
Praxis fast nicht verwendet.
Wir untersuchen nun noch einmal das Beispiel 7.6 von zuvor unter Ber uck-
sichtigung des Satzes von Picard-Lindelof.
Beispiel 7.7. Gegeben sei wieder das Anfangswertproblem
x
t
(t) = f(t, x(t)) = (x(t))
2
mit x(0) = 1
aus Beispiel 7.6. Wir hatten bereits gesehen, das diese Problem keine globale
Losung f ur t > 0 besitzt. Mit f(t, x) = x
2
erhalten wir
|f(t, x) f(t, y)|
2
= [x
2
y
2
[ = [x +y[ [x y[ L [x y[
f ur alle x, y I, falls L [x +y[ f ur alle x, y I.
Das ist auf jedem beschrankten Intervall erf ullt, nicht jedoch auf I = [0, )
oder auf I = R. Das Anfangswertproblem erf ullt daher die Voraussetzungen
von Satz 7.5, aber nicht die von Satz 7.6.
Wir untersuchen nun noch eine weitere Aussage zur globalen Eindeutigkeit.
Satz 7.7 (Globale Eindeutigeit). Sind die Voraussetzungen von Satz 7.5
erf ullt und sind x(t) und y(t) Losungen des Anfangswertproblemes
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
auf einem beliebigen Intervall I mit t
0
I, so gilt x(t) = y(t) f ur alle t I.
Kapitel 7 Anfangswertprobleme 140
Beweis. Sei I = [a, b], sei t
0
I und seien x(t) und y(t) zwei Losungen
des gegebenen Anfangswertproblemes. Wir wahlen I
t
I als das langste
Intervall mit x(t) = y(t) f ur alle t I
t
und mochten nun zeigen, dass dann
I = I
t
gilt.
Angenommen, dies ist gilt nicht der Fall, dann sei I
t
= [a
t
, b
t
] I mit
I
t
,= I. Sei ohne Beschrankung der Allgemeinheit b
t
< b und betrachte dazu
das neue Anfangswertproblem
z
t
(t) = f(t, z(t)) mit z(b
t
) = x(b
t
). (7.4)
Nach dem Satz 7.5 von Picard-Lindelof existiert nun eine Umgebung U =
(b
t
, b
t
+ ) mit > 0, auf der das neue Anfangswertproblem (7.4)
eindeutig losbar ist. Weil x und y nun aber beides Losungen von (7.4) sind,
folgt x(t) = y(t) f ur alle t U. Das ist ein aber Widerspruch zur Maximalitat
von I
t
.
Abschlieend geben wir noch ein Kriterium an, anhand dessen sich die gefor-
derte Lipschitz-Bedingung des Satzes von Picard-Lindelof nachweisen lassen.
Lemma 7.8. Sei f : I R
d
R
d
bez uglich seiner letzten d Variablen stetig
partiell dierenzierbar. Dann ist f stetig und bez uglich der letzten d Varia-
blen lokal Lipschitzstetig f ur alle (t
0
, x
0
) I R
d
.
Beweis. Der Beweis ist ahnlich zum Beweis von Lemma 2.10.
Da f bez uglich seiner letzten d stetig partiell dierenzierbar ist, existiert die
Ableitung
D
x
f(t, x) : R R
d
R
d
R
d
und es gilt
L = sup
(t,x)U(t
0
,x
0
)
|D
x
f(t, x)|
2
<
f ur eine kompakte Umgebung U = U(t
0
, x
0
), die zusatzlich noch konvex sei.
Mit
g() := f(t, x +(y x))
erhalten wir dann
|f(t, y) f(t, x)|
2
= |g(1) g(0)|
2
=
_
_
_
_
_
1
0
g
t
() d
_
_
_
_
=
_
_
_
_
_
1
0
D
x
f(t, x +(y x)) (y x) d
_
_
_
_
2

_
1
0
|D
x
f(t, x +(y x))|
2
|y x|
2
d
Kapitel 7 Anfangswertprobleme 141

_
1
0
L |y x|
2
d = L |y x|
2
mit L < , da U kompakt ist.
7.3 Evolutionen
Wir werden in diesem Abschnitt den Satz von Picard-Lindelof verwenden,
um den Begri der Evolution zu denieren und zu untersuchen. Dieses Kon-
zept wird f ur die danach folgenden numerischen Losungsverfahren sehr n utz-
lich sein.
Denition 7.4. Sei D R
d+1
oen und sei f : D R
d
stetig und lokal
Lipschitzstetig bez uglich der letzten d Variablen. Weiter seien t
0
, t I und
[t t
0
[ hinreichend klein.
Dann denieren wir die zweiparametrige Funktion

t,t
0
: R
d
R
d
mit
t,t
0
(x
0
) = x(t),
wobei x(t) die nach dem Satz von Picard-Lindelof lokal eindeutige Losung
des Anfangswertproblemes
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
ist. Man nennt die Evolution der Dierentialgleichung x
t
(t) = f(t, x(t)).
Damit bildet
t,t
0
den Wert der Losung x(t) zur Zeit t
0
auf den Wert der
gleichen Losung zur Zeit t ab.
Beispiel 7.8. Gegeben sei noch einmal das Anfangswertproblem
x
t
(t) = f(t, x(t)) = (x(t))
2
mit x(0) = x
0
aus Beispiel 7.6. Die lokal eindeutige Losung zu (t
0
, x
0
) mit t
0
= 0 und
x
0
> 0 wird dann gegeben durch
x(t) =
x
0
1 t x
0
f ur t < 1/x
0
. F ur die Evolution gilt entsprechend im Fall t > 0

t,0
(x
0
) =
x
0
1 t x
0
f ur x
0
< 1/t.
Kapitel 7 Anfangswertprobleme 142
Lemma 7.9. Sei D R
d+1
oen und sei f : D R
d
stetig und lokal
Lipschitzstetig bez uglich der letzten d Variablen.
Dann besitzt die Evolution der Dierentialgleichung x
t
(t) = f(t, x(t)) die
folgenden Eigenschaften f ur alle (t
0
, x
0
) D und [t
1
t
0
[, [t
2
t
0
[ und [tt
0
[
hinreichend klein:
( 1 )
t
0
,t
0
(x
0
) = x
0
,
( 2 )

t+,t
(x
0
)

=0
= f(t, x
0
),
( 3 )
t
2
,t
0
(x
0
) =
t
2
,t
1
(
t
1
,t
0
(x
0
)).
Weiter ist durch diese drei Bedingungen eindeutig charakterisiert.
Beweis. Zunachst zeigen wir alle drei Punkte der Reihe nach.
Nach Denition der Evolution gilt ( 1 ), da
t
0
,t
0
(x
0
) = x(t
0
) = x
0
.
Um ( 2 ) zu zeigen, seien x
0
und t fest. Weiter sei x(t) die Losung des An-
fangswertproblemes zum Startwert (t, x
0
). Dann denieren wir
g() :=
t+,t
(x
0
) = x(t +)
und damit gilt

t+,t
(x
0
) = g
t
() = x
t
(t +) = f(t +, x(t +)).
Schlielich folgt somit

t+,t
(x
0
)

=0
= g
t
(0) = f(t, x(t)) = f(t, x
0
).
Nun sei x(t) eine Losung des Anfangswertproblemes
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
und damit
t,t
0
(x
0
) = x(t) f ur alle t nahe genug an t
0
. Damit folgt

t
2
,t
1
(
t
1
,t
0
(x
0
)) =
t
2
,t
1
(x(t
1
)) = x(t
2
) =
t
2
,t
0
(x
0
),
wobei die vorletzte Gleichheit gilt, da f ur t
2
t
0
hinreichend klein x(t) auch
eine Losung des Anfangswertproblemes
y
t
(t) = f(t, y(t)) mit y(t
1
) = x(t
1
)
ist. Damit ist auch ( 3 ) gezeigt.
Kapitel 7 Anfangswertprobleme 143
Es bleibt noch die Eindeutigkeit zu zeigen. Dazu sei
t,t
0
: R
d
R
d
ei-
ne weitere Funktion, die ebenfalls alle drei Bedingungen erf ullt. Weiter sei
(t
0
, x
0
) beliebig und wir denieren
x(t) :=
t,t
0
(x
0
).
Dann gilt
x
t
(t) =

t+,t
0
(x
0
)

=0
=

t+,t
_

t,t
0
(x
0
)
__

=0
= f(t,
t,t
0
(x
0
)) = f(t, x(t))
und zudem ist x(t
0
) =
t
0
,t
0
(x
0
) = x
0
. Damit ist
x(t) =
t,t
0
(x
0
)
nach dem Satz von Picard-Lindelof die lokal eindeutige Losung des Anfangs-
wertproblemes
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
und entsprechend gilt
t,t
0
(x
0
) =
t,t
0
(x
0
) f ur alle (t
0
, x
0
) D und alle t
mit [t t
0
[ hinreichend klein.
Abschlieend f uhren wir noch den Begri der Stabilitat ein. Dieser gibt an,
wie stark sich zwei Losungen x(t) und y(t) derselben Dierentialgleichung
unterscheiden, wenn die Anfangswerte x(t
0
) und y(t
0
) nur wenig voneinander
abweichen. Dabei interessieren wir uns f ur die Zukunft, also nur f ur Werte
t t
0
.
Denition 7.5. Sei D R
d
, sei t
0
R und die Funktion f : [t
0
, ) D
R
d
sei einseitig Lipschitzstetig mit Konstante L
+
R, es gelte also
(x y)
T
(f(t, x) f(t, y)) L
+
|x y|
2
2
f ur alle x, y D und alle t [t
0
, ).
Ist diese Bedingung f ur ein L
+
0 erf ullt, so heit die zugehorige Dieren-
tialgleichung x
t
(t) = f(t, x(t)) dissipativ.
Es sei bemerkt, dass aus der globalen Lipschitzstetigkeit auf [t
0
, ) nach der
Cauchy-Schwarz Ungleichung auch die einseitige Lipschitz-Bedingung folgt.
Die Umkehrung gilt aber nicht, wie das folgende Beispiel zeigt.
Kapitel 7 Anfangswertprobleme 144
Beispiel 7.9. Die Funktion f(t, x) = x erf ullt die einseitige Lipschitz-
Bedingung mit L
+
= 1, denn
(xy) (f(t, x)f(t, y)) = (xy) (y x) = (xy)
2
= 1 |xy|
2
2
.
Dagegen ergibt die globale Lipschitz-Bedingung
[f(t, x) f(t, y)[ = [x y[ L [y x[
und gilt damit nur f ur L 1.
Satz 7.10. Ist f : [0, ) D R
d
einseitig Lipschitzstetig mit Konstante
L
+
, so gilt f ur die Evolution von x
t
(t) = f(t, x(t))
|
t,t
0
(x
0
)
t,t
0
(y
0
)|
2
e
L
+
(tt
0
)
|x
0
y
0
|
2
.
F ur dissipative Systeme gilt insbesondere
|
t,t
0
(x
0
)
t,t
0
(y
0
)|
2
|x
0
y
0
|
2
.
7.4 Euler-Verfahren
Wir haben bereits gesehen, dass die Losung einer Dierentialgleichung bei
geeigneten Eingangsdaten immer existiert. Trotzdem ist die Losung im All-
gemeinen selbst bei skalaren Dierentialgleichungen mit d = 1 nicht in ge-
schlossener Form darstellbar.
Die Grundidee der numerischen Losung von Anfangswertproblemen ist es
daher die Losung x(t) naherungsweise an diskreten Punkten zu ermitteln.
Gesucht sind also Naherungswerte von x(t) f ur t = t
0
, t
1
, . . . , t
N
mit
t
0
< t
1
< . . . < t
N
.
Notation 7.6. Gegeben seien reelle Zahlen t
0
< t
1
< . . . < t
N
= T. Dann
nennen wir
:= t
0
, t
1
, . . . , t
N

ein Gitter auf [t


0
, T]. Die Werte T
j
= t
j+1
t
j
f ur j = 0, . . . , N 1 heien
Schrittweite und die Feinheit eines Gitters ist

:= max
j=0,...,N1
T
j
.
Gesucht ist dann eine Gitterfunktion
x

: R
d
,
Kapitel 7 Anfangswertprobleme 145
welche die Losung von x
t
(t) = f(t, x(t)) mit x
t
(t
0
) = x
0
auf dem Gitter
moglichst gut approximiert. Vereinfacht schreiben wir x
j
:= x

(t
j
) R
d
f ur
j = 0, . . . , N.
Im Folgenden werden wir die exakte Evolution der Dierentialgleichung
x
t
(t) = f(t, x(t)) mit x
t
(t
0
) = x
0
durch eine diskrete Evolution ersetzen.
Notation 7.7. Gegeben sei eine Dierentialgleichung x
t
(t) = f(t, x(t)) mit
x
t
(t
0
) = x
0
und ein Gitter = t
0
, . . . , t
N
. Dann approximieren wir die
exakte Evolution
x(t
j+1
) =
t
j+1
,t
j
(x(t
j
)) mit x(t
0
) = x
0
durch die diskrete Evolution
x

(t
j+1
) =
t
j+1
,t
j
(x

(t
j
)) mit x

(t
0
) = x
0
.
Eine diskrete Evolution zu einem Gitter liefert uns damit ein Verfahren zur
diskreten Approximation der exakten Losung x(t) durch die Gitterfunktion
x

(t). Ein solches Verfahren heit Einschrittverfahren, da nur x

(t
j
) in
die Berechnung von x

(t
j+1
) eingeht.
F ur alle folgenden Verfahren werden wir stets ein aquidistantes Gitter
mit fester Schrittweite verwenden, also
= t
0
, t
0
+, . . . , t
0
+N .
Um nun eine diskreten Evolution herzuleiten, nutzen wir die Integraldar-
stellung
x(t
0
+) = x
0
+
_
t
0
+
t
0
f(t, x(t)) dt (7.5)
aus Lemma 7.4. Damit konnen wir nun das Euler-Verfahren motivieren.
Die Idee besteht darin, dass wir das Integral in Gleichung (7.5) durch die
Rechteck-Regel mit Funktionsauswertung am linken Randpunkt approximie-
ren. Somit erhalten wir
x(t
1
) = x(t
0
+) = x
0
+
_
t
0
+
t
0
f(t, x(t)) dt
x
0
+ f(t
0
, x(t
0
)) = x
0
+ f(t
0
, x
0
).
Daher wahlen wir f ur unsere Gitterfunktion
x
1
= x

(t
1
) = x
0
+ f(t
0
, x
0
).
Kapitel 7 Anfangswertprobleme 146
Ist nun x(t
0
) x
1
approximativ bekannt, erhalten wir analog durch die
Rechteck-Regel am linken Randpunkt
x(t
2
) = x
1
+
_
t
1
+
t
1
f(t, x(t)) dt x
1
+ f(t
1
, x
1
) = x

(t
2
) = x
2
.
Dies f uhrt uns zur Rekursion
x
j+1
= x

(t
j+1
) = x
j
+ f(t
j
, x
j
) mit x
0
= x(t
0
).
Die diskrete Evolution des Euler-Verfahrens ist damit

t+,t
(x) = x + f(t, x).
Dieses Ergebniss fassen wir noch einmal zusammen.
Korollar 7.11 (Explizites Euler-Verfahren). Gegeben sei eine Dierential-
gleichung
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
sowie ein aquidistantes Gitter mit Schrittweite . Dann liefert uns das
explizite Euler-Verfahren die Gitterfunktion
x
j+1
= x

(t
j+1
) =
t
j
+,t
j
(x
j
) = x
j
+ f(t
j
, x
j
).
Wir wollen nun noch ein Beispiel zum expliziten Euler-Verfahren diskutieren.
Beispiel 7.10. Gegeben sei die Dierentialgleichung
x
t
(t) = f(t, x(t)) = x(t) mit x(0) = 1
mit t
0
= 0. Dann ergibt das explizite Euler-Verfahren
x
j+1
= x
j
+ x
j
mit x
0
x(0) = 1.
Eine weitere Version des Euler-Verfahrens ergibt sich, wenn wir das Integral
in Gleichung (7.5) durch die Rechteck-Regel mit Funktionsauswertung am
rechten Randpunkt approximieren. Analog erhalten wir die Rekursion
x
j+1
= x

(t
j+1
) = x
j
+ f(t
j
, x
j+1
) mit x
0
= x(t
0
).
Dieses Verfahren wird als implizites Euler-Verfahren bezeichnet, das wir in
jedem Schritt zur Bestimmung von x
j+1
ein nicht lineares Gleichungssystem
mit d Unbekannten und d Gleichungen losen m ussen.
Kapitel 7 Anfangswertprobleme 147
Korollar 7.12 (Implizites Euler-Verfahren). Gegeben sei eine Dierential-
gleichung
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
sowie ein aquidistantes Gitter mit Schrittweite . Dann liefert uns das
implizite Euler-Verfahren die Gitterfunktion
x
j+1
= x

(t
j+1
) = x
j
+ f(t
j
, x
j+1
).
Auch zum impliziten Euler-Verfahren diskutieren wir noch einmal das Bei-
spiel von zuvor.
Beispiel 7.11. Gegeben sei wieder die Dierentialgleichung
x
t
(t) = f(t, x(t)) = x(t) mit x(0) = 1
mit t
0
= 0. Dann ergibt das implizite Euler-Verfahren
x
j+1
= x
j
+ x
j+1
mit x
0
x(0) = 1.
Dies lasst sich auosen zu
x
j+1
=
x
j
1
mit x
0
x(0) = 1.
7.5 Konsistenz und Konvergenz
Nachdem wir mit dem Euler-Verfahren erste Beispiele zur numerischen Lo-
sung von Anfangswertproblemen kennengelernt haben, wollen wir nun das
Konvergenzverhalten theoretisch untersuchen. Dazu fordern wir zunachst die
ersten beiden der drei Eigenschaften einer exakten Evolution aus Lemma
7.9 auch f ur die diskrete Evolution .
Denition 7.8. Eine diskrete Evolution heit konsistent zur Dierenti-
algleichung x
t
(t) = f(t, x(t)) mit f : D R
n
, wenn f ur alle (t
0
, x
0
) D die
folgenden beiden Bedinugnen erf ullt sind:
( 1 )
t
0
,t
0
(x
0
) = x
0
,
( 2 )

t
0
+,t
0
(x
0
)

=0
= f(t
0
, x
0
).
Wir wollen nun Kriterien angeben, wann eine diskrete Evolution konsistent
ist.
Kapitel 7 Anfangswertprobleme 148
Lemma 7.13. Die diskrete Evolution
t
0
+,t
0
(x
0
) sei f ur alle (t
0
, x
0
) D
und hinreichend kleines nach dierenzierbar. Dann sind die folgenden
Aussagen aquivalent:
( 1 ) ist konsistent.
( 2 ) Es gibt eine bez uglich stetige Verfahrensfunktion = (t
0
, x
0
, ) mit
den Eigenschaften

t
0
+,t
0
(x
0
) = x
0
+ (t
0
, x
0
, ), (7.6)
(t
0
, x
0
, 0) = f(t
0
, x
0
). (7.7)
( 3 ) Es gilt
lim
0
1

_
_

t
0
+,t
0
(x
0
)
t
0
+,t
0
(x
0
)
_
_
= 0. (7.8)
Beweis. Zunachst zeigen wir, dass ( 2 ) aus ( 1 ) folgt, sei also konsistent.
Dann denieren wir
(t
0
, x
0
, ) :=
_
1

t
0
+,t
0
(x
0
) x
0
_
f ur ,= 0
f(t
0
, x
0
) f ur = 0
.
Dann sind die Gleichungen (7.6) und (7.7) direkt erf ullt und es muss nur die
Stetigkeit von gezeigt werden. Dazu betrachten wir
lim
0
1

t
0
+,t
0
(x
0
) x
0
_
= lim
0

t
0
+,t
0
(x
0
)
t
0
,t
0
(x
0
)

t
0
+,t
0
(x
0
)

=0
= f(t
0
, x
0
),
also ist stetig.
Nun zeigen wir, dass ( 3 ) aus ( 2 ) folgt, dazu sei eine Verfahrensfunktion,
die die Gleichungen (7.6) und (7.7) erf ullt. Dann gilt
lim
0
1

|
t
0
+,t
0
(x
0
)
t
0
+,t
0
(x
0
)|
= lim
0
_
_
_
_

t
0
+,t
0
(x
0
) x
0



t
0
+,t
0
(x
0
) x
0

_
_
_
_
= |(t
0
, x
0
, 0) f(t
0
, x
0
)| = 0
und dies war zu zeigen.
Schlielich wollen wir noch zeigen, dass ( 1 ) aus ( 3 ) foglt und daher sei
Gleichung (7.8) erf ullt. Die Taylorentwicklung bis zum linearen Term liefert
dann

t
0
+,t
0
(x
0
) = x
0
+f(t
0
, x
0
) +O().
Kapitel 7 Anfangswertprobleme 149
Weiter ist nach Voraussetzung f ur hinreichend kleines dierenzierbar
bez uglich . Dies ergibt

t
0
+,t
0
(x
0
) =
t
0
,t
0
(x
0
) +

t
0
+,t
0
(x
0
)

=0
+O().
Nach Gleichung (7.8) sind aber die linken Seiten der letzten beiden Glei-
chungen f ur 0 gleich und daher muss dies auch f ur die rechten Seiten
f ur 0. Durch Koezientenvergleich folgen dann genau die beiden Be-
dingungen
( 1 )
t
0
,t
0
(x
0
) = x
0
,
( 2 )

t
0
+,t
0
(x
0
)

=0
= f(t
0
, x
0
).
und damit ist nach Denition konsistent.
Ist eine diskrete Evolution konsistent, so ist der lokale Fehler, den wir in
jedem Schritt bei der Berechnung der Gitterfunktion machen, klein. Inter-
essanter ist aber der globale Fehler
max
t
j

|x

(t
j
) x(t
j
)| = max
t
j

|x
j
x(t
j
)|,
der moglichst klein sein soll.
Notation 7.9. Ein Einschrittverfahren heit konvergent, falls
lim
0
sup
mit

=
max
t
j

|x

(t) x(t)| = 0
gilt. Dabei ist

die Feinheit des Gitters und das Supremum ist als Su-
premum uber allen moglichen nicht notwendigerweise aquidistanten Gittern
mit Feinheit zu verstehen.
Der folgende Satz zeigt nun, dass aus der Konsistenz unter einer zusatzli-
chen Stabilitatsannahme die Konvergenz von Einschrittverfahren folgt. Da-
bei m ussen wir die Konsistenzbedingung allerdings verstarken und zusatzlich
fordern, dass die Konsistenzbedingung gleichmaig erf ullt ist, also f ur alle
x(t) auf der Losungskurve.
Satz 7.14. Gegeben sei eine diskrete Evolution , die in einer Umgebung
U der Trajektorie
(t, x(t)) : t [t
0
, T]
Kapitel 7 Anfangswertprobleme 150
der exakten Losung x(t) deniert ist und zusatzlich die folgenden Bedingun-
gen erf ullt.
Stabilitatsbedingung. Es gibt Konstanten L

0 und
0
> 0 mit
|
t+,t
(x
1
)
t+,t
(x
2
)| e
L

|x
1
x
2
|
f ur alle (t, x
1
), (t, x
2
) U und alle 0
0
.
Konsistenzbedingung. Es gibt eine monoton wachsende Fehlerfunktion
err : [0,
0
] [0, ) mit
lim
0
err() = 0
und mit
|
t+,t
(x(t))
t+,t
(x(t))| err()
f ur alle t [0, T].
Dann gibt es ein
1
[0,
0
], sodass f ur jedes Gitter = t
0
, . . . , t
N
auf
[t
0
, T] mit Feinheit


1
die Gitterfunktion x

durch die diskrete Evolu-


tion
x
j+1
= x

(t
j+1
) =
t
j+1
,t
j
(x

(t
j
)) mit x

(t
0
) = x
0
wohldeniert ist. Der Fehler gen ugt dabei der Abschatzung
|x
j
x(t
j
)| r(

) :=
_
err(

)
1
L

_
e
L

(t
j
t
0
)
1
_
f ur L

> 0
err(

) (t
j
t
0
) f ur L

= 0
f ur alle t
j
.
Der Satz besagt also, dass wir unter gewissen Voraussetzungen aus der Sta-
bilitats- und Konsistenzbedingung die Konvergenz folgern konnen:
Stabilitat + Konvergenz = Konvergenz.
Der Beweis kann zum Beispiel in Schobel (2007) nachgelesen werden.
Abschlieend wollen wir noch die Begrie der Konsistenz- und Konvergen-
zordnung einf uhren.
Denition 7.10. Eine diskrete Evolution zu einer Dierentialgleichung
x
t
(t) = f(t, x(t)) mit f : D R
d
hat die Konsistenzordnung p > 0, falls
es f ur jede kompakte Teilmenge K D eine Konstante C > 0 mit
|
t+,t
(x)
t+,t
(x)| C
p+1
Kapitel 7 Anfangswertprobleme 151
f ur alle (t, x) K und alle hinreichend kleinen 0.
Ein Einschrittverfahren besitzt die Konsistenzordnung p > 0, falls f ur jede
rechte Seite f : D R
d
mit f C

(D) die zugeordnete diskrete Evolution


die Konsistenzordnung p besitzt.
Denition 7.11. Ein Einschrittverfahren besitzt die Konvergenzordnung
p > 0, falls f ur jede Losung x : [t
0
, T] R
d
eines Anfangswertproble-
mes x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
und rechter Seite f : D R
d
mit
f (

(D) der globale Fehler, der durch das Verfahren bestimmten Git-
terfunktion x

auf einem Gitter mit hinreichend kleiner Feinheit

die
Abschatzung
max
t
j

|x

(t
j
) x(t
j
)| C
t

p
erf ullt. Dabei ist C
t
nicht von abhangig.
Lemma 7.15. Besitzt ein Einschrittverfahren die Konsistenzordnung p und
erf ullt es die Stabilitatsbedingung aus Satz 7.14, dann hat das Einschrittver-
fahren die Konvergenzordnung p.
Beweis. Sei f : D R
d
mit f (

(D) beliebig. Da das gegebene Verfahren


die Konsistenzordnung p hat, gilt f ur die diskrete Evolution
|
t+,t
(x)
t+,t
(x)| C
p+1
.
Die Funktion err() := C
p
erf ullt dann oenbar die Konsistenzbedingung
aus Satz 7.14 und die Anwendung des Satzes liefert
max
t
j

|x

(t
j
) x(t
j
)| C
t

p

mit
C
t
=
_
C
1
L

_
e
L

(Tt
0
)
1
_
f ur L

> 0
C (T t
0
) f ur L

= 0
.
Damit konnte die Bedingung aus Denition 7.11 nachgewiesn werden.
Nach dieser theoretischen Vorarbeit konnen wir nun eine Aussage zum Euler-
Verfahren treen.
Satz 7.16. Die diskrete Evolution des expliziten Euler-Verfahrens hat f ur
stetig dierenzierbare Funktionen f : D R
d
die Konsistenzordnung p = 1.
Einen Verallgemeinerung dieses Satzes werden wir im nachsten Abschnitt
bei den Ordnungsbedingen von Runge-Kutta-Verfahren beweisen.
Kapitel 7 Anfangswertprobleme 152
7.6 Runge-Kutta-Verfahren
Analog zum Euler-Verfahren wollen wir nun weitere diskrete Evolutionen
bzw. Einschrittverfahren mit hoheren Konsistenzordnungen herleiten. Dazu
werden wir im folgenden wieder stets ein aquidistantes Gitter mit fester
Schrittweite verwenden, also
= t
0
, t
0
+, . . . , t
0
+N .
Weiter erinnern wir uns daran, dass das Euler-Verfahren durch die numeri-
schen Integration motiviert wurde. Speziell haben wir die Integraldarstellung
x(t
0
+) = x
0
+
_
t
0
+
t
0
f(t, x(t)) dt (7.9)
verwendet und das Integral am linken (explizites Euler-Verfahren) bzw. am
rechten Randpunkt (implizites Euler-Verfahren) durch die Rechteck-Regel
approximiert. Die Idee der Runge-Kutta-Verfahren besteht nun darin Qua-
draturformel hoherer Ordnungen zu verwenden, um damit auch hohere Kon-
sistenzordnungen zu erhalten. Dies veranschaulichen wir am speziellen Ver-
fahren von Runge.
Das Verfahren von Runge verwendet die Mittelpunkt zur Auswertung des
Integrals in der Integraldarstellung (7.9). Somit erhalten wir
x(t
1
) = x(t
0
+) = x
0
+
_
t
0
+
t
0
f(t, x(t)) dt x
0
+ f(t
0
+

2
, x(t
0
+

2
)).
Das Problem besteht nun darin, dass auch x(t
0
+

2
) nicht bekannt ist. Wir
nutzen daher das explizite Euler-Verfahren f ur dessen Bestimmung:
x(t
0
+

2
) = x(t
0
) +

2
f(t
0
, x(t
0
)) = x
0
+

2
f(t
0
, x
0
).
Dies liefert uns
x(t
1
) x
0
+ f(t
0
+

2
, x(t
0
+

2
)) x
0
+ f(t
0
+

2
, x
0
+

2
f(t
0
, x
0
))
und f ur unsere Gitterfunktion bedeutet dies
x
1
= x

(t
1
) = x
0
+ f(t
0
+

2
, x
0
+

2
f(t
0
, x
0
)).
Dies f uhrt uns zur Rekursion
x
j+1
= x

(t
j+1
) = x
j
+ f(t
j
+

2
, x
j
+

2
f(t
j
, x
j
))
mit x
0
= x(t
0
). Die diskrete Evolution des Verfahrens von Runge ist damit

t+,t
(x) = x + f(t +

2
, x +

2
f(t, x)).
Dieses Ergebniss fassen wir noch einmal zusammen.
Kapitel 7 Anfangswertprobleme 153
Korollar 7.17 (Verfahren von Runge). Gegeben sei eine Dierentialglei-
chung
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
sowie ein aquidistantes Gitter mit Schrittweite . Dann liefert uns das
Verfahren von Runge die Gitterfunktion
x
j+1
= x

(t
j+1
) =
t
j
+,t
j
(x
j
) = x
j
+ f(t
j
+

2
, x
j
+

2
f(t
j
, x
j
)).
Wir werden spater sehen, dass dieses Verfahren die Konsistenzordnung p = 2
hat.
Algorithmisch lasst sich die diskrete Evolution

t+,t
(x) = x + f(t +

2
, x +

2
f(t, x)).
des Verfahrens von Runge auch schreiben als
k
1
= f(t, x),
k
2
= f(t +

2
, x +

2
k
1
),

t+,t
(x) = x + k
2
.
Genau dies wollen wir nun verallgemeinern zum Runge-Kutta-Verfahren.
Notation 7.12. Ein explizites Runge-Kutta-Verfahren wird gegeben
durch
k
i
= k
i
(t, x, ) = f
_
_
t +c
i
, x +
i1

j=1
a
ij
k
j
_
_
f ur i = 1, . . . , s und

t+,t
(x) = x +
s

j=1
b
j
k
j
.
Dazu verwenden wir die Notationen
A =
_
_
_
_
_
_
_
0
a
21
0
a
31
a
32
0
.
.
.
.
.
.
.
.
.
a
s1
a
s2
a
s,s1
0
_
_
_
_
_
_
_
R
ss
,
b =
_
_
_
b
1
.
.
.
b
s
_
_
_
R
s
und c =
_
_
_
c
1
.
.
.
c
s
_
_
_
R
s
.
Kapitel 7 Anfangswertprobleme 154
Weiter heit s die Stufenzahl des Runge-Kutta-Verfahrens und k
i
die i-te
Stufe des Verfahrens. In Kurzform schreiben wir ein Runge-Kutta-Verfahen
(A, b, c) im Butcher-Schema
(A, b, c) =
c
1
0
c
2
a
21
0
c
3
a
31
a
32
0
.
.
.
.
.
.
.
.
.
.
.
.
c
s
a
s1
a
s2
a
s,s1
0
b
1
b
2
. . . b
s1
b
s
.
Beispiel 7.12. Das explizite Euler-Verfahren lasst sich durch das Butcher-
Schema
0 0
1
beschreiben, denn damit erhalten wir
k
1
= f(t +c
1
, x) = f(t, x),

t+,t
= x +b
1
k
1
= x +k
1
= x + f(t, x).
Analog liefert das Verfahren von Runge das Schema
0 0
1
2
1
2
0
0 1
.
Das klassische Runge-Kutta-Verfahren mit der Stufenzahl s = 4 wird gegeben
durch
0 0
1
2
1
2
0
1
2
0
1
2
0
1 0 0 1 0
1
6
1
3
1
3
1
6
.
Ausgeschrieben bedeutet dies
k
1
= f(t, x),
k
2
= f(t +
1
2
, x +
1
2
k
1
),
k
3
= f(t +
1
2
, x +
1
2
k
2
),
k
4
= f(t +, x +k
3
),

t+,t
(x) = x +(
1
6
k
1
+
1
3
k
2
+
1
3
k
3
+
1
6
k
4
).
Wir werden spater sehen, dass das klassische Runge-Kutta-Verfahren die
Konsistenzordnung p = 4 hat.
Kapitel 7 Anfangswertprobleme 155
Beispiel 7.13. In diesem Beispiel betrachten wir den Lotka-Volterra-Zyklus,
der durch die Dierentialgleichung
x
t
1
(t) = 2x
1
(t) 0.01x
1
(t)x
2
(t),
x
t
2
(t) = x
2
(t) + 0.01x
1
(t)x
2
(t).
gegeben wird, siehe auch Beispiel 7.3. Wir wollen nun das Euler-Verfahren
mit dem Verfahren von Runge vergleichen.
Abbildung 7.3: Diskrete Losungen eines Lotka-Volterra-Zyklus f ur identische
Startpopulationen.
Mit der gegeben Dierentialgleichung haben wir f : R R
2
R
2
mit
f(t, x
1
, x
2
) = (2x
1
0.01x
1
x
2
, x
2
+ 0.01x
1
x
2
).
F ur beide Verfahren verwenden wir den Startwert x(0) = (300, 150) so-
wie die Schrittweite = 0.02. Abbildung 7.3 zeigt die diskreten Losungen
zum Verfahren von Runge (orange) und zum Euler-Verfahren (blau) f ur die
ersten N = 500 Schritte. Wahrend das Verfahren von Runge die exakte
Losung bereits sehr gut approximiert, ist ein deutliches Divergenzverhalten
beim Euler-Verfahren zu erkennen.
Mit dem allgemeinen Runge-Kutta-Verfahren konnen wir nun beliebig viele
Einschrittverfahren zur Losung von Anfangswertproblemen angeben. In den
folgenden Aussagen werden wir untersuchen wie die Parameter a
ij
, b
i
und c
i
gewahlt werden m ussen, damit wir konsistente Verfahren erhalten. Zudem
untersuchen wir die Invarianz gegen uber Autonomisierung sowie Konsisten-
zordnungen.
Lemma 7.18. Ein Runge-Kutta-Verfahren (A, b, c) ist genau dann konsistent
Kapitel 7 Anfangswertprobleme 156
f ur alle f : D R
d
mit f ((D), falls
s

j=1
b
j
= 1
gilt.
Beweis. Zum Beweis verwenden wir ( 2 ) aus Lemma 7.13, wir haben also

t+,t
(x) = x + (t, x, ),
(t, x, 0) = f(t, x)
zu zeigen. Dazu denieren wir
(t, x, ) =
s

j=1
b
j
k
j
(t, x, )
und erhalten damit direkt

t+,t
(x) = x +
s

j=1
b
j
k
j
(t, x, ) = x + (t, x, ).
Weiterhin gilt k
j
(t, x, 0) = f(t, x) f ur alle j = 1, . . . , s, also auch
(t, x, 0) =
s

j=1
b
j
k
j
(t, x, 0) = f(t, x)
s

j=1
b
j
.
Damit ist die zweite Bedingung genau dann erf ullt, wenn
s

j=1
b
j
= 1
gilt.
Lemma 7.19. Besitzt ein Runge-Kutta-Verfahren mit Stufenzahl s f ur alle
f : D R
d
mit f (

(D) die Konsistenzordnung p, so gilt p s.


Beweis. Zum Beweis verwenden wir das Beispiel
x
t
(t) = f(x(t)) = x(t) mit x(0) = 1.
Die exakte Losung ist oenbar
x() =
,0
(1) = e

= 1 + +
1
2!

2
+ +
1
p!

p
+O(
p+1
).
Kapitel 7 Anfangswertprobleme 157
F ur die Konsistenzordnung wollen wir
t+,t
(x) und
t+,t
(x) vergleichen
mit t = 0 sowie x = 1. Die exakte Evolution kennen wir schon. Um
auch
t+,t
(x) zu verstehen wollen wir zeigen, dass k
j
= k
j
(0, 1, ) in ein
Polynom in
j1
ist f ur alle j = 1, . . . , s. Dazu f uhren wir eine vollstandige
Induktion uber j durch.
F ur j = 1 gilt oenbar
k(0, 1, ) = f(0 +c
1
, 1) = 1
0
,
da diese Funktion konstant in ist. Wir nehmen an die Induktionsvorausset-
zung gelte f ur ein j und wir wollen nun auf j +1 schlieen. Dazu berechnen
wir
k
j+1
(0, 1, ) = f
_
0 +c
j
, 1 +
j

l=1
a
jl
k
l
(0, 1, )
_
= 1 +
j

l=1
a
jl
k
l
(0, 1, ).
Nun gilt nach Induktionsvoraussetzung k
l
(0, 1, )
j1
f ur l = 1, . . . , j
und somit ergibt sich
k
j+1
(0, 1, )
j
.
Damit haben wir gezeigt, dass
,0
(1) (s) gilt. Damit konnen hochstens
die ersten s Potenzen in der Reihenentwicklung von
,0
(1) durch
,0
(1)
ausgeglichen werden und wir konnen maximal erreichen
|
,0
(1)
,0
(1)| C
s+1
.
Folglich kann die Konsistenzordnung hochstens s sein.
Wie wir in Lemma 7.3 bereits gezeigt haben, lasst sich jedes Anfangswert-
problem der Form
x
t
(t) = f(t, x(t)) mit x(t
0
) = x
0
in ein aquivalentes autonomes Anfangswertproblem transformieren, namlich
in
x
t
(t) =
_
1
f( x(t))
_
mit x(t
0
) = x
0
=
_
t
0
x
0
_
.
Nun sei die exakte Evolution zur Dierentialgleichung x
t
(t) = f(t, x(t))
und

die zu x
t
(t) = (1, f(y(t))). Dann kann die

Aquivalenz der beiden
Anfangswertprobleme auch geschrieben werden als
_
t +

t+,t
(x)
_
=

t+,t
_
t
x
_
.
Kapitel 7 Anfangswertprobleme 158
Diese Eigenschaft soll nun auch auf die diskreten Evolutionen und

ubertragen werden, also


_
t +

t+,t
(x)
_
=

t+,t
_
t
x
_
. (7.10)
Dies bedeutet also, dass das Einschrittverfahren gegeben durch die glei-
che diskrete Losung liefert wie das durch

gegebene Einschrittverfahren.
Wir sagen dann auch, dass das Einschrittverfahren invariant gegen uber
Autonomisierung ist.
Diese Eigenschaft soll speziell auch f ur Runge-Kutta-Verfahren gelten.
Lemma 7.20. Ein explizites Runge-Kutta-Verfahren ist genau dann invari-
ant gegen Autonomisierung, wenn es konsistent ist und es
c
i
=
i1

j=1
a
ij
f ur j = 1, . . . , s
erf ullt.
Beweis. Sei
x
t
(t) =

f( x(t)) =
_
1
f(t, x(t))
_
die autonomisierte Dierentialgleichung und sei

die zugehorige diskrete
Evolution mit x(t) = (t, x(t)). Weiter bezeichnen wir mit

K
i
=
_

l
i

k
i
_
f ur i = 1, . . . , s
die s Stufen von

. Dann gilt

K
i
=

f
_
_
t +c
i
, x +
i1

j=1
a
ij

K
j
_
_
=

f
_
_
x +
i1

j=1
a
ij

K
j
_
_
=

f
_
_
_
t
x
_
+
i1

j=1
a
ij
_

l
j

k
j
_
_
_
=
_
1
f
_
t +

i1
j=1
a
ij

l
j
, x +

i1
j=1

k
j
_
_
f ur i = 1, . . . , s. Dies bedeutet

l
i
= 1 und

k
i
= f
_
_
t +
i1

j=1
a
ij
, x +
i1

j=1

k
j
_
_
Kapitel 7 Anfangswertprobleme 159
f ur i = 1, . . . , s. F ur das Runge-Kutta-Verfahren gilt f ur die diskrete Evolu-
tion weiterhin

t+,t
_
t
x
_
=
_
t
x
_
+
s

j=1
b
j
_

t
j

k
j
_
=
_
t +

s
j=1
b
j
x +

s
j=1
b
j

k
j
_
.
Damit haben wir bis hierhin die gegen Autonomisierung invariante diskrete
Evolution

durch die gegebenen Parameter a
ij
und b
i
der eigentlichen
Evolution ausgedr uckt. Nun konnen wir Gleichung (7.10) anwenden und
einen Koezientenvergleich durchf uhren. Das Verfahren ist also genau
dann invariant gegen uber Autonomisierung, wenn
_
t +

t+,t
(x)
_
=

t+,t
_
t
x
_
gilt. Dies bedeutet aber gerade
t + = t +
s

j=1
b
j
und
t+,t
(x) = x +
s

j=1
b
j

k
j

j=1
b
j
= 1 und x +
s

j=1
b
j
k
j
= x +
s

j=1
b
j

k
j
ist konsistent und k
i
=

k
i
f ur alle i = 1, . . . , s.
Letzteres ist genau dann der Fall, wenn
f
_
_
t +c
i
, x +
i1

j=1
a
ij
k
j
_
_
= f
_
_
t +
i1

j=1
a
ij
, x +
i1

j=1
a
ij

k
j
_
_
und damit wenn c
i
=

i1
j=1
a
ij
f ur i = 1, . . . , s.
Gegen Autonomisierung invariante Runge-Kutta-Verfahren bezeichnen wir
kurz mit (A, b) und wir schreiben dann auch

(x) =
t+,t
(x),
da c ja von der Matrix A abhangig ist.
Folgende Bedingungen an die Koezienten eines Runge-Kutta-Verfahrens
haben wir bisher erarbeitet:
Kapitel 7 Anfangswertprobleme 160
( 1 ) Das Verfahren ist genau dann konsistent, wenn
s

i=1
b
i
= 1
gilt.
( 2 ) Das Verfahren ist genau dann invariant gegen Autonomisierung, wenn
es konsistent ist und
c
i
=
2

j=1
a
ij
gilt f ur alle i = 1, . . . , s.
Im folgenden wollen wir weitere Bedingungen an die Parameter (A, b) von
gegen Autonomisierung invariante Runge-Kutta-Verfahren stellen, sodass
wir eine hohere Konsistenzordnung erhalten. Diese Bedingungen werden als
Ordnungsbedingungen bezeichnet.
Satz 7.21 (Ordnungsbedingungen). Ein gegen Autonomisierung invarian-
tes Runge-Kutta-Verfahren besitzt f ur jede Dierentialgleichung
x
t
(t) = f(x(t))
mit f : D R
d
und f (
p
(D) die folgenden Konsistenzordnung genau
dann, falls die folgenden Bedingungen erf ullt sind.
( 1 ) Konsistenzordnung p = 1 genau dann, wenn
s

i=1
b
i
= 1 (7.11)
gilt.
( 2 ) Konsistenzordnung p = 2 genau dann, wenn zusatzlich
s

i=1
b
i
c
i
=
1
2
(7.12)
gilt.
( 3 ) Konsistenzordnung p = 3 genau dann, wenn zusatzlich
s

i=1
b
i
c
2
i
=
1
3
, (7.13)
s

i,j=1
b
i
a
ij
c
j
=
1
6
(7.14)
gilt.
Kapitel 7 Anfangswertprobleme 161
( 4 ) Konsistenzordnung p = 4 genau dann, wenn zusatzlich
s

i=1
b
i
c
3
i
=
1
4
,
s

i,j=1
b
i
c
i
a
ij
c
j
=
1
8
,
s

i,j=1
b
i
a
ij
c
2
j
=
1
12
,
s

i,j,k=1
b
i
a
ij
a
jk
c
k
=
1
24
gilt.
Beweis. Sei

(x) die exakte und

(x) die disktre Evolution, beide seien


invariant gegen Autonomisierung. Wir leiten die Ordnungsbedingungen zur
Konsistenz bis zur Ordnung p = 3 in drei Schritten her.
Schritt 1 (Taylorentwicklung der exakten Evolution)
Wir f uhren eine Taylorentwicklung von
g() :=

(x) (7.15)
um = 0 durch. Zunachst gilt

0
(x) = x und
d
d

(x) = f(

(x)),
damit erhalten wir

(x)
=
0
(x) +
_
d
d

(x)

=0
_
+

2
2
_
d
2
d
2

(x)

=0
_
+

3
6
_
d
3
d
3

(x)

=0
_
+O(
4
)
= x +f(x) +

2
2
f
t
(x)f(x)
+

3
6
_
f
tt
(x)f(x)f(x) +f
t
(x)f
t
(x)f(x)
_
+O(
4
)
= x +f(x) +

2
2
f
t
(x)f(x)
+

3
6
f
tt
(x)f(x)f(x) +

3
6
f
t
(x)f
t
(x)f(x) +O(
4
), (7.16)
Kapitel 7 Anfangswertprobleme 162
denn mit den unter (7.15) festgehaltenen Bemerkungen gilt
d
d

(x)

=0
= f(

(x))

=0
= f(
0
(x)) = f(x),
d
2
d
2

(x)

=0
=
d
d
f(

(x))

=0
= f
t
(

(x))
d
d

(x)

=0
= f
t
(

(x)) f(

(x))

=0
= f
t
(
0
(x)) f(
0
(x)) = f
t
(x)f(x)
d
3
d
3

(x)

=0
=
d
2
d
2
f(

(x))

=0
=
d
d
_
d
d
f(

(x))
_

=0
=
d
d
_
f
t
(

(x)) f(

(x))
_

=0
= f
tt
(

(x))
d
d

(x) f(

(x))
+ f
t
(

(x))
d
d
f(

(x))

=0
= f
tt
(

(x)) f(

(x)) f(

(x))
+ f
t
(

(x)) f
t
(

(x))
d
d

(x)

=0
= f
tt
(
0
(x)) f(
0
(x)) f(
0
(x))
+ f
t
(
0
(x)) f
t
(
0
(x)) f(
0
(x))
= f
tt
(x) f(x) f(x) +f
t
(x) f
t
(x) f(x).
Schritt 2 (Taylorentwicklung der diskreten Evolution)
Zur Berechnung der Taylorentwicklung der diskreten Evolution betrachten
wir zunachst
h() := k
i
= f
_
_
x +
s

j=1
a
ij
k
j
_
_
(7.17)
und f uhren eine Taylorentwicklung von h() um = 0 bis zur ersten Ord-
nung durch, also
k
i
= f(x) +O().
Kapitel 7 Anfangswertprobleme 163
Dies setzten wir nun wieder in (7.17) ein:
k
i
= f
_
_
x +
s

j=1
a
ij
k
j
_
_
= f
_
_
x +
s

j=1
a
ij
(f(x) +O())
_
_
= f
_
x +c
i
f(x) +O(
2
)
_
Dabei haben wir verwendet, dass

(x) autonomisierungsinvariant, dass also


c
i
=
s

j=1
a
ij
gilt. Nun f uhren wir abermals eine Taylorentwicklung um = 0 durch:
k
i
= f
_
x +c
i
f(x) +O(
2
)
_
= f(x) +
_
d
d
f(x +c
i
f(x) +O(
2
))

=0
_
+O(
2
)
= f(x) +
_
f
t
(x +c
i
f(x) +O(
2
)) (c
i
f(x) +O())

=0
_
+O(
2
)
= f(x) +
_
f
t
(x) c
i
f(x)
_
+O(
2
)
= f(x) +c
i
f
t
(x)f(x) +O(
2
).
Dieses Ergebnis setzen wir noch einmal in (7.17) ein und f uhren wieder eine
Taylorentwicklung um = 0 durch. Mit
m
i
() = f
_
_
x +c
i
f(x) +
2
s

j=1
a
ij
c
j
f
t
(x)f(x) +O(
3
)
_
_
erhalten wir die folgende etwas abgek urzte Rechnung:
k
i
= f
_
_
x +
s

j=1
a
ij
_
(f(x) +c
j
f
t
(x)f(x) +O(
2
)
_
_
_
= f
_
_
x +c
i
f(x) +
2
s

j=1
a
ij
c
j
f
t
(x)f(x) +O(
3
)
_
_
= m
i
()
= m
i
(0) +
_
d
d
m
i
()

=0
_
+

2
2
_
d
2
d
2
m
i
()

=0
_
+O(
3
)
= f(x) +c
i
f
t
(x)f(x)
+

2
2
_
_
c
2
i
f
tt
(x)f(x)f(x) + 2
s

j=1
a
ij
c
i
f
t
(x)f
t
(x)f(x)
_
_
+O(
3
)
=: n
i
()
Kapitel 7 Anfangswertprobleme 164
Dieses Ergebnis setzen wir nun in die diskrete Evolution ein und erhalten

(x) = x +
s

i=1
b
j
k
j
= x +
s

i=1
b
j
n
i
()
= x +
s

i=1
b
i
f(x) +
2
s

i=1
b
i
c
i
f
t
(x)f(x)
+

3
2
s

i=1
b
i
c
2
i
f
tt
(x)f(x)f(x)
+

3
2
s

i=1
b
i
2
s

j=1
a
ij
c
i
f
t
(x)f
t
(x)f(x) +O(
4
) (7.18)
Schritt 3 (Koezientenvergleich)
Nun f uhren wir einen Koezientenvergleich der exakten und der diskreten
Evolution durch, siehe (7.16) und (7.18).
Die diskrete Evolution

(x) besitzt damit die Konsistensordnung p = 1,


wenn
s

i=1
b
i
= 1
gilt.

(x) besitzt die Konsistensordnung p = 2, wenn zusatzlich


s

i=1
b
i
c
i
=
1
2
gilt. Und schlielich hat

(x) die Konsistensordnung p = 3, wenn zusatzlich


1
2
s

i=1
b
i
c
2
i
=
1
6

s

i=1
b
i
c
2
i
=
1
3
sowie auch noch
1
2
s

i=1
b
i
2
s

j=1
a
ij
c
i
=
s

i,j=1
b
i
a
ij
c
i
=
1
6
gilt.
Damit lassen sich die Konsistenzordnung des Euler-Verfahrens, des Verfah-
rens von Runge und des klassischen Runge-Kutta-Verfahrens sofort nach-
weisen. Wir betrachten noch einige weitere Beispiele.
Kapitel 7 Anfangswertprobleme 165
Beispiel 7.14 (Konsistenzordnung 1). Um alle gegen Autonomisierung in-
varianten Runge-Kutta-Verfahren der Konsistenzordnung p = 1 zu bestim-
men, nutzen wir das Butcher-Schema
c
1
0
b
1
.
Damit erhalten wir sofort c
1
= 0 und b
1
= 1. Somit ist das explizite Euler-
Verfahren das einzige gegen Autonomisierung invarianten Runge-Kutta-Ver-
fahren der Konsistenzordnung p = 1.
Beispiel 7.15 (Konsistenzordnung 2). Um alle gegen Autonomisierung in-
varianten Runge-Kutta-Verfahren der Konsistenzordnung p = 2 zu bestim-
men, nutzen wir das Butcher-Schema
c
1
0
c
2
a
21
0
b
1
b
2
.
Wir erhalten sofort c
1
= 0 und c
2
= a
21
. Als Variablen verbleiben also nur
noch a
21
, b
1
und b
2
, wobei wir zur Konsistenzordnung p = 2 aber weitere
Bedingungen haben, namlich
b
1
+b
2
= 1,
b
1
c
1
+b
2
c
2
= b
2
c
2
=
1
2
.
Aus dem Gleichungssystem ergibt sich f ur b
2
,= 0
b
1
= 1 b
2
,
c
2
=
1
2b
2
.
Somit sind alle gegen Autonomisierung invarianten Runge-Kutta-Verfahren
der Konsistenzordnung p = 2 von der Form
0 0
1
2
1
2
0
1
mit R 0. F ur = 1 erhalten wir das Verfahren von Runge.
Es sei bemerkt, dass die Anzahl der Ordnungsbedingen f ur hohere Ordnun-
gen sehr schnell wachst. F ur p = 10 erhalten wir bereits 1 205 Bedinungen
und f ur p = 20 sogar 20 247 374.
Zur Konvergenz benotigen wir noch folgendes Satz, dessen Beweis Lube
(2005b) entnommen werden kann:
Kapitel 7 Anfangswertprobleme 166
Satz 7.22. Sei die Funktion f der autonomen Gleichung x
t
= f(x) global
Lipschitz- stetig, d.h.
|f(x) f(y)| L|x y|, x, y D.
Dann gen ugt die diskrete Evolution eines gegen Autonomisierung invarian-
ten RK-Verfahrens der Stabilitatsbedingung aus Satz 7.14.
Abschlieend untersuchen wir noch ein weiteres praktisches Beispiel.
Beispiel 7.16 (Satellitenbahn). Wir betrachten die Bahn eines Satelliten,
der sich im Gravitationsfeld zwischen Erde und Mond bewegt. Zur Vereinfa-
chung machen wir die folgenden Annahmen:
( 1 ) Der Abstand L zwischen Erde und Mond sei mit L = 384 000 km kon-
stant.
( 2 ) Die Masse des Satelliten ist gegen uber der Masse von Erde bzw. Mond
vernachlassigbar.
( 3 ) Erde, Mond und Satellit bewegen sich in einer Ebene.
Wir wahlen ein mitrotierendes, baryzentrisches Koordinatensystem mit Lan-
geneinheit L, in dem sich die Erde im Punkt (, 0) und Mond im Punkt
( , 0) zum Zeitpunkt t = 0 benden. Dabei ist = 0, 012 277 471 das Verhalt-
nis der Mondmasse zur Masse des Gesamtsystems und = 1. Die Bahn
des Satelliten x(t) = (x
1
(t), x
2
(t)) R
2
wird nun durch die Dierentialglei-
chungen
x
tt
1
(t) = x
1
(t) + 2x
t
2
(t)
x
1
(t) +
((x
1
(t) +)
2
+ (x
2
(t))
2
)
3/2

x
1
(t)
((x
1
(t) + )
2
+ (x
2
(t))
2
)
3/2
,
x
tt
2
(t) = x
2
(t) 2x
t
1
(t)
x
2
(t)
((x
1
(t) +)
2
+ (x
2
(t))
2
)
3/2

x
2
(t)
((x
1
(t) + )
2
+ (x
2
(t))
2
)
3/2
,
beschrieben. Dabei stehen die Terme (x
1
, x
2
) und (2x
t
2
(t), 2x
t
1
(t)) f ur die
Zentrifugal- bzw. Corioliskraft. Als Zeiteinheit haben wir das 1/2-fache der
Umlaufzeit des Mondes um die Erde um ihren gemeinsamen Schwerpunkt
gewahlt, also ungefahrt einen Monat. Die Anfangswerte seien
x
1
(0) = 0, 994, x
t
1
(0) = 0, x
2
(0) = 0, x
t
2
(0) = 2, 001 585 106
Kapitel 7 Anfangswertprobleme 167
und wir betrachten das Zeitintervall [0, 18].
Um dieses System numerisch zu Losen, m ussen wir es zunachst nach Lemma
7.2 in ein aquivalentes Dierentialgleichungssystem erster Ordnung trans-
formiert. Abbildung 7.4 zeigt die numerische Losung des gegebenen Anfangs-
wertproblems mit dem klassischen Runge-Kutta-Verfahren zur Schrittweite
= 0, 001 und N = 18 000 Schritte.
Abbildung 7.4: Diskrete Losung der Satellitenbahn.
Es sei bemerkt, dass bei diesem Beispiel Verfahren mit einer Konsistenz-
ordnung von p < 4 bereits sehr viel fr uher stark von der exakten Losung
abweichen.
7.7 Adaptive Schrittweitensteuerung
Ziel dieses Abschnitts ist die vollautomatische Erzeugung problemangepass-
ter Gitter zur Losung von Anfangswertproblemen. Dabei sollte einerseits
der globale Fehler sup
t
|x

(t) x(t)| moglichst klein sein und anderer-


seits sollte aus Ezienzgr unden moglichst wenig Gitterpunkte enthalten.
Schlielich sollte der Aufwand zur Erzeugung des Gitters im Verhaltnis zum
Aufwand zur Losung des Anfangswertproblems auf einem vorgegebenen Git-
ter nicht ubermaig gro sein.
Angenommen, wir haben bereits eine numerische Losung x

bis zu einem
Kapitel 7 Anfangswertprobleme 168
Zeitpunkt t
j
berechnet und mochten den nachsten Gitterpunkt t
j+1
geeignet
wahlen. Den globalen Diskretisierungsfehler

(t
j+1
) := x

(t
j+1
) x(t
j+1
)
konnen wir folgendermaen zerlegen:

(t
j+1
)
=
t
j+1
,t
j
(x

(t
j
))
t
j+1
,t
j
(x

(t
j
)
. .
=:
j+1
) +
t
j+1
,t
j
(x

(t
j
))
t
j+1
,t
j
(x(t
j
))
. .
=:p
j+1
.
Er zerfallt also in zwei Anteile, den lokalen Diskretisierungsfehler (Kon-
sistenzfehler)
j+1
und den Propagationsfehler p
j+1
. Den letzten Anteil
konnten wir nur dadurch reduzieren, indem wir die gesamte Rechnung bis
zum Zeitpunkt t
j
neu aufrollen. Deshalb beschrankt man sich in der Regel
darauf, den lokalen Diskretisierungsfehler zu reduzieren, indem man zum
Beispiel verlangt, dass in jedem Schritt f ur einen vorgegebenen Toleranz-
wert TOL die Ungleichung
|
j+1
| TOL (7.19)
gilt.
Wie wir gesehen hatten, lasst sich der globale Diskretisierungsfehler im Prin-
zip durch den lokalen Diskretisierungsfehler beschranken, allerdings ist die
Fehlerkonstante im allgemeinen nicht explizit bekannt. Im allgemeinen wird
man aber selbst den lokalen Diskretisierungsfehler
j+1
nicht exakt kennen,
sondern wird auf eine Schatzung [
j+1
]
j+1
angewiesen sein. Praktische
Methoden zur Fehlerschatzung werden wir spater kennenlernen. Die imple-
mentierbare Ersatzforderung lautet dann
|[
j+1
]| TOL. (7.20)
Wir unterscheiden nun zwei Falle:
( 1 ) Die Ungleichung (7.20) ist verletzt. Dann verwerfen wir die in diesem
Schritt berechnete Naherung
t
j
+
j
,t
j
x

(t
j
) und berechnen eine opti-
mierte Schrittweite

j
, mit der wir die Naherung
t
j
+

j
,t
j
x

(t
j
) be-
rechnen.

j
sollte so gewahlt werden, dass die gegebene Fehlerschranke
weder deutlich unterschritten wird (Ezienz) noch uberschritten wird
(Verlasslichkeit):
|[

j+1
]| TOL. (7.21)
Kapitel 7 Anfangswertprobleme 169
( 2 ) Die Ungleichung (7.20) ist erf ullt. In diesem Fall wird die in diesem
Schritt berechnete Naherung
t
j
+
j
,t
j
x

(t
j
) akzeptiert.
Es verbleibt die Berechnung einer optimalen Schrittweite

j
zu diskutieren.
Mit diesem wollen wir zum einen im ersten Fall unsere berechnete Losung
verbessern. Wir konnen sie jedoch zusatzlich als Schrittweite f ur den dar-
auolgenden Schritt verwenden. Dazu nehmen wir an, dass der lokale Feh-
lerschatzer sich im Limes 0 wie
|[
j+1
]| c(t
j
)
p+1
j
+O(
p+2
j
) c(t
j
)
p+1
j
verhalt, wobei c(t
j+1
) eine (unbekannte) Fehlerkonstante ist. Ein derartiges
Verhalten lasst sich in der Tat unter vern unftigen Voraussetzungen nachwei-
sen. Entsprechend gilt
TOL |[

j+1
]| c(t
j
)(

j
)
p+1
.
Durch Division k urzt sich der unbekannte Faktor c(t
j
) heraus:
TOL
|[
j+1
]|

(

j
)
p+1

p+1
j
.
Wir losen dies nach

j
auf und f ugen zur Sicherheit einen Faktor < 1 ein:

j
=
p+1

TOL
|[
j+1
]|

j
. (7.22)
Da |[
j+1
]| verschwinden kann, ist es notwendig, eine sogenannte Hoch-
schaltbeschrankung einzuf uhren. Wir verlangen, dass [

j
[ q
j
mit einem
vorgegebenen Faktor q > 1 und/oder [

j
[
max
mit einer vorgegebenen
maximalen Schrittweite
max
> 0. Auerdem m ussen wir sicherstellen, dass
wir nicht uber das Ziel hinausschieen, dass also bei einem Vorschlag

j+1
f ur die Schrittweite im (j + 1)-ten Schritt t
j+1
+

j+1
T gilt.
Wir erhalten somit den Grundalgorithmus 7.1 mit adaptiver Schrittweiten-
steuerung.
Noch oen ist die Frage, wie ein ezienter und zuverlassiger Fehlerschatzer
implementiert werden kann. Eine Variante ware, eine diskrete Evolution mit
unterschiedlichen Schrittweiten zu verwenden. Wahlt man z.B. einmal die
Schrittweite und einmal

2
, so konnte man sich von letzterer Rechnung eine
hohere Genauigkeit erwarten. Die Dierenz der berechneten Naherungen

t+,t
(x) und
t+ , t +

2
_

t+

2
, t
(x)
_
Kapitel 7 Anfangswertprobleme 170
Initialisierung: Diskrete Evolution der Ordnung p, Fehlerschatzer,
Toleranz TOL > 0, Startschrittweite 0 <
0
T t
0
,
Hochschaltfaktor q > 1, Sicherheitsfaktor (0, 1), maximale Schritt-
weite
max
j := 0;
:= t
0
;
x

(t
0
) := x
0
;
while (t
j
< T) do
t := t
j
+
j
;
x :=
t,t
j
x

(t
j
);
berechne Fehlerschatzer |[
j+1
]|;
:= min(q
j
,
max
,
j
p+1
_
TOL
|[
j+1
]|
);
if (|[
j+1
]| > TOL) // Schritt wird verworfen

j
:= ;
else // Schritt wird akzeptiert
t
j+1
:= t;
:= t
j+1
;
x

(t
j+1
) := x;

j+1
:= min(, T t
j+1
);
j := j + 1;
end
end
Algorithmus 7.1: Adaptiver Grundalgorithmus zur Losung von x
t
(t) =
f(t, x), x(t
0
) = x
0
auf dem Intervall [t
0
, T].
Kapitel 7 Anfangswertprobleme 171
kann dann als Fehlerschatzer verwendet werden.
Gebrauchlicher ist die Idee, zwei verschiedene Verfahren unterschiedlicher
Ordnung mit jeweils der gleichen Schrittweite zu verwenden. Seien dazu
zwei diskrete Evolutionen und

mit den Diskretisierungsfehlern
=
t+,t
(x)
t+,t
(x),
=

t+,t
(x)
t+,t
(x)
gegeben. Wir nehmen an, dass

die genauere der beiden Evolutionen ist
und dass
:=
| |
||
< 1 (7.23)
gilt. Als Schatzung von erhalten wir
[] :=
t+,t
x

t+,t
x.
Also gilt [] = und
[] | = | | = ||.
Mit Hilfe der Dreiecksungleichung folgt
|[]| || ||,
|[]| +|| ||
und somit
(1 )|| |[]| (1 +)||. (7.24)
Der Fehler wird also unter der Annahme (7.23) weder grob uberschatzt noch
grob unterschatzt. Ist

sogar von hoherer Ordnung als , so gilt 0 f ur
0 und deshalb
|[]|
0
||.
In diesem Fall nennen wir den Fehlerschatzer asymptotisch exakt.
Wir stehen nun allerdings vor einem Dilemma: Wenn wir schon die genaue-
re Approximation

t+,t
x an
t+,t
x ausrechnen, mochten wir mit diesem
Wert auch weiterrechnen! Dies wird heute auch ublicherweise so gemacht.
Die Fehlertoleranzbedingung wird damit (f ur
1
2
) typerischerweise ube-
rerf ullt:
| | = ||

1
|[]| |[]| TOL.
Wir sind also auf der sicheren Seite. Andererseits wird damit das Konzept
der Fehlerschatzung aufgegeben. Da aber der lokale Fehler im allgemeinen
Kapitel 7 Anfangswertprobleme 172
ohnehin wenig Informationen uber den globalen Fehler liefert, ist dieses Ar-
gument nicht so gewichtig.
Wir berechnen also eigentlich ein optimales Gitter f ur das ungenauere Ver-
fahren . Dieses ist dann aber im allgemeinen auch ein gutes Gitter f ur das
genauere Verfahren

.
Notation 7.13. Mit RKp(q) bezeichnen wir ein adaptives Runge-Kutta-
Verfahren, bei dem wir mit einer Evolution der Ordnung p weiterrechnen
und eine Evolution der Ordnung q zur Fehlerschatzung, bzw. Schrittweiten-
steuerung benutzen.
Zum Beispiel bedeutet RK5(4) in dieser Notation, dass

die Ordnung 5
und die Ordnung 4 besitzt. Dies ist etwa mit Matlab-Integrator ode45
der Fall.
7.8 Eingebettete Runge-Kutta-Verfahren
Um die Anzahl der Funktionsauswertung von f zu reduzieren, suchen wir
Paare von diskreten Evolutionen

und , die von Butcher-Schemata (A,

b)
und (A, b) mit der gleichen Runge-Kutta-Matrix A erzeugt werden. Der-
artige Paare heien eingebettete Runge-Kutta-Verfahren und werden
durch ein erweitertes Butcher-Schema
c A

dargestellt.
Als Beispiel suchen wir ein eingebettetes Runge-Kutta-Verfahren vom Typ
RK4(3), bei dem die genauere Evolution

durch das Standard-Runge-
Kutta-Verfahren der Ordnung 4 gegeben ist:
A =
_
_
_
_
0 0 0 0
1
2
0 0 0
0
1
2
0 0
0 0 1 0
_
_
_
_
,

b =
_
_
_
_
1
6
1
3
1
3
1
6
_
_
_
_
.
F ur b erhalten wir analog zu Satz 7.21 die Ordnungsbedingungen
b
1
+b
2
+b
3
+b
4
= 1,
1
2
b
2
+
1
2
b
3
+b
4
=
1
2
,
Kapitel 7 Anfangswertprobleme 173
1
4
b
2
+
1
4
b
3
+b
4
=
1
3
,
1
4
b
3
+
1
2
b
4
=
1
6
.
Diese besitzen aber die eindeutige Losung b =

b. Es ist als =

, und dies
ist kein sinnvolles eingebettetes Runge-Kutta-Verfahren.
Aus diesen Betrachtungen folgt, dass wir, um von

verschiendenes Runge-
Kutta-Verfahren der Ordnung 3 zu konstruieren, das die Stufen k
1
, . . . , k
4
von

besitzt, zusatzliche Stufen von einf uhren m ussen. Dies erscheint
aber unokonomisch, da wir mit mehr Stufen weniger Genauigkeit erreichen.
Einen Ausweg bietet der Fehlbergtrick: Wir konnen als zusatzliche Stufe
die erste Stufe des nachsten Schrittes zu benutzen. Da wir diese Stufe so
und so berechnen m ussen, erhalten wir formal ein 5-stuges, eektiv jedoch
ein 4-stuges Verfahren.
Allgemein sind bei einem s-stugen Runge-Kutta-Verfahren (A,

b) die s-te
Stufe k
s
und die erste Stufe k

1
des folgenden Schritts gegeben durch
k

1
= f(t +, x +
s

j=1

b
j
k
j
),
k
s
= f(t +c
s
, x +
s1

j=1
a
sj
k
j
).
Aus der Forderung k
s
= k

1
bei einem FSAL-Verfahren ergibt sich
c
s
= 1,

b
s
= 0, a
sj
=

b
j
f ur j = 1, . . . , s 1.
F ur das obige Beispiel gelangen wir damit zu dem Ansatz
0
1
2
1
2
1
2
0
1
2
1 0 0 1
1
1
6
1
3
1
3
1
6
1
6
1
3
1
3
1
6
b
1
b
2
b
3
b
4
b
5
.
Dies f uhrt auf die Ordnungsbedingungen
b
1
+b
2
+b
3
+b
4
+b
5
= 1,
1
2
b
2
+
1
2
b
3
+b
4
+b
5
=
1
2
,
Kapitel 7 Anfangswertprobleme 174
1
4
b
2
+
1
4
b
3
+b
4
+b
5
=
1
3
,
1
4
b
3
+
1
2
b
4
+
1
2
b
5
=
1
6
.
Da in diesem Gleichungssystem die Rollen von b
4
und b
5
vertauschbar sind,
muss mit

=
_
1
6
,
1
3
,
1
3
,
1
6
, 0
_
auch
b

=
_
1
6
,
1
3
,
1
3
, 0,
1
6
_
eine Losung sein. Der Fehlerschatzer dieses eektiv 4-stugen Verfahrens
vom Typ RK4(3) ist gegeben durch
[] =
1
6
(k
4
k

1
).
Beispiel 7.17. Ein eingebettetes Runge-Kutta Verfahren vom Typ RK3(2)
ist gegeben durch
0
1
2
1
2
3
4
0
3
4
1
2
9
1
3
4
9
2
9
1
3
4
9
0
7
24
1
4
1
3
1
8
.
Dieses Verfahren wird im Matlab-Solver ode23 benutzt.
7.9 Implizite Runge-Kutta-Verfahren
In Abschnitt 7.4 haben wir neben dem expliziten Euler-Verfahren bereits
auch das implizite Euler-Verfahren eingef uhrt. An diesem Abschnitt wollen
wir abschlieend auch noch Runge-Kutta-Verfahren auf implizite Verfah-
ren verallgemeinern. Dazu veranschaulichen wir zunachst mogliche Vorteile
gegen uber expliziten Verfahren an einem Beispiel.
Beispiel 7.18. Wie unter Abschnitt 7.4 betrachten wir die Dierentialglei-
chung
x
t
(t) = f(t, x(t)) = x(t) mit x(0) = 1
mit t
0
= 0. Das explizite Euler-Verfahren ergab
x
j+1
= x
j
+ x
j
mit x
0
x(0) = 1
Kapitel 7 Anfangswertprobleme 175
und das implizite Euler-Verfahren lieferte
x
j+1
=
x
j
1
mit x
0
x(0) = 1.
In Abbildung 7.5 ist die exakte Losung x(t) = exp(t) sowie sind die beiden
diskreten Losungen f ur = 85 dargestellt. Dabei wurde beim expliziten
Euler-Verfahren = 0, 025 und beim impliziten Euler-Verfahren = 0, 1
gewahlt.
Abbildung 7.5: Vergleich von explizitem und implizitem Euler-Verfahren.
Es ist deutlich zu erkennen, dass das implizite Euler-Verfahren die exakte
Losung im Rahmen der Genauigkeit gut approximiert wahrend die Losung
des expliziten Euler-Verfahrens selbst bei deutlich kleinerer Schrittweite stark
oszilliert und damit eine unbrauchbare Losung liefert.
Wir wollen nun klaren, wieso diese Eekte auftreten. Dazu bemerken wir,
dass das explizite Euler-Verfahren mit x(0) = 1 auch dargestellt werden kann
als
x
j+1
= (1 + )
j
und das implizit Euler-Verfahren als
x
j+1
=
_
1
1
_
j
.
Wir wissen, dass die exakte Losung f ur < 0 und t gegen 0 konver-
giert. Das explizite Euler-Verfahren konvergiert f ur < 0 nun genau dann
gegen 0, wenn
[1 + [ < 1
gilt. Dies wiederrum ist nur dann der Fall, wenn < 2/[[ gilt. Das implizite
Euler-Verfahren hingegen konvergiert f ur alle > 0 gegen 0, denn f ur alle
Kapitel 7 Anfangswertprobleme 176
< 0 und > 0 gilt

1
1

< 1.
Es sei bemerkt, dass dieser Eekt nicht nur beim Euler-Verfahren, sondern
bei allen Runge-Kutta-Verfahren auftreten kann.
Lemma 7.23. Sei

(x) die diskrete Evolution eines konsistenten und au-


tonomisierungsinvarianten expliziten Runge-Kutta-Verfahrens zur Dieren-
tialgleichung x
t
(t) = x(t) mit x(0) = 1. Dann gilt f ur alle Schrittweiten
> 0
lim

(1)[ .
Beweis. Wir verwenden die Tatsache, dass p() =

(1) ein Polynom in


vom Grad u s ist. Da der Grad von p() aufgrund der Konsistenz
mindestens Eins ist, folgt direkt die Behauptung.
Wir erinnern uns daran, dass die exakte Evolution einer Dierentialgleichun-
gen die Stabilitatsbedingung
|
t,t
0
(x
0
)
t,t
0
(y
0
)|
2
e
L
+
(tt
0
)
|x
0
y
0
|
2
erf ullt, siehe Satz 7.10. Dabei ist L
+
die einseitige Lipschitzkonstante von
f. F ur explizite Runge-Kutta-Verfahren erbt die diskrete Evolution diese
Stabilitatseigenschaften, aber nur mit der Konstanten L

= L, wobei L
die Lipschitzkonstante von f ist.
Diese Konstante geht exponentiell in die Fehlerabschatzung aus Satz 7.14
ein:
|x
j
x(t)| r(

) =
_
err(

)
1
L

_
e
L

(tt
0
)
1
_
f ur L

> 0
err(

) (t t
0
) f ur L

= 0
Daher ware es gut, wenn L

L
+
gilt. Das ist aber bei expliziten Runge-
Kutta-Verfahren nicht gegeben, falls L
+
L. Solche Dierentialgleichungen
heiten steif .
F ur steife Dierentialgleichungen liefern explizite Runge-Kutta-Verfahren
erst f ur extrem kleine Schrittweiten verlassliche Ergebnisse und sind daher
unbrauchbar. Besser waren Verfahren, bei denen in die Fehlerabschatzung
nur die einseitige Lipschitz-Konstante L
+
einiet. Es sei bemerkt, dass
Kapitel 7 Anfangswertprobleme 177
steife Dierentialgleichungen in der Praxis sehr haug auftreten. Sie konnen
aber meistens gut mit impliziten Runge-Kutta-Verfahren gelost werden.
Wir wollen nun die Bezeichungen von impliziten Runge-Kutta-Verfahren
einf uhren.
Notation 7.14. Ein implizites Runge-Kutta-Verfahren wird gegeben
durch
k
i
= k
i
(t, x, ) = f
_
_
t +c
i
, x +
s

j=1
a
ij
k
j
_
_
f ur i = 1, . . . , s und

t+,t
(x) = x +
s

j=1
b
j
k
j
.
Dazu verwenden wir die Notationen
A =
_
_
_
a
11
. . . a
1s
.
.
.
.
.
.
a
s1
. . . a
ss
_
_
_
R
ss
,
b =
_
_
_
b
1
.
.
.
b
s
_
_
_
R
s
und c =
_
_
_
c
1
.
.
.
c
s
_
_
_
R
s
.
In Kurzform schreiben wir ein Runge-Kutta-Verfahen (A, b, c) im Butcher-
Schema
(A, b, c) =
c
1
a
11
. . . a
1s
.
.
.
.
.
.
.
.
.
c
s
a
s1
. . . a
ss
b
1
. . . b
s
.
Die folgende Notation beschreibt einige Spezialfalle.
Notation 7.15. Gegeben sei ein implizites Runge-Kutta-Verfahren durch
das Butcher-Schema (A, b, c).
( 1 ) Gilt a
ij
= 0 f ur i j, so liegt ein explizites Runge-Kutta-Verfahren
vor.
( 2 ) Gilt a
ij
= 0 f ur i < j, so liegt ein diagonal-implizites Runge-
Kutta-Verfahren vor. Gilt speziell a
ii
= f ur i = 1, . . . , s, so liegt
ein SDIRK-Verfahren vor.
Kapitel 7 Anfangswertprobleme 178
( 3 ) Gilt a
ij
,= j f ur ein j > i, so liegt ein voll-implizites Runge-Kutta-
Verfahren vor.
Beispiel 7.19. Das implizite Euler-Verfahren lasst sich durch das Butcher-
Schema
1 1
1
beschreiben. Das Mittelpunktsverfahren wird gegeben durch das Butcher-
Schema
1
2
1
2
1
und hat die Konsistenzordnung p = 2.
Bei der Implementation von impliziten Runge-Kutta-Verfahren sind in je-
dem Schritt die k
i
durch Losen von
k
i
(t, x, ) = f
_
_
t +c
i
, x +
s

j=1
a
ij
k
j
(t, x, )
_
_
f ur i = 1, . . . , s
zu ermitteln. Leider funktionieren Fixpunktiterationen nur mit Schrittwei-
tenbeschrankungen, oft werden daher Newton-Verfahren oder Varianten da-
von verwendet.
Im folgenden stellen wir kurz die wichtigsten Aussagen zu impliziten Runge-
Kutta-Verfahren zusammen.
Satz 7.24. Es gelten sinngema die Bedingungen f ur Konsistenz und In-
varianz gegen Autonomisierung sowie die Ordnungsbedingungen auch f ur
implizite Runge-Kutta-Verfahren.
Zum Festlegen der s
2
+2s Parameter eines impliziten Runge-Kutta-Verfahr-
ens werden haug Kollokationsverfahren verwendet. Die Idee von Kollo-
kationsverfahren ist es, die Losung eines gegebenen Anfangswertproblemes
durch ein Polynom p
n
s
mit p(x
1
, . . . , x
n
) zu approximieren. Dieses soll
das Anfangswertproblem an vorgegebenen St utzstellen losen. Als St utzstel-
len denieren wir die Kollokationspunkte t
0
+ c
i
f ur i = 1, . . . , s. Weiter
soll
p
t
(t
0
+c
i
) = f(t
0
+c
i
, p(t
0
+c
i
)) f ur i = 1, . . . , s, (7.25)
p(t
0
) = x
0
. (7.26)
gelten.
Kapitel 7 Anfangswertprobleme 179
Lemma 7.25. Seien f ur 0 c
1
< . . . < c
s
1 die Bedingungen (7.25) und
(7.26) eindeutig losbar. Dann wird durch die diskrete Evolution

t
0
+,t
(x
0
) = p(t
0
+)
ein implizites Runge-Kutta-Verfahren deniert, das durch die Parameter
a
ij
=
_
c
i
0
L
j
() d f ur i, j = 1, . . . , s
b
i
=
_
1
0
L
i
() d f ur i = 1, . . . , s
gegeben ist. Dabei sind L
i
() f ur i = 1, . . . , s die Langrange-Polynome zu
den St utzstellen c
1
, . . . , c
s
.
Lemma 7.26. Ein durch Kollokation erzeugtes implizites Runge-Kutta-Ver-
fahren ist konsistent und invariant gegen Autonomisierung.
Der Beweis dieser Aussagen lasst sich relativ einfach mit den Standardmit-
teln dieser Vorlesung zu f uhren. Dagegen ist der folgende Satz ein sehr viel
tieiegenderes Ergebnis.
Satz 7.27. F ur gegebene Parameter c
1
, . . . , c
s
sei die Quadraturformel
_
1
0
g(t) dt
s

i=1
b
i
g(c
i
)
exakt f ur alle Polynome in
p1
mit p s. Dann hat das zu c
1
, . . . , c
s
gehorende durch Kollokation erzeugte Runge-Kutta-Verfahren die Konsis-
tenzordnung p.
Eine ausf uhrlichere Beschreibung von Kollokationsverfahren kann zum Bei-
spiel in Hohage (2006) nachgelesen werden.
7.10 Ausblick
In diesem Kapitel haben wir zunachst die wichtigsten Grundlagen von An-
fangswertproblemen diskutiert und die Existenz und Eindeutigkeit von Lo-
sungen diskutiert. Anschlieend haben wir mit dem Runge-Kutte-Verfahren
eine der wichtigsten Losungsmethoden ausf uhrlich vorgestellt.
Aufgrund der groen Anzahl von Anwendungsgebieten der Anfangswertpro-
bleme gibt es hier auch sehr viele weitere Theorien wie zum Beispiel weitere
Kapitel 7 Anfangswertprobleme 180
Begrie der Stabilitat. Weiter sei auch bemerkt, dass wir nur Anfangswert-
probleme betrachtet haben, bei denen die Dierentialgleichung jeweils nur
von einer Groe abhingen, namlich von der Zeit t. Weiterhin haben wir
auch nur Einschrittverfahren untersucht und Mehrschrittverfahren komplett
vernachlassigt. Weitere Ergebnisse zu Mehrschrittverfahren sowie zu steifen
Dierentialgleichungen sind in Toring and Spellucci (1990) zu nden.
8 Randwertprobleme
In diesem Kapitel werden wir grundlegende Verfahren zur numerischen Losung von Rand-
wertproblemen einf uhren. Dabei beschranken wir uns wieder nur auf gewohnliche Die-
rentialgleichungen und auch hier untersuchen wir besonders einige Spezialfalle wie lineare
Probleme. Zunachst werden wir Notationen einf uhren, einige Beispiele geben und auf
allgemeine Existenz und Eindeutigkeitsaussagen hinweisen. Anschlieend diskutieren wir
kurz Schieverfahren, die Grundidee der Methode der niten Dierenzen und schlielich
betrachten wir die Methode der niten Elemente. Dabei erlautern wir das Verfahren nur
anhand symmetrischer und linearer gewohnlicher Dierentialgleichungen zweiter Ordnung
und weisen darauf hin, dass sich das Verfahren auf viele weitere Klassen von Dierential-
gleichungen erweitern lasst.
8.1 Notationen und Grundlagen
Nachdem wir uns bislang mit Anfangswertproblemen bei gewohnlichen Die-
rentialgleichungen beschaftigt haben, gehen wir nun zu Randwertproblemen
uber. Dazu beschranken wir uns auf gewohnlichen Dierentialgleichungen
zweiter Ordnung, alles andere w urde hier zu weit f uhren.
Wahrend wir bei Anfangswertproblemen eine Losung x(t) gesucht haben,
die eine Dierentialgleichung der Form
x
tt
(t) = f(t, x(t), x
t
(t))
unter den Anfangsbedingungen x(t
0
) = und x
t
(t
0
) = an der einen Stelle
t
0
erf ullt, wollen wir nun eine Losung u(x) von
u
tt
(x) = f(x, u(x), u
t
(x))
nden, die bestimmten Randbedingungen and zwei Stellen a und b erf ullt.
Gesucht ist in unserem Falle damit eine Funktion u : [a, b] R, die die
gewohnliche Dierentialgleichung zweiter Ordnung
u
tt
(x) = f(x, u(x), u
t
(x))
181
Kapitel 8 Randwertprobleme 182
unter den beiden Randbedingungen
g
i
(a, b, u(a), u(b), u
t
(a), u
t
(b)) = 0 f ur i = 1, 2
erf ullt.
Beispiel 8.1. Auf eine an den Stellen a und b eingespannte Saite wirke eine
Federkraft der Dichte c und eine auere Last der Dichte h. Dabei nehmen
wir an, dass die Federkraft linear ist. Weiter sei die Saitenspannung gegeben
durch T und u(x) bezeichne die vertikale Auslenkung der Saite an der Stelle
x [a, b]. Dann gehorcht u der Dierentialgleichung
Tu
tt
(x) +c(x)u(x) = h(x)
f ur x (a, b) mit den Randbedingungen u(a) = u(b) = 0.
Zur Festlegung einiger Bezeichnungen und Vereinfachungen f uhren wir die
folgenden beiden Denitionen ein.
Denition 8.1. Eine Dierentialgleichung zweiter Ordnung heit quasili-
near, falls
u
tt
= f(x, u, u
t
) = B(x, u)u
t
+C(x, u)
gilt. Sie heit semilinear, falls
u
tt
= f(x, u, u
t
) = b(x)u
t
+C(x, u)
und linear, falls
u
tt
= f(x, u, u
t
) = b(x)u
t
+c(x)u h(x)
gilt.
In praktischen Anwendungen reicht es zudem oft aus nur spezielle, einfache
Randbedingungen zu betrachten.
Denition 8.2. Die Randbedingungen einer gewohnlichen Dierentialglei-
chung zweiter Ordnung heien entkoppelt, wenn
g
1
(a, u(a), u
t
(a)) = 0 und g
2
(b, u(b), u
t
(b)) = 0
gilt.
Weiter heien lineare und entkoppelte Randbedingungen der Form
u(a) = und u(b) = ,
u
t
(a) = und u
t
(b) = ,
cu(a) +u
t
(a) = und du(b) +u
t
(b) =
Kapitel 8 Randwertprobleme 183
Randbedingungen erster Art (Dirichlet Randbedingungen), Randbedin-
gungen zweiter Art (Neumann Randbedingungen) bzw. Randbedingun-
gen dritter Art (Robin Randbedingungen).
Im allgemeinen Fall nennen wir die Randbedingungen gemischt, wenn auf
x = a und x = b unterschiedliche Typen von Randbedingungen gestellt
werden.
Bei allen weiteren Betrachtungen werden wir nur lineare Randwertprobleme
zweiter Ordnung mit Randbedingungen erster Art untersuchen, also Proble-
me der Form
(Lu)(x) := u
tt
(x) +b(x)u
t
(x) +c(x)u(x) = h(x) (8.1)
mit x (a, b) unter den Randbedingungen
u(a) = und u(b) = .
Lemma 8.1. Jedes lineare Randwertproblem erster Art lasst sich uberf uhren
in ein lineare Randwertproblem erster Art mit homogenen Randbedingun-
gen, also mit = = 0.
Beweis. Der Behauptung folgt direkt, wenn die Transformation
u(x) = v(x) +
x b
a b
+
x a
b a
angewandt wird.
Lemma 8.2. Jedes lineare Randwertproblem erster Art lasst sich uberf uhren
in ein lineare Randwertproblem erster Art mit [a, b] = [0, 1].
Beweis. Hierzu muss lediglich die Transformation u = (b a) angewandt
werden.
Durch diese beiden Aussagen reicht es, wenn wir uns im folgenden auf die
Spezialfalle = = 0 und [a, b] = [0, 1] beziehen. Zunachst betrachten wir
aber noch ein Beispiel.
Beispiel 8.2. Wir betrachten einen isothermen Stromungsreaktor mit konti-
nuierlicher Zufuhr bzw. Abfuhr der Reaktionsmasse bzw. des Reaktionspro-
Kapitel 8 Randwertprobleme 184
duktes. Die Konzentrationsverteilung c(,
1
,
2
,
3
) im Reaktor ergibt sich
nun aus der Stobilanzgleichung
c
t
=
3

i=1

i
(w
i
c) +
3

i=1

i
_
D
c

i
_
+r(c).
Dabei ist w = (w
1
, w
2
, w
3
) das Geschwindigkeitsfeld, D die Diusionskon-
stante und r(c) der Reaktionsterm.
Zur Vereinfachung des Problems nehmen wir an, dass der Reaktor zeitun-
abhangig betrieben wird, dass die Diusionskonstante zeitunabhangig ist und
dass (w
1
, w
2
, w
3
) = (v, 0, 0) gilt. Zuden werden wir nur die

Anderung der
Konzentration in
1
Richtung betrachten, sodass wir schlielich die gewohn-
liche Dierentialgleichung zweiter Ordnung
D
d
2
c
d
+v
dc
d
+r(c) = 0
f ur 0 < < L erhalten.
Durch Entdimensionierung mittels x = /L, u(x) = c(x)/c
0
mit der An-
fangskonzentration c
0
und P = vL/D erhalten wir

1
P
u
tt
(x) +u
t
(x) +R(u) = 0
f ur 0 < x < 1. Zudem konnen wir die Randbedingungen
u(0)
1
P
u
t
(0) = 1 und u
t
(1) = 0
festlegen. Damit haben wir ein Beispiel einer semilinearen Dierentialglei-
chung zweiter Ordnung mit gemischten Randbedingungen.
Im folgenden wollen wir die Losbarkeit von linearen Randwertproblem erster
Art f ur den symmetrischen Fall, d.h. mit b(x) = 0, untersuchen. Auch hierzu
beginnen wir mit einem Beispiel.
Beispiel 8.3. Die allgemeine Losung der Schwingungsgleichung
u
tt
(x) u(x) = 0 f ur x (a, b)
hat die Form
u(x) = c cos(x) +d sin(x).
Kapitel 8 Randwertprobleme 185
Die beiden Konstanten c und d sind so zu bestimmen, dass jeweils die Rand-
bedingungen u(a) = und u(b) = erf ullt sind. Daraus erhalten wir das
lineare Gleichungssystem
cos(a) c + sin(a) d = und cos(b) c + sin(b) d = .
Wir erkennen, dass dieses Gleichungssystem in Abhangigkeit von a und b
sowie und entweder gar keine, eine oder unendlich viele Losungen hat.
Schon an diesem einfachen Beispiel sehen wir, dass es bei Randwertpro-
blemen kein allgemeines Ergebnis analog zum Satz von Picard-Lindelof bei
Anfangswertproblemen gibt. Trotzdem erhalten wir f ur eine Spezialfalle eine
eindeutige Losung, wie der folgende Satz zeigt.
Satz 8.3. Wir betrachten die Dierentialgleichung
u
tt
(x) +c(x)u(x) = h(x)
mit x (0, 1) unter den Randbedingungen u(0) = u(1) = 0. Dabei seien
c, h (([0, 1]) und c(x) 0 f ur alle x [0, 1].
Dann hat das gegebene (symmetrische) Randwertproblem genau eine Losung.
Beweis. Zunachst beschaftigen wir uns mit der Eindeutigkeit und nehmen
an u
1
und u
2
seien zwei Losungen. Dann lost die Funktion u = u
1
u
2
das
Randwertproblem
u
tt
(x) +c(x)u(x) = 0 mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0. Multiplizieren wir diese Die-
rentialgleichung nun mit der Funktion u, Integrieren uber [0, 1] und f uhren
eine partielle Integration mit u
tt
u durch, so erhalten wir
0 =
_
1
0
_
u
tt
(x) +c(x) u(x)

dx =
_
1
0
_
(u
t
(x))
2
+c(x) (u(x))
2

dx
unter Beachtung der Randbedingungen. Mit c(x) 0 und u (([0, 1]) folgt
damit aber u = 0 und somit die Eindeutigkeit der Losung.
Zu Existenz betrachten wir die allgemeine Losung
u(x) =
1
u
1
(x) +
2
u
2
(x) + u(x)
des gegebenen Problems. Dabei bilden u
1
und u
2
ein Fundamentalsystem aus
zwei linear unabhangigen Losungen der homogenen Dierentialgleichung,
d.h. mit h = 0. u sei eine beliebige Losung von (8.1). Die Aussage lasst sich
Kapitel 8 Randwertprobleme 186
nun mit dem Satz von Picard-Lindelof zeigen, siehe Kapitel 7. Zur Erf ullung
der Randwertbedingungen entsteht das lineare Gleichungssystem
u
1
(0)
1
+u
2
(0)
2
= u(0),
u
1
(1)
1
+u
2
(1)
2
= u(1).
Dieses System ist eindeutig losbar. Sind namlich
1
und
2
Losung des zu-
gehorigen homogenen Systems, dann ware u =
1
u
1
+
2
u
2
eine Losung
des entsprechenden homogenen Randwertproblems und damit u = 0 durch
die bereits bewiesene Eindeutigkeitsaussage. Da u
1
und u
2
aber linear un-
abhangig sind, folgt
1
=
2
= 0. Damit haben wir aber eine Losung gefun-
den.
8.2 Schieverfahren
In diesem Abschnitt werden wir bereits bekannte Methoden zur Losung
von Anfangswertproblemen verwenden, um Randwertprobleme zu losen. Die
wesentliche Idee besteht darin, fehlende Anfangswerte durch Parameter zu
ersetzen und damit das Anfangswertproblem zu losen. Wir schiessen also
zunachst ins Blaue hinein und schauen uns dann den Fehler in den Rand-
werten an. Um diesen zu minimieren, d.h. den zugef ugten Parameter in
den Anfangswerten zu optimieren, werden wir das schon bekannte Newton-
Verfahren verwenden.
Der Vorteil dieser Methoden liegt in den Voraussetzungen an das Randwert-
problem, welches wir der Einfachheit halber folgendermaen annehmen:
u
tt
(x) = f(x, u, u
t
), x (0, 1), u(0) = a und u(1) = b. (8.2)
Die Funktion f kann im Gegensatz zu den spater dargestellten Verfahren
nichtlinear sein. Wir nehmen an, dass es eine Losung u dieses Randwertpro-
blems gibt. Dann lost u auch das Anfangswertproblem
v
tt
(x) = f(x, v, v
t
), x (0, 1), v(0) = a und v
t
(0) = , (8.3)
wobei = u
t
(0) genau die richtige Ableitung an der Stelle 0 sein soll. Da
diese jedoch nicht bekannt ist, wahlen wir zunachst beliebig und erhalten
so eine Losung v

, welche von der Wahl von abhangt.


Unter der Voraussetzung, dass das Anfangswertproblem f ur alle eindeutig
losbar ist, erhalten wir eine Funktion F : R R, welche auf den Fehler
von v

im Randwert an der Stelle 1 abbildet:


F() := v

(1) b. (8.4)
Kapitel 8 Randwertprobleme 187
Die Berechnung dieser Funktion erfordert f ur jedes die Losung eines An-
fangswertproblems! Mit dieser Formulierung ist es uns jedoch moglich, das
Randwertproblem umzuformulieren: Eine Losung v

des Anfangswertpro-
blems (8.3) lost das Randwertproblem (8.2) genau dann, wenn F( ) = 0
ist.
Wir haben das Randwertproblem also auf ein Anfangswertproblem kombi-
niert mit einer Nullstellensuche zur uckgef uhrt. Letztere konnen wir theore-
tisch mit jedem beliebigen Verfahren zur Nullstellensuche losen. Wir werden
hier das bereits aus Abschnitt 2.4 bekannte Newton-Verfahren verwenden.
Dazu benotigen wir jedoch die Ableitung der Funktion F nach , welche
durch
F
t
() =

(1)
gegeben ist. Dazu sei bemerkt, dass v

die Losung des Anfangswertproblems


(8.3) ist, indem als einer der Anfangswerte vorkommt. Um diese Ableitung
nach zu berechnen, dierenzieren wir die Dierentialgleichung

v
tt

f(x, v

, v
t

) = f
v

(x, v

, v
t

+f
v

(x, v

, v
t

v
t

.
f
v

und f
v

sind die partiellen Ableitungen von f in Richtung der zweiten


bzw. dritten Variablen.
Wir denieren nun w

:=

und setzen voraus, dass wir in voriger Glei-


chung die Dierentiationen nach und nach x vertauschen d urfen. Damit
erhalten wir ein Anfangswertproblem f ur w

:
w
tt

= f
v

(x, v

, v
t

) w

+f
v

(x, v

, v
t

) w
t

, w

(0) = 0, w
t

(0) = 1.
(8.5)
Die Anfangswerte entstehen direkt durch Dierentiation der Anfangswerte
von v

nach . Eine exakte Herleitung dieses Anfangswertproblems ndet


sich zum Beispiel in Hanke-Bourgeois (2006).
Wir erhalten auf diese Weise die benotigte Ableitung F
t
() = w

(1). Auch
f ur diese muss f ur jedes ein Anfangswertproblem gelost werden, welches
sogar noch von v

abhangt. Es ergibt sich somit ein gekoppeltes Anfangs-


wertproblem zur Berechnung von (v

, w

):
v
tt

(x) = f(x, v

, v
t

),
w
tt

= f
v

(x, v

, v
t

) w

+f
v

(x, v

, v
t

) w
t

,
v

(0) = a, v
t

(0) = ,
w

(0) = 0, w
t

(0) = 1.
Zusammen mit dem Newton-Verfahren zur Nullstellensuche ergibt sich dar-
aus Algorithmus 8.1.
Kapitel 8 Randwertprobleme 188
Input: f, f
u
, f
u
, a, b, Startwert
0
for k = 0, 1, . . . do
Lose das Anfangswertproblem f ur (v

k
, w

k
)
Berechne
k+1
=
k

k
(1) b
w

k
(1)
end for.
Output: v

ist Approximation an die Losung des Randwertproblems


(8.2) und ist Approximation an die Ableitung an der Stelle 0.
Algorithmus 8.1: Einfaches Schieverfahren mit Newton-Iterationen.
In der bislang beschriebenen Form ist das Schieverfahren nicht beson-
ders stabil. So wird es keineswegs f ur jedes immer eine Losung des An-
fangsproblems geben, welches das gesamte Intervall umfasst. Der Satz von
Picard-Lindelhof 7.5 garantiert nur unter den geforderten Voraussetzungen
die Losung auf einem moglicherweise sehr kleinen Intervall! Auch aus an-
deren Gr unden kann das Verfahren instabil werden. Daher wird es haug
durch Mehrzielmethoden verbessert, welche jedoch auch nur bedingt brauch-
bar sind. Z.B. erscheint eine Verallgemeinerung auf partielle Dierentialglei-
chungen, welche haug bei Randwertproblemen auftauchen, schwierig.
Dennoch haben Schieverfahren einen wichtigen Vorteil: Sie verwenden nu-
merische Verfahren zu Losung von Anfangswertproblemen, welche zum einen
gut funktionieren, vor allem aber keine besonderen Voraussetzungen an f
benotigen. Gefordert wird in der Regel nur hinreichende Regularitat. F ur die
nachfolgenden Verfahren muss f in der Regel linear sein, was eine schwer-
wiegende Einschrankung darstellt.
8.3 Methode der niten Dierenzen
Wir betrachten nun normierte lineare Randwertprobleme mit homogenen
Randbedingungen erster Art, also
u
tt
(x) +b(x)u
t
(x) +c(x)u(x) = f(x) mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0. Dabei schreiben wir f(x)
statt h(x) wie zuvor verwendet, um eine Verwechselung mit der spateren
Schrittweite h zu vermeiden.
Bei der Methode der niten Dierenzen ersetzen wir die Ableitungen durch
Dierenzenquotienten und leiten ein Gleichungssystem zur her, welches die
gesuchte Losung u an vorgegebenen Knotenpunkten approximiert.
Kapitel 8 Randwertprobleme 189
Dazu betrachten wir f ur ein festes n N die aquidistante Zerlegung
= x
i
= ih : i = 0, . . . , n + 1 mit h =
1
n + 1
.
Zur Approximation der ersten Ableitung u
t
(x
i
) an einem x
i
x
1
, . . . , x
n

betrachten wir drei Varianten:


( 1 ) Den Vorwartsdierenzen Quotienten
u
t
(x
i
) D
+
u(x
i
) =
u(x
i+1
) u(x
i
)
h
.
( 2 ) Den R uckwartsdierenzen Quotienten
u
t
(x
i
) D

u(x
i
) =
u(x
i
) u(x
i1
)
h
.
( 3 ) Den Zentraldierenzen Quotienten
u
t
(x
i
) D
0
u(x
i
) =
u(x
i+1
) u(x
i1
)
2h
.
Zur Approximation der zweiten Ableitung x
tt
(x
i
) an einer Stelle x
i

betrachten wir nur den Zentraldierenzen Quotienten 2. Ordnung, also
u
tt
(x
i
) D
+
D

u(x
i
) =
u(x
i+1
) 2u(x
i
) +u(x
i1
)
h
2
.
Mit u
i
f ur i = 1, . . . , n bezeichnen wir die Naherungswerte an die gesuchte
exakte Losung u an den Stellen x
i
, es soll also gelten u
i
u(x
i
). Nutzen wir
diese Notation und ersetzen nun die ersten und zweiten Ableitungen durch
ihre Zentraldierenzen Quotienten, so erhalten wir

u
i+1
2u
i
+u
i1
h
2
+b(x
i
)
u
i+1
u
i1
2h
+c(x
i
)u
i
= f(x
i
).
Mit den Bezeichnungen
b
i
= b(x
i
), c
i
= c(x
i
) und f
i
= f(x
i
)
f ur i = 1, . . . , n erhalten wir damit das Gleichungssystem
1
h
2

_

_
1 +
b
i
h
2
_
u
i1
+ (2 +c
i
h
2
)u
i

_
1
b
i
h
2
_
u
i+1
_
= f
i
.
Die Randbedingungen liefern uns sofort u
0
= u
n+1
= 0. Mit der Matrix
A =
1
h
2
tridiag
_

_
1 +
b
i
h
2
_
, (2 +c
i
h
2
),
_
1
b
i
h
2
__
(8.6)
Kapitel 8 Randwertprobleme 190
sowie den Vektoren v = (u
1
, . . . , u
n
) und g = (f
1
, . . . , f
n
) erhalten wir
schlielich das lineare Gleichungssystem
A v = g. (8.7)
Das durch dieses Gleichungssystem gegebene Losungsverfahren heit Me-
thode der niten Dierenzen.
Bevor wir uns mit Konvergenzaussagen beschaftigen, wollen wir kurz die
Losbarkeit dieses Gleichungssystems diskutieren.
Satz 8.4. Gegeben sei das Randwertproblem
u
tt
(x) +b(x)u
t
(x) +c(x)u(x) = f(x) mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0. Weiter gelte
c
i
0 und

b
i
h
2

1
f ur i = 1, . . . , n. Dann hat das Gleichungssystem Av = g zur Methode der
niten Dierenzen genau eine Losung.
Beweis. Sei A = (a
i,j
)
1i,jn
. Mit den gegebenen Voraussetzungen haben
wir
[a
ii
[ = [2 +c
i
h
2
[
n

j=1
j=i
[a
ij
[ =

1 +
b
i
h
2

1
b
i
h
2

= 2
f ur i = 1, . . . , n. Dies heit aber, dass die Matrix A schwach diagnoaldomi-
nant ist.
Ferner ist A als Tridiagonalmatrix irreduzibel und dies impliziert die Inver-
tierbarkeit von A.
Da es sich bei der Matrix A um eine Tridiagonalmatrix handelt, lasst sich
mit dem Verfahren aus Abschnitt 3.6 die Methode der niten Dierenzen in
linearer Zeit in n durchf uhren.
F ur die Stabilitats- und Konvergenzanalyse bezeichnen wir mit Rw die Ein-
schrankung einer Funktion w (([0, 1]) auf die Gitterpunkte x
1
, . . . , x
n

und mit L den Dierentialoperator des Randwertproblems. Weiter sei u eine


Kapitel 8 Randwertprobleme 191
exakte und v eine durch die Methode der niten Dierenzen approximierte
Losung. Dann gilt f ur den Diskretisierungsfehler Ru v gerade
A (Ru v) = ARu Av = ARu g = ARu RLu.
Dabei bezeichnen wir den letzten Term als Defekt. Im folgenden werden
wir stets die Maximumsnorm verwenden und denieren
|v|
,
:= max
i=1,...,n
[v
i
[ f ur v = (v
1
, . . . , v
n
).
Der Index soll dabei verdeutlichen, dass das Argument der Norm im
folgenden von der Zerlegung abhangt.
Denition 8.3. Eine nite Dierenzen Methode heit konsistent in der
Maximumsnorm, falls
lim
n
|ARu RLu|
,
= 0
gilt. Weiter hat eine nite Dierenzen Methode die Konsistenzordnung
p, falls es eine von h unabhangige Konstante C > 0 gibt mit
|ARu RLu|
,
C h
p
.
Diese Begrie haben wir bereits f ur Anfangswertprobleme verwendet. Dabei
beschreibt die Konsistenz wie gut der Dierentialoperator durch die Diskre-
tisierung approximiert wird.
Denition 8.4. Eine nite Dierenzen Methode heit stabil in der Maxi-
mumsnorm, falls f ur die Losung v des Gleichungssystems Av = g die Exis-
tenz einer von h unabhangige Konstanten D > 0 folgt mit
|v|
,
= |A
1
g|
,
D |g|
,
.
Schlielich denieren wir die Konvergenz.
Denition 8.5. Eine nite Dierenzen Methode heit konvergent in der
Maximumsnorm, falls
lim
n
|Ru v|
,
= 0
gilt. Weiter hat eine nite Dierenzen Methode die Konvergenzordnung
p, falls es eine von h unabhangige Konstante M > 0 gibt mit
|Ru v|
,
M h
p
.
Kapitel 8 Randwertprobleme 192
Nat urlich wollen wir diese Begrie nun anhand der speziellen niten Die-
renzen Methode mit den Zentraldierenzen Quotientenaus den Gleichungen
(8.6) und (8.7) analysieren. Dazu untersuchen wir zunachst ausf uhrlich den
Konsistenzfehler.
Lemma 8.5. Sei u (
4
([0, 1]). Dann gilt
(D
0
u)(x) = u
t
(x) +h
2
R mit [R[
1
6
|u
(3)
|
2
sowie
(D
+
D

u)(x) = u
tt
(x) +h
2
R mit [R[
1
12
|u
(4)
|
2
.
Beweis. Aus der Taylorentwicklung von u an einer Stelle x (0, 1) folgt
u(x h) = u(x) hu
t
(x) +h
2
u
tt
(x)
2
h
3
R

3
,
u(x h) = u(x) hu
t
(x) +h
2
u
tt
(x)
2
h
2
u
(3)
(x)
6
+h
4
R

4
mit den Fehlerdarstellungen
R

3
=
1
h
3

_
xh
x
_
u
tt
() u
tt
(x)
_
(x h ) d,
R

4
=
1
h
4

_
xh
x
_
u
(3)
() u
(3)
(x)
_

(x h )
2
2
d.
Somit folgt die erste Behauptung durch einfaches Nachrechnen aus
(D
0
u)(x) =
u(x +h) u(x h)
2h
= u
t
(x) +h
2
(R
+
3
R

2
)
und analog zeigt man auch die zweite Behauptung.
Mit dieser kleinen Vorarbeit erhalten wir nun eine Aussage uber die Kon-
sistensordnung.
Satz 8.6. Sei u (
4
([0, 1]) eine Losung des Randwertproblems
u
tt
(x) +b(x)u
t
(x) +c(x)u(x) = f(x) mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0. Dann hat die zugehorige nite
Dierenzen Methode aus (8.6) und (8.7) die Konsistenzordnung 2.
Kapitel 8 Randwertprobleme 193
Beweis. Unter Beachtung der eingef uhrten Bezeichnungen erhalten wir
(ARu RLu)(x
i
)
= [D
+
D

u(x
i
) +b
i
D
0
u(x
i
) +c
i
u(x
i
)] [u
tt
(x
i
) +b
i
u
t
(x
i
) +c
i
u(x
i
)].
Lemma 8.5 liefert uns nun direkt
[(ARu RLu)(x)[
1
12
h
2
|u
(4)
|
2
+
1
6
h
2
|b||u
(3)
|
2
und die Behauptung folgt aus Maximumbildung uber den Gitterpunkten
x
1
, . . . , x
n
.
Unter den Voraussetzung der Satze 8.4 und 8.6 lasst sich etwas aufwendiger
auch zeigen, dass die nite Dierenzen Methode aus (8.6) und (8.7) die
Konvergenzordnung 2 hat. Hierzu sei aber auf Lube (2005b) verwiesen.
8.4 Methode der niten Elemente
Abschlieend wollen wir noch die Methode der niten Elemente vorstellen,
die vorallem bei der Numerik von Randwertproblemen bei partiellen Dif-
ferentialgleichungen viele Anwendungen ndet. Wir diskutieren an dieser
Stelle selbstverstandlich nur den einfacher zu behandelnde Fall einer linea-
ren gewohnlichen Dierentialgleichung mit homogenen Randbedingungen.
Dazu benotigen wir einige Vorarbeit, welche sich auf ganz allgemeine lineare
Raume verallgemeinern lasst.
Denition 8.6. Seien c, f (([0, 1]) mit c 0. Weiter denieren wir f ur
u, v (([0, 1])
B(u, v) =
_
1
0
(u
t
(x)v
t
(x) +c(x)u(x)v(x)) dx,
l(u) =
_
1
0
f(x)u(x) dx.
Zudem sei
J(u) = B(u, u) 2 l(u)
und
U = u (
1
([0, 1]) : u(0) = u(1) = 0.
Dann heit die Aufgabe J auf U zu minimieren, also ein u U zu nden
mit
J(u) J(v) f ur alle v U,
Kapitel 8 Randwertprobleme 194
das Variationsproblem zum Randwertproblem
u
tt
(x) +c(x)u(x) = f(x) mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0.
Satz 8.7. Die Funktion u U ist genau dann Losung des Variationspro-
blems, wenn sie die Variationsgleichung
B(u, v) = l(v) f ur alle v U
erf ullt.
Beweis. Zunachst gilt f ur alle u, v U die Beziehung
J(u +v) J(u) = 2 (B(u, v) l(v)) +B(v, v). (8.8)
Nun sei u eine Losung des Variationsproblems und wir nehmen an es gibt
ein v U mit
B(u, v) ,= l(v).
Dann erhalten wir mit (8.8) f ur w = v mit R die Gleichung
J(u +v) J(u) = 2 (B(u, v) l(v)) +
2
B(v, v).
F ur
=
B(u, v) l(v)
B(v, v)
.
erhalten wir damit aber J(u +v) < J(u), was ein Widerspruch ist.
Nun sei umgekehrt die Variationsgleichung B(u, v) = l(v) f ur alle v U
erf ullt. Dann folgt aber mit (8.8) sowie mit v = u + w sofort J(u) J(v)
f ur alle v U.
Der folgende Satz liefert schlielich die entscheidene Verbindung zwischen
Variations- und Randwertproblemen.
Satz 8.8. Die Funktion u U ist genau dann Losung des Variationspro-
blems, wenn sie das Randwertproblem
u
tt
(x) +c(x)u(x) = f(x) mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0 lost.
Kapitel 8 Randwertprobleme 195
Beweis. Zunachst sei u eine Losung des Variationsproblems. Weiter denie-
ren wir
r(x) =
_
x
0
(c()u() f()) d
f ur x [0, 1]. Oenbar gilt r (
1
([0, 1]) mit r
t
(x) = c(x)u(x) f(x).
Partielle Integration der Variationsgleichung ergibt
_
1
0
(u
t
(x) r(x)v(x) dx = 0
f ur alle v U. Wir setzen nun
q =
_
1
0
(u
t
(x) r(x)) dx
sowie
v
0
(x) =
_
x
0
(u
t
() r() q) dx
f ur x [0, 1]. Dann ist v
0
U und es gilt
_
1
0
(u
t
(x) r(x) q)
2
dx =
_
1
0
(u
t
(x) r(x) q)v
t
0
(x) dx
=
_
1
0
(u
t
(x) r(x))v
t
0
(x) dx q
_
1
0
v
t
0
(x) dx = 0.
Daher gilt aber u
t
(x) = r(x) +q und da r (
1
([0, 1]) folgt u (
2
([0, 1]) mit
u
tt
(x) = r
t
(x) = c(x)u(x) f(x).
Sei nun u eine Losung des Randwertproblems. Dann liefert uns partielle
Integration direkt
B(u, v) l(v) =
_
1
0
(u
tt
(x) +c(x)u(x) f(x))v(x) dx = 0
f ur alle v U, d.h. die Variationsgleichung ist erf ullt und mit Satz 8.7 folgt
die Behauptung.
Ausgehend von der Formulierung als Variationsproblem lasst sich auch ein
Existenz- und Eindeutigkeitsbeweis f ur das zugehorige Randwertproblem
f uhren, was wir hier aber nicht vorf uhren wollen. Benotigt wird dazu der
Hilbertraum mit der durch B erklarten Norm.
Wir stellen nun das Ritz-Galerkin Verfahren vor. Die Grundidee dabei
ist die Zielfunktion J auf einem endlich dimensionalen Unterraum von U zu
minimieren.
Kapitel 8 Randwertprobleme 196
Satz 8.9. Sei U
n
ein endlich dimensionaler Unterraum von U. Dann gibt
es genau ein u
n
U
n
, welches J auf U
n
minimiert.
Sei weiter
1
, . . . ,
m
eine Basis von U
n
, dann sind die Koezienten in
u
n
(x) =
m

k=1

k
(x)
eindeutig bestimmt als Losung der Ritz-Galerkin Gleichungen
m

k=1

k
B(
i
,
k
) = l(
i
) f ur i = 1, . . . , m.
Beweis. Analog zu Satz 8.8 gilt J(u
n
) J(v) f ur alle v U
n
genau dann,
wenn
B(u
n
, v) = l(v) f ur alle v U
n
.
Dies ist aber aquivalent zu den Ritz-Galerkin Gleichungen. Wegen
m

i,k=1

k
B(
i
,
k
) = B(v, v) > 0 mit v(x) =
m

k=1

k
(x) ,= 0
ist die Matrix B(
i
,
k
) dieses Gleichungssystems positiv denit und daher
regular.
Wir werden uns nun mit der Frage beschaftigen, welche Unterraume U
n
gewahlt werden sollten und das Ritz-Galerkin Verfahren mit linearen Splines
vorf uhren.
Zunachst bemerken wir, dass Unterraume aus Polynomen ungeeignet sind,
da sie zu schlecht konditionierten Gleichungssystemen f uhren. Geeigneter
sind dager Splines, hier vor allem die Raume der linearen und kubischen
Splines.
F ur den Fall von linearen Splines wahlen wir die aquidistante Zerlegung
= x
i
= ih : i = 0, . . . , n + 1 mit h =
1
n + 1
.
Damit besteht U
n
aus allen auf [0, 1] stetigen Funktionen u mit u(0) =
u(1) = 0, die auf jedem der Intervalle [x
i
, x
i+1
] f ur i = 0, . . . , n ane linear
sind.
Als Basis von U
n
wahlen wir die Dachfunktionen

k
(x) =
_

_
1
h
(x x
k1
) f ur x [x
k1
, x
k
]
1
h
(x
k+1
x) f ur x [x
k
, x
k+1
]
0 sonst
f ur k = 1, . . . , n.
Kapitel 8 Randwertprobleme 197
F ur jedes u U
n
gilt damit f ur
k
= u(x
k
) die Darstellung
u(x) =
n

k=1

k
(x).
Wir bemerken, dass
B(
i
,
k
) =
_
1
0
(
t
i
(x)
t
k
(x) +c(x)
i
(x)
k
(x)) dx = 0
f ur (x
i1
, x
i+1
) (x
k1
, x
k+1
) = , falls also [i k[ > 2 gilt. Somit ist
B(
i
,
k
) eine Tridiagonalmatrix. Weiter berechnen wir
B(
i
,
i
) =
2
h
+
1
h
2

_
_
x
i
x
i
1
c(x)(x x
i1
)
2
dx +
_
x
i+1
x
i
c(x)(x
i+1
x)
2
dx
_
und
B(
i
,
i+1
) =
1
h
+
1
h
2

_
x
i+1
x
i
c(x)(x
i+1
x)(x x
i
) dx
sowie
l(
i
) =
1
h

_
_
x
i
x
i1
f(x)(x x
i1
) dx +
_
x
i+1
x
i
f(x)(x
i+1
x) dx
_
.
Dabei werden die Koezienten im Allgemeinen durch numerische Integrati-
on berechnet. F ur jedes Teilintervall, also f ur jedes nite Element, sollten
sich die Koezienten nach der gleichen Vorschrift ergeben. Denieren wir
wie bei den niten Dierenzen
c
i
= c(x
i
) und f
i
= f(x
i
)
f ur i = 1, . . . , n und approximieren die Funktionen c und f durch lineare
Splines, so folgt
B(
i
,
i
) =
2
h
+
h
12
(c
i1
+ 6c
i
+c
i+1
),
B(
i
,
i+1
) =
1
h
+
h
12
(c
i
+c
i+1
),
l(
i
) =
h
6
(f
i1
+ 4f
i
+f
i+1
).
Mit diesen Naherungen haben wir analog zur Methode der niten Die-
renzen ein lineares Gleichungssystem mit einer Tridiagonalmatrix zu losen,
Kapitel 8 Randwertprobleme 198
namlich das Gleichungssystem
1
h
2

_

i1
_
1
h
2
12
(c
i1
+c
i
)
_
+
i
_
2 +
h
2
12
(c
i1
+ 6c
i
+c
i+1
)
_

i+1
_
1
h
2
12
(c
i
+c
i+1
)
__
=
1
6
(f
i1
+ 4f
i
+f
i+1
)
f ur i = 1, . . . , n. Dabei gelte
0
=
n+1
= 0. Mit der Losung (
1
, . . . ,
n
)
dieses Gleichungssystems erhalten wir
u
n
(x) =
n

k=1

k
(x) u(x).
als Approximation an die gesuchte exakte Losung u(x).
Abschlieend wollten wir noch kurz eine Fehlerabschatzung ohne Beweis
angeben. Der interessierte Leser sei hier auf Kress (2008) verwiesen.
Satz 8.10. Sei u (
2
([0, 1]) eine Losung des Randwertproblems
u
tt
(x) +c(x)u(x) = f(x) mit x (0, 1)
unter den Randbedingungen u(0) = u(1) = 0. Weiter sei u
n
die zughorige
Losung des Ritz-Galerkin Verfahrens mit linearen Splines.
Dann gibt es eine von h unabhangige Konstante C > 0 mit
|u u
n
|
2
C |u
tt
|
2
h
2
.
Dabei verwenden wir die Norm
|u|
2
=
__
1
0
[u(x)[
2
dx
_
1/2
.
8.5 Ausblick
Wie bereits mehrmals hingewiesen, haben wir hier nur die einfachsten und
grundlegenden Ideen zur numerischen Losungen von Randwertproblemen
eingef uhrt. Dabei lasst sich die Methode der niten Dierenzen auch auf
partielle Dierentialgleichungen ubertragen, sodass sich explizite und impli-
zite Dierenzenverfahren herleiten lassen.
Kapitel 8 Randwertprobleme 199
Neben der Methode der niten Dierenzen lasst sich vor allem auch die
Methode der niten Elemente auf viele weitere Klassen von Randwertpro-
blemen verallgemeinern, zum Beispiel auf mehrdimensionale Probleme oder
sogar auf partielle Dierentialgleichungen. Damit ndet die Methode der -
niten Elemente sehr viele Anwendungen in modernen Problemen und es hat
sich eine groe Zahl von kommerziellen und freien Solvern entwickelt, welche
genau diese Methode verwenden.
Zudem sind wir nur wenig auf Schieverfahren zur Losung von gewohn-
lichen Dierentialgleichungen eingegangen. Eine Einf uhrung zu all diesen
Bereichen kann in Toring and Spellucci (1990) gefunden werden.
Literaturverzeichnis
G. Barwol, 2007. Numerik f ur Ingenieure, Physiker und Informatiker.
Spektrum Akademischer Verlag, Heidelberg, 1. Auage.
M. Hanke-Bourgeois, 2006. Grundlagen der Numerischen Mathematik und
des Wissenschaftlichen Rechnens. Vieweg und Teubner, 2. Auage.
T. Hohage, 2005. Numerische Mathematik I. Skript zur Vorlesung im Win-
tersemester 2005/06 an der Universitat Gottingen.
T. Hohage, 2006. Numerische Mathematik II. Skript zur Vorlesung im
Sommersemester 2006 an der Universitat Gottingen.
R. Kress, 1998. Numerical Analysis (Graduate Texts in Mathematics). Sprin-
ger, New York, 1. Auage.
R. Kress, 2007. Numerische Mathematik I. Skript zur Vorlesung im Win-
tersemester 2007/08 an der Universitat Gottingen.
R. Kress, 2008. Numerische Mathematik II. Skript zur Vorlesung im Som-
mersemester 2008 an der Universitat Gottingen.
G. Lube, 2005a. Numerische Mathematik I. Skript zur Vorlesung im Win-
tersemester 2004/05 an der Universitat Gottingen.
G. Lube, 2005b. Numerische Mathematik II. Skript zur Vorlesung im Som-
mersemester 2005 an der Universitat Gottingen.
A. Schobel, 2006. Numerik I. Skript zur Vorlesung im Wintersemester
2006/07 an der Universitat Gottingen.
A. Schobel, 2007. Numerik II. Skript zur Vorlesung im Sommersemester
2007 an der Universitat Gottingen.
W. Toring, P. Spellucci, 1988. Numerische Mathematik f ur Ingenieure und
Physiker. Band 1: Numerische Methoden der Algebra. Springer, Berlin, 2.
Auage.
200
Literaturverzeichnis 201
W. Toring, P. Spellucci, 1990. Numerische Mathematik f ur Ingenieure und
Physiker. Band 2: Numerische Methoden der Analysis. Springer, Berlin,
2. Auage.
R. Schaback und H. Wendland, 2004. Numerische Mathematik. Springer,
Berlin, 5. Auage.
Stichwortverzeichnis
-orthogonal, 121
aquivalente Normen, 16
A-konjugiert, 67
Abschnittspolynome, 96
Anfangswertproblem, 130
Aufwand, 37
Ausloschung, 7
autonome Dierentialgleichung, 128
Autonomisierung, 132
AWP, 130
B-Splines, 105
Banachraum, 21
beschrankt, 17
Butcher-Schema, 154
Cauchy-Folge, 21
CG-Verfahren, 66
charakteristisches Polynom, 71
Cholesky-Zerlegung, 54
Dachfunktionen, 196
Defekt, 191
diagonalisierbar, 79
Dierentialgleichung
gewohnliche, 128
Dirichlet Randbedingungen, 183
dissipativ, 143
divergent, 16
dividierte Dierenzen, 96
Dreiecksmatrix, 37
Eigenvektor, 20, 71
Eigenwert, 20, 71
Einheitskreis, 15
Einschrittverfahren, 145
konvergent, 149
Einzelschrittverfahren, 62
Energienorm, 65
entkoppelte Randbedingungen, 182
Euler-Verfahren, 146
explizites, 146
implizites, 147
Evolution, 141
diskrete, 145
explizite Dierentialgleichung, 129
Fehlbergtrick, 173
Feinheit eines Gitters, 144
nites Element, 197
Fixpunkt, 12
Fixpunktgleichung, 12
Frozen Newton-Verfahren, 28
Gau-Matrix, 40
Gau-Seidel-Verfahren, 62
Gau-Verfahren, 40
Gausche Quadraturformel, 120
gedampftes Newton-Verfahren, 28
gemischte Randbedingungen, 183
gemischtes Integral, 119
Gershgorin-Kreise, 78
Gesamtschrittverfahren, 60
Gitter, 144
Gitterfunktion, 144
Givens-Rotationen, 84
globaler Diskretisierungsfehler, 168
Grad eines Polynoms, 91
Grenzwert, 16
Hauptachsentransformation, 73
Hauptminor, 42
202
Stichwortverzeichnis 203
hermitesch, 10
Hessenberg-Matrix, 84
Hochschaltbeschrankung, 169
homogene Randbedingungen, 183
homogenes Gleichungssystem, 35
Householder-Matrizen, 50
implizite Dierentialgleichung, 129
Interpolationsfehler, 98
Interpolationsquadratur, 112
inverse Vektoriteration, 81
Jacobi-Matrix, 23
Jacobi-Verfahren, 60
Kardinalsplines, 103
Kern einer Matrix, 36
Kollokationsverfahren, 178
Kondition, 46, 47
konjugierten Gradienten, 66
konsistent, 147, 191
Konsistenzordnung, 150, 191
Kontraktion, 21
konvergent, 16, 191
Konvergenzordnung, 29, 151, 191
konvexe Menge, 10
Krylov-Raum, 69
Lagrange-Interpolation, 92
Lagrange-Interpolationsoperator, 98
Lagrange-Polynome, 93
Lanczos-Verfahren, 84
Landau-Symbol, 37
LDL-Zerlegung, 53
Legendre-Polynome, 124
linear, 182
linear unabhangig, 35
lineare Gleichungssysteme, 35
Lipschitzstetig, 137
einseitig, 143
global, 137
lokal, 137
Literaturverzeichnis, 200
lokaler Diskretisierungsfehler, 168
Lotka-Volterra-Zyklus, 133
LU-Zerlegung, 38
Matrix, 34
Mises, Verfahren von, 78
Mittelpunktsverfahren, 178
Monome, 92
Neumann Randbedingungen, 183
Newton-Cotes-Formeln, 114
Newton-Verfahren, 26, 28
Newtonsche Interpolationsformel, 94
nichtlineares Gleichungssystem, 11
Norm, 15
normierte Dreiecksmatrizen, 37
normierter Raum, 15
obere Dreiecksmatrix, 37
Ordnung einer Dierentialgleichung,
128
Ordnungsbedingungen, 160
orthogonal, 10
partielle Dierentialgleichung, 128
Permutation, 45
Permutationsmatrix, 45
Picard-Iteration, 139
Pivotelement, 45
Pivotisierung, 45
Polynom, 91
positiv denit, 10
positiv semi-denit, 10
positive Gewichtsfunktion, 119
Propagationsfehler, 168
QR-Zerlegung, 49
quadratische Matrizen, 34
Quadraturformel, 111
Quadraturstellen, 111
Quasi Newton-Verfahren, 28
quasilinear, 182
R uckwartsdierenzen Quotient, 189
R uckwartselimination, 37
Rang einer Matrix, 35
Rayleigh-Quotienten, 75
Stichwortverzeichnis 204
Rayleigh-Quotienten-Iteration, 81
regular, 36
Residuum, 66
Ritz-Galerkin Gleichungen, 196
Ritz-Galerkin Verfahren, 195
Robin Randbedingungen, 183
Runge-Kutta-Verfahren, 153
diagonal-implizites, 177
eingebettete, 172
explizites, 153
implizites, 177
voll-implizites, 178
Sassenfeld-Kriterium, 62
Satellitenbahn, 166
Schieverfahren, 186
schlecht gestellt, 8
Schrittweite, 66
Schur-Zerlegung, 73
SDIRK-Verfahren, 177
semilinear, 182
Simpson-Regel, 115
zusammengesetzte, 117
singular, 36
Singularvektoren, 88
Singularwerte, 88
Singularwertzerlegung, 87
Spaltenpivotisierung, 45
Spaltenrang, 35
Spaltensummennorm, 19
Spektralnorm, 20
Spektralradius, 20
Spline, 100
Storungslemma, 47
St utzstellen, 92
St utzwerte, 92
stabil, 46, 191
starkes Spaltensummenkriterium, 62
starkes Zeilensummenkriterium, 62
steife Dierentialgleichungen, 176
Stufenzahl, 154
Suchrichtung, 66
sukzessiven Approximation, 13
symmetrisch, 10
Trajektorie, 149
Trapez-Regel, 114
zusammengesetzte, 117
Tschebysche-Polynome, 125
unitar, 10
untere Dreiecksmatrix, 37
Vandermonde-Matrix, 93
Variationsgleichung, 194
Variationsproblem, 194
Verfahren
Lanczos, 84
Verfahren von
Mises, 78
Wieland, 81
Verfahren von Runge, 153
Vielfachheit einer Nullstelle, 92
vollstandiger Raum, 21
Vorwartsdierenzen Quotient, 189
Vorwartselimination, 37
Wellengleichung, 73
wesentliche Rechenoperationen, 37
Wieland, Verfahren von, 81
Zeilenrang, 35
Zeilensummennorm, 19
Zentraldierenzen Quotient, 189