Sie sind auf Seite 1von 74

Numerische Mathematik f ur die

Fachrichtung Informatik und f ur


Ingenieurwesen
Inozielles Skriptum zur Vorlesung Numerische Mathematik f ur Informatiker und
Ingenieure basierend auf Vorlesungen an der Universitat Karlsruhe (TH) im Sommersemester 2003
L
A
T
E
XBuild vom: 6. Januar 2004 18:47
Inhaltsverzeichnis
1 Normen 5
2 Lineare Gleichungssysteme 9
2.1 Auosung gestaelter Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 GauscherAlgorithmus: LRZerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 GauElimination zur Losung des LGS (2-i) . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 PivotStrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 LRZerlegung mit Spaltenpivotsuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6 CholeskyZerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Lineare Ausgleichsprobleme 17
4 KrylovRaumVerfahren 21
4.1 Verfahren der konjugierten Gradienten (cg-Verfahren) . . . . . . . . . . . . . . . . . . . 21
4.2 GMRESVerfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5 Nichtlineare Gleichungssysteme 31
5.1 NewtonVerfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2 FixpunktIteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6 Interpolation und Approximation 41
6.1 PolynomInterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.2 Splines und SplineInterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.3 Freiformkurven: BezierTechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7 Diskrete Fouriertransformation 59
7.1 Fast FourierTransformation (FFT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
8 Numerische Quadratur 65
Dieses Skriptum erhebt keinen Anspruch auf Vollstandigkeit und Korrektheit. Alle Rechte vorbehalten.
Kommentare, Fehler und Vorschlage bitte an mail@markuswestphal.de.
Die aktuelle Version dieses Dokuments ist auf der Website http://www.markuswestphal.de/numerik/ zu
nden.
Dieses inozielle Skriptum basiert auf dem Mitschrieb von Markus Westphal zu den Vorlesungen
im Sommersemester 2003 von Prof. Dr. A. Rieder und ist in Zusammenarbeit mit Manuel Krings
entstanden.
Mein besonderer Dank gilt Daniel Winkler von dessen HM-Script viele L
A
T
E
XElemente ubernommen
wurden und der auch das Titelbild beigesteuert hat.
3
Inhaltsverzeichnis
4
1 Normen
Denition 1.1. Eine Vektornorm ist eine Funktion
| | : K
n
[0, ) , K C, R
mit den folgenden Eigenschaften
1. |x| = 0 x = 0 positive Denitheit
2. | x| = [[ |x| f ur alle K , x K
n
Homogenitat
3. |x +y| |x| +|y| Dreiecksungleichung
Die Norm eines Vektors |x| kann als Abstand von x zum Nullvektor interpretiert werden und entspre-
chend |x y| als Abstand der Vektoren x und y.
Beispiel 1.1 (pNormen).
|x|
p
:=
_
n

i=1
[x
i
[
p
_1
p
, 1 p <
Wir wollen die so erhaltenen Normen f ur p = 1, p = 2 und p = naher betrachten und erhalten:
|x|
1
=
n

i=1
[x
i
[ |x|
2
=
_

n
i=1
[x
i
[
2
|x|

:= max
1in
[x
i
[
F ur diese drei Normen sind in Abbildung 1.1 f ur den R
2
die zugehorigen Einheitskreise dargestellt.
Der Einheitskreis ist die Menge aller x R
n
mit |x| = 1. Nur f ur p = 2 entspricht der Einheitskreis
tatsachlich unserer Vorstellung eines Kreises.
PSfrag replacements
tj
tj1
tj+1
tj+2
Mj
Mj1
Mj+1
Mj+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b0
b1
b2
b3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
1
1
1
1
(a) F ur p = 1
PSfrag replacements
tj
tj1
tj+1
tj+2
Mj
Mj1
Mj+1
Mj+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b0
b1
b2
b3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
1
1
1
1
(b) EuklidNorm p = 2
PSfrag replacements
tj
tj1
tj+1
tj+2
Mj
Mj1
Mj+1
Mj+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b0
b1
b2
b3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
1
1
1
1
(c) Maximumsnorm p =
Abbildung 1.1: Einheitskreise f ur die pNormen mit p = 1, p = 2 und p =
In Abbildung 1.2 ndet man zusatzlich eine genauere Darstellung der EuklidNorm.
5
1 Normen
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
Abbildung 1.2: EuklidNorm: |x|
2
=

i=1
[x
i
[
2
(hier im R
2
)
Satz 1.1. Zu jedem Paar von Normen | |

und | |

existieren Konstanten 0 m M < mit


m |x|

|x|

M |x|

f ur alle x K
n
Beispiel 1.2. Sei p q. Dann:
|x|
q
|x|
p
n
(
1
p

1
q
)
|x|
q
mit n = dimK
n
.
Denition 1.2. Eine Matrixnorm ist eine Abbildung
| | : K
(n,m)
[0, )
mit den drei Eigenschaften einer Vektornorm, wenn sie zusatzlich submultiplikativ ist, d.h.
|A B| |A| |B| f ur alle A K
(n,r)
und B K
(r,m)
Eine Matrixnorm heit vertraglich mit den Vektornormen | |
K
n und | |
K
m, wenn
|A x|
K
n |A| |x|
K
m
Beispiel 1.3.
1. |A| = max
1in
m

k=1
[a
ik
[ ZeilensummenNorm
2. |A| = max
1km
n

i=1
[a
ik
[ SpaltensummenNorm
3.
|A| =
_
n

i=1
m

k=1
[a
ik
[
2
_1
2
FrobeniusNorm
6
4. |A| = max
1in
1km
[a
ik
[ ist keine Matrixnorm, denn
|
_
1 1
0 0
_

_
1 0
1 0
_
| = 2 , 1 1 = |
_
1 1
0 0
_
| |
_
1 0
1 0
_
|
Denition 1.3. Vektornormen | |
K
n und | |
K
m induzieren eine Matrixnorm auf K
(n,m)
.
|A| := max
x=0
|Ax|
K
n
|x|
K
m
= max
x
K
m=1
|Ax|
K
n
Solche Matrixnormen heien zugeordnet oder induziert.
Beispiel 1.4 (p-Norm).
|A|
p
:= max
x
p
=1
|Ax|
p
, 1 p <
Sei nun p = 1:
A = (a
1
, . . . , a
n
) , a
i
K
n
|Ax|
1
= |
m

j=1
a
j
x
j
|
1

m

j=1
[x
j
[ |a
j
|
1
|x|
1
max
1jm
|a
j
|
1

|Ax|
1
|x|
1
max
1jm
|a
j
|
1
Die Ungleichung ist scharf und damit ist | |
1
die SpaltensummenNorm.
Sei nun p = 2:
|Ax|
2
2
= Ax, Ax) = A

Ax, x)
Es gilt: |A|
2
=
_

max
(A

A) wobei
max
der grote Eigenwert von A

A ist.
| |
2
heit Spektralnorm (Spektrum: Menge der Eigenwerte) und hat die folgenden Eigenschaften:
1. |A|
2
= |A

|
2
2. |A

A|
2
= |A|
2
2
3. |QA|
2
= |A|
2
falls Q unitar, also Q

Q = I.
Denition 1.4. Sei A K
(n,n)
regular (d.h. invertierbar). Dann heit
(A) := |A| |A
1
|
Konditionszahl von A bez uglich | |
Falls | | induziert ist, so gilt:
1 = |I| = |A A
1
| |A| |A
1
| = (A)
Wir denieren auerdem:

p
(A) := |A|
p
|A
1
|
p
7
1 Normen
Die Konditionszahl ist ein Ma f ur die Stabilitat einer Matrix. Je groer die Konditionszahl, umso naher
liegt die Matrix bei einer singularen Matrix. Dies kann beispielsweise negative Auswirkungen beim Losen
von linearen Gleichungssystemen haben, in denen eine solche Matrix vorkommt (siehe Kapitel 2 und 4).
Satz 1.2. Sei A K
(n,n)
regular. Dann gilt:
min
_
|AS|
p
|A|
p
mit S K
(n,n)
singular
_
=
1

p
(A)
Beispiel 1.5. Sei A =
_
2 1
1 0.4999
_
. Dann ist
2
(A) 31250.
Die Matrix A

liegt sehr nahe bei der singularen Matrix


_
2 1
1 0.5
_
durch Rundungsfehler konnte die
Invertierbarkeit von A

verlorengehen. Entsprechend erhalt man eine groe Konditionszahl.


8
2 Lineare Gleichungssysteme
gegeben:
A = (a
ij
) R
(n,n)
regular , b R
n
gesucht:
x R
n
mit Ax = b
Ax = b
n

j=1
a
ij
x
j
= b
i
1 i n (2-i)
2.1 Auosung gestaelter Gleichungssysteme
Sei Rx = z mit r
ij
= 0 f ur i > j. R ist eine obere Dreiecksmatrix:
r
11
x
1
+ r
12
x
2
+ + r
1n
x
n
= z
1
r
22
x
2
+ + r
2n
x
n
= z
2
.
.
.
.
.
.
.
.
.
r
nn
x
n
= z
n
Dann ist
det R =
n

i=1
r
ii
,= 0 r
ii
,= 0 f ur alle i = 1, . . . , n
Von unten nach oben betrachtet kommt in jeder Zeile eine weitere

Unbekannte x
i
, i = 1, . . . , n hinzu.
Man erhalt die Komponenten von x also, indem man in der letzten Zeile den Wert f ur x
n
zunachst direkt
abliest und dann in der jeweils nachsthoheren Zeile unter Zuhilfenahme der bisher berechneten Werte
die nachste Komponente bestimmt:
x
n
=
z
n
r
n,n
x
n1
=
z
n1
r
n1,n
x
n
r
n1,n1
.
.
.
x
i
=
z
i
r
i,i+1
x
i+1
r
i,n
x
n
r
i,i
.
.
.
x
1
=
z
1
r
1,2
x
2
r
1,n
x
n
r
1,1
Man nennt dieses Vorgehen daher R uckwartssubstitution .
9
2 Lineare Gleichungssysteme
Aufwand
Zur Berechnung von x
i
benotigt man ni Additionen, ni Multiplikationen und 1 Division und damit
insgesamt
n

i=1
_
2(n i) + 1
_
= n
2
arithmetische Operationen.
Das Auosen eines unteren Dreiecksystems
Lx = z mit l
ij
= 0 f ur i < j
verlauft analog und heisst Vorwartssubstitution
2.2 GauscherAlgorithmus: LRZerlegung
Idee:
F uhre (2-i) uber in ein Dreieckssystem, das dieselbe Losung besitzt.
Zulassige Umformungen von (A, b) R
(n,n+1)
sind
Vertauschen von Zeilen,
Vertauschen von Spalten (dies macht eine Umnummerierung der Spalten erforderlich),
Multiplikation einer Zeile mit einer Zahl ,= 0 und
Addition des Vielfachen einer Zeile zu einer anderen.
Nach Durchf uhrung von k solcher Umformungen erhalten wir das System (A
(k+1)
, b
(k+1)
). Dabei ist
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
b
n
_
_
_
_
_
= (A, b) = (A
(1)
, b
(1)
)
1. Schritt
Produziere Nullen unterhalb von a
11
. Es sei a
11
,= 0 (dies stellt keine wirkliche Einschrankung dar, denn
eine Zeile muss an erster Stelle eine Zahl ,= 0 haben (A ist regular); diese Zeile kann dann mit der ersten
vertauscht werden).
Subtrahiere das l
j,1
=
a
j1
a
11
fache der ersten von der jten Zeile f ur j = 2, . . . , n.
;
_
_
_
_
_
_
a
(1)
11
a
(1)
12
a
(1)
1n
b
(1)
1
0 a
(2)
22
a
(2)
2n
b
(2)
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
(2)
n2
a
(2)
nn
b
(2)
n
_
_
_
_
_
_
= (A
(2)
, b
(2)
)
10
2.2 GauscherAlgorithmus: LRZerlegung
a
(2)
ji
= a
(1)
ji
l
j1
a
(1)
1i
i = 2, . . . , n j = 2, . . . , n
b
(2)
j
= b
(1)
j
l
j1
b
(1)
1
j = 2, . . . , n
Dies kann auch durch eine MatrixMultiplikation erreicht werden:
A
(2)
= L
1
A
(1)
und b
(2)
= L
1
b
(1)
mit
L
1
=
_
_
_
_
_
_
_
_
_
1 0 0
l
21
1
.
.
.
.
.
.
l
31
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
l
n1
0 0 1
_
_
_
_
_
_
_
_
_
kter Schritt
D.h. wir vollziehen (A
(k)
, b
(k)
) (A
(k+1)
, b
(k+1)
) wobei 2 k n 1.
Vor dem kten Schritt hat unser System folgende Form:
_
_
_
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
12
a
(1)
1n
b
(1)
1
0 a
(2)
22
a
(2)
2n
b
(2)
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0 a
(k)
kk
a
(k)
kn
b
(k)
k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(k)
nk
a
(k)
nn
b
(k)
n
_
_
_
_
_
_
_
_
_
_
_
_
= (A
(k)
, b
(k)
)
Sei a
(k)
kk
,= 0 (siehe Bemerkung zum ersten Schritt). Erneut wahlen wir
l
jk
=
a
(k)
jk
a
(k)
kk
j = k + 1, . . . , n
und subtrahieren anschlieend das l
jk
fache der kten von der jten Zeile f ur j = k + 1, .., n:
a
(k+1)
ji
= a
(k)
ji
l
jk
a
(k)
ki
i = k + 1, . . . , n j = k + 1, . . . , n
b
(k+1)
j
= b
(k)
j
l
jk
b
(k)
k
j = k + 1, . . . , n
Man nennt a
(k)
kk
das PivotElement des kten Schrittes (franz: Pivot Dreh und Angelpunkt).
Matrixschreibweise:
A
(k+1)
= L
k
A
(k)
und b
(k+1)
= L
k
b
(k)
11
2 Lineare Gleichungssysteme
mit
L
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0 1
.
.
.
.
.
.
.
.
.
.
.
. l
k+1,k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 l
n,k
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= I l
k
e
T
k
wobei
l
k
=
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
l
k+1,k
.
.
.
l
n,k
_
_
_
_
_
_
_
_
_
_
und e
k
=
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
(die 1 steht in der kten Zeile)
Falls a
(j)
jj
,= 0 f ur j = 1, . . . , n 1 dann:
R = A
(n)
= L
n1
A
(n1)
= L
n1
L
n2
. . . L
1
A
A = L R mit L = L
1
1
L
1
2
. . . L
1
n1
beachte: L ist eine untere Dreiecksmatrix!.
Wie sieht L nun genau aus? Dazu zunachst folgende
Behauptung:
L
1
k
= I +l
k
e
T
k
Beweis:
L
k
(I +l
k
e
T
k
) = I l
k
e
T
k
l
k
. .
=0
e
T
k
= I
Wir erhalten f ur L folgende Darstellung:
L = (I +l
1
e
T
1
) . . . (I +l
n1
e
T
n1
)
_
l
i
e
T
i
l
j
e
T
j
= 0 !

= I +l
1
e
T
1
+. . . +l
n1
e
T
n1
=
_
_
_
_
_
_
_
_
_
1 0 0
l
21
1
.
.
.
.
.
.
.
.
. l
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
l
n1
l
n2
l
n,n1
1
_
_
_
_
_
_
_
_
_
12
2.3 GauElimination zur Losung des LGS (2-i)
Denition 2.1. Die Zerlegung einer Matrix A = L R in eine obere Dreiecksmatrix R und eine untere
Dreiecksmatrix L, die nur Einsen auf der Diagonalen hat, heit Gausche DreiecksZerlegung, LR
Zerlegung oder auch LUZerlegung (dabei steht bei der letztgenannten Bezeichnung L f ur

lower und
U f ur

upper).
Nicht jede regulare Matrix hat eine LRZerlegung: nur wenn alle PivotElemente nicht 0 sind, ist eine
solche Zerlegung nach dem angegebenen Schema moglich.
Beispiel 2.1. Wir wollen f ur folgende Matrix eine LRZerlegung durchf uhren:
A =
_
_
2 1 1
4 3 3
8 7 9
_
_
Erster Schritt:
_
_
1 0 0
2 1 0
4 0 1
_
_
. .
L
1

_
_
2 1 1
4 3 3
8 7 9
_
_
. .
A
(1)
=
_
_
2 1 1
0 1 1
0 3 5
_
_
. .
A
(2)
Zweiter Schritt:
_
_
1 0 0
0 1 0
0 3 1
_
_
. .
L
2

_
_
2 1 1
0 1 1
0 3 5
_
_
. .
A
(2)
=
_
_
2 1 1
0 1 1
0 0 2
_
_
. .
A
(3)
=R
L = L
1
1
L
1
2
=
_
_
1 0 0
2 1 0
4 3 1
_
_
A =
_
_
1 0 0
2 1 0
4 3 1
_
_

_
_
2 1 1
0 1 1
0 0 2
_
_
2.3 GauElimination zur Losung des LGS (2-i)
1. A = L R Zerlegung
2. L z = b Vorwartssubstitution
3. R x = z R uckwartsubstitution
Anmerkung zu den Schritten 2 und 3: L (R x
..
=z
) = b
Anzahl der Multiplikationen f ur die LRZerlegung:
n1

k=1
_
2(n k) + (n k)
2
. .
Multiplikationen
im kten Schritt

=
2
3
n
3
+
1
2
n
2

5
6
n
Anzahl der Multiplikationen f ur das GauVerfahren:
2
3
n
3
+
3
2
n
2

1
6
n
13
2 Lineare Gleichungssysteme
2.4 PivotStrategie
Die im folgenden vorgestellte Methode ist wichtig f ur die numerische Stabilitat des Verfahrens und beugt
dem Fall vor, dass PivotElemente

verschwinden. Wir betrachten folgendes Beispiel:


A =
_
1
1 1
_
mit 0 < 1
L =
_
1 0

1
1
_
, R =
_
1
0 1
1
_
Die Zahlendarstellung auf dem Rechner ergibt folgende tatsachlich berechnete Faktoren:

L =
_
1 0

1
1
_
,

R =
_
1
0
1
_
Der relative Fehler von R und

R ist klein (
1
gro!). Betrachte nun den Fehler bei Multiplikation von

L und

R:
|

L

R A|

=
1
2
|A|

Dieser Fehler hingegen ist betrachtlich (50%).


Grund: der GauAlgorithmus ist nicht stabil. Kleine Fehler in L und R konnen zu groen Fehlern
beim Produkt f uhren.
Ausweg: Spaltenpivotsuche
Vertausche zunachst die Zeilen von A (hier ausgedr uckt durch Multiplikation von A mit einer Permuta-
tionsmatrix P):
P A =
_
0 1
1 0
_

_
1
1 1
_
=
_
1 1
1
_
F uhre nun eine LRZerlegung durch:

L = L ,

R =
_
1 1
0 1
_
|

L

R P A|

=

2
|P A|

Der Fehler liegt nun in der Groenordung der Storung.


2.5 LRZerlegung mit Spaltenpivotsuche
Vertausche im kten Schritt die kte Zeile mit der Zeile j k, f ur die gilt:
[a
(k)
jk
[ = max
kin
[a
(k)
ik
[
Beispiel 2.2. Wir setzen p := (1, 2, 3) (p dient zur Protokollierung der Vertauschungen).
_
_
2 1 1
4 3 3
8 7 9
_
_
p=(3,2,1)

_
_
8 7 9
4 3 3
2 1 1
_
_
Gau

_
_
_
8 7 9
1
2

1
2

3
2
1
4

3
4

5
4
_
_
_
14
2.6 CholeskyZerlegung
p=(3,1,2)

_
_
_
8 7 9
1
4

3
4

5
4
1
2

1
2

3
2
_
_
_
Gau

_
_
_
8 7 9
1
4

3
4

5
4
1
2
2
3

2
3
_
_
_
Aus p konnen wir die Permutationsmatrix P konstruieren: ist am Ende der Umformungen p =
(p
1
, . . . , p
n
), so wahlen wir f ur die ite Zeile von P den Einheitsvektor e
p
i
.

_
_
0 0 1
1 0 0
0 1 0
_
_
. .
=P

_
_
2 1 1
4 3 3
8 7 9
_
_
. .
=A
=
_
_
1 0 0
1
4
1 0
1
2
2
3
1
_
_
. .
=L

_
_
8 7 9
0
3
4

5
4
0 0
2
3
_
_
. .
=R
Satz 2.1. Der GauAlgorithmus mit Spaltenpivotsuche liefert f ur jede regulare Matrix A eine Per-
mutationsmatrix P sowie Dreieicksmatrizen L und R, so dass
PA = LR
die LRZerlegung von PA ist. Die Elemente von L sind betragsmaig kleiner gleich 1.
2.6 CholeskyZerlegung
Denition 2.2. A R
(n,n)
heit positiv denit (A > 0), falls A = A
T
und Ax, x) = x
T
Ax > 0 f ur alle
x R
n
0.
Satz 2.2. A R
(n,n)
mit A = A
T
ist positiv denit
det
_
_
_
a
11
a
1k
.
.
.
.
.
.
a
k1
a
kk
_
_
_ > 0 f ur alle k 1, . . . , n
Satz 2.3. Sei A > 0. Dann existiert eine untere Dreiecksmatrix L mit positiven Diagonalelementen, so
dass
A = L L
T
ist. Diese Faktorisierung heit CholeskyZerlegung von A.
Beweis: Induktion uber n:
Induktionsanfang: n = 1
A = a
11
..
>0
=

a
11

a
11
Induktionsschluss: n 1 n
A lasst sich darstellen in der Form
A =
_
A
n1
c
c
T
a
nn
_
15
2 Lineare Gleichungssysteme
mit c R
n1
und a
nn
R. Nach Induktionsvoraussetzung gilt dann f ur A:
A =
_
L
n1
L
T
n1
c
c
T
a
nn
_
!
=
_
L
n1
0
r
T

_
L
T
n1
r
0
_
r R
n1
, R, > 0

_
L
n1
r = c
r
T
r +
2
= a
nn
Aus der oberen Zeile konnen wir r sofort ablesen:
r = L
1
n1
c
Wir m ussen nun aber noch nachweisen, dass tatsachlich > 0 und konnen dann auch
angeben. Es gilt aber:
0 < det A = ( det L
n1
. .
>0 nach IV
)
2

2

2
> 0
> 0
=
_
a
nn
r
T
r

Schreiben wir die CholeskyZerlegung mit Hilfe der Komponenten von A erhalten wir:
A = L L
T
a
ik
=
k

j=1
l
ij
l
kj
i k
Losen wir diese
(n+1)n
2
Gleichungen in der Reihenfolge (1, 1), (2, 1), . . . , (n, 1), (2, 2), . . . (n, n), d.h. spal-
tenweise, dann erhalten wir folgenden Algorithmus:
for k = 1 to n do
l
kk
=
_
a
kk

k1
j=1
(l
kj
)
2
_
1/2
for i = k + 1 to n do
l
ik
=
a
ik

k1
j=1
l
ij
l
kj
l
kk
end
end
16
3 Lineare Ausgleichsprobleme
Problemstellung:
Ein Experiment liefert den Medatensatz (t
i
, b
i
) R
d
R
k
mit i = 1, . . . , l.
Modell: (t, x) = b (x ist Modellparameter).

Uber den Medatensatz soll x moglichst genau bestimmt werden.


Beispiel 3.1 (Bestimmung eines Ohmschen Widerstandes).
OhmschesGesetz (Modell): b = x t = (t, x) (b: Spannung, t: Stromstarke, x: ohmscher Widerstand)
Messungen ergeben folgendes Bild:
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
t
1
t
2
t
3
t
4
t
n
Abbildung 3.1: Die Messungen (t
i
, b
i
) sind
mit Fehlern behaftet und liegen nicht auf
einer Geraden.
Die Steigung der Geraden, die den gering-
sten Abstand zu den Messpunkten hat, ist
eine vern unftige Approximation an x.
F(x) :=
_
_
_
(t
1
, x) b
1
.
.
.
(t
l
, x) b
l
_
_
_ F : R
n
R
m
(m = l k)
Finde ein x

R
n
mit |F(x

)| = min |F(x)| [ x R
n
.
F ur | | = | |
2
gilt dann
|F(x)|
2
=
_
l

i=1
((t
i
, x) b
i
)
. .
=:
i
2
_1
2
=
_
l

i=1

2
i
_1
2
Minimiert wird also gerade die Summe der Quadrate der Abweichungen. Diese Vorgehensweise heit
daher Methode der kleinsten Quadrate (leastsquaremethod) oder GauAusgleich.
Im weiteren soll linear von x abhangen.
F(x) = Ax b mit einer Matrix A R
(m,n)
17
3 Lineare Ausgleichsprobleme
Lineares Ausgleichsproblem
Gegeben:
A R
(m,n)
, b R
m
Gesucht:
x

R
n
: |Ax

b|
2
= min
xR
n
|Ax b|
2
(3-i)
Wir suchen dasjenige x

, dessen Bild unter A den kleinsten Abstand von b hat.


Ist m n spricht man von einem uberbestimmten, ist m < n von einem unterbestimmten Problem (bei
vorigem Beispiel handelte es sich also um ein uberbestimmtes Problem).
Im folgenden sei stets | | = | |
2
.
Satz 3.1. Folgende Aussagen sind aquivalent:
(i) x

lost (3-i)
(ii) A
T
Ax

= A
T
b (Normalgleichung)
(iii) Ax

= P
Bild A
b (P
Bild A
: R
m
R
m
Orthogonalprojektor auf Bild A)
Beweis:
(i) (ii):
Die Funktion f(x) = |Ax b|
2
ist dierenzierbar.
x

minimiert f in R
n
f(x

) = 0
Es ist f = h g mit h(x) = |x|
2
und g(x) = Ax b
f(x) = h(g(x))Dg(x) Kettenregel
h(x) = 2x
T
, Dg(x) = A
f(x) = 2(Ax b)
T
A
Also
0 = f(x

) = 2(Ax

b)
T
A
A
T
(Ax

b) = 0
A
T
Ax

= A
T
b
(ii) (iii):
A
T
(Ax

b) = 0 Ax

b N(A
T
) = (Bild A)

0 = P
Bild A
(Ax

b) = Ax

P
Bild A
b
Ax

= P
Bild A
b
(iii) (i):
Sei y R
n
beliebig.
P
Bild A
b b (Bild A)

18
|Ay b|
2
= | Ay P
Bild A
b
. .
Bild A
+P
Bild A
b b
. .
(Bild A)

|
2
= |Ay P
Bild A
b|
2
+|P
Bild A
b b|
2
Pythagoras
= |Ay P
Bild A
b|
2
+|Ax

b|
2
|Ax

b|
2
Ax

b ist das Minimum uber alle y


x

lost (3-i)

Lemma 3.2. Die Dierenz x

zweier Losungen von (3-i) liegt in N(A).


A(x

) = 0
Das Ausgleichsproblem (3-i) hat genau dann eine eindeutige Losung, wenn N(A) = 0. Dies kann im
unterbestimmten Fall nie und im uberbestimmten Fall nur f ur Rang(A) = n eintreten.
Denition 3.1. Unter allen Losungen von (3-i) nennen wir die mit minimaler Norm die Mimimum
NormLosung x
+
.
Satz 3.3. Sei A R
(m,n)
. Die MinimumNormLosung von (3-i) ist die eindeutige Losung der Normal-
gleichung in N(A)

. Ist Rang(A) = minm, n, dann gilt:


x
+
=
_
(A
T
A)
1
A
T
b m n
A
T
(AA
T
)
1
b m < n
F ur eine eziente und stabile Berechnung von x
+
gibt es Algorithmen, die nicht die Normalgleichung
losen (z.B. QRAlgorithmus). F ur hochdimensionale Probleme sollte auf ein Losen der Normalgleichung
verzichtet werden; denn beim

Ubergang von A zu A
T
A kann aus numerischen Gr unden z.B. die Injek-
tivitat verloren gehen. Betrachte dazu folgendes Beispiel:
A =
_
_
1 1
0
0
_
_
0 < 1 darstellbar
A ist injektiv (Rang(A) = 2).
A
T
A =
_
1 +
2
1
1 1 +
2
_
Dieses Produkt ist bei arithmetischer Betrachtung ebenfalls injektiv; doch kann
2
moglicherweise nicht
mehr dargestellt werden und wird zu 0 gerundet. Dann erhalten wir:
Rundung ;

A
T
A =
_
1 1
1 1
_
Diese Matrix ist nun nicht mehr injektiv.
19
3 Lineare Ausgleichsprobleme
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
t
1
t
2
t
3
t
4
t
n
(a) Alle Geraden schneiden sich in einem Punkt
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
t
1
t
2
t
3
t
4
t
n
(b) Je zwei Geraden schneiden sich in einem
Punkt
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
t
1
t
2
t
3
t
4
t
n
(c) Zwei Geraden sind parallel; die dritte scheidet
beide
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
t
1
t
2
t
3
t
4
t
n
(d) Alle Geraden liegen parallel
Abbildung 3.2: Mogliche Geradenkonstellationen in Beispiel 3.2.
Beispiel 3.2. Wir wollen den Punkt bestimmen, der drei gegebenen Geraden im R
2
am nachsten liegt.
In Abbildung 3.2 sind alle moglichen Konstellationen f ur drei Geraden angegeben.
Die Lage der Geraden wird sich in A wiederspiegeln. Wir beschreiben eine Gerade folgendermaen:
G
i
:= x R
2
[ b
i
= a
i
x
1
+x
2
i = 1, 2, 3 b
i
, a
i
R
Wir suchen einen Punkt x

R
2
:
a
1
x

1
+ x

2
= b
1
a
2
x

1
+ x

2
= b
2
a
3
x

1
+ x

2
= b
3
_
_
_
Ax

!
= b mit A =
_
_
a
1
1
a
2
1
a
3
1
_
_
, b =
_
_
b
1
b
2
b
3
_
_
Das vorliegende ist also ein uberbestimmtes Problem.
Rang A = 2 a
i
,= a
j
f ur ein Paar (i, j)
Dies entspricht den Abbildungen 3.2(a), 3.2(b) oder 3.2(c). In diesem Fall:
x
+
= (A
T
A)
1
A
T
b =
1
3d c
2
_
3 c
c d
_
. .
=(A
T
A)
1
_

3
i=1
a
i
b
i
b
1
+b
2
+b
3
_
. .
=A
T
b
mit d = a
2
1
+a
2
2
+a
2
3
, c = (a
1
+a
2
+a
3
)
20
4 KrylovRaumVerfahren
4.1 Verfahren der konjugierten Gradienten (cg-Verfahren)
Generelle Vorraussetzung:
A R
(n,n)
, A > 0 und b R
n
Gesucht:
x R
n
: Ax = b
Denition 4.1. 1. Wir f uhren ein zweites Skalarprodukt auf R
n
ein:
v, w)
A
:= A v, w)
. .
euklidsches
Skalarprodukt
v, w R
n
2. v heit Aorthogonal zu w : v, w)
A
= 0
3. |v|
A
:=
_
v, v)
A
ANorm oder Energienorm
Sei U
m
R
n
ein mdimensionaler Teilraum des R
n
. Wir setzen
V
m
:= x
0
+U
m
= x
0
+u [ u U
m
x
0
R
n
V
m
ist ein an linearer Raum (vergleiche auch Abbildung 4.1).
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+ y
2
t
1
t
2
t
3
t
4
t
n
U
1
V
1
x
0
Abbildung 4.1: U
1
ist ein Untervektorraum des R
2
und V
1
= x
0
+U
1
21
4 KrylovRaumVerfahren
Auerdem denieren wir x
m
V
m
durch
|x
m
x|
A
= min|v x|
A
[ v V
m
(x ist Losung von Ax = b)
Wegen x
m
= x
0
+
m
und v = x
0
+u, wobei
m
, u U
m
, gen ugt es
m
durch
|
m
(x x
0
)|
A
:= min|u (x x
0
)|
A
[ u U
m

zu bestimmen.

m
= P
m
(x x
0
) P
m
: R
n
U
m
AOrthogonalProjektor
Sei p
1
, . . . , p
n
eine AOrthogonalbasis von R
n
und U
m
= spannp
1
, . . . , p
m
mit m = 1, . . . , n.
Dann
x
m
= x
0
+
m
= x
0
+P
m
(x x
0
)
= x
0
+
m

j=1
p
j
, x x
0
)
A
p
j
, p
j
)
A
p
j
= x
0
+
m

j=1
p
j
, r
0
)
Ap
j
, p
j
)
. .
=:
j
p
j
mit r
0
= A(x x
0
) = b Ax
0
Denition 4.2. Wir nennen
r
m
:= b Ax
m
das Residuum von x
m
. r
m
ist ein Ma daf ur, wie gut x
m
die Gleichung Ax = b lost.
Wir erhalten f ur x
m
und r
m
folgende rekursive Formen
x
m
= x
0
+
m1

j=1

j
p
j
+
m
p
m
= x
m1
+
m
p
m
und
r
m
= A(x x
m
) = A(x x
m1

m
p
m
)
= r
m1

m
Ap
m
also
x
m
= x
m1
+
m
p
m
und r
m
= r
m1

m
Ap
m
(4-i)
Nun stellt sich die Frage nach der Wahl geeigneter Raume U
m
f ur die sich eine AOrthogonalbasis leicht
berechnen lasst.
Denition 4.3. Wir denieren durch
U
0
= 0 und U
m
= U
m
(A, v) = spannv, Av, A
2
v, . . . , A
m1
v m = 1, . . . , n
die KrylovRaume bez uglich A und v.
Lemma 4.1. Sei U
m
= U
m
(A, r
0
) (r
0
Ausgangsresiduum) und r
m
,= 0. Dann sind die Residuen
r
0
, . . . , r
m
paarweise orthogonal
r
i
, r
j
) =
_
0 i ,= j
|r
i
|
2
i = j
i, j = 1, . . . , m
und sie spannen U
m+1
auf:
U
m+1
= spannr
0
, . . . , r
m

22
4.1 Verfahren der konjugierten Gradienten (cg-Verfahren)
Konstruktion einer AOrthogonalbasis f ur U
m
(A, r
0
)
Sei m 0 , r
m
,= 0 und sei p
1
, . . . , p
m
eine AOrthogonalbasis von U
m
.

4.1
p
1
, . . . , p
m
, r
m
ist Basis von U
m+1
(r
m
U
m
= spannp
1
, . . . , p
m
)
p
1
, . . . , p
m
, p
m+1
ist AOGB von U
m+1
mit p
m+1
= r
m

j=1
r
m
, Ap
j
)
Ap
j
, p
j
)
p
j
Es ist r
m
U
m
r
m
, Ap
j
) = 0 f ur j < m
p
m+1
= r
m

r
m
, Ap
m
)
Ap
m
, p
m
)
. .
=:
m
p
m
(4-ii)
Lemma 4.2. Es gilt

m
=
|r
m1
|
2
2
|p
m
|
2
A
und
m
=
|r
m
|
2
2
|r
m1
|
2
2
Diese

Uberlegungen f uhren uns zum
cgAlgorithmus zur Losung von Ax = b mit Startwert x
0
p
1
: = r
0
= b Ax
0
3 for m = 1 to n do
i f r
m1
= 0 then STOP
6 a
m
: = A p
m

m
: =
|r
m1
|
2
2
p
m
, a
m
)
x
m
: = x
m1
+
m
p
m
9 r
m
: = r
m1

m
Ap
m

m
: =
|r
m
|
2
2
|r
m1
|
2
2
p
m+1
: = r
m
+
m
p
m
12 end
In Zeile 4 wahlt man statt der Abbruchbedingung r
m1
= 0 normalerweise eine Bedingung daf ur, dass
r
m1
hinreichend klein ist, z.B.
|r
m1
|
2
|b|
2

F ur die Zeilen 8 und 9 vergleiche (4-i) und f ur Zeile 11 (4-ii).
Konvergenzanalyse
Falls das cg-Verfahren nicht vorzeitig abbricht, dann
U
n
(A, r
0
) = R
n
x
n
= x
23
4 KrylovRaumVerfahren
Das cgVerfahren liefert also spatestens nach n-Schritten die exakte Losung (bei exakter Arithmetik).
Daher kann das cgVerfahren einerseits als direktes (wie z.B. die GaussZerlegung) andererseits auch
als iteratives interpretiert werden.
Lemma 4.3. Es gibt Polynome Q
m

m
, wobei

m
= q
m
ist Polynom vom Grad m mit q
m
(0) = 1
so dass
e
m
:= x
m
x = Q
m
(A)e
0
mit e
0
= x
0
x (Anfangsfehler)
ist. Weiter gilt
|e
m
|
A
= |Q
m
(A)e
0
|
A
= min|q
m
(A)e
0
|
A
[ q
m

sowie
|e
m
|
A
max
(A)
[q
m
()[ |e
0
|
A
f ur alle q
m

m
Hierbei ist (A) = (0, ) [ ist Eigenwert von A (Spektrum von A).
Satz 4.4. A > 0 habe nur k m verschiedene Eigenwerte. Dann gilt x
k
= x. Das cgVerfahren liefert
also nach k Schritten die exakte Losung.
Beweis: Seien
1
, . . . ,
k
die verschiedenen Eigenwerte von A.
q
k
(t) :=
k

j=1

j
t

j
Dann ist q
k
ein Polynom kten Grades und q
k
(0) = 1.
q
k

k
|e
k
|
A
max
{
1
,...,
k
}
[q
k
()[|e
0
|
A
= 0
x
k
= x

Satz 4.5. F ur A > 0 gilt:


|e
m
|
A
< 2
_
_

2
(A) 1
_

2
(A) + 1
_
m
|e
0
|
A
mit

2
(A) = |A|
2
|A
1
|
2
=

max
(A)

min
(A)
(Konditionszahl)
Beispiel 4.1. A > 0 habe nur zwei verschiedene Eigenwerte
1

2
.

2
(A) 1
Satz 4.5 suggiert in diesem Beispiel eine langsame Konvergenz des cgVerfahrens. Aus Satz 4.4 wissen
wir jedoch: x
2
= x.
24
4.1 Verfahren der konjugierten Gradienten (cg-Verfahren)
Vorkonditionierung
PSfrag replacements
2

2
3

2
k = 0

4
+
x
y
(x, y)
(x, y) =

x
2
+y
2
t
1
t
2
t
3
t
4
t
n
U
1
V
1
x
0
x
0
f(x
0
)

2 1
1

21

2+1 Je kleiner
2
, desto schneller konver-
giert das cgVerfahren.
Idee:
Transformiere das Problem Ax = b in ein aquivalentes, wobei die transformierte Matrix eine
moglichst kleine Kondition hat.
Sei B R
(n,n)
positiv denit.
Ax = b

A x = b mit

A = AB und x = B x
wir wollen B so kreieren, dass die Konditionszahl von

A moglichst klein ist.
Da B positiv denit ist, ist nun

A = AB nicht mehr symmetrisch. Wir m ussen deshalb unseren Algo-
rithmus anpassen und erhalten den
cgAlgorithmus zur Losung von Ax = b mit Vorkonditionierer B
r
0
: = b Ax
0
p
1
: = Br
0

1
: = p
1
, r
0
)
2
for m = 1 to n do
i f r
m1
= 0 then STOP
a
m
: = A p
m

m
: =

m
p
m
, a
m
)
2
x
m
: = x
m1
+
m
p
m
r
m
: = r
m1

m
a
m
v
m
: = Br
m

m+1
: = v
m
, r
m
)
2
p
m+1
: = v
m
+

m+1

m
p
m
end
Satz 4.6. Die Matrix B erf ulle
B
1
v, v)
2
Av, v)
2
B
1
v, v)
2
f ur alle v R
n
Dann gilt f ur das mit B vorkonditionierte cgVerfahren zur Losung von Ax = b die Fehlerabschatzung
|x
m
x|
A
2
_
1

+ 1
_
m
|x
0
x|
A
worin =

ist.
25
4 KrylovRaumVerfahren
Ein guter Vorkonditionierer erf ullt folgende Eigenschaften:
(a) Bv ist einfach (im Vergleich zu Av)
(b)
2
(BA) =


2
(A)
Die beiden Forderungen nicht ohne weiteres vereinbar. So wird (b) z.B. f ur A
1
am besten erf ullt,
aber in (a) erhalt man dann die gleiche Komplexitat wie beim Ausgangsproblem. F ur I ergibt sich das
umgekehrte Bild.
4.2 GMRESVerfahren
GMRES ist eine Abk urzung f ur

Generalized MinimumResidual Method und bezeichnet ein Verfahren,


bei dem das Residuum minimiert wird.
Sei A R
(n,n)
eine regulare Matrix (A muss nicht positiv denit sein) und b R
n
. Die kte GMRES
Iterierte x
k
ist deniert durch:
|Ax
k
b|
2
= min|Av b|
2
[ v x
0
+U
k
(A, r
0
)
wobei U
k
(A, r
0
) der kte KrylovRaum ist und r
0
= b Ax
0
das Anfangsresiduum (x
0
bezeichnet den
Startwert).
Beachte: Im Gegensatz zum cgVerfahren wird hier nicht der Fehler x
m
x, sondern das Residuum
Ax
k
b minimiert. Auch benutzen wir beim GMRESVerfahren zur Minimierung nicht die ANorm,
sondern die EuklidNorm, da von A im allgemeinen kein Skalarprodukt deniert wird (beachte: A muss
- wie erwahnt - nicht positiv denit sein).
Satz 4.7. Es gilt
|r
k
|
2
= min|q
k
(A)r
0
|
2
[ q
k

daraus folgt
|r
k
|
2
|q
k
(A)|
2
|r
0
|
2
f ur alle q
k

k
Lemma 4.3 gilt analog f ur das GMRESVerfahren und wir erhalten
Satz 4.8. Sei A = V DV
1
eine regulare diagonalisierbare Matrix ( D = diag(
1
, . . . ,
n
) ,
i
C
und V C
(n,n)
) [Beachte: positiv denite Matrizen haben reelle Eigenwerte beliebige Matrizen nicht].
Dann gilt:
|r
k
|
2

2
(V ) max
1in
[q
k
(
i
)[ |r
0
|
2
f ur alle q
k

k
Beweis:
|q
k
(A)|
2
= |V q
k
(D)V
1
|
2
|V |
2
|V
1
|
2
| diag(q
k
(
1
), . . . , q
k
(
n
))|
2
=
2
(V ) max
1in
[q
k
(
i
)[

Beim GMRESVerfahren kommt verglichen mit Lemma 4.3 noch der Faktor
2
(V ) > 1 hinzu. Die G ute
der Abschatzung ist also geringer als in Lemma 4.3.
26
4.2 GMRESVerfahren
Satz 4.9. Falls |I A|
2
< 1, dann
|r
k
|
2

k
|r
0
|
2
In jedem Schitt wird also das Ausgangsresiduum r
0
um den Faktor vermindert.
Beweis: Setze q
k
(t) := (1 t)
k

k
.
|r
k
|
2
|q
k
(A)|
2
|r
0
|
2
= |(I A)
k
|
2
|r
0
|
2
|I A|
k
2
|r
0
|
2

k
|r
0
|
2

Vorkonditionierung
Wir transformieren das Problem Ax = b:
Ax = b ; MAx = Mb wobei M regular ist
Ein guter Vorkonditionierer erf ullt folgende Anforderungen:
(i)
2
(MA)
2
(A) (dann sind die vorkonditionierten Residuen beim GMRESVerfahren gute Feh-
lerindikatoren).
(ii) |MAI|
2
1 (siehe hierzu Satz 4.9)
(iii) Mv lasst sich schnell berechnen (d.h. so schnell wie Av).
Aspekte der Implementierung
Orthogonalisierung von U
k
(A, r
0
)
1. r
0
= b Ax
0
p
1
:=
r
0
r
0

2
2. f ur i = 1, . . . , k 1:
p
i+1
= Ap
i

j=1
Ap
i
, p
j
)
2
p
j
falls p
i+1
,= 0: p
i+1
=
p
i+1
| p
i+1
|
2
Satz 4.10. Die p
j

1ji
seien nach obigem Schema konstruiert. Falls p
j+1
= 0 ist, dann ist
x = A
1
b V
i
= x
0
+U
i
(A, r
0
)
also x
i
= x.
Die Orthogonalisierung bricht nur dann ab, wenn x
i
schon die Losung ist.
27
4 KrylovRaumVerfahren
Sei P
k
= (p
1
, . . . , p
k
) R
(n,k)
. Wir konnen x
k
x
0
+U
k
(A, r
0
) schreiben als
x
k
= x
0
+P
k
z
k
wobei z
k
R
k
das lineare Ausgleichsproblem
| b A(x
0
+P
k
z
k
)
. .
=r
0
AP
k
z
k
=r
k
|
2
= min
zR
k
|r
0
AP
k
z|
2
(4-iii)
lost (die Minimaleigenschaft von z
k
ist die Minimaleigenschaft von x
k
).
Lemma 4.11. Es ist AP
k
= P
k+1
H
k
mit H
k
R
(k+1,k)
und
(H
k
)
j,i
=
_
0 j i + 2
Ap
i
, p
j
)
2
sonst
Beachte: Wir berechnen den Ausdruck Ap
i
, p
j
)
2
bereits beim Orthogonalisieren.
H
k
hat dann folgende Gestalt (hier f ur k = 4):
H
k
=
_
_
_
_
_
_


0
0 0
0 0 0
_
_
_
_
_
_
H
k
ist eine obere HessenbergMatrix.
Sei e
1
= (1, 0, . . . , 0)
T
R
j
. Dann gilt
r
0
= |r
0
|
2
. .

P
j
e
1
f ur alle j 1
r
k
= b Ax
k
= r
0
A(x
k
x
0
)
= P
k+1
e
1
AP
k
z
k
. .
=P
k+1
H
k
= P
k+1
(e
1
H
k
z
k
)
|r
k
|
2
= |e
1
H
k
z
k
|
2
, = |r
0
|
2
Statt (4-iii) m ussen wir das einfachere Ausgleichsproblem
|e
1
H
k
z
k
|
2
= min
zR
k
|e
1
H
k
z|
losen.
Dieses Ausgleichsproblem kann mit GivensRotationen ezient gelost werden.
28
4.2 GMRESVerfahren
GMRESAlgorithmus mit Startwert x
0
r
0
: = b Ax
0
: = |r
0
|
2
: =
p
1
: = r
0
/
5 k : = 0
while > and k < k
max
do
/ > 0 i s t Abbruchtol eranz und k
max
maximale Sc hr i t t z a hl /
10 k : = k + 1
p
k+1
: = Ap
k
/ Or t hogonal i s i er ung : /
for j := 1 to k do
15 h
i,k
: = p
k+1
, p
j
)
2
p
k+1
: = p
k+1
h
j,k
p
j
end
h
k+1,k
: = |p
k+1
|
2
20
z
k
: = mi ni mi ere ( |e
1
H
k
z| uber R
k
)
p
k+1
: = p
k+1
/ h
k+1,k
: = |e
1
H
k
z
k
| / = |Ax
k
b|
2
/
25 end
x
k
: = x
0
+P
k
z
k
Die KrylovRaumBasis p
1
, . . . , p
k
muss wahrend der Iteration gespeichert werden. Daher legt man
eine maximale Schrittzahl k
max
fest.
Hat x
k
max
nicht die geforderte Genauigkeit, dann startet man das GMRESVerfahren erneut allerdings
mit Startwert x
k
max
, der naher an der Losung liegt. Dieses Verfahren wird mit GMRES(k
max
) bezeichnet.
29
4 KrylovRaumVerfahren
30
5 Nichtlineare Gleichungssysteme
5.1 NewtonVerfahren
Folgendes abstraktes Problem ist gegeben:
F : D R
n
, D R
n
oen
Finde x

D mit F(x

) = 0 (5-i)
Sei x
alt
D eine Naherung an x

D.
Ziel: Verbesserung von x
alt
.
Eigenschaften von F(x
alt
):
F(x
alt
) = F(x
alt
) F(x

)
. .
=0
F

(x
alt
) (x
alt
x

) Linearisierung des Problems


mit F

(x) =
_
F
i
x
j
(x)
_
1i,jn
R
(n,n)
(JacobiMatrix von F).
Bestimme daher x
neu
durch
F(x
alt
) = F

(x
alt
) (x
alt
x
neu
)
x
neu
= x
alt
F

(x
alt
)
1
F(x
alt
)
Nat urlich wird die Inverse F

(x
alt
)
1
niemals berechnet. Vielmehr bestimmen wir die sogenannte kte
NewtonKorrektur s
k
als Losung eines linearen Gleichungssystems (siehe nachfolgenden Algorithmus).
Das NewtonVerfahren
Sei x
0
D (Startwert).
f ur k = 0, 1, . . .
x
k+1
= x
k
+s
k
F

(x
k
)s
k
= F(x
k
) (5-ii)
s
k
heisst der kte NewtonSchritt oder kte NewtonKorrektur.
Grasche Interpretation (n = 1)
Sei F : R R eine nichtlineare Gleichung. Dann entspricht das Problem F(x

) = 0 dem Aunden
der Nullstelle x

von F. Wir approximieren die Funktion F im Startwert x


0
durch ihre Tangente und
bestimmen anschlieend den Schnittpunkt dieser Tangente mit der xAchse. Der Schnittpunkt liefert
uns den Wert x
1
mit dem wir den eben beschriebenen Schritt wiederholen und uns so x

nahern. Siehe
auch Abbildung 5.1.
31
5 Nichtlineare Gleichungssysteme
PSfrag replacements
x
1
x
2
x
0
Abbildung 5.1: Grasche Darstellung des NewtonVerfahrens in R
Beispiel 5.1. Gegeben ist die Funktion
f(t) = t
2
a mit a > 0
Bestimme nun
f(t

) = 0 t

a
x
k+1
= x
k

_
x
k
_
2
a
2x
k
=
1
2

_
x
k
+
a
x
k
_
Falls x
0
> 0 gilt:
lim
k
x
k
=

a
Konkret wollen wir mit diesem Verfahren eine Naherung f ur

2 berechnen:
k x
k
[x
k

2[
(Schritt) (Naherung) (Fehler)
0 2 0.58
1 1.5 0.086
2 1.4166 0.0025
3 1.4142157 2.16 10
6
4 1.4142136 exakt bis auf Taschen-
rechnergenauigkeit
Die Anzahl der korrekten Ziern hat sich in jedem Schritt verdoppelt.
32
5.1 NewtonVerfahren
Diese Vorgehen zur Bestimmung der Wurzel einer Zahl a wird als HeronVerfahren bezeichnet. Heron
beschreibt dieses, bereits den Babyloniern fast 2000 Jahre fr uher bekannte Verfahren im ersten Buch
seiner

Triologie Metrica (nat urlich nicht auf Grundlage der Dierentialrechnung sondern geometrischer

Uberlegungen).
Vorraussetzungen an F
(a) Die Gleichung (5-i) habe eine Losung
(b) F

: D R ist H olderstetig der Ordnung (0, 1]


(c) F

(x

) ist regular.
_

_
(5-iii)
In (b) bedeutet H olderstetig der Ordnung :
|F

(x) F

(y)| |x y|

f ur ein > 0 ( unabhangig von x und y)


Als Vorbereitung des nachsten Satzes denieren wir
B() := x R
n
[ |x x

| < f ur > 0 Kugel um x

Satz 5.1. F erf ulle (5-iii). Sei x


k
die NewtonFolge aus (5-ii). Dann gibt es ein > 0 derart dass
lim
k
x
k
= x

falls x
0
B(). Auerdem ist x

die einzige Nullstelle von F in B(). Weiter gilt:


|x
k+1
x

| c
N
|x
k
x

|
1+
k = 0, 1, . . . (mit aus (5-iii))
mit
c
N
= 2
|F

(x

)
1
|
1 +
F ur = 1 konvergiert das NewtonVerfahren quadratisch (vergleiche WurzelBerechnung), f ur 0 <
< 1 superlinear.
Beweis: Wir beweisen nur die letzte Abschatzung.
Deniere den kten Fehler durch
e
k
= x
k
x

f ur x
k
B() D
e
k+1
= e
k
F

(x
k
)
1

_
F(x
k
) F(x

)
_
. .

1
0
F

(x

+te
k
)e
k
dt
e
k+1
= F

(x
k
)
1
1
_
0
_
F

(x
k
) F

(x

+te
k
)
_
e
k
dt
|e
k+1
| |F

(x
k
)
1
| |e
k
|
1
_
0
|F

(x
k
) F

(x

+te
k
)| dt
33
5 Nichtlineare Gleichungssysteme
Es gilt
|F

(x
k
) F

(x

+te
k
| | x
k
x

. .
=e
k
te
k
|

= [1 t[

|e
k
|
|e
k+1
| |F

(x
k
)
1
| |e
k
|
1+
1
_
0
(1 t)

dt
. .
=
1
1+
F ur > 0

klein genug gilt


|F

(y)
1
| 2|F

(x

)
1
| f ur alle y B

(x

)
|e
k+1
| 2
|F

(x

)
1
|
1 +
|e
k
|
1+
Hieraus folgen induktiv die restlichen Behauptungen des Satzes 5.1.
Wir wollen uns nun uberlegen, wann wir mit der Iteration stoppen konnen. Doch zunachst folgende
Feststellung zur Invarianzeigenschaft:
A R
(n,n)
regular [F(x

) = 0 G(x

) := AF(x

) = 0]
x G

(x)
1
G(x) = x F

(x)
1
F(x)
d.h. die NewtonFolge x
k
andert sich nicht, wenn wir F mit einer regularen Matrix multiplizie-
ren. Das NewtonVerfahren ist aninvariant. Wir werden auf diese Eigenschaft bei der Wahl eines
Konvergenzkriteriums zur uckkommen.
Die Konvergenz von x
k
hangt vom Startwert x
0
ab. Wie konnen wir wahrend der Iteration feststellen,
ob das NewtonVerfahren konvergiert?
F(x) = 0 minimiere |F(x)|
Idee: Setze Iteration fort, solange
|F(x
k+1
)| |F(x
k
)| (5-iv)
f ur ein (0, 1) (MonotonieTest).
Der MonotonieTest ist jedoch nicht aninvariant! Eine Multiplikation mit einer invertierbaren Matrix
kann das Ergebnis des MonotonieTests verandern. Wir haben aber oben festgestellt, dass das Newton
Verfahren an sich durch eine solche Transformation nicht beeinusst wird. Es ware w unschenswert,
wenn sich das Abbruchkriterium hier an den Eigenschaften des NewtonVerfahren orientieren w urde
(insbesondere sollte es unabhangig von der Skalierung sein genau das tut A).
Wir ersetzen daher den MonotonieTest (5-iv) durch
|F

(x
k
)
1
F(x
k+1
)| | F

(x
k
)
1
F(x
k
)
. .
=s
k
| (5-v)
Stoppe das NewtonVerfahren, falls (5-v) nicht erf ullt ist oder falls |s
k
| eine festzulegende Toleranz
unterschreitet (in der Nahe von x

gilt |s
k
| |e
k
|).
Betrachte:
f(x) = arctan(x)
34
5.1 NewtonVerfahren
PSfrag replacements
x
1
x
2
x
0

2
Abbildung 5.2: Graph von arctan(x)
Oensichtlich ist das gesuchte x

= 0 (vergleiche auch Abbildung 5.2).


Wir starten das NewtonVerfahren mit x
0
= 10 und erhalten
x
1
= 138 , x
2
= 2.9 10
4
, x
3
= 1.5 10
9
Woran scheitert aber nun die Konvergenz?
Es ist
s
k
=
f(x
k
)
f

(x
k
)
, [x
k
[ 1
also
f

(x
k
) =
1
1 + (x
k
)
2
1 und gleichzeitig [f(x
k
)[

2
[s
k
[ ist zu gro
Beobachtung:
s
k
hat das richtige Vorzeichen und

zeigt von x
k
in Richtung x

Idee:
Dampfe das NewtonVerfahren: x
k+1
= x
k
+s
k
0 < < 1 Dampfungsfaktor
Globales NewtonVerfahren
k : = 0
x
0
D
(0, 1) / z . B. = 10
3
/
5 while |F(x
k
)| > |F(x
0
)| do / g e ne r e l l e s Abbruchkri teri um /
s
k
: = l o e s e ( F

(x
k
)s
k
= F(x
k
) )
35
5 Nichtlineare Gleichungssysteme
/ Daempfung : /
10 : = 1
l abel ()
y : = x
k
+s
k
15 i f |F(y)| < (1 )|F(x
k
)| then
x
k+1
: = y
el se begin
ve r kl e i ne r e ( ) / z . B. =

2
/
goto ()
20 end
k : = k + 1
end
5.2 FixpunktIteration
Wir beginnen mit einer anderen Darstellung des NewtonVerfahrens:
x
k+1
= (x
k
) mit (x) = x F

(x)
1
F(x)
F(x

) = 0 (x

) = x

Wir haben also das NullstellenProblem des NewtonVerfahrens in ein FixpunktProblem umformuliert.
Sei nun : D R
n
, D R
n
eine beliebige Abbildung.
Das FixpunktProblem besteht darin ein x

D derart zu nden, dass


(x

) = x

Wir bezeichnen folgende Vorschrift als FixpunktIteration:


x
k+1
= (x
k
) k = 0, 1, . . . mit x
0
D (5-vi)
Lemma 5.2. Sei stetig und x
k
aus (5-vi) sei konvergent gegen . Dann gilt:
() =
Beweis:
= lim
k
x
k
= lim
k
x
k+1
= lim
k
(x
k
) = ( lim
k
x
k
) = ()
Beachte: Die Stetigkeit von hat uns bei der Umformung das

Hereinziehen des Limes ermoglicht.


Wann konvergiert aber nun die Iteration (5-vi)?
Um diese Frage beantworten zu konnen, f uhren wir zuerst einen Begri von entscheidender Bedeutung
ein:
Denition 5.1. Eine Funktion g : D R
n
, D R
n
heit Kontraktion bez uglich | |, falls es ein
q [0, 1) gibt mit
|g(x) g(y)| q |x y| f ur alle x, y D
d.h. der Abstand der Bilder ist um den Faktor q kleiner als der Abstand der Urbilder. In diesem Fall
heit q KontraktionsZahl.
Beachte: Die Kontraktionseigenschaft hangt ganz entscheidend von der Norm | | ab.
36
5.2 FixpunktIteration
Lemma 5.4. Sei D konvex und oen, sowie g : D R
n
stetig dienrenzierbar. Ist
q := sup
xD
|g

(x)| < 1 (D ist der Abschluss von D)


so ist g eine Kontraktion bez uglich | | mit Kontraktionszahl q.
Beweis: Verwende den Mittelwertsatz.
Beispiel 5.2. 1. Sei (x
1
, x
2
) :=
_
e

1
2
(x
1
+x
2
)
,
1
3
sin(x
1
+x
2
)
_
T
und | | die Zeilensummennorm.
Dann ist

(x
1
, x
2
) =
_

1
x
1

1
x
2

2
x
1

2
x
2
_
=
_

1
2
e

1
2
(x
1
+x
2
)

1
2
e

1
2
(x
1
+x
2
)
1
3
cos(x
1
+x
2
)
1
3
cos(x
1
+x
2
)
_
und
|

(x
1
, x
2
)|

= max
_
e

1
2
(x
1
+x
2
)
,
2
3
[ cos(x
1
+x
2
)[
. .
<1
_
Die Menge D := x R
2
[ x
1
+x
2
> a > 0 ist konvex und oen.
sup
xD
|

(x
1
, x
2
)|

max
_
e

a
2
,
2
3
_
. .
=:q
< 1
: D R
2
ist Kontraktion bez uglich | |

2. Beim NewtonVerfahren ist = x F

(x)
1
F(x).

i
(x) = x
i

j=1
_
(F

(x)
1
)
ij
F
j
(x)
_

i
x
k
=
ik

j=1

x
k
F

(x)
1
ij
F
j
(x)
n

j=1
F

(x)
1
ij

F
j
x
k
(x)
Sei x

eine Nullstelle von F:

(x

) = I F

(x

)
1
F

(x

)
. .
=I
= 0
Falls F stetig dierenzierbar ist, dann ist eine Kontraktion in der Umgebung einer Nullstelle x

von F.
Satz 5.5 (Banachscher FixpunktSatz). Sei D R
n
abgeschlossen und : D D eine Kontrak-
tion bez uglich | | mit Kontraktionszahl q. Dann
1. hat genau einen Fixpunkt x

D
2. konvergiert die FixpunktIteration (5-vi) gegen x

f ur jedes x
0
D
37
5 Nichtlineare Gleichungssysteme
3. gelten folgende Abschatzungen:
|x

x
k
|
q
k
1 q
|x
1
x
0
| aprioriAbschatzung
|x

x
k
|
q
1 q
|x
k
x
k1
| aposterioriAbschatzung
Beweis: Wir beweisen nur die Eindeutigkeit in (1).
Annahme: Es gibt zwei Fixpunkte x

D und x D mit x

,= x.
|x

x| = |(x

) (x)| q |x

x|
1 q zu q < 1

Beispiel 5.3. Finde x

2
,
3
2
_
mit tan x

= x

. Vergleiche dazu Abbildung 5.3.


PSfrag replacements
1
2

3
2

f(x) = x
Abbildung 5.3: Abbildung zu Beispiel 5.3
(x) = tan x

(x) = 1 + tan
2
x
. .
0
1
Idee: Formuliere das Problem mit
1
:
x = tan x x = tan(x )
x = arctan x +
Finde x

2
,
3
2

mit + arctan x

= x

.
(x) = + arctan x

(x) =
1
1 +x
2
. .
<1
38
5.2 FixpunktIteration
max
x[

2
,
3
2
]
[

(x)[ < 1
ist Kontraktion
Um den Banachschen Fixpunktsatz anwenden zu konnen, m ussen wir nun noch zeigen, dass eine
Selbstabbildung ist.
(R) =
_

2
+,

2
+
_
=
_

2
,
3
2
_

__

2
,
3
2
__

2
,
3
2
_
Die Vorraussetzungen des Banachschen Fixpunktsatzes sind also erf ullt
x
0
= x
3
= 4.4932
x
1
= (x
0
) = + arctan() = 4.4042 x
4
= 4.4934
x
2
= 4.4891
Satz 5.6 (Lokaler Konvergenzsatz). Die Funktion : R
n
R
n
sei stetig dierenzierbar und habe
einen Fixpunkt x

mit
|

(x

)| < 1
Dann gibt es eine abgeschlossenen Umgebung D von x

, in der gilt:
(a) ist eine Kontraktion
(b) (D) D
d.h. die FixpunktIteration (5-vi) konvergiert f ur jedes x
0
D gegen x

.
Bemerkung: Mit diesem Satz kann man die lokale Konvergenz des NewtonVerfahrens zeigen:
(x) = x F

(x)
1
F(x)
x

Nullstelle von F |

(x

)| = 0
Beweis:
(a) Die Funktion x |

(x)| ist stetig.


> 0 : |

(x)| q < 1 f ur alle x D := x R


n
[ |x x

5.4
ist Kontraktion
(b) Sei y D. Zu zeigen: (y) D (D wie oben).
|(y) x

| = |(y) (x

)| q |y x

|
. .

q
..
<1
<
(y) D
(D) D

39
5 Nichtlineare Gleichungssysteme
40
6 Interpolation und Approximation
Uns liegt folgende Situation vor:
Von der Funktion f : R R sind nur n diskrete Funktionswerte f(t
i
) und eventuell noch
die zugehorigen Ableitungen f
(j)
(t
i
) bekannt f ur t
i
R, i = 0, . . . , n.
Es stellt sich nun die Frage nach einer

vern unftigen Naherung an f(t) f ur t , t


0
, . . . , t
n
.
Aufgabe: Konstruiere eine moglichst einfache Funktion : R R, die

(j)
(t
i
) = f
(j)
(t
i
) (Interpolation)
oder
| f| ist

klein (Approximation)
erf ullt. Dabei bedeutet

moglichst einfach, dass die Funktion ohne M uhe auf einem Rechner ausf uhrbar
ist, z.B. eine Linearkombination von (st uckweisen) Polynomen, ein trigonometrisches Polynom, eine
Exponentialfunktion oder eine rationale Funktion. Zur Veranschaulichung des Unterschiedes zwischen
Approximations und InterpolationsEigenschaft vergleiche auch Abbildung 6.1.
PSfrag replacements
t
0
t
1 t
2
t
3
t
4

2
(a) Interpolation
PSfrag replacements
t
0
t
1 t
2
t
3
t
4

2
(b) Approximation
Abbildung 6.1: Der Verlauf von f ist gestrichelt dargestellt. t
0
, . . . , t
4
und die dazugehorigen
Funktionswerte sind bekannt.
Bevor wir weitere Begrie einf uhren und uns der eben gestellten Aufgabe mathematisch nahern, sei auf
den starken Praxisbezug dieser Problemstellung hingewiesen, vor allem in den Bereichen
der Logarithmentafeln (Berechnung von zusatzlichen Zwischenwerten eher von historischem In-
teresse)
der Computergraphik (Reprasentation geometrischer Objekte im Rechner)
des CAD und CAM.
Wir nennen
t
i
Knoten oder St utzstellen
f
(j)
(t
i
) St utzwerte.
Im Folgenden betrachten wir nur den Fall j = 0.
41
6 Interpolation und Approximation
6.1 PolynomInterpolation
Gegeben:
f
i
= f(t
i
), i = 0, . . . , n mit t
0
< t
1
< < t
n
Gesucht:
P
n
mit P(t
i
) = f(t
i
) i = 0, . . . , n
Satz 6.1. Seien (t
i
, f
i
) R
2
, i = 0, . . . , n mit t
i
,= t
j
f ur i ,= j. Dann gibt es genau ein Polynom
P = P(f [ t
0
, . . . , t
n
)
n
mit P(t
i
) = f
i
, i = 0, . . . , n
Beweis:
1. Eindeutigkeit: Seien P, Q
n
mit P(t
i
) = f
i
= Q(t
i
), i = 0, . . . , n.
:= P Q
n
und (t
i
) = 0, i = 0, . . . , n
ist also ein Polynom nten Grades hat aber n + 1 Nullstellen.
= 0
2. Existenz:

n
= spann1, t, . . . , t
n
(monomiale Basis)
P(t) = a
n
t
n
+ +a
1
t
1
+a
0
1
Wir zeigen nun, dass a
n
bis a
0
existieren.
P(t
i
) = f
i
, i = 0, . . . , n

_
_
_
_
_
1 t
0
t
2
0
t
n
0
1 t
1
t
2
1
t
n
1
.
.
.
.
.
.
1 t
n
t
2
n
t
n
n
_
_
_
_
_
. .
=:V
n
R
(n+1,n+1)
_
_
_
_
_
a
0
a
1
.
.
.
a
n
_
_
_
_
_
=
_
_
_
_
_
f
0
f
1
.
.
.
f
n
_
_
_
_
_
V
n
heit VandermondscheMatrix. Aus (a) folgt ^(V
n
) = 0, d.h. V
n
ist injektiv
V
1
n
existiert
(a
0
, . . . , a
n
)
T
= V
1
n
(f
0
, . . . , f
n
)
T

Die Bestimmung von P(f [ t


0
, . . . , t
n
) aus obigem Schema ist jedoch zu aufwendig. Ein alternativer
Ansatz zur Darstellung des Interpolationspolynoms besteht in der Verwendung einer anderen Basis
der sogenannten LangrangeBasis L
n,k

0kn
:

n
= spannL
n,0
, . . . , L
n,n
mit L
n,k
(t) :=
n

j=0
j=k
t t
j
t
k
t
j
42
6.1 PolynomInterpolation
Dann ist L
n,k
ein Polynom nten Grades mit der Interpolationseigenschaft
L
n,k
(t
i
) =
_
1 f ur k = i
0 sonst
Das Interpolationspolynom lasst sich nun wie folgt als Linearkombination der LangrangeBasis schrei-
ben:
P = P(f [ t
0
, . . . , t
n
) =
n

k=0
f
k
L
n,k
denn es gilt
P(t
i
) =
n

k=0
f
k
L
n,k
(t
i
) = f
i
0 i n
d.h. die Interpolationseigenschaft ist erf ullt.
Die direkte Auswertung dieses Polynoms an beliebigen Stellen t ,= t
i
ist jedoch recht aufwendig. Das
folgende Lemma verhilft uns statt dessen zu einer rekursiven Vorschrift, die eine eziente Berechnung
eines solchen Wertes P(t) erlaubt.
Lemma 6.2 (Lemma von Aitken). Seien (t
i
, f
i
) R
2
mit t
0
< t
1
< < t
n
. Dann gilt:
P(f [ t
0
, . . . , t
n
)(t) =
(t
0
t)P(f [ t
1
, . . . , t
n
)(t) (t
n
t)P(f [ t
0
, . . . , t
n1
)(t)
t
0
t
n
Beachte: P(f [ t
1
, . . . , t
n
) und P(f [ t
0
, . . . , t
n1
) sind Polynome (n 1)ten Grades; wir haben damit
die Auswertung eines Polynoms nten Grades auf die Auswertung zweier Polynome (n 1)ten Grades
zur uckgef uhrt. Dies lasst sich wie bereits angedeutet rekursiv fortsetzen.
Beweis: Um die

Ubersichtlichkeit zu verbessern denieren wir zunachst
:=
(t
0
t)P(f [ t
1
, . . . , t
n
)(t) (t
n
t)P(f [ t
0
, . . . , t
n1
)(t)
t
0
t
n
Oensichtlich ist
n
, d.h. ein Polynom vom Grad n.
(t
0
) =
(t
n
t
0
)
t
0
t
n
f
0
= f
0
Die Interpolationseigenschaft an f
0
ist also erf ullt. Analog gilt:
(t
n
) = f
n
Sei nun 1 i n 1
(t
i
) =
(t
0
t
i
)f
i
(t
n
t
i
)f
i
t
0
t
n
= f
i
Nach Satz 6.1 (Eindeutigkeit des Interpolationspolynoms) folgt die Behauptung.
Bevor wir das endg ultige Schema angeben, f uhren wir noch eine vereinfachende Notation ein:
Sei t R fest. P
ik
:= P(f [ t
ik
, . . . , t
i
)(t) i k
Es ist P
i0
:= f
i
und P
n,n
= P(f [ t
0
, . . . , t
n
)(t)
43
6 Interpolation und Approximation
Schema von Neville
Mit
P
i,0
= f
i
i = 0, . . . , n
P
i,k
=
(t
ik
t)P
i,k1
(t
i
t)P
i1,k1
t
ik
t
i
= P
i,k1
+
t t
i
t
i
t
ik
(P
i,k1
P
i1,k1
) i k
erhalten wir folgendes Schema
P
0,0

P
1,0
P
1,1
.
.
.
.
.
.
P
n1,0
P
n1,n1

P
n,0
P
n,n1
P
n,n
Beispiel 6.1. Interpolation des Sinus mit
(t
0
, f
0
) = (55

, sin 55

), (t
1
, f
1
) = (60

, sin 60

), (t
2
, f
2
) = (65

, sin 65

)
Berechne P(f [ t
0
, t
1
, t
2
)(62

):
t
i
sin t
i
55

0.8191520

60

0.8660254 0.8847748

65

0.9063078 0.8821384 0.8829293


. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

0.9396926 0.8862768 0.8829661 0.8829465


Das Schema von Neville erlaubt es uns auch nachtraglich weitere St utzpunkte einzuf ugen (wie hier
abgetrennt durch die gestrichelte Linie geschehen), wobei das bisherige Schema davon unber uhrt
bleibt und ohne neu berechnet zu werden zur Bestimmung der zusatzlichen Werte benutzt werden kann.
Als nachstes wollen wir uns der Frage nach einer Fehlerabschatzung widmen, um damit zu uberpr ufen,
inwieweit die Polynominterpolation die Approximationseigenschaft (siehe Anfang dieses Kapitels) erf ullt.
Satz 6.3. Sei f C
n+1
(a, b) und a = t
0
< t
1
< < t
n
= b. F ur t [a, b] existiert ein = (t) (a, b),
so dass
f(t) P(f [ t
0
, . . . , t
n
)(t)
. .
Interpolationsfehler
=
f
(n+1)
()
(n + 1)!
(t)
mit
(t) =
n

j=0
(t t
j
) NewtonPolynom
Beachte: der Interpolationsfehler ist bei den f
i
gleich 0, da (t
i
) = 0.
44
6.2 Splines und SplineInterpolation
Beweis: Sei t , t
0
, . . . , t
n
(ansonsten ist der Fehler ja 0). Deniere
F(x) = f(x) P(f [ t
0
, . . . , t
n
)(x) K (x)
dann ist F C
n+1
. Sei K = K(t) so bestimmt, dass F(t) = 0.
F(t
i
) = 0 i = 0, . . . , n und F(t) = 0
d.h. F hat n + 2 Nullstellen. F

hat mindestens n + 1 Nullstellen (Satz von Rolle).


F

hat mindestens n Nullstellen.


.
.
.
F
(n+1)
hat mindestens eine Nullstelle in (a,b). Diese Nullstelle sei .
Wegen P
(n+1)
(f [ t
0
, . . . , t
n
) 0 folgt
0 = F
(n+1)
() = f
(n+1)
() K(n + 1)!
K =
f
(n+1)
()
(n + 1)!

Korollar 6.4. F ur die Supremumsnorm |g|

= sup
atb
[g(t)[ gilt
|f P(f [ t
0
, . . . , t
n
)|

sup
[a,b]
[f
(n+1)
()[
(n + 1)!
||

F ur festes n und f hangt der Fehler nur noch von der Lage der Knoten ab.
Die TschebyscheffKnoten minimieren ||

f ur ein festes n.
Die Frage nach der Approximationseigenschaft der Polynominterpolation muss negativ beantwortet wer-
den, denn es gilt folgender
Satz 6.5 (Satz von Faber). Zu jeder Folge t
(n)
0
, . . . , t
(n)
n

nN
von Knoten in [a, b] existiert ein f
C(a, b), so dass P(f [ t
0
, . . . , t
n
) f ur n nicht gleichmaig konvergiert.
Abbildung 6.2 verdeutlicht dieses Ergebnis mit Hilfe eines Beispiels.
6.2 Splines und SplineInterpolation
Wie wir gesehen haben ist die Polynominterpolation mit den Nachteilen
starker Oszillation zwischen den St utzpunkten bei hoher Knotenzahl und
fehlender Konvergenz
behaftet. Wir w unschen uns jedoch eine interpolierende Kurve, die glatt und ohne starke Oszillation
durch die St utzpunkte verlauft. Die im folgenden beschriebene SplineInterpolation erreicht dies durch
die Verwendung lokaler Polynome niedrigen Grades, die an den St utzpunkten miteinander

verheftet
werden.
45
6 Interpolation und Approximation
PSfrag replacements
0
0.2
0.4
0.6
0.8
1
2 4 2 4
(a) 6 Knoten oensichtlich noch zu ungenau
PSfrag replacements
0
0.2
0.4
0.5
0.6
0.8
1
1.5
2
2
4 2 4
(b) 11 Knoten gute Approximation um 0; starke Oszilla-
tion an den Randern
Abbildung 6.2: Dargestellt sind die Interpolationspolynome f ur 6 bzw 11 aquidistante Knoten der
Funktion f(x) =
1
1+x
2
im Intervall [5, 5].
Denition 6.1. Sei = t
0
, . . . , t
l+1
ein Gitter von l + 2 Knoten mit a = t
0
< t
1
< < t
l+1
= b.
Ein Spline der Ordnung k mit k N
2
bez uglich ist eine Funktion s C
k2
(a, b) mit
s[
[t
i
,t
i+1
]
= p
i
i = 0, . . . , l
wobei p
i

k1
. Auerdem nennen wir S
k,
den Raum aller Splines der Ordnung k bez uglich .
S
k,
ist ein reeller Vektorraum. Wir begeben uns also zunachst auf die Suche nach einer Basis. Es gilt
insbesondere

k1
[
[a,b]
S
k,
f ur jede Knotenmenge
Auerdem enthalt S
k,
noch die abgebrochenen Potenzen vom Grad k 1
(t t
i
)
k1
+
=
_
(t t
i
)
k1
f ur t t
i
0 sonst
PSfrag replacements
0
0.2
0.4
0.5
0.6
0.8
1
1.5
2
4
2
4
t
0
t
1
t
2
t
3
t
4
Abbildung 6.3: Abgebrochene Potenzen. Beachte: die gestrichelte Linie ist nicht Element des S
k,
.
Satz 6.6. Die Monome und abgebrochenen Potenzen
B = 1, t, . . . , t
k1
, (t t
1
)
k1
+
, . . . , (t t
l
)
k1
+

46
6.2 Splines und SplineInterpolation
bilden eine Basis von S
k,
. Insbesondere gilt
dimS
k,
= k +l
Diese Basis ist jedoch f ur numerische Anwendungen nicht geeignet, da die Basiselemente bei eng ge-
legenen Knoten fast linear abhangig sind, was in Zusammenhang mit Rundungsfehlern ein Problem
darstellt.
SplineInterpolation
Interpoliere f : R R bez uglich der Knotenmenge = t
0
, . . . , t
l+1
durch einen Spline aus S
k,
.
F ur k = 2 spricht man von linearen Splines. Lineare Splines sind stetige und in den Intervallen [t
i
, t
i+1
]
linear verlaufende Funktionen. F ur S
2,
gilt
dimS
2,
= l + 2 = Anzahl der Knoten
Wir nden also genau einen Spline in S
2,
der (t
i
, f
i
), i = 0, . . . , l + 1 interpoliert.
PSfrag replacements
0
0.2
0.4
0.5
0.6
0.8
1
1.5
2
4
2
4
t
0 t
1
t
2
t
3 t
4
Abbildung 6.4: Beispiel f ur Interpo-
lation durch lineare Splines. Deut-
lich sind die

Knicke bei den Kno-


ten zu erkennen.
In vielen Anwendungen, insbesondere graschen (CAD, CAM), spielen kubische Splines der Ordnung
4 eine gewichtigere Rolle, da das menschliche Auge Unstetigkeiten in der zweiten Ableitung (also
Kr ummung) noch wahrnimmt, weshalb zweimal stetig dierenzierbare Funktionen als glatt empfunden
werden.
F ur S
4,
gilt
dimS
4,
Anzahl Knoten = l + 4 (l + 2)
= 2
d.h. zwei Freiheitsgrade bleiben durch die Interpolationsbedingungen unbestimmt, was zusatzliche Be-
dingungen notig macht. Dies muss aber keinesfalls als Problem aufgefasst werden; vielmehr erhalten wir
so die Moglichkeit weitere W unsche bez uglich des Aussehens der SplineInterpolation zu auern.
Denition 6.2. Sei y : [a, b] R mit y C
2
. Der Wert
(t) :=
y

(t)
(1 +y

(t)
2
)
3
2
heit Kr ummung von y in t.
47
6 Interpolation und Approximation
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
Abbildung 6.5: Schmiegekreis an den Graph von ln(x)
Dabei ist
1
(t)
gerade der Radius des Kr ummungskreises (Schmiegekreises) im Punkt (t, y(t)) (ver-
gleiche Abbildung 6.5). Je kleiner (t) desto gerader verlauft die Funktion. F ur eine Gerade ist der
Kr ummungsradius gerade und entsprechend (t) 0.
Zur Vereinfachung betrachten wir jedoch f ur [y

(t)[ 1 die Naherung


(t) =
y

(t)
(1 +y

(t)
2
)
3
2
y

(t)
Beachte: Unter der genannten Vorraussetzung [y

(t)[ 1 ist der Nenner des Bruches fast 1, was diese


Naherung rechtfertigt. Damit deniert
|y

|
2
L
2 =
b
_
a
y

(t)
2
dt
ein Ma f ur die gesamte Kr ummung von y uber [a, b].
Satz 6.7. s S
4,
interpoliere f in den Knoten = t
0
, . . . , t
l+1
. Sei y C
2
(a, b) eine beliebige
andere interpolierende Funktion von f bez uglich , so dass
[s

(t) (y

(t) s

(t))]
t=b
t=a
= 0
ist. Dann gilt:
|s

|
L
2 < |y

|
L
2
d.h. der interpolierende Spline der Ordnung 4 ist hinsichtlich der Kr ummung minimal.
Beweis:
|y

|
2
L
2 = |s

+ (y

)|
2
L
2
= |s

|
2
L
2 + 2
b
_
a
s

(y

) dt
. .
=A
+|y

|
2
L
2
. .
>0
> |s

|
2
L
2 falls A = 0
48
6.2 Splines und SplineInterpolation
Der Rest des Beweises besteht nun darin zu zeigen, dass tatsachlich A = 0 gilt. Mit partieller Integration
erhalten wir
A =
_
s

(y

t=b
t=a
. .
=0 nach Vor.

b
_
a
s

(y

) dt
s

ist st uckweise konstant auf den Intervallen (t


i
, t
i+1
) f ur i = 0, . . . , l:
s

(t) = d
i
f ur alle t (t
i
, t
i+1
), i = 0, . . . , l
A =
l

i=0
d
i
t
i+1
_
t
i
(y s)

dt
=
l

i=0
d
i
_
y(t) s(t)

t=t
i+i
t=t
i
= 0
denn y(t
i
) = f(t
i
) = s(t
i
), i = 0, . . . , l + 1 (y und s interpolieren f !)
Korollar 6.8. s S
4,
interpoliere f bez uglich = t
0
, . . . , t
l+1
. Auerdem erf ulle s noch eine der
der folgenden Randbedingungen:
(i) s

(a) = f

(a), s

(b) = f

(b) (vollstandige Splineinterpolation)


(ii) s

(a) = s

(b) = 0 (nat urliche Splineinterpolation)


(iii) s

(a) = s

(b), s

(a) = s

(b), falls f (b a)periodisch ist (periodische Splineinterpolation)


Dann ist s eindeutig bestimmt. Jede andere interpolierende Funktion y C
2
(a, b), die im Falle von (i)
und (ii) denselben Randbedingungen gen ugt, erf ullt
|s

|
L
2 < |y

|
L
2
Mit den zusatzlichen Randbedingungen haben wir also insgesamt l +4 Forderungen an s, was genau der
Dimension des SplineRaumes S
4,
entspricht.
Zur Approximationseigenschaft der vollstandigen Splineinterpolation gibt der folgende Satz Auskunft.
Satz 6.9. Sei I
4
f S
4,
der vollstandig interpolierende Spline der Funktion f C
4
(a, b) bez uglich
= t
0
, . . . , t
l+1
. Dann gilt:
|I
4
f f|


5
384
h
4
|f
(4)
|

mit h = max
0il
[t
i+1
t
i
[ (maximale Schrittweite). Die Fehlerabschatzung ist unabhangig von der Lage
der Knoten (im Gegensatz zur Splineinterpolation) und es gilt:
I
4
f
h0
f
Ein Beispiel f ur die Konvergenzeigenschaft ndet man in Abbildung 6.8 am Ende dieses Kapitels. Inter-
poliert wurde dabei dieselbe Funktion wir in Abbildung 6.2.
49
6 Interpolation und Approximation
Berechnung der interpolierenden SplineFunktion
h
j+1
:= t
j+1
t
j
, j = 0, . . . , l
M
j
:= s

(t
j
), j = 0, . . . , l + 1
Wir nennen M
j
die Momente des Splines. Im folgenden werden wir zeigen, wie man den Spline aus den
Momenten rekonstruieren kann.
s
j
= s

[t
j
,t
j+1
]

3
s

j
= s

[t
j
,t
j+1
]

1
s

j
ist also eine an lineare Funktion.
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

Abbildung 6.6: Momente des Splines


s

j
(t) = M
j

t
j+1
t
h
j+1
+M
j+1

t t
j
h
j+1
Wir integrieren die lineare Funktion s

und erhalten
s

j
(t) = M
j
(t
j+1
t)
2
2h
j+1
+M
j+1

(t t
j
)
2
2h
j+1
+A
j
(6-i)
und nach erneuter Integration
s
j
(t) = M
j
(t
j+1
t)
3
6h
j+1
+M
j+1

(t t
j
)
3
6h
j+1
+A
j
(t t
j
) +B
j
mit den Integrationskonstanten A
j
und B
j
. Durch einsetzen von t
j
und t
j+1
in die Funktion s
j
erhalt
man die folgenden Bedingungen
f
j
= s(t
j
) = M
j

h
2
j+1
6
+B
j
j = 0, . . . , l
sowie
f
j+1
= s(t
j+1
) = M
j+1

h
2
j+1
6
+A
j
h
j+1
+B
j
j = 0, . . . , l
Wir losen die erste Gleichung nach B
j
auf, setzen das Ergebnis dann in die zweite Gleichung ein und
erhalten so
B
j
= f
j
M
j
h
2
j+1
6
und A
j
=
f
j+1
f
j
h
j+1

h
j+1
6
(M
j+1
M
j
) (6-ii)
50
6.2 Splines und SplineInterpolation
Andererseits hat s
j
die Darstellung
s
j
(t) =
j
+
j
(t t
j
) +
j
(t t
j
)
2
+
j
(t t
j
)
3
(TaylorDarstellung)
mit

j
= s
j
(t
j
) = f
j

j
= s

j
(t
j
) = M
j
h
j+1
2
+A
j
=
f
j+1
f
j
h
j+1

2M
j
+M
j+1
6
h
j+1

j
=
1
2
s

j
(t
j
) =
1
2
M
j

j
=
1
6
s

j
(t
j
) =
1
6
(s

(t
j
) =
1
6
M
j+1
M
j
h
j+1
Damit ist s durch M
j
, f
j
und h
j
vollstandig ausgedr uckt. Die Darstellung eines Splines erfolgt im
Rechner ubrigens ublicherweise durch die Speicherung der Werte
j
bis
j
.
Die Momente M
j
erhalten wir aus folgender Bedingung:
s

j1
(t
j
) = s

j
(t
j
) (6-iii)
die sich aus der Forderung, dass die SplineFunktion an den

Verheftungsstellen stetig dierenzierbar


sein muss, ergibt (vergleiche auch Abbildung 6.7).
PSfrag replacements
t
j
t
j1
t
j+1
s
j1
s
j
stetig dierenzierbar
Abbildung 6.7: Stetig dierenzierbare

Verheftung von s
j1
und s
j
.
Zunachst erinnern wir uns wieder an (6-i) und (6-ii) und erhalten f ur die s

j
die Darstellung
s

j
(t) = M
j

(t
j+1
t)
2
2h
j+1
+M
j+1

(t t
j
)
2
2h
j+1
+
f
j+1
f
j
h
j+1

h
j+1
6
(M
j+1
M
j
)
. .
A
j
also speziell f ur s

j
und s

j1
an der Stelle t
j
s

j1
(t
j
) =
f
j
f
j1
h
j
+
h
j
3
M
j
+
h
j
6
M
j1
und
s

j
(t
j
) =
f
j+1
f
j
h
j+1

h
j+1
3
M
j

h
j+1
6
M
j+1
51
6 Interpolation und Approximation
welche wir nach (6-iii) gleichsetzen und umformen:
h
j
6
M
j1
+
h
j
+h
j+1
3
M
j
+
h
j+1
6
M
j+1
=
f
j+1
f
j
h
j+1

f
j
f
j1
h
j
j = 1, . . . , l (6-iv)
Somit haben wir f ur die l + 2 Unbekannten M
0
, . . . , M
l+1
insgesamt l Gleichungen zur Verf ugung. Je
zwei weitere Bedingungen erhalten wir aus Korollar 6.8 (i) bis (iii).
zu (i): vollstandige Splineinterpolation
s

(a) = f

(a) =: f

0
und s

(b) = f

(b) =: f

l+1
Damit erhalten wir zwei zusatzliche Gleichungen:
s

0
(a) = M
0
h
1
2
+
f
1
f
0
h
1

h
1
6
(M
1
M
0
)
!
= f

0
und analog:
h
l+1
6
M
l
+
h
l+1
3
M
l+1
= f

l+1

f
l+1
f
l
h
l+1
zu (ii): nat urliche Splineinterpolation
s

(a) = s

(b) = 0
M
0
= M
l+1
= 0
F uhren wir die Abk urzungen

j
=
h
j+1
h
j
+h
j+1
und
j
= 1
j
=
h
j
h
j
+h
j+1
sowie
d
j
=
6
h
j
+h
j+1
_
f
j+1
f
j
h
j+1

f
j
f
j1
h
j
_
j = 1, . . . , l
ein, so erhalten wir f ur (6-iv) die ubersichtlichere Darstellung

j
M
j1
+ 2M
j
+
j
M
j+1
= d
j
j = 1, . . . , l
Denieren wir zusatzlich im Falle der Randbedingung (i)

0
= 1, d
0
=
6
h
1
_
f
1
f
0
h
1
f

0
_
,
l+1
= 1, d
l+1
=
6
h
l+1
_
f

l+1

f
l+1
f
l
h
l+1
_
und im Falle der Randbedingung (ii)

0
= d
0
= 0,
l+1
= d
l+1
= 0
dann erhalten wir das Gleichungssystem
_
_
_
_
_
_
_
_
_
2
0
0 0

1
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.

l
0 0
l+1
2
_
_
_
_
_
_
_
_
_
. .
=A
l

_
_
_
_
_
_
_
_
_
M
0
.
.
.
.
.
.
.
.
.
M
l+1
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
d
0
.
.
.
.
.
.
.
.
.
d
l+1
_
_
_
_
_
_
_
_
_
52
6.3 Freiformkurven: BezierTechnik
A
l
ist regular (da die kubische SplineInterpolation mit Randbedingungen (i) oder (ii) eindeutig ist).
Auerdem gilt

i
0,
i
0,
i
+
i
= 1
A ist diagonaldominant
alle Eigenwerte sind echt groer 0
die LRZerlegung existiert und ist stabil
Die letzte Feststellung lasst sich gewinnbringend verwenden, indem man im voraus die LRZerlegung
von A
l
berechnet und dann nur noch die rechte Seite andern muss. PSfrag replacements
tj
tj1
tj+1
tj+2
Mj
Mj1
Mj+1
Mj+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2 4 2 4
0.2
(a) 5 Knoten oensichtlich noch zu ungenau
PSfrag replacements
tj
tj1
tj+1
tj+2
Mj
Mj1
Mj+1
Mj+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2 4 2 4
0.2
(b) 11 Knoten kein Unterschied mehr zwischen Spline und
f zu erkennen
Abbildung 6.8: Dargestellt sind die interpolierenden Splinefunktionen f ur 5 bzw 11 aquidistante
Knoten der Funktion f(x) =
1
1+x
2
im Intervall [5, 5].
6.3 Freiformkurven: BezierTechnik
Haben wir uns bei den bisher vorgestellten Verfahren vor allem an mathematischen Forderungen wie der
Interpolationseigenschaft oder der Minimumseigenschaft hinsichtlich der Kr ummung orientiert, so stehen
im Mittelpunkt dieses Paragraphen vor allem geometrische Aspekte. Leitfaden wird dabei die Frage sein,
in welcher Weise welche Parameter Form und

Asthetik der entstehenden Kurven beeinussen konnen.
So ist auch der

Ernder der hier vorgestellten BezierTechnik ein Ingenieur aus der Automobilindu-
strie, der sich mit computergest utztem Autodesign befasste.
Denition 6.3. Wir nennen eine Funktion P : [a, b] R
d
polynomiale Kurve vom Grade n, falls P
von der Form
P(t) =
n

i=0
a
i
t
i
ist.
d
n
bezeichnet die Menge aller polynomialen Kurven in R
d
vom Grade n.
53
6 Interpolation und Approximation
BernsteinPolynome
Wir denieren zunachst auf einem Intervall [a, b] eine Abbildung durch:
:=
_
[a, b] [0, 1]
t (t) :=
ta
ba
bildet also das Intervall [a, b] bijektiv auf [0, 1] ab.
Wir benotigen f ur folgende
Denition 6.4. Das ite BernsteinPolynom B
n
i

1
n
bez uglich [0, 1] ist deniert durch
B
n
i
() =
_
n
i
_
(1 )
ni

i
i = 0, . . . , n
und allgemein das ite BernsteinPolynom B
n
i
(t; a, b) bez uglich dem Intervall [a, b] durch
B
n
i
(t; a, b) := B
n
i
((t))
=
1
(b a)
n
_
n
i
_
(t a)
i
(b t)
ni
Es gilt
1 = ((1 ) +)
n
=
n

i=0
_
n
i
_
(1 )
ni

i
=
n

i=0
B
n
i
() f ur alle R
d.h. die BernsteinPolynome bilden eine Zerlegung der 1 wie auch in Abbildung 6.9 zu erkennen ist.
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.2
0.4
0.4
0.6
0.6
0.8
0.8
1
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
Abbildung 6.9: Bernstein Polynome f ur n = 4
Weiterhin erkennen wir in Abbildung 6.9 eine Symmetrie zwischen B
4
0
und B
4
4
sowie zwischen B
4
1
und
B
4
3
; diese und weitere Eigenschaften nennt der folgende
54
6.3 Freiformkurven: BezierTechnik
Satz 6.11. Es gelten
1. = 0 ist ifache Nullstelle von B
n
i
.
2. = 1 ist (n i)fache Nullstelle von B
n
i
.
3. B
n
i
() = B
n
ni
(1 )
4. (1 )B
n
0
= B
n+1
0
und B
n
n
= B
n+1
n+1
5. B
n
i
() 0 f ur [0, 1] und

n
i=0
B
n
i
() = 1 f ur alle R
6. B
n
i
hat in [0, 1] genau ein Maximum und zwar bei =
i
n
7. B
n
i
() = B
n1
i1
() + (1 )B
n1
i
() i = 1, . . . , n f ur alle R
8. B
n
0
, . . . , B
n
n
ist Basis von
1
n
Analoge Aussagen gelten f ur B
n
i
(t; a, b).
Wir wir gesehen haben, bilden die BernsteinPolynome eine Basis von
d
n
, d.h. jedes P
d
n
lasst
sich darstellen als
P(t) =
n

i=0
b
i
B
n
i
(t; a, b) b
i
R
d
Die Koezienten b
i
heien Kontroll oder BezierPunkte von P und der Streckenzug b
0
, . . . , b
n
Bezier
Polygon.
Die Besonderheit der BezierDarstellung liegt nun darin, dass die Kontrollpunkte b
i
die geometrische
Gestalt der Kurve bestimmen. Wir wollen im folgenden klaren auf welche Art und Weise dies geschieht.
Denition 6.5. Eine Menge K R
d
heit konvex, falls gilt
x, y K x + (1 )y K f ur alle [0, 1]
d.h. mit zwei Punkten x, y K liegt auch deren Verbindungsstrecke wieder in K.
Sei A R
d
beliebig. Die konvexe H ulle
co(A) :=

B R
d
[ B ist konvex und A B
von A ist die kleinste konvexe Menge, die A enthalt.
Satz 6.12. Sei P
d
n
ein Polynom in BezierDarstellung P =

n
i=0
b
i
B
n
i
. Dann gilt
P(t) co (b
0
, . . . , b
n
) f ur alle t [a, b]
d.h. P([a, b]) liegt vollstandig in der konvexen H ulle der KontrollPunkte.
Mit diesem Satz haben wir also erste Erkenntnisse dar uber gewonnen, wie das Aussehen der Bezier
Kurve von den KontrollPunkten bestimmt wird. Weitere Auskunft wird uns der folgende Satz geben,
wof ur wir aber zunachst eine zusatzliche Denition benotigen.
Denition 6.6. Zu P =

n
i=0
b
i
B
n
i
denieren wir die Teilpolynome b
k
i

d
k
durch
b
k
i
(t; a, b) :=
k

j=0
b
i+j
B
k
j
(t; a, b)
d.h. b
k
i
wird durch die BezierPunkte b
i
, . . . , b
i+k
bestimmt.
55
6 Interpolation und Approximation
Satz 6.14. Sei P =

n
i=0
b
i
B
n
i
ein Polynom in BezierDarstellung. Dann gilt f ur die kte Ableitung
von P:
P
(k)
(t) =
1
(b a)
k

n!
(n k)!

k
b
nk
0
(t) k = 0, . . . , n
mit
b
k
i
:= b
k
i+1
b
k
i
,
k
= (
k1
)
also beispielsweise

2
b
k
i
= (b
k
i+1
b
k
i
) = b
k
i+2
2b
k
i+1
+b
k
i
Wir konnen also die Ableitung mittels Dierenzen berechnen.
Speziell ist die Ableitung an den Randpunkten gegeben durch
P
(k)
(a) =
1
(b a)
k

n!
(n k)!

k
b
0
P
(k)
(b) =
1
(b a)
k

n!
(n k)!

k
b
nk
und damit bis zur ersten Ableitung
P(a) = b
0
P(b) = b
n
P

(a) =
n
b a
(b
1
b
0
) P

(b) =
n
b a
(b
n
b
n1
)
Stellen wir unsere bisherigen Kenntnisse uber die Gestalt der BezierKurve zusammen:
1. Nach Satz 6.11 fallen oensichtlich Anfangs und Endpunkt der BezierKurve und des Bezier
Polygons zusammen.
2. In Satz 6.12 haben wir gesehen, dass die BezierKurve vollstandtig in der konvexen H ulle der
KontrollPunkte liegt.
3. Und schlielich gab uns Satz 6.14 und die sich daraus ergebenden Folgerungen den Hinweis auf
das Zusammenfallen der Tangenten mit den Randstrecken in den Randpunkten.
Nun wollen wir aber auch endlich einen Blick auf eine

echte BezierKurve werfen:


56
6.3 Freiformkurven: BezierTechnik
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
Abbildung 6.10: BezierKurve mit BezierPolynom
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
Abbildung 6.11: BezierKurve mit samtlichen TeilPolynomen
57
6 Interpolation und Approximation
Algorithmus von Casteljau
Der Algorithmus von Casteljau wird uns
1. eine schnelle Auswertung von P(t) und
2. eine Approximation von P(t) [ t [a, b] durch Polygonz uge
ermoglichen. Die zweite Eigenschaft pradestiniert dieses Verfahren f ur den Computereinsatz, da sich so
die entstehende Kurve sehr ezient berechnen und darstellen lasst.
Lemma 6.15. Die Teilpolynome b
k
i
erf ullen
b
k
i
(t) = (1 (t))b
k1
i
(t) +(t)b
k1
i+1
(t)
f ur k = 0, . . . n und i = 0, . . . , n k.
Dies ist das Analogon zum Lemma von Aitken f ur BezierPolynome.
Wegen b
0
i
(t) = b
i
konnen wir also P(t) aus b
0
, . . . , b
n
nach folgendem Schema rekursiv berechnen:
b
n
= b
0
n

b
n1
= b
0
n1
b
1
n1
.
.
.
.
.
.
b
1
= b
0
1
b
n1
1

b
0
= b
0
0
b
n1
0
b
n
0

P

(t) P(t)
Nach Satz 6.14 stellen die

Zwischenprodukte b
k
i
die Ableitungen von P dar. In den Teilpolynomen
sind also tatsachlich samtliche geometrischen Informationen zu P enthalten.
58
7 Diskrete Fouriertransformation
Die diskrete Fouriertransformation (DFT) T
n
: C
n
C
n
ist deniert durch
(T
n
f)
j
=
1
n
n1

k=0
f
k

jk
n
mit

n
= e
i2
n
= cos
_
2
n
_
+i sin
_
2
n
_
nte Einheitswurzel

j
n
= e
i2j
n
Bemerkung: In diesem Abschnitt beginnt der Index von Matrizen und Vektoren bei 0.
Matrixdarstellung:
T
n
=
1
n
_
_
_
_
_
1 1 1
1
1
n

(n1)
n
.
.
.
.
.
.
.
.
.
1
(n1)
n

(n1)(n1)
n
_
_
_
_
_
Satz 7.1. F ur die Matrixdarstellung der diskreten Fouriertransformation gilt die Beziehung
T
1
n
= nT
n
Mit Satz 7.1 erhalten wir:
f = T
1
n
T
n
f =
n1

j=0
(T
n
f)
j
w
j
wobei
w
j
=
_
1,
j
n
,
2j
n
, . . . ,
(n1)j
n
_
T
C
n
Mit j nimmt die Anzahl der Oszillationen in w
j
zu, d.h. die Frequenz erhoht sich.
Interpretation:
(T
n
f)
j
misst, wie stark die Schwingung w
j
in f enthalten ist.
Die diskrete Fourier Transformation f uhrt eine Spektralanalyse durch. Sie ist zentrales Werk-
zeug f ur die moderne Kommunikation und Nachrichtentechnik und kommt z.B. bei der
Bildkomprimierung (JPEG) zum Einsatz.
59
7 Diskrete Fouriertransformation
7.1 Fast FourierTransformation (FFT)
Eine direkte Auswertung von T
n
f erfordert n
2
komplexe Multiplikationen. Um diesen Aufwand zu
reduzieren faktorisieren wir T
n
in
T
n
=
1
n
A
p
. . . A
1
P
T
n
f ur n = 2
p
hierbei ist P
n
eine Permutation und A
j
C
(n,n)
eine komplexe Matrix, in der genau zwei Eintrage pro
Zeile nicht 0 sind und davon wiederum ist einer genau 1. Daher m ussen wir f ur die Auswertung von
T
n
f uber die Faktorisierung
n log n = n p
komplexe Multiplikationen durchf uhren.
Um uns f ur die nun folgenden Betrachtungen Schreibarbeit zu sparen denieren wir

T
n
= n T
n
Wir betrachten die Faktorisierung von

T
n
nun zunachst am Beispiel von n = 4:

T
4
=
_
_
_
_
1 1 1 1
1 i 1 i
1 1 1 1
1 i 1 i
_
_
_
_
,
4
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

4
ist eine Permutation, die zuerst die geraden und dann die ungeraden Indizes anordnet.

T
4

4
=
_
_
_
_
1 1 1 1
1 1 i i
1 1 1 1
1 1 i i
_
_
_
_
auerdem

T
2
=
_
1 1
1 1
_


T
4
=
_
I
2

2
I
2

2
_

T
2
O
O

T
2
_

T
4
(7-i)
mit I
2
= diag(1, . . . , 1) R
(l,l)
und
2
=
_
1 0
0 i
_
= diag(1,
1
4
).
Die allgemeine Version von (7-i) dr uckt

T
n
durch

T
n
2
aus.

n
: C
n
C
n
, n = 2m
w =
T
n
v w = (v
0
, v
2
, . . . , v
n2
, v
1
, v
3
, . . . , v
n1
)
T
Satz 7.2. Sei n = 2m und
m
= diag
_
1,
1
n
,
2
n
, . . . ,
(m1)
n
_
T
wobei
n
= e
i2
n
. Dann gilt

T
n
=
_
I
m

m
I
m

m
_

T
m
O
O

T
m
_

T
n
Die Matrizen B
n
:=
_
I
m

m
I
m

m
_
heien

ButteryMatrizen. Dieser ungewohnliche Name resultiert


aus dem Bild, das sich bei Multiplikation einer solchen Matrix mit einem Vektor ergibt.
60
7.1 Fast FourierTransformation (FFT)
(a) Die acht Elemente des Vektors (b) Ein Schmetterling
Abbildung 7.1: Ergebnis der Anwendung von B
8
Die oberen Punkte sollen von links nach rechts gelesen die Elemente des Vektors vor und die unteren
Punkte die Elemente des Vektors nach der Multiplikation mit einer solchen ButteryMatrix darstellen.
Die Pfeile geben an, aus welchen Elementen des OrginalVektors die jeweiligen Elemente des Ergebnis
Vektors gewonnen werden. Mit etwas Fantasie erkennt man die rechts abgebildete Figur, die einem
Schmetterling ahnelt.
Satz 7.3 (CooleyTukey Basis 2 Faktorisierung). Sei n = 2
p
, p N. Dann ist

T
n
= A
(p)
p
. . . A
(p)
1
P
T
n
(7-ii)
mit
P
2
= I
2
, P
n
=
n

_
P
n
2
O
O P
n
2
_
und A
(p)
j
= blockdiag(B
2
j , . . . , B
2
j
. .
2
pj
Blocke
) =
_
_
_
B
2
j
.
.
.
B
2
j
_
_
_
mit den ButteryMatrizen B
2
j f ur j = 1, . . . , p.
Dies ist also gerade die rekursive Anwendung von Satz 7.2.
Eine Realisierung von T
n
f basierend auf der Faktorisierung (7-ii) heit CooleyTuckeyAlgorithmus.
Aspekte des CTAlgorithmus
Der CooleyTuckeyAlgorithmus verlauft in zwei Phasen:
1. der Permutationsphase und
2. der Multiplikationsphase,
die wir nun getrennt besprechen wollen.
Permutationsphase
Wir versuchen eine allgemeine Formel f ur die Wirkungsweise der Permutationen P
T
n
zu gewinnen und
betrachten dazu zunachst folgende Beispiele:
P
T
8
f = (f
0
, f
4
, f
2
, f
6
, f
1
, f
5
, f
3
, f
7
)
T
und
61
7 Diskrete Fouriertransformation
P
T
16
f = (f
0
, f
8
, f
4
, f
12
, f
2
, f
10
, f
6
, f
14
, f
1
, f
9
, f
5
, f
13
, f
3
, f
11
, f
7
, f
15
)
T
Betrachtet man bei P
T
16
f das Elemente f
12
an der Position 3 und f
5
an der Position 10, so stellt man
folgende Eigenschaft fest:
Index 12 = 1100
2
Index 5 = 0101
2
Position 3 = 0011
2
Position 10 = 1010
2
d.h. die BinarDarstellung der Position entspricht gerade der Spiegelung der BinarDarstellung des
Index.
Satz 7.4. Sei n = 2
p
. Die Funktion r
n
: 0, . . . , n 1 0, . . . , n 1 sei deniert durch
_
P
T
n
f
_
k
= f
r
n
(k)
d.h. r
n
gibt an, welcher Eintrag des OrginalVektors an der kten Stelle des permutierten Vektors steht.
Dann gilt
r
n
(2
p1
b
p1
+ 2
p2
b
p2
+ + 2b
1
+b
0
) = 2
p1
b
0
+ 2
p2
b
1
+ + 2b
p2
+b
p1
f ur b
j
0, 1 und j = 0, . . . , p 1. Deshalb heit P
n
auch Bitspiegelung.
Multiplikationsphase
Sei B
L
die ButteryMatrix der Ordnung L = 2L

.
y = B
L
z
_
y
o
y
u
_
=
_
z
o
+
L

z
u
z
o

z
u
_
mit y =
_
y
o
y
u
_
, z =
_
z
o
z
u
_
f ur z
o
, z
u
, y
o
, y
u
C
L

, d.h. wir spalten die Vektoren z C


L
in eine obere
(Index o) und eine untere Halfte (Index u) und erhalten so durch Multiplikation mit B
L
(man erinnere
sich an die spezielle Form der ButteryMatrizen) wieder ein

zweigespaltenes Ergebnis, das zu y


zusammengesetzt wird.
Wir betrachten nur die Anwendung von A
(p)
j
auf x C
n
f ur n = 2
p
.
y = A
(p)
j
x y
Lr
= B
L
x
Lr
L = 2
j
, r = 2
pj
mit y
Lr
, x
Lr
C
(L,r)
.
(x
Lr
)
jk
= x
kL+j
x
Lr
=
_
_
_
x
0
x
L
x
(r1)L
.
.
.
.
.
.
x
L1
x
2L1
x
rL1
_
_
_
wir haben also den Vektor x in insgesamt r St ucke der Hohe L gespalten und diese Teile als Spalten
in die Matrix x
Lr
geschrieben. Da A
(p)
j
gerade aus r = 2
pj
auf der Diagonalen liegenden Buttery
Matrizen B
L
besteht (wahrend alle anderen Eintrage 0 sind), lasst sich die MatrixVektorMultiplikation
y = A
(p)
j
x durch die MatrixMultiplikation y
Lr
= B
L
x
Lr
und anschlieendes Untereinanderschreiben
der Spalten von y
Lr
beschreiben (die untereinandergeschriebenen Spalten von y
Lr
ergeben dann das
gesuchte y).
62
7.1 Fast FourierTransformation (FFT)
CTAlgorithmus
Sei f C
n
, n = 2
p
f : =
1
n
P
T
n
f / Bi t s pi e ge l ung /
for j = 1 to p do
L : = 2
j
, r : =
n
L
, L

: =
L
2
5
for q = 0 to L

1 do
: = cos(
2q
L
) i sin(
2q
L
)
for k = 0 to r 1 do
10 : = f
kL+q+L

f
kL+q+L

: = f
kL+q

f
kL+q
: = f
kL+q
+
end
end
15 end
Ohne Permutation und Berechnung von sind
1
2
nld n
komplexe Multiplikationen auszuf uhren, was eine erhebliche Verbesserung gegen uber der direkten Aus-
wertung von T
n
f darstellt (n
2
komplexe Multiplikationen).
63
7 Diskrete Fouriertransformation
64
8 Numerische Quadratur
Ziel ist die Berechnung des RiemannIntegrals
I(f) :=
b
_
a
f(t) dt = I
b
a
(f)
wenn keine Stammfunktion von f bekannt ist oder ohnehin nur diskrete Funktionswerte vorliegen.
Die zahlenmaige Bestimmung von I(f) heit numerische Integration oder numerische Quadratur.
Quadraturformel
Wir fassen die Integration als Funktion auf und erhalten somit die Abbildung
I :
_
C(a, b) R
f I(f)
Diese Abbildung ist
1. linear: I(f +g) = I(f) +I(g) f ur alle f, g C(a, b) und , R
2. positiv: f 0 I(f) 0
3. additiv: Sei [a, b]. Dann gilt I(f) = I

a
(f) +I
b

(f)
Ziel der numerischen Quadratur ist die Kontruktion positiver Linearformen

I : C(a, b) R, f

I(f)
mit der Eigenschaft

I(f) I(f) ist

klein
Denition 8.1. Eine Quadraturformel

I zur Berechnung von
_
b
a
f(t) dt hat die Form

I(f) := (b a)
n

i=0

i
f(t
i
)
mit den Knoten t
0
, . . . , t
n
und den Gewichten
0
, . . . ,
n
wobei

n
i=0

i
= 1 ist.
Mit der Forderung

n
i=0

i
= 1 ist sichergestellt, dass

I(1) = I(1) = b a
gilt, konstante Funktionen also exakt integriert werden.
Auerdem gilt

I ist positiv
i
0 f ur i = 0, . . . , n
65
8 Numerische Quadratur
NewtonCotesFormeln

I
n
(f) :=
b
_
a
P(f [ t
0
, . . . , t
n
)(t) dt a = t
0
< t
1
< < t
n
= b
P(f [ t
0
, . . . , t
n
) =
n

i=0
f(t
i
)L
n,i
(t) L
n,i
LangrangePolynome zu t
0
, . . . , t
n


I
n
(f) = (b a)
n

i=0
_
_
_
_
_
_
_
1
b a
b
_
a
L
n,i
(t) dt
. .
=
n,i
f(t
i
)
_
_
_
_
_
_
_
Die
n,i
hangen nur von den Knoten ab nicht von f.

I
n
ist exakt f ur Polynome bis zum Grad n

I
n
(P) = I(P) f ur alle P
n
Lemma 8.2. Zu n +1 paarweise verschiedenen Knoten t
0
, . . . , t
n
gibt es genaue eine Quadraturformel

I(f) = (b a)
n

i=0

i
f(t
i
)
die f ur alle P
n
exakt ist.
Beweis: Die Existenz einer solchen Quadraturformel haben wir bereits gezeigt, bleibt noch die Eindeu-
tigkeit:
L
n,i
seien die LagrangePolynome bez uglich t
0
, . . . , t
n
.
I(L
n,i
) =

I(L
n,i
) = (b a)
n

j=0

j
L
n,i
(t
j
)
. .
=
ij
= (b a)
i

i
=
1
b a
I(L
n,i
) =
1
b a
b
_
a
L
n,i
(t) dt

Bei aquidistanten Knoten t


i
= a + ih mit der Schrittweite h =
ba
n
, i = 0, . . . , n, heien die oben
konstruierten Quadraturformeln NewtonCotesFormeln. Ihre Gewichte sind

n,i
=
1
b a
b
_
a
n

j=0
j=i
t t
j
t
i
t
j
dt
Durch die Subsitution s :=
ta
h
erhalten wir die Darstellung

n,i
=
1
n
n
_
0
n

j=0
j=i
s j
i j
ds
die die Unabhangigkeit des Integralwertes vom IntegrationsIntervall [a, b] erkennen lasst. Es reicht also
aus Die Gewichte ein einziges Mal zu berechnen. In der folgenden Tabelle sind diese bis zur Ordnung
n = 4 dargestellt.
66
n Gewichte Fehlerdarstellung Name
1
1
2
1
2
h
3
12
f

() TrapezRegel
2
1
6
4
6
1
6
h
5
90
f
(4)
() SimpsonRegel, Keplersche Faregel
3
1
8
3
8
3
8
1
8
3h
5
80
f
(4)
() Newtonsche
3
8
Regel
4
7
90
32
90
12
90
32
90
7
90
8h
7
945
f
(6)
() MilneRegel
Die Gewichte sind allesamt rationale Zahlen, wird doch ein Polynom mit rationalen Koezienten uber
eine ganze Zahl integriert. Auerdem sind sie bis zur Ordnung n = 7 positiv, ab n 8 andert sich dies
jedoch, weshalb hohere Ordnungnen nur selten zur Anwendung kommen.
In der Tabelle haben wir bereits einen Fehler angegeben, der abhangig ist von der Schrittweite h und
einem [a, b]. F ur die ersten beiden Formeln werden wir die Fehlerdarstellung nun beweisen.
Lemma 8.3. Sei f C
2
(a, b). Dann gilt f ur die Trapezregel
T(f) =
b a
2
(f(a) +f(b))
die Fehlerdarstellung
T(f) I(f) =
h
3
12
f

() h = b a
f ur ein [a, b] wobei I(f) der exakte Integralwet von f uber [a, b] ist.
Bevor wir den Beweis angehen, sei noch kurz an den Mittelwertsatz der Integralrechnung erinnert:
Seien f, auf [a, b] stetige Funktionen wobei 0 oder 0 ( wechselt also das Vorzeichen nicht).
Dann gilt
b
_
a
f(x)(x) dx = f()
b
_
a
(x) dx f ur ein [a, b]
Beweis: Sei P = P(f [ a, b)
1
. Nach Satz 6.3 (Fehlerabschatzung f ur Interpolationspolynome) gilt
dann
f(t) = P(t) +
1
2
f

((t))(t a)(t b)
I(f) = T(f) +
1
2
b
_
a
f

((t)) (t a)(t b)
. .
0
dt
MWS
I(f) = T(f) +
1
2
f

()
b
_
a
(t a)(t b) dt
. .
=
(ba)
3
6

67
8 Numerische Quadratur
Lemma 8.4. Die Keplersche Faregel
S(f) =
b a
6
_
f(a) + 4f
_
a +b
2
_
+f(b)
_
ist auch f ur Polynome vom Grad n = 3 exakt. F ur f C
4
(a, b) gilt mit h =
ba
2
die Fehlerdarstellung
S(f) I(f) =
f
(4)
()
90
h
5
f ur ein [a, b].
Beweis: Sei Q
3
beliebig und P = P(Q [ a,
a+b
2
, b)
2
.
Q(t) = P(t) +
Q

((t))
6
. .
=:=const
(t a)(t
a +b
2
)(t b)
. .
=:(t)

b
_
a
Q(t) =
b
_
a
P(t) dt
. .
=S(Q)
+
b
_
a
(t) dt
Wir m ussen nur noch zeigen, dass
_
b
a
(t) dt = 0 ist. Dazu n utzen wir aus, dass (t) bez uglich des
IntervallMittelpunktes eine ungerade Funktion ist und setzen x =
2tab
ba

b
_
a
(t) dt = K(a, b)
1
_
1
(x 1)x(x + 1)
. .
ungerade
dx = 0

b
_
a
Q(t) dt = S(Q)

Zusammengesetze Formeln
Die Quadraturformel in der bisherigen Form ist wenig exibel. F ur groe Intervalle waren Quadratur-
formeln hoher Ordnung notig, was wir aus den angegebenen Gr unden jedoch vermeiden wollen. Eine
Losung besteht nun darin, ein solches Intervall in kleine Teilintervalle zu zerlegen, auf denen dann wieder
Quadraturformeln niedriger Ordnung zur Anwendung kommen konnen.
Wie das mit Verwendung der TrapezRegel funktioniert gibt das folgende Lemma an.
Lemma 8.5. Sei h =
ba
n
und t
i
= a +ih, i = 0, . . . , n. Dann hat die Trapezsumme
T(h) = h
_
1
2
(f(a) +f(b)) +
n1

i=1
f(t
i
)
_
f ur f C
2
(a, b) den Fehler
T(h)
b
_
a
f(x) dx =
b a
12
h
2
f

()
f ur ein [a, b].
68
Beweis: T
i
=
h
2
(f(t
i1
) +f(t
i
)) bezeichne die Trapezregel bez uglich [t
i1
, t
i
] f ur i = 1, . . . , n.
T(h) =
n

i=1
T
i
T(h)
b
_
a
f(x) dx =
n

i=1
_
_
T
i

t
i
_
t
i1
f(x) dx
_
_
. .
Fehler der Trapezregel
8.3
=
n

i=1
_
h
3
12
f

(
i
)
_
=
b a
12
h
2

1
n
n

i=1
f

(
i
)
mit
i
[t
i1
, t
i
]. Da
min
t[a,b]
f

(t)
1
n
n

i=1
f

(
i
) max
t[a,b]
f

(t)
ist, gibt es nach dem Zwischenwertsatz f ur stetige Funktionen ein [a, b] mit
f

() =
1
n
n

i=1
f

(
i
)

PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
(a) Mit Trapezsumme
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
(b) Mit Trapezregel
Abbildung 8.1: Beispiel zur Trapezsumme aus Lemma 8.5
Zusatzlich wollen wir noch die zusammengesetzte SimpsonFormel studieren.
Sei n gerade (d.h die Anzahl der Knoten ist ungerade) und S
i
die SimpsonRegel bez uglich [t
2i
, t
2i+2
],
i = 0, . . . ,
n
2
1. Die zusammengesetze SimpsonRegel hat die Form
S(h) :=
n
2
1

i=0
2h
6
(f(t
2i
) + 4f(t
2i+1
) +f(t
2i+2
))
=
h
3
(f(a) + 4f(a +h) + 2f(a + 2h) +. . . + 2f(b 2h) + 4f(b h) +f(b))
69
8 Numerische Quadratur
Wie im Beweis von Lemma 8.5 zeigt man die Fehlerdarstellung
S(h)
b
_
a
f(x) dx =
b a
180
h
4
f
(4)
()
f ur ein [a, b], falls f C
4
(a, b).
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
(a) Zusammengesetzte SimpsonFormel
PSfrag replacements
t
j
t
j1
t
j+1
t
j+2
M
j
M
j1
M
j+1
M
j+2
s

M
r
y(x) = ln(x)
0
0.2
0.4
0.6
0.8
1
2
4
2
4
0.2
B
4
0
B
4
1
B
4
2
B
4
3
B
4
4
b
0
b
1
b
2
b
3
P(t)
b
1
0
(t)
b
1
1
(t)
b
1
2
(t)
b
2
0
(t)
b
2
1
(t)
b
3
0
(t)
b
a
(b) SimpsonFormel
Abbildung 8.2: Beispiel zur zusammengesetzen SimpsonFormel
70
Literaturverzeichnis
[1] Deuflhard, P. Hohmann, A., Numerische Mathematik eine algorithmische Einf uhrung de
GruyterVerlag
[2] Locher, F., Numerische Mathematik f ur Informatiker Springer
71
Literaturverzeichnis
72
Index
A
aposterioriAbschatzung . . . . . . . . . . . . . . . . . . . 38
aprioriAbschatzung . . . . . . . . . . . . . . . . . . . . . . . 38
ANorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Abgebrochene Potenzen. . . . . . . . . . . . . . . . . . . . . 46
Aitken
Lemma von . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Algorithmus von Casteljau. . . . . . . . . . . . . . . . . . 58
Approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
B
Banachscher FixpunktSatz . . . . . . . . . . . . . . . 37
BernsteinPolynom. . . . . . . . . . . . . . . . . . . . . . . 54
BezierPolynom . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
BezierPunkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Bitspiegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
ButteryMatrix. . . . . . . . . . . . . . . . . . . . . . . . . . . .60
C
Casteljau
Algorithmus von . . . . . . . . . . . . . . . . . . . . . . . 58
cgAlgorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
mit Vorkonditionierung. . . . . . . . . . . . . . . . . 25
CholeskyAlgorithmus . . . . . . . . . . . . . . . . . . . . 16
CholeskyZerlegung. . . . . . . . . . . . . . . . . . . . . . . 15
CooleyTuckeyAlgorithmus. . . . . . . . . . . . . 63
D
Dreiecksmatrix
obere. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
untere. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
E
Energienorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
EuklidNorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
F
Faber
Satz von . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
FixpunktIteration . . . . . . . . . . . . . . . . . . . . . . . . . 36
FrobeniusNorm . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
G
GauAusgleich . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Gausche Dreieckszerlegung . . . . . . . . . . . . . . 13
GivensRotationen. . . . . . . . . . . . . . . . . . . . . . . . . 28
GMRESAlgorithmus . . . . . . . . . . . . . . . . . . . . . . . 29
GMRESIterierte . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
H
H olderstetig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
HeronVerfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 32
HessenbergMatrix . . . . . . . . . . . . . . . . . . . . . . . 28
I
Interpolation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Interpolationspolynom. . . . . . . . . . . . . . . . . . . . . . 42
Invarianz
des NewtonVerfahrens. . . . . . . . . . . . . . . . . 34
K
Keplersche Faregel . . . . . . . . . . . . . . . . . . . . . . . 67
Kleinste Quadrate
Methode der . . . . . . . . . . . . . . . . . . . . . . . . . 17
Konditionszahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Kontraktion
bez uglich einer Norm. . . . . . . . . . . . . . . . . . . 36
Kontraktionszahl . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
KontrollPunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
konvex. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
konvexe H ulle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Kr ummung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Kr ummungskreis. . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Kr ummungsradius . . . . . . . . . . . . . . . . . . . . . . . . . . 48
KrylovRaum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
kubischer Spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
L
LagrangeBasis . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Lemma
von Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
linearer Spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
LRZerlegung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13
mit Spaltenpivotsuche . . . . . . . . . . . . . . . . . . 14
M
Mathoder der kleinsten Quadtrate . . . . . . . . . . 17
Matrix
positiv denite . . . . . . . . . . . . . . . . . . . . . . . 15
Matrixnorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
73
Index
induzierte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
zugeordnete . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
MilneRegel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
MinimumNormLosung
des Ausgleichproblems. . . . . . . . . . . . . . . . . . 19
Momente eines Splines . . . . . . . . . . . . . . . . . . . . . . 50
MonotonieTest
beim NewtonVerfahren. . . . . . . . . . . . . . . . 34
N
nte Einheitswurzel . . . . . . . . . . . . . . . . . . . . . . . . . 59
nat urliche Splineinterpolation . . . . . . . . . . . . . . . 49
Neville
Schema von . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
NewtonCotesFormeln. . . . . . . . . . . . . . . . . . 66
newtonKorrektur. . . . . . . . . . . . . . . . . . . . . . . . . 31
NewtonPolynom . . . . . . . . . . . . . . . . . . . . . . . . . 44
newtonSchritt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Newtonsche 3/8Regel . . . . . . . . . . . . . . . . . . . . 67
Norm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
p. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Spaltensummen . . . . . . . . . . . . . . . . . . . . . . . . 6
Spektral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Vektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Zeilensummen. . . . . . . . . . . . . . . . . . . . . . . . . . 6
Normalgleichung
des Ausgleichproblems. . . . . . . . . . . . . . . . . . 18
numerische Integration. . . . . . . . . . . . . . . . . . . . . . 65
O
Ohmscher Widerstand . . . . . . . . . . . . . . . . . . . . . . 17
P
pNorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
periodische Splineinterpolation. . . . . . . . . . . . . . 49
Permuatationsmatrix . . . . . . . . . . . . . . . . . . . . . . . 14
PivotElement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Polynomiale Kurve . . . . . . . . . . . . . . . . . . . . . . . . . 53
positiv denit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Q
Quadraturformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
R
Residuum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
R uckwartssubstitution . . . . . . . . . . . . . . . . . . . . . . . 9
S
Satz
von Faber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Schema von Neville . . . . . . . . . . . . . . . . . . . . . . . 44
Schmiegekreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Simpson-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
zusammengesetze. . . . . . . . . . . . . . . . . . . . . . . 69
Spaltenpivotsuche. . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Spaltensummennorm. . . . . . . . . . . . . . . . . . . . . . . . . 6
Spektralnorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Spektrum
einer Matrix. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Spline
kubischer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
linearer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Spline der Ordnung k . . . . . . . . . . . . . . . . . . . . . . . 46
SplineInterpolation . . . . . . . . . . . . . . . . . . . . . . . . 47
Splineinterpolation
nat urliche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
periodische . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
vollstandige . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
submultiplikativ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
T
Teilpolynome
der BezierKurve. . . . . . . . . . . . . . . . . . . . . . . 55
TrapezRegel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Trapezsumme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
TschebyscheffKnoten . . . . . . . . . . . . . . . . . . . 45
U

Uberbestimmtes Problem . . . . . . . . . . . . . . . . . . . 18
Unterbestimmtes Problem . . . . . . . . . . . . . . . . . . 18
V
VandermondscheMatrix . . . . . . . . . . . . . . . . . . 42
Vektornorm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
vertraglich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
vollstandige Splineinterpolation . . . . . . . . . . . . . 49
Vorkonditionierung
beim cgAlgorithmus . . . . . . . . . . . . . . . . . . . 25
Vorwartssubstitution. . . . . . . . . . . . . . . . . . . . . . . . 10
Z
Zeilensummennorm . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Zerlegung
LR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Gausche Dreiecks . . . . . . . . . . . . . . . . . . . 13
74