Sie sind auf Seite 1von 114

Numerik

Vorlesung TU Chemnitz
Arnd Meyer , Chemnitz
Rh 41/616, Tel.: 531 22520
email: a.meyer@mathematik.tu-chemnitz.de
Inhaltsverzeichnis
1 Fehler in numerischen Berechnungen 5
1.1 Zahlendarstellung in Rechnern - Maschinenarithmetik . . . . . . . 6
1.2 Fehlerfortpanzung . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Losung linearer Gleichungssysteme 11
2.1 Direkte Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Gauscher Algorithmus . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Bemerkungen zum Gauschen Algorithmus . . . . . . . . . 12
2.1.3 LU-Zerlegung bei schwach besetzten Matrizen . . . . . . . 17
2.1.4 Cholesky- und Crout-Zerlegung . . . . . . . . . . . . . . . 18
2.1.5 Spezialfall Tridiagonalmatrizen . . . . . . . . . . . . . . . 20
2.2 Fehlerbetrachtung bei linearen Gleichungssystemen . . . . . . . . 22
2.3 Iterationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.1 Elementare Iterationsverfahren . . . . . . . . . . . . . . . 25
2.3.2 Einzel- und Gesamtschrittverfahren . . . . . . . . . . . . . 26
2.3.3 Unter- und

Uberrelaxation . . . . . . . . . . . . . . . . . . 28
2.3.4 Instationare Iterationsverfahren . . . . . . . . . . . . . . . 29
2.3.5 Konvergenztheorie der Iterationsverfahren . . . . . . . . . 31
3 Interpolation/Approximation von reellen Funktionen 37
3.1 Grundaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Grundlegende Theorie der Interpolationsaufgabe . . . . . . . . . . 38
3.3 Interpolation mit Polynomen . . . . . . . . . . . . . . . . . . . . . 38
3.3.1 Lagrange-Interpolation . . . . . . . . . . . . . . . . . . . 39
3.3.2 Newton-Interpolation . . . . . . . . . . . . . . . . . . . . . 39
3.3.3 Interpolationsfehler/Konvergenz . . . . . . . . . . . . . . . 40
3.3.4 Hermite Interpolation . . . . . . . . . . . . . . . . . . . . . 42
3.4 Spline-Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.1 Kubische Splines . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.2 B-Splines ** . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5 Alternative Interpolation . . . . . . . . . . . . . . . . . . . . . . . 46
3.6 Approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.6.1 Approximation im Mittel . . . . . . . . . . . . . . . . . . . 48
2
3.6.2 Gleichmassige oder Tschebyschew-Approximation . . . . . 50
4 Nichtlineare Gleichungen 51
4.1 Allgemeine Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . 51
4.2 Nullstellenbestimmung mit Interpolationsideen . . . . . . . . . . . 51
4.3 Das Newton-Verfahren f ur n > 1 . . . . . . . . . . . . . . . . . . 53
4.4 Fixpunktiteration . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5 Fixpunktiteration f ur n > 1 . . . . . . . . . . . . . . . . . . . . . 56
4.6 Besonderheiten bei Polynomgleichungen . . . . . . . . . . . . . . 57
5 Numerische Integration 62
5.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.2 Newton-Cotes-Quadratformeln . . . . . . . . . . . . . . . . . . . . 63
5.3 Zusammengesetzte Newton-Cotes-Formeln . . . . . . . . . . . . . 66
5.4 ROMBERG-Integration . . . . . . . . . . . . . . . . . . . . . . . 67
5.5 Gau-Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.6 Gau-Integration in Mehrdimensionalen . . . . . . . . . . . . . . . 73
6 Numerische Dierentiation 76
7 Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 78
7.1 Einfachste Grundideen / einfachste Verfahren . . . . . . . . . . . 79
7.2 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.3 Allgemeine Form: explizite Runge -Kutta - Verfahren . . . . . . . 83
7.4 Implizite Runge-Kutta-Formeln . . . . . . . . . . . . . . . . . . . 85
7.5 Stabilitat - Vergleich explizit-implizit . . . . . . . . . . . . . . . . 87
7.6 Steife Dierentialgleichungen . . . . . . . . . . . . . . . . . . . . . 90
8 Randwertprobleme - (RWP) 92
8.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.2 Dierenzenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.3 Finite Elemente Methode - FEM . . . . . . . . . . . . . . . . . . 95
9 Eigenwertprobleme bei Matrizen 99
9.1 Grundlagen der linearen Algebra . . . . . . . . . . . . . . . . . . 99
9.2 Ungeeignete Verfahrensideen . . . . . . . . . . . . . . . . . . . . . 100
9.3 Iterative Berechnung von Eigenwerten bei symm. Tridiagonalma-
trizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.4 Berechnung von Eigenwerten und Eigenvektoren durch Transfor-
mation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
9.4.1 Spiegelungsmatrizen . . . . . . . . . . . . . . . . . . . . . 106
9.4.2 Nutzung der Spiegelungen zur QR- Zerlegung . . . . . . . 107
9.4.3 Transformation auf Hessenberg Gestalt . . . . . . . . . . . 108
9.4.4 Der Doppelschritt QR nach FRANCIS . . . . . . . . . . . 109
3
9.5 Vektoriteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
9.6 Der Lanczos Algorithmus f ur groe Eigenwertprobleme . . . . . . 112
4
Kapitel 1
Fehler in numerischen
Berechnungen
Aufgabe der numerischen Mathematik:
Algorithmen anzugeben, mit denen eektiv und robust Berechnungen aus-
gef uhrt werden konnen. Fehler begrenzen die Resultatgauigkeit und sind in der
Regel unvermeidbar.
Arten von Fehlern
Eingabewerte fehlerbehaftet!
a) Eingabefehler (Medaten)

b) systematische Fehler des Algorithmus c) Rundungsfehler bei allen
(im Algorithmus begr undet) arithmetischen Operationen

d) eventuelle Fortpanzung dieser Fehler (Aufschaukelung !!)

fehlerhaftes Resultat
a) Messfehler, Rundung auf Maschinengenauigkeit
b) Abbruch unendlicher Reihen
Annaherung komplizierter Funktionen durch einfachere
Diskretisierung
c) typische Maschinenarithmetik
d) Problem der aufeinanderfolgenden Schritte besonders zu untersuchen
5
Fehler in numerischen Berechnungen 6
1.1 Zahlendarstellung in Rechnern - Maschine-
narithmetik
fr uher: Mantisse
Exp
mit = 2, = 16 (oder selten = 10 Robotron R300)
heute : moderne Gleitkomma-Koprozessoren- FPU benutzen IEEE- Datenformat
Institute of Electrical and Electronics Engineers
a) single precision: 4 Byte (1 Wort)
b) double precision: 8 Byte (1 Doppelwort)
a) 31 23 22 0

[ s [ characteristic [ mantisse [

b) 63 52 51 0
0 mantisse .111...1
2
Zahl = (1)
s
2
Exp
(1.0 + Mantisse )
. .
1 Anteil <2
Binardarstellung solcher Zahlen fangt immer mit Bit 1 an keine Speicherung
Exponent:
a) 8 Bit = 1 Byte Characteristic, schreiben hexadezimal 2 Hexadezimalziern
0...9ABCDEF, F
H
= 1111
2
= 15
10
Char = 00
H
...FF
H
Sonderfall: Char = 00
H
und Char = FF
H
ansonsten: Char = Exp - 7F
H
Exp = Char 127
10
Exp [126, 254 127 = 127] Char [01
H
, FE
H
]
Char = 00
H
und Mantisse = 0...0
2
= Zahl

0
Char = FF
H
= 255
Mantisse = 0...0
2
INF inity
Mantisse ,= 0...0
2
NaN (not a number)
z.B.
0
0
,

, 0 ergibt NaN(Not a Number)


Fehler in numerischen Berechnungen 7
b) analog bei 11 Bit f ur Char (52 Bit Mantisse)
also von 000
H
bis 7FF
H
(0
10
...2047
10
)
hier: Char =000
H
Zahl 0 (Mantisse = 0)
Char =7FF
H
bzw. NaN
sonst: Exp = Char 3FF
H
= Char 1023
Exp [1022, 2047 1023] Char [001
H
, 3FE
H
]
Folgerung 1.1
(z) Annaherung der reellen Zahl z durch maschineninterne
Darstellung im IEEE-Datenformat =
1. [z[ < 2
126
(bzw. 2
1022
) =fl(z) = 0
2. [z[ > 2
128
(bzw. 2
1024
) =z nicht darstellbar
3. sonst fl(z) = z(1 +), [[ <
mach

Maschinen-Epsilon.
Denition 1.2

mach
kleinste positive Zahl mit
fl(1 ) > 1

in der Maschinenarithmetik ausgef uhrt


1 = 2
0
(1.+ Mantisse)
Mantisse = 0...01
a) 23 Bit
b) 52 Bit
=
mach
= 2
0
(0. + [0...01]
2
)
. .
a) 2
23

1
8
10
6
b) 2
52

1
4
10
15
Folgerung 1.3
Bei jeder einzelnen arithmetischen Operation gilt
fl(a b)
. .
Maschinenergebnis
= (a b)
. .
exaktes Ergebnis
(1 +) mit [[
mach
Besonderheit: bei der Subtraktion
Stellenausloschung
Fehler in numerischen Berechnungen 8
Beispiel 1.4
zur Vereinfachung betrachten wir Dezimalarithmetik mit 4 Mantissenstellen
a) 2 Zahlen unterschiedlicher Grosse
.1000 10
2
.1000 10
+2
.1000 10
3
.000001 10
+2
.9999 10
+1
.1000 10
+2
Fehler analog Folgerung 2
b) 2 Zahlen fast gleicher Groen
.1234 10
5
.1235 10
5
.0001 10
5
= .1000 10
2
exaktes Ergebnis f ur diese eine Operation
aber: waren Summanden fehlerbehaftet durch vorherige Operation
z.B. nur Ziern .123 verlasslich, in beiden Operanden
= so erhalten wir ein vollig unsinniges Ergebnis.
Beispiel 1.5
Berechnung der beiden Wurzeln der quadratischen Gleichung
x
2
+ px + q = 0 x
1/2
=
p
2

_
(
p
2
)
2
y

bei einem der VZ eventuelle Ausloschung


aber es gilt stets
1. stabil betragsgrosste Wurzel
x
1
=
_
p
2
+ (signp)
_
_
p
2
_
2
q
_
2. berechne betragskleinere Wurzel nach Vietaschen Wurzelsatz:
x
2
=
q
x
1
garantiert fl(x
2
) = x
2
(1 + 2)
Fehler in numerischen Berechnungen 9
1.2 Fehlerfortpanzung
Beispiel 1.6
Seien I
0
...I
20
zu berechnen mit
I
n
=
1
e
_
1
0
x
n
e
x
dx
1. Algorithmus (instabil):
I
0
= 1
1
e
mit
mach
berechnet, mit partieller Integration folgt:
I
n
=
1
e
x
n
e
x
[
1
0

1
e
n
_
1
0
x
n1
e
x
dx
(u = x
n
v = e
x
)
I
n
= 1 nI
n1
Rechnung ergibt:
Hauptgrund:

I
0
= fl(I
0
) = I
0
+
0

I
1
= 1 1

I
0
+
1
= I
1
+
0
+
1

I
2
= 1 2

I
1
= I
2
+ 2
0
+ ...

I
3
= I
3
3 2
0
+ ...
.
.
.

I
n
= I
n
n!
0
+ ...
2. Algorithmus:
I
n1
=
1
n
(1 I
n
)
Fehlerbetrachtung analog zu Algorithmus 1 aber umgekehrt
fr uhere Fehler werden stark gedampft (wie
1
n!
) Startwert
z.B.

I
100
vollig beliebig R uckrechnung bis I
20
ergibt fast fehlerfreien Wert.
Theorie:
absoluter Fehler der Grosse x : x
x = x +x (genaherter Wert=exakter Wert + absoluten Fehler)
relativer Fehler der Grosse x: x
x = x(1 +x)
x =
x
x
Fehler in numerischen Berechnungen 10
Vorwartsanalyse des Fehlerverhaltens eines Rechenprozesses:
Eingabegrossen x
1
, ..., x
n
mit Eingangsfehler x
1
... x
n
bzw. x
1
...x
n
Rechenvorschrift:
y = (x
1
, ..., x
n
)
a) betrachte Fortpanzung der Eingabefehler
b) betrachte zusatzliche Rundungsfehler in der Vorschrift
a) haug reicht Betrachtung der 1. Ordnung in einer Taylorentwicklung:
y = y y = (x
1
+x
1
, ..., x
n
+x
n
) = (x
1
, ..., x
n
)
=
n

i=1
(x
1
...x
n
)
x
i
x
i
+O([ x
i
[
2
)
also Grossen (

x
1
) Indikatoren f ur starke oder schwache Empndlich-
keit gegen Eingangsfehler
R uckwartsanalyse
Ergebnis: Resultat y ist f ur exakte Eingangsgrossen x
i
+
i
(i = 1, ..., n).
i
nicht exakt bekannt, aber Abschatzungen der Art
[
i
[ <
mach
f(n) | x|
sind moglich.
Beispiel 1.7
Grundalgorithmen der linearen Algebra die auf Skalarprodukten basie-
ren.
Kapitel 2
L

osung linearer
Gleichungssysteme
Aufgabenstellung:
geg.: A(n n)-Matrix
A = (a
ij
)
n
i,j=1
, b = (b
i
)
n
i=1
ges.: Losung von Ax = b Losungsvektor x = (x
i
)
n
i=1
2 Moglichkeiten zur Losung x eines Gleichungssystems zu gelangen
direkte Verfahren Gauscher Algorithmus + verwandte Methoden
Iterationsverfahren
2.1 Direkte Verfahren
2.1.1 Gauscher Algorithmus
Grundidee: subtrahieren
a
i1
a
11
-fache der 1. Zeile von allen anderen
A
(1)
= A A
(2)
=
_

_
a
(1)
11
a
(1)
1n
0 a
(2)
22
a
(2)
2n
.
.
.
.
.
.
.
.
.
0 a
(2)
n2
a
(2)
nn
_

_
und dieser Proze wird f ur die (n1) (n1)-Restmatrix fortgesetzt (rechte
Seite kann sofort mit transformiert werden)
(A[ b) = (A
(1)
[ b
(1)
) (A
(2)
[ b
(2)
) ... (A
(n)
[ b
(n)
)
11
Losung linearer Gleichungsysteme 12
wobei A
(n)
= U =
_

_
u
11
u
ij
.
.
.
.
.
.
u
nn
_

_
obere Dreiecksmatrix
Durch Zeilenlinearkombinationen der Ausgangsgleichung Ax = b hat sich x
nicht geandert, also Ux = b
(n)
leicht auosbar:
R uckwartselimination
x
n
=
b
(n)
n
u
nn
x
k
=
_
b
(n)
k

j>k
u
kj
x
j
_
1
u
kk
, k = n 1, ..., 1
2.1.2 Bemerkungen zum Gauschen Algorithmus
Bemerkung 2.1
a
(k)
kk
,= 0 notwendig wegen Division aber numerische Forderung:

[a
(k)
kk
[ nicht klein ist Voraussetzung um ein stabiles Verfahren zu erhalten
= Rekursion:
Zeile j := Zeile j (
a
(k)
ik
a
(k)
kk
) Zeile k
nach 2.1
_
a
(k)
ik
a
(k)
kk
_
moglichst klein
deshalb:
Pivotisierung
d.h. suche ein gen ugend groes Element a
(k)

in der jeweiligen Restmatrix und


vertausche Zeilen (Spalten) k ( k) in der Matrix (A
(k)
[ b
(k)
),
so da a
(k)

zu a
(k)
kk
in der vertauschten Matrix wird
(die Spaltenvertauschung zieht eine Umnummerierung der x
i
nach sich)
deshalb:
Varianten: 1.)

Spaltenpivotsuche
[a
(k)
k
[ = max
ik
[a
(k)
ik
[ gesucht
dann Zeilenvertauschung k
2.)

Zeilenpivotsuche
[a
(k)
k
[ = max
ik
[a
(k)
ki
[ gesucht
dann Spaltenvertauschung k und merken
3.)

vollstandige Pivotsuche ( Mehraufwand !!)


[a
(k)

[ = max
i,jk
[a
(k)
ij
[ gesucht
Losung linearer Gleichungsysteme 13
Algorithmus 2.2 Gau Algorithmus
Das Verfahren kann mathematisch exakt durch Matrixoperationen
beschrieben werden. Wir betrachten der Einfachheit halber nur
Spaltenpivotisierung
1. Schritt
Pivotisierung ergibt Index
1
> 1
P
1
:=
_

_
0 1
1
.
.
.
1
1 0
1
_

_
1

1

1
1
P
1
ist Permutationsmatrix, die 1. und
1
-te Zeile vertauscht (bei
1
> 1)
=(P
1
A
(1)
[ P
1
b
(1)
) = (

A
(1)
[

b
(1)
)
hat

Pivotzeile an Position 1, a
(1)
11
ist betragsgrosstes Element
Subtraktion des
a
(1)
i1
a
(1)
11
-fachen der 1-ten Zeile von der iten ergibt

L
1
1
(

A
(1)
[

b
(1)
) = (A
(2)
[ b
(2)
)

L
1
1
=
_

_
1

l
21
.
.
.
.
.
.
.
.
.

l
n1
1
_

Eliminationsmatrix,

l
i1
=
a
i1
a
11
2. Schritt
Pivotisierung
P
2
:=
_

_
1
0 1
1
.
.
.
1
1 0
1
_

_
2

k

2
k
Losung linearer Gleichungsysteme 14

L
1
2
P
2
(A
(2)
[ b
(2)
) = (A
(3)
[ b
(3)
)
usw. schliesslich:

L
1
n1
P
n1

L
1
n2
P
n2
...

L
1
1
P
1
(A[ b) = (U[ b
(n)
)
(P
k
Permutationsmatrix, die k-te Zeile mit der
k
-ten Zeile vertauscht
wobei (
k
k))
Bemerkung 2.3

L
k
=
_

_
1
.
.
.

l
k+1k
.
.
.
.
.
.
.
.
.

l
nk
1
_

_
Bemerkung 2.4
Um Speicherplatz zu sparen benutzt man eine geschickte Realisierung
die den frei werdenden Speicherplatz ausnutzt.
Schritt 1:
P
1
(A[ b) wird ausgef uhrt (d.h. Zeilen 1 und
1
vertauscht) jetzt: Mul-
tiplikation von

L
1
1
(

A
(1)
[

b
(1)
) ab Zeile/Spalte 2 wird ausgef uhrt, d.h.:
a
(2)
ij
:= a
(1)
ij

l
i1
a
(1)
1j
i > 1 j > 1
in der 1. Spalte (wo theoretisch Nullen entstehen)
speichert man

l
21
...

l
n1
Schritt 2:
neue Pivotisierung in Spalte 2 (ab a
(2)
22
) und P
2
(A
(2)
.
.
.b
(2)
) wird mit
gesamtem gespeicherten Feld ausgef uhrt ! (also auch

l
i1
mit ver-
tauscht) danach wieder Eliminationsschritt und abspeichern von

l
i2
in
2. Spalte usw.
Formelsatz
for k = 1, 2, ..., n 1 do
Spaltenpivotisierung in k-ter Spalte ab a
(k)
kk

k
Vertausche k-te und
k
-te Zeile (gesamte Zeile)
Losung linearer Gleichungsysteme 15
for i = k + 1, ..., n do

l
ik
=
a
(k)
ik
a
(k)
kk
( Speichern auf (i,k)Position)
Subtrahiere das

l
ik
-fache der k-ten von i-ten Zeile:
a
(k+1)
ij
:= a
(k)
ij

l
ik
a
(k)
kj
j = k + 1, ..., n
b
(k+1)
i
:=

b
(k)
i

l
ik

b
(k)
k
(mit

l
ik
geschrieben!)
k-ter Schritt:
Matrix der Form
(T
(k)
[ b
(k)
) =
_

_
u
11
u
1n

b
(k)
1

21
u
22
.
.
.
.
.
.
.
.
.
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. u
k1k
u
k1n

b
(k)
k1
.
.
.
.
.
.
k1k1
a
(k)
kk
a
(k)
kn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

nk1
a
(k)
nk
a
(k)
nn

b
(k)
n
_

_
(
ij
vertauschte

l
ij
)
jetzt Pivotsuche aus a
(k)
kk
bis a
(k)
nk
Zeile
k
vertauschen gesamte Zeile k und
k
speichern neue
ik
unterhalb von a
(k)
kk

ik
:=
a
(k)
ik
a
(k)
kk
Subtraktion des
ik
-fachen der Zeile ( a
(k)
kk+1
... a
(k)
kn
[

b
(k)
k
) von allen anderen,
ergibt: (T
(k+1)
[ b
(k+1)
).
Losung linearer Gleichungsysteme 16
Dies f uhrt auf ein allgemeine Formel:
a
(k+1)
ij
:= a
(k)
ij

a
(k)
kj
a
(k)
ik
a
(k)
kk
.
Am Ende ist (T
(n)
[ b
(n)
) auf dem Matrixfeld gespeichert, mit denen folgendes
gilt:
T
(n)
=
_

_
u
11
u
ij
.
.
.
.
.
.
l
ij
u
nn
_

_
Denition 2.5
L =
_

_
1
l
21
.
.
. 0
.
.
.
.
.
.
l
n1
l
nn1
1
_

_
, U =
_

_
u
11
u
ij
.
.
.
0 u
nn
_

_
Bemerkung 2.6
Denition 2.5 = LU = PA wobei P = P
n1
...P
1
Produkt der benutz-
ten Permutationsmatrizen ist. Deshalb ist Gauscher Algorithmus auch
eine LU-Zerlegung (LR-Zerlegung) der Matrix PA (bei Zeilenpivotsu-
che oder vollstandige Pivotsuche gilt LU = PAQ mit Q dem Produkt
von Spaltenvertausch.) Besonders wichtig ist diese Vorgehensweise, wenn
viele (zeitlich nacheinander auftretende) rechte Seiten vorhanden sind:
1.) LU = PA LU-Zerlegung
2.) f ur jede gegebene rechte Seite losen wir
Ax = b
PAx = Pb
LUx = Pb
mit Hilfe von:
2.1.) Ly = Pb =

b
. .
ergibt y
Vorwartselimination
y
1
=

b
1
y
k
=

b
k

i<k
l
ki
y
i
k = 2, ...n
Losung linearer Gleichungsysteme 17
2.2.) Ux = y ergibt x
R uckwartselimination
x
n
= y
n
/u
nn
x
k
= (y
k

i>k
u
ki
x
i
)/u
kk
k = n 1, ..., 1.
2.1.3 LU-Zerlegung bei schwach besetzten Matrizen
Sei A R
n,n
, die Anzahl der wesentlichen Operationen zur Durchf uhrung von
PA = LU ergibt n
3
/3
Denition 2.7
Sei A R
n,n
, dann bezeichnet man A als Schwachbesetzte Matrizen (englisch

sparse) wenn sie wesentlich weniger als n


2
Nichtnullelemente enthalt.
= Idee: Ausnutzung dieser Nullen um Operationen zu sparen
Beispiel 2.8
Bandmatrix (Bandbreite m : a
ij
= 0 [i j[ m)
A =
_

_

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

_

_
ohne Pivotisierung:
sind L und U wieder schwach besetzt, Bandbreite m = nm
2
Operationen.
Problem:
Pivotisierung

ll-in Vernichten von Nullen Vertauschung k-te Zeile


mit
k
-ter Zeile besser, wenn
k
nahe an k als wenn
k
k gro (

ll-in)
etwa folgende Pivotisierungsstrategie:
[a
(k)
k
[ > max
ik
[a
(k)
ik
[ ( < 1)
Losung linearer Gleichungsysteme 18
2.1.4 Cholesky- und Crout-Zerlegung
geg.: A = A
T
positiv denite Matrix d.h.
a) x
T
Ax > 0 x ,= 0, x R
n
b) alle Eigenwerte positiv
c) alle Hauptminoren positiv dh. det(a
ij
)
k
ij=1
> 0 k = 1, ..., n
Satz 2.9
genau eine obere Dreiecksmatrix R mit A = R
T
R.
Beweis: konstruktiv: Cholesky-Zerlegung betrachte
a
jk
= e
T
j
Ae
k
mit e
j
=
_

_
0
.
.
.
1
.
.
.
0
_

_
= e
T
j
R
T
Re
k
= (Re
j
)
T
(Re
k
)
Skalarprodukt von k-ter und j-ter Spalte von R
a
jk
=
min(j,k)

i=1
r
ik
r
ij
Ordnen Elemente a
jk
spaltenweise (j < k) und betrachten jeweils obige Formel
deniert genau ein Element von R
a
11
= r
2
11
r
11
=

a
11
usw.
r
jk
:=
1
r
jj
(a
jk

i<j
r
ik
r
ij
) j < k
r
kk
:= (a
kk

i<k
r
2
ik
)
1/2
_
_
_
k = 1, ..., n

Bemerkung 2.10
alle Wurzeln sind deniert, da A positiv denit (induktiv zeigen)
Losung linearer Gleichungsysteme 19
Spaltenskalarprodukte der Elemente von R bei schwach besetzten Ma-
trizen folgende Speicherung g unstig: obere Halfte von A R
Anzahl notwendiger Operationen: n
3
/6 (halber Aufwand gegen uber Gau)
schwach besetzt, Bandbreite m
nm
2
2
auch zeilenweise Berechnung der r
kj
moglich
Denition 2.11
Eine Zerlegung der Form A =

R
T
D

R mit D = diag(d
11
... d
nn
)

R =
_

_
1 r
ij
.
.
.
0 1
_

_
nennen wir die Crout Zerlegung .
Oenbar gilt:
R = D
1
2

R R
T
R =

R
T
D
1
2
D
1
2

R
auerdem wenn wir L =

R
T
, U = D

R setzen = A = LU (von LU-
Zerlegung).
Die Realisierung erfolgt analog zu Cholesky: (Beachtung von u
kj
= d
k
r
kj
)
u
jk
:= a
jk

i<j
r
ij
u
ik
j = 1, ..., k 1
r
jk
:=
u
jk
d
jj
d
kk
:= a
kk

i<k
r
ik
u
ik
_

_
k = 1 . . . n
Bemerkung 2.12
u
jk
f ur Spalte k nur auf einem Hilfsvektor zu speichern (nach Berechnung
von d
kk
unnotig.)
Bemerkung 2.13
Auf der ehemaligen Hauptdiagonale (Elemente a
kk
) wird am
besten (1/d
kk
) gespeichert (da nur Multiplikation mit 1/d
kk
notwendig)
Gleichungssystem: Ax = b :

R
T
y = b z = D
1
y

Rx = z.
Bemerkung 2.14
Wieder Spaltenskalarprodukte der oberen Halfte der Matrixelemente
(

R, U) notwendig die

ll-in- Positionen sind exakt bekannt, woraus


sich das

Prol,

sky-line- der Matrix A


Losung linearer Gleichungsysteme 20
Bemerkung 2.15
A symmetrisch positiv denit =d
kk
> 0 k, die Crout-Zerlegung kann auch
f ur indenite Matrizen versucht werden (dann eben d
kk
< 0 f ur einige k)
Gefahr: kleine [d
kk
[ ware Pivotisierung notig.
2.1.5 Spezialfall Tridiagonalmatrizen
d.h. Bandbreite 2 (oder 3 je nach Denition)
a
11
. . . a
nn
besetzt a
ii
=
i
a
12
. . . a
n1n
besetzt a
i1i
=
i1
i = 2, ..., n
a
21
. . . a
nn1
besetzt a
ii1
=
i
i = 2, ..., n
sonst a
ij
= 0
Gleichungssystem:

1
x
1
+
1
x
2
= b
1

2
x
1
+
2
x
2
+
2
x
3
= b
2
.
.
.

n1
x
n2
+
n1
x
n1
+
n1
x
n
= b
n1

n
x
n1
+
n
x
n
= b
n
deniert man noch
1
= 0 und
n
= 0 so gilt:

i
x
i1
+
i
x
i
+
i
x
i+1
= b
i
i
Losung linearer Gleichungsysteme 21
Ges.: einfacher Algorithmus, um die x
i
zu bestimmen
Idee: dr ucken x
i
durch x
i+1
aus
1. Gleichung
1
x
1
+
1
x
2
= b
1
x
1
:=
b
1

1
x
2
x
1
:= B
1
A
1
x
2
, B
1
=
b
1

1
, A
1
=

1

1
Einsetzen in 2. Gleichung

2
x
1
+
2
x
2
+
2
x
3
= b
2

2
x
2
= (b
2

2
x
1

2
x
3
)

2
x
2
= (b
2

2
B
1
+
2
A
1
x
2

2
x
3
)
(
2

2
A
1
)x
2
= b
2

2
B
1

2
x
3
x
2
:= B
2
A
2
x
3
, mit
B
2
=
b
2

2
B
1

2
A
1
, A
2
=

2

2
A
1
usw.: es gilt x
k
= B
k
A
k
x
k+1
k = 1, .., n 1, wobei
B
k
=
b
k

k
B
k1

k
A
k1
A
k
=

k

k
A
k1
jetzt: x
n1
= B
n1
A
n1
x
n
letzte Gleichung

n
x
n1
+
n
x
n
= b
n

n
B
n1

n
A
n1
x
n
+
n
x
n
= b
n
x
n
=
b
n

n
B
n1

n
A
n1
= B
n
Losung linearer Gleichungsysteme 22
Algorithmus 2.16 f ur Tridiagonalgleichungssystem
input: HD.:
1
...
2
output: x
1
...x
n
Losung
obere ND.
1
...
n1
untere ND.
2
...
n
rechte Seite b
1
...b
n
1. Start: B
0
= A
0
=
1
= 0
2. for k = 1, ..., n do
_
A
k
:=
k
/(
k

k
A
k1
)
B
k
:= (b
k

k
B
k1
)/(
k

k
A
k1
)
3. x
n
:= B
n
4. for k = n 1 down to 1
x
k
:= B
k
A
k
x
k+1
Bemerkung 2.17
Dieser Algorithmus entpricht der Durchf uhrung des GAUSSchen Algo-
rithmus ohne Pivotisierung = also nicht immer stabil!
anwendbar:
bei diagonal uberwiegenden Matrizen [
i
[ [
i
[ + [
i
[ (auch bei symme-
trischen, positiv deniten Matrizen)
2.2 Fehlerbetrachtung bei linearen Gleichungs-
systemen
Fortpanzung von Fehlern in der rechten Seite nach Theorie aus Kapitel 1 x
k
=

k
(b
1
...b
n
), wir brauchten

k
b
i
= (A
1
)
ki
dh. sehr viele Groen, diese sind un-
handlich, deshalb betrachtet man Vektornormen f ur Fehler, dh. x R
n
: |x| eine
Norm
Beispiel 2.18
|x|
p
= (

[x
i
[
p
)
1/p
p = 1: |x|
1
=

[x
i
[ Summennorm
p = 2: |x|
2
=
_

[x
i
[
2
Euklidische V.-n.
p = : |x|

= max
i
[x
i
[ Maximumnorm
Losung linearer Gleichungsysteme 23
benotigen analog Matrixnormen insbesondere f ur eine Abschatzung der
Art
|Ax| |A||x|
Eine Matrixnorm | | heit vertraglich mit einer Vektornorm | | wenn
x R
n
obige Ungleichung gilt. Wird |A| = max
x,=0
|Ax|/|x| deniert,
so ist diese stets mit der benutzten Vektornorm vertraglich.,
z.B. |A|
p
= max
x,=0
|Ax|
p
/|x|
p
p = 1 |A|
1
= max
j

i
[a
ij
[ Spaltensummennorm
p = 2 |A|
2
= (A

A)
1/2
(Spektralradius) Spektralnorm
p = |A|

= max
i

j
[a
ij
[ Zeilensummennorm
oft auch |A|
F
= (

ij
[a
ij
[
2
)
1/2
= tr(A

A)
1/2
Frobeniusnorm
(trB =

b
ii
=

i
(B))
Bemerkung 2.19
Matrixnorm erf ullt |AB| |A||B|
Bemerkung 2.20
1. Fehlerentwicklung aus Fehler in der rechten Seite:
= b hat absoluten Fehler b R
n
(relativer Fehler deniert Zahl b = | b|/|b|) und das fhrt zu den
absoluten Fehler in der Losung von x A(x +x) = b +b da Ax = b
Ax = b
typisch f ur lineare Zusammenhange von Input- und Output-Groen ist
| x| = |A
1
b| |A
1
|| b|
(f ur eine mit Vektorrnorm vertragliche Matrixnorm)
besser: relativer Fehler
Denieren:
x =
| x|
|x|
=
|A
1
b|
|x|

|b|
|b|
=
|A
1
b||Ax|
|b| |x|
|A
1
||A|b
Die Zahl (A) = |A||A
1
| heit Konditionszahl der Matrix A (von der
jeweils gewahlten Matrixnorm abhangig).
Losung linearer Gleichungsysteme 24
Oft wird die Spektralkondition :
(A) = |A|
2
|A
1
|
2
=
(A

A)
1/2

min
(A

A)
1/2
=

1
(A)
n(A)

i
(A) =
_

i
(A

A)
benutzt.
2. Die Fehlerentwicklung bei der LU-Zerlegung ist schwierig zu untersuchen.
Es gibt R uckwartsabschatzungen, die die ublichen Aussagen liefern: Er-
gebnis L U ist exakt f ur A + A mit | A|
mach
|A| f(n)
(je nach Verfahren / verschiedene Pivotisierung). Somit ist nicht Ax = b
sondern
LU x = (A+A) x = b mit x = x +x
gelost.
Abschatzung des resultierenden Fehlers :
x =
|x|
|x|
=
|(A+A)
1
bA
1
b|
|x|
(A+A)
1
A
1
= (I + A
1
A)
1
A
1
A
1
=
_
(I + A
1
A)
1
I
_
A
1
Voraussetzung: |A
1
A| < 1
Hilfssatz 2.21
|F| < 1 = (I F)
1
=

k=0
F
k
= |(I F)
1
|
1
1|F|
Neumannsche Reihe
F = A
1
A (I + A
1
A)
1
I =

n=1
(1)
n
(A
1
A)
n
=

n=1
(1)
n1
(A
1
A)
n1
A
1
A
= (I + A
1
A)
1
A
1
A
= (A +A)
1
A
(A +A)
1
A
1
= (A +A)
1
AA
1
Losung linearer Gleichungsysteme 25
| x|
|x|
=
|(A+A)
1
Ax|
|x|
|(A+A)
1
A|

|A
1
A|
1 |A
1
A|
da
x
1 x
monoton wachsend f ur x [0, 1) :

|A
1
|| A|
1 |A
1
|| A|
=
(A)
A
1 (A)
A
mit
A
=
|A|
|A|
als relativen Matrixfehler
2.3 Iterationsverfahren
2.3.1 Elementare Iterationsverfahren
Grundidee:
(1)

Uberf uhrung der Gleichung
Ax

= b (1)
in eine Form x

= Bx

+ c und Iteration x
(k+1)
= Bx
(k)
+ c, die gegen die
exakte Losung x

von konvergieren soll.


Aufspaltung A = C N (

convergent splitting)C invertierbar


Ax

= b =Cx

Nx

= b
x

= C
1
(Nx

+ b)
x

= C
1
Nx

+ C
1
b
B = C
1
N = I C
1
A, wobei c = C
1
b
(2) iterierfahige Gestalt = x
(k+1)
= C
1
Nx
(k)
+ c (3)
andere Moglichkeit der Darstellung von (3):
x
(k+1)
= C
1
(C A)x
(k)
+ c
= x
(k)
C
1
(Ax
(k)
b)
Ax
(k)
b = r
(k)
Residuum des Gleichungssystems
x
(k+1)
= x
(k)
C
1
r
(k)
(4)
(benotigen wir spater f ur Verallgemeinerung)
Beschaftigen uns mit Konvergenz in Form (3):
Losung linearer Gleichungsysteme 26
x
(k+1)
= C
1
Nx
(k)
+ c
= Bx
(k)
+ c
x

= Bx

+ c
x
(k+1)
x

= B(x
(k)
x

B wird auch Fehler ubergangsoperator genannt,


oenbar:
|B| < 1 (f ur irgendeine Matrixnorm, die mit der Vektornorm ver-
traglich) = Fehler |x
(k)
x

| 0
Satz 2.22
Ist |B| < 1, so konvergiert das Iterationsverfahren (3) gegen die exakte
Losung x

.
Beweis:
|x
(k)
x

| = |B
k
(x
(0)
x

)|
|B|
k
|x
(0)
x

Satz 2.23
Ist (B) < 1 das Iterationsverfahren (3) konvergiert gegen die exakte
Losung (wegen (B) |B| Matrixnormen ist dieser Satz scharfer).
Beweis: Mit Hilfe der Eigenzerlegung von B.
2.3.2 Einzel- und Gesamtschrittverfahren
Sei A = L + D + U,
L strenge untere Dreiecksmatrix
U strenge obere Dreiecksmatrix
D = diag(A)
Denition 2.24
C = D, N = L U
= Iterationsvorschrift
x
(k+1)
= D
1
(b Lx
(k)
Ux
(k)
) (Gesamtschrittverfahren, Jacobi-Iteration)
Losung linearer Gleichungsysteme 27
elementeweise Betrachtung:
x
(k)
=
_

_
x
(k)
1
.
.
.
x
(k)
n
_

_
, x
(k+1)
=
_

_
x
(k+1)
1
.
.
.
x
(k+1)
n
_

_
x
(k+1)
j
=
1
d
jj
(b
j

i<j
a
ji
x
(k)
i

i>j
a
ji
x
(k)
i
), j = 1...n
hieraus Idee: Einzelschrittverfahren (GauSeidelIteration)
x
(k+1)
1
...x
(k+1)
j1
schon vorher berechnet, also in der obigen Formel benutzbar:
x
(k+1)
j
=
1
d
jj
(b
j

a
ji
x
(k+1)
i

a
ji
x
(k)
i
)
(dies ist die praktische Durchf uhrung, gleiche Operationszahl wie GSV)
theoretische Untersuchung:
x
(k+1)
= D
1
(b Lx
(k+1)
Ux
(k)
)
=(D + L)x
k+1
= b Ux
(k)
x
(k+1)
= (D + L)
1
(b Ux
(k)
)
d.h. es ist elemetare Iteration mit
C = D + L, N = -U
Somit ist die Konvergenz beider Verfahren klar:
(D
1
(L + U)) = (I D
1
A) < 1 GSV konvergent
((D + L)
1
U) = (I (D + L)
1
A) < 1 ESV konvergent
beides ist z.B. bei diagonal dominanten Matrizen erf ullt.
Denition 2.25
A streng (schwach) diagonal dominant
[a
kk
[ > ()

j,=k
[a
kj
[ k
() in mindestens einer Matrixzeile gilt >.
Losung linearer Gleichungsysteme 28
2.3.3 Unter- und

Uberrelaxation
Die Dierenz x
(k+1)
x
(k)
(

Verbesserung der Naherung)


konnte man uberhohen, um mehr in Richtung der Losung zu kommen:
x
(k)
= Bx
(k)
+ c (3

)
x
(k+1)
= x
(k)
+ ( x
(k)
x
(k)
)
> 1

Uberrelaxation
< 1 Unterrelaxation (selten benutzt)
= 1 elementares Iterationsverfahren
einfaches Aussehen in der Form (4):
x
(k)
= x
(k)
C
1
r
(k)
=x
(k+1)
= x
(k)
C
1
r
(k)
(4)
Beispiel 2.26
SOR (sukzessive

Uberrelaxation) entsteht durch Denition C = D + L
=x
(k+1)
= x
(k)
(D + L)
1
(Ax
(k)
b)
= (D + L)
1
b + (D + L)
1
((1 )DU)x
(k)
x
(k+1)
= c() + B()x
(k)
Bemerkung 2.27
In der praktischen Resalisierung ahnlich wie Einzelschrittverfahren:
x
k+1
j
=

d
jj
(b
j

i<j
a
ji
x
(k+1)
i

i>j
a
ji
x
(k)
i
) + (1 )x
(k)
j
Bemerkung 2.28
Die bisher betrachteten Iterationsverfahren werden nur angewendet in folgen-
den Situationen:
a) Matrix A stark diagonal dominant (gut konditioniert),
b) Matrix A schlecht konditioniert, Verfahren wird zur
Dampfung hochfrequenterFehleranteile verwendet (so-
genannte Glatter) nicht aber zur Losung des gegebenen
Gleichungssystems. (spater: Multigrid-Methode)
Losung linearer Gleichungsysteme 29
2.3.4 Instationare Iterationsverfahren
Grundidee:
x
(k)
Naherung f ur Losung x

, konstruieren

Suchrichtung q
(k)
(Bsp.: Elementare Iterationsverfahren: q
(k)
= C
1
r
(k)
)
Denieren: x
(k+1)
= x
(k)
+
k
q
(k)
, so da neuer Fehler z
(k+1)
= x
(k+1)
x

minimal wird.

minimal heit Fehler z


(k+1)
bzgl. einer besonders zu de-
nierenden Norm ( ubliche Euklidische Vektornorm ist ungeeignet: x

unbekannt).
Denition 2.29
Skalarprodukt im R
n
< x, y >= y

Fx x, y R
n
wobei F = F
T
positiv denit Matrix (n n).
(im komplexen C
n
: y

Fx, F = F

> 0)
Das Skalarprodukt < , > induziert die Norm
|x| =< x, x >
1
2
x R
n

k
so berechnen, da Fehler z
(k+1)
minimale Norm hat:
< z
(k+1)
, z
(k+1)
> = < z
(k)
+
k
q
(k)
, z
(k)
+
k
q
(k)
>
= |z
(k)
|
2
+ 2
k
< z
(k)
, q
(k)
> +
2
k
|q
(k)
|
2
|z
(k+1)
| minimal
k
=
< z
(k)
, q
(k)
>
< q
(k)
, q
(k)
>
Hieraus entstehen viele Varianten durch
1. Festlegung des konkreten q
(k)
2. Festlegung des konkreten Skalarprodukts
< z
(k)
, q
(k)
>= q
(k)

Fz
(k)
mu berechenbar sein, z.B. bei F = ZA
q
(k)

ZAz
(k)
= q
(k)

Z(Ax
(k)
Ax

..
b
)
= q
(k)

Zr
(k)
aber zusatzlich: ZA mu symmetrisch positiv denit sein!
Losung linearer Gleichungsysteme 30
Beispiel 2.30 F = A Koordinatenrelaxation
q
(k)
= e
k
(modulo n),
=
k
=
e

k
r
(k)
a
kk
Beispiel 2.31 F = I Kaczmarz - Verfahren
q
(k)
= A

e
k
(modulo n) k-te Zeile von A
=
k
=
(A

e
k
)

z
(k)
|q
(k)
|
2
2
=
e

k
r
(k)
|q
(k)
|
2
2
Beispiel 2.32 F = A Gradientenverfahren
q
(k)
= C
1
r
(k)
weitere Moglichkeiten f ur Wahl von F : F = A

A, F = A

C
1
A
=
k
=
(q
(k)
)

r
(k)
(q
(k)
)

Aq
(k)
heit Gradientenverfahren (Verfahren des steilsten Abstiegs)
Namensgebung:
denieren: (x) =< C
(1)
Ax, x > 2 < C
(1)
b, x >
mit < x, y >= (Cx, y) = C

Cx f ur A = A

positiv denit, C = C

positiv
denit
berechnen Gradient:
1. Richtungsableitung :

s
= lim
0
(x + s) (x)

|s|
2
= < s, s >= 1
2. suchen s, so da

s
max |s| = 1
Gradient C
1
(Ax b)
Losung linearer Gleichungsysteme 31
Beispiel 2.33 Verfahren der konjugierten Gradienten
F = A (A = A

positiv denit)
q
(k)
= w
(k)
+
k1
q
(k1)
mit w
(k)
= C
1
r
(k)
, so da < q
(k)
, q
(k1)
>= 0
und wieder < z
k+1
, z
k+1
>min

hieraus zeigt man induktiv:


< q
(i)
, q
(j)
>= 0 i ,= j
< z
(k+1)
, q
(i)
>= 0 i k
=q
(i)
Orthonormalsystem
= bei k = n 1 z
(n)
span(q
(i)
...q
(n1)
) = R
n
z
(n)
0
endliches Verfahren
Algorithmus 2.34
(im einfachen Euklidischen Skalarprodukt aufgeschrieben )
Start: q
0
= w
0
= C
1
r
0

k
=
q
(k)
, r
(k)
)
Aq
(k)
, q
(k)
)
x
(k+1)
= x
(k)
+
k
q
(k)
r
(k+1)
= r
(k)

k
(Aq
(k)
)
w
(k+1)
= C
1
r
(k+1)

k
=
w
(k+1)
, r
(k+1)
)
w
(k)
, r
(k)
)
hergeleitet aus obiger Forderung
q
(k+1)
= w
(k+1)
+
k
q
(k)
Wird in der Regel in vorkonditionierter Form angewendet:
C

Vorkonditionierung ebenfalls symmetrisch positiv denit


klassich: C = I HESTENESS/STIEFEL
2.3.5 Konvergenztheorie der Iterationsverfahren
Satz 2.35
Bei fast allen Iterationsverfahren gilt
z
(k)
= p
k
(/)z
(0)
mit: z
(k)
Fehler im k-ten Schritt
z
(k)
= x
(k)
x

p
k
(t) Polynom vom Grade k mit p
k
(0) = 1.
/ = C
1
A Iterationsoperator (bestimmt die Konvergenzgeschwindig-
keit)
Losung linearer Gleichungsysteme 32
Beweis:
stationares Iterationsverfahren:
x
(k+1)
= x
(k)
C
1
r
(k)
r
(k)
= Ax
(k)
b = Az
(k)
z
(k+1)
= z
(k)
C
1
Az
(k)
= (I C
1
A)z
(k)
z
(k)
= (I C
1
A)
k
z
(0)
hier: p
k
(t) = (1 t)
k
, bei

Uberrelaxation: p
k
(t) = (1 t)
k
instationares Iterationsverfahren
Gradientenverfahren/steilster Anstieg:
x
(k+1)
= x
(k)
+
k
C
1
r
(k)
z
(k+1)
= (I +
k
/)z
(k)
z
(k)
= (I +
k1
/)(I +
k2
/) . . . (I +
0
/)z
(0)
p
k
(t) =
k1

j=0
(1 +
j
t)
Verfahren der konjugierten Gradienten
x
(k+1)
= x
(k)
+
k
q
(k)
z
(k+1)
= z
(k)
+
k
q
(k)
(1)
q
(k+1)
= w
(k+1)
+
k
q
(k)
(2)
wobei q
(0)
= w
(0)
, w
(k)
= C
1
r
(k)
= C
1
Az
(k)
= /z
(k)
Annahme:
z
(k)
= p
k
(/)z
(0)
q
(k)
= /q
k
(/)z
(0)
Zeigen Rekursion f ur beide Polynome
p
k
(t), q
k
(t) von Grade k, p
k
(0) = 1
Losung linearer Gleichungsysteme 33
Induktionsanfang: k=0
p
0
(t) 1 q
0
(t) 1

z
(0)
= p
0
(/)z
(0)
q
(0)
= w
(0)
= /z
(0)
erf ullt
Induktion nach k aus (1), (2):
p
k+1
(t) = p
k
(t) +
k
tq
k
(t)
. .
Grad k+1
p
k+1
(0) = p
k
(0) = 1
w
(k+1)
+
k
q
(k)

q
k+1
= /q
k+1
(/)z
(0)
= /p
k+1
(/)z
(0)
+
k
/q
k
(/)z
(0)
=q
k+1
(t) = p
k+1
(t) +
k
q
k
(t)

Fazit: Stets gilt


z
(k)
= p
k
(/)z
(0)
(p
k
(0) = 1)
Konvergenztheorie
Zerlege z
(0)
nach den Eigenvektoren von / (setzen / als diagonalisierbar
voraus):
/
i
=
i

i
z
(0)
=
n

i=1

i
=z
(k)
= p
k
(/)

i
=
n

i=1

i
p
k
(
i
)
i
. .
ist [p
k
(
i
)[
klein i(bzw. konvergiert gegen Null k )
=z
(k)
0
also ist Frage der Konvergenz z
(k)
0 in ein Approximationsproblem
uberf uhrt worden: Wie schnell konvergieren die Werte [p
k
(
i
)[ gegen Null
(k )? (Beachte: p
k
(0) = 1 k) Einschrankung: Sei /selbstadjungiert
bzgl. < , > z.B.: C = C

, A = A

+ positiv denit und F = A (=/


hat reelle Eigenwerte)
Losung linearer Gleichungsysteme 34
Bemerkung 2.36
|x|
2
=< x, x >= (Ax, x)
/ ist selbstadjungiert bez uglich diesem Skalarprodukt
< /x, x >= (AC
1
Ax, x) = (Ax, C
1
Ax)
= < x, /x >
= Eigenvektoren sind ONB bez uglich diesen Skalarproduktes und alle
Eigenwerte von / sind reell
|z
(k)
|
2
= |

i
p
k
(
i
)
i
|
2
=

2
i
(p
k
(
i
))
2
max
i
(p
k
(
i
))
2

2
i
=
2
k
|z
(0)
|
2
Beispiel 2.37

Uberrelaxation
p
k
(t) = (1 t)
k
Habe / = C
1
A nur reelle EW 0 <
i
...
n
(z.B.: C = C

positiv denit, A = A

)
[p
k
(A
i
)[ = [1
i
[
k
min

einzig frei wahlbare Groe

opt
=
2

i
+
n
=
k
= max
i
[1
i
[
k
= [1
1
[
k
=

1
2
1

1
+
n

k
=

n
+
1

k
=

1
1 +

k
, =

1

n
=|z
(k)
|
k
|z
(0)
|

1
1 +
Konvergenzquotient
(bei optimalem =
2

1
+n
, im allgemeinen unbekannt)
Beispiel 2.38 PCG
Wir wissen z
(k)
= p
k
(/)z
(0)
p
k
(0) = 1 Orthogonalitaten
Losung linearer Gleichungsysteme 35
< z
(k)
, q
(i)
>= 0 i < k
z
(k)
span(q
(0)
, ..., q
(k1)
)
|z
(k)
| = min | p
k
(/)z
(0)
|
p
k
(t) : p
k
(0) = 1
d.h. PCG konstruiert optimales Polynom p
k
(t)
< z
(k)
, q
(i)
>= 0 i < k |z
(k)
| = min | p
k
(/)z
(0)
|

z
(k)
span(q
(0)
, ..., q
(k1)
) p
k
(t) p
k
(0) = 1
d.h. PCG konstruiert

optimales Polynom p
k
(t)
Denition 2.39
p
k
(t) optimal wenn |p
k
(/)z
(0)
| | p
k
(/)z
(0)
| p
k
(0) = 1
Bemerkung 2.40

k
= max
i
[ p
k
(
i
)[
Wenn
k
abgeschatzt werden kann, folgt eine Abschatzung f ur die
Konvergenzgeschwindigkeit:
|z
(k)
|
k
|z
(0)
|

k
ist im allgemeinen nicht angebbarda es von allen Eigenwerten abhangig ist
Ausweg: betrachten ein besonders einfach gewahltes Polynom p
n
(A)
|z
(k)
| = |p
k
(/)z
(0)
|
| p
k
(/)z
(0)
|
max
i
[ p
k
(/
i
)[ |z
(0)
| mit p
k
(0) = 1
max [ p
k
(t)[ |z
(0)
|t [
1
,
n
]

1
kleinster EW,
n
= (/) groter EW
Aus der Approximationstheorie (spater) kennt man die Losung (bestes
Polynom p
k
) als
p
k
(t) =
T
k
(g(t))
T
k
(g(0))
g(
1
) = 1
g(
n
) = +1
g(t) =
2t
n
1


1
+n
n
1
T
k
Tschebyschew-Polynom k-ten Grades
Losung linearer Gleichungsysteme 36
T
k
() =
1
2
(( +

2
1)
k
+ (

2
1)
k
)
T
0
= 1
T
1
= T
k+1
= 2T
k
T
k1
also = [ T
k
() [ 1 [1, 1]

k

1
[T
k
(g(0))[
=
_
T
k
_
1 +
1
__
1
2
_
1

1 +

_
k
mit =

min

max
Kapitel 3
Interpolation/Approximation von
reellen Funktionen
3.1 Grundaufgabe
Aufgabe:
Finde eine Funktion g /, die ein (vorgegebenes) G utekriterium f ur
gegebenes a), b) und c) erf ullt.
wobei:
a) geg.: Funktion f
b) geg.: / Menge von Funktionen
c) geg.: G utekriterium
Erklarungen
a) eventuell ist die Funktion f nur durch diskrete Daten
(etwa: f(x
i
), i = 1, ..., n) gegeben
b) / ist oftmals ein endlich dimensionanler Funktionenraum
(etwa:
n
= aller Polynome bis zum Grad n)
c) Interpolation:
die Funktion g mu an den Stellen x
i
gewisse Werte annehmen
(etwa : g(x
i
) = f(x
i
) oder g

(x
i
) vorgegeben)
Approximation:
g soll in einer bestimmten Norm minimal von f abweichen
Nutzen: Benutzen dann g(x) als Annaherung f ur f(x)
37
Interpolation/Approximation von reellen Funktionen 38
(a) um f( x) zu berechnen an Werten x ,= x
i
(Interpolation)
(b) um f(x) = 0 zu losen (Abschnitt 4)
(c) um
b
_
a
f(x)dx naherungsweise zu berechnen (Abschnitt 5)
3.2 Grundlegende Theorie der Interpolations-
aufgabe
geg.: x
0
, ... , x
n
St utzstellen
y
0
, ... , y
n
St utzwerte y
i
= f(x
i
)
geg.: /= span (
0
(x), ...,
n
(x))
Basis eines endlich dimensionalen Funktionsraumes
ges.: g(x) /: g(x) =
n

j=0

j
(x)
mit g(x
i
) = y
i
als Losung eines linearen Gleichungssystem (n + 1) (n + 1) :
Ga = b
mit a = (
0

n
)
T
, b = (y
0
y
n
)
T
, G = (
j
(x
i
))
n
i,j=0
Denition 3.1
Wir schreiben f ur eine Funktion f die n- mal stetig dierenzierbar auf ein
Intervall [a,b] ist f C
n+1
[a, b].
Satz 3.2
1. Die Interpolationsaufgabe mit der Basis (
0
, ...,
n
) ist eindeutig losbar
wenn die HAARsche Determinante det G nicht verschwindet.
2. Die Basis (
0
...
n
) erf ullt die HAARsche Bedingung, wenn det G ,= 0 f ur
jede Wahl der St utzstellen x
i
.
3.3 Interpolation mit Polynomen
allgemeine Aufgabenstellung
geg.: St utzstellen x
0
x
n
St utzwerte f
0
f
n
(f
k
= f(x
k
))
eventuell weitere Vorgaben z.B. m
k
= f

(x
k
)
/=
m
ges.: Polynom g
m
: g(x
i
) = f
i
einfachster Fall: nur Funktionswerte vorgegeben
d.h. m = n, eindeutiges Polynom g(x)
n
= span (1, x, ..., x
n
)
Interpolation/Approximation von reellen Funktionen 39
G = (x
j
i
)
n
i,j=0
det G =

i<j
(x
i
x
j
) ,= 0 x
i
,= x
j
Vandermondsche Determinante
hier: Basis
k
(x) = x
k
k = 0, ..., n wird praktisch nicht verwendet sondern:
L
k
(x) =

j,=k
x x
j
x
k
x
j
bei Lagrange-Interpolation
oder
N
k
(x) =
n1

j=0
(x x
j
) bei Newton-Interpolation
N
0
1
3.3.1 Lagrange-Interpolation
geg.: f
i
= f(x
i
) i = 0, ..., n
/=
n
ges.: g(x)
n
: g(x
i
) = f
i
Lagrange-Interpolationspolynom wird direkt angegeben
g(x) =
n

k=0
f
k
L
k
(x)
wobei L
k
(x) alles Polynome vom Grad n sind , die nur von den St utzstellen
x
i
nicht von St utzwerten f
i
abhangen:
L
k
(x) =

j,=k
xx
j
x
k
x
j
=L
k
(x
j
) =
kj
also g(x
j
) = f
j
oenbar erf ullt
3.3.2 Newton-Interpolation
Aufgabe wie bei Lagrange-Interpolation
geg.: /=
n
, f
i
= f(x
i
)
somit gleiches Polynom g(x)
n
als Losung der Interpolationsaufgabe, aber
andere Darstellung von g(x):
g(x) = c
0
+ c
1
(x x
0
) + c
2
(x x
0
)(x x
1
) + ... + c
n
(x x
0
) ... (x x
n1
)
c
i
rekursiv berechenbar:
c
0
= g(x
0
) = f
0
c
1
=: g(x
1
) = c
0
+ c
1
(x
1
x
0
) = f
1
c
1
=
f
1
f
0
x
1
x
0
Interpolation/Approximation von reellen Funktionen 40
usw. oder rekursive Denition von Interpolationspolynomen p
k
(x)
k
auf den
St utzstellen x
0
, ..., x
k
k = 0, 1, ..., n
p
0
(x) = c
0
= f
0
p
1
(x) = c
0
+ c
1
(x x
0
)
= p
0
(x) + c
1
(x x
0
) also mit p
1
(x
1
) = f
1
folgt
c
1
=
f
1
f
0
x
1
x
0
=
f
1
p
0
(x
1
)
x
1
x
0
usw.
p
k
(x) = p
k1
(x) + c
k
(x x
k1
) ... (x x
0
)
x = x
k
: c
k
=
f
k
p
k1
(x
k
)
k1

j=0
(x
k
x
j
)
Ergebnis:
p
0
(x) = f
0
p
k
(x) = p
k1
(x) + (f
k
p
k1
(x
k
))
k1

j=0
x x
j
x
k
x
j
, k = 1, ..., n
g(x) = p
n
(x)
3.3.3 Interpolationsfehler/Konvergenz
Die Lagrange und Newton-Interpolation liefern das gleiche Polynom g /=
n
in unterschiedlicher Darstellung
ges.: Abschatzung des Fehlers
[g( x) f( x)[ an einer Stelle x ,= x
i
eine solche Aussage ist nur moglich,
wenn Zusatzinformationen uber f bekannt sind, also f F (Funktionenmenge
mit gewissen Eigenschaften)
Satz 3.3
x
i
[a, b] und f C
n+1
[a, b] so gilt
r(x) = f(x) g(x) =
f
(n+1)
((x))
(n + 1)!
n

i=0
(x x
i
)
Beweis:
deniere Hilfsfunktion: h(x) = f(x) g(x) cw(x),
w(x) =
n
i=0
(x x
i
) ,
=h(x
i
) = 0 i, f ur beliebiges c,
setzen: c =
f( x) g( x)
w( x)
=h( x) = 0 x ,= x
i
Interpolation/Approximation von reellen Funktionen 41
h hat (n + 2) Nullstellen. Satz von Rolle: =
h

hat mindestens (n + 1) Nullstellen


h

hat mindestens nNullstellen


.
.
.
h
(n+1)
hat mindestens 1 Nullstelle in[a, b]
h
(n+1)
(x) = f
(n+1)
(x) 0 c(n + 1)!
c =
f
(n+1)
()
(n + 1)!
=
f( x) g( x)
w( x)

Ist also [f
(n+1)
(x)[ |f
(n+1)
|

= M beschrankt so gilt [r(x)[


M
(n+1)!
[w(x)[
Frage: n
WEIERSTASSscher Approximationssatz: f(x) C[a, b] kann beliebig ge-
nau durch Polynome angnahert werden.
aber: feste Vorgabe der St utzstellen x
0
...x
n
(n ) spielt hier besondere
Rolle, m ussen sogenannte Referenzfolge betrachten
X
(n)
= x
(n)
0
< x
(n)
1
< ... < x
(n)
n
[a, b]
Es gilt: F ur jede Referenzfolge existiert eine Funktion f C[a, b] f ur die nicht
_
|f g
n
|

0 gilt
(g
n
Interpolationspolynom zu St utzstellen X
(n)
)
Beispiel 3.4
f(x) = [ x[ ist eine solche Funktion f ur [a, b] = [1, 1] und aquidistante
Unterteilung.
Interpolation/Approximation von reellen Funktionen 42
3.3.4 Hermite Interpolation
geg.: f
i
= f(x
i
) und m
i
= f

(x
i
) i = 0, ..., n
2n + 2 Daten =g
2n+1
ges.: g(x
i
) = f
i
und g

(x
i
) = m
i
gesucht
(Losung: Hermite-Interpolationspolynom, wieder eindeutig bestimmt, falls
x
i
,= x
j
, i ,= j; Darstellung ahnlich Lagrange-Interpolation moglich.)
3.4 Spline-Interpolation
Nachteil der Polynom-Interpolation:
Bei groerem n hat das Polynom g eventuell starkere Schwankungen
und kann eventuell noch starker von f in einigen Zwischenpunkten
abweichen als bei kleinerem Grad.
Beispiel 3.5
0 5 10 15 20
15
10
5
0
5
Polynomiale Nherung mit n=5
0 5 10 15 20
20
0
20
40
60
80
Polynomiale Nherung mit n=7
10 0 10 20 30
15
10
5
0
Lineare Splineinterpolation
0 5 10 15 20
20
15
10
5
0
5
10
15
Kubische Splineinterpolation
Interpolation/Approximation von reellen Funktionen 43
Alternative: auf Teilintervallen [x
i1
, x
i
] mit Polynomen niedrigeren Grades
arbeiten.
3.4.1 Kubische Splines
Denition 3.6
Unter einem kubischer Spline versteht man eine Funktion g(x) C
2
[a, b]
mit a = x
0
< x
i
< ... < x
n
= b St utzstellen die der Bedingung g(x
i
) = f
i
gen ugen, wobei g(x) /=

3
auf [x
i1
, x
i
] i.
Betrachtung der Freiheiten/Bedingungen:
an den Stellen x
0
...x
n
: g(x
i
) = f
i
an den Stellen x
1
...x
n1
: (n 1)

Ubergangsbedingungen:
g

(x
i
0) = g

(x
i
+ 0)
g

(x
i
0) = g

(x
i
+ 0)
g besteht aus n kubischen Polynomen: 4n freie Paramter
n mal rechte/linke Interpolationsbedingung g(x
i
) = f
i
2n
+(2n 2)

Ubergangsbedingung
_
4n 2 Bedingungen
Man darf noch 2 weitere Bedingungen stellen:
a) g

(x) = 0 x = a, b
b) g

(a) = m
a
g

(b) = m
b
f ur gegebenes m
a
, m
b
(o.a.)
Konstruktion: bezeichnen g

(x
i
) = M
i
, i = 0, ..., n
setze h
i
= x
i
x
i1
i = 1, ..., n
auf [x
i1
, x
i
] ist g(x)
3
[x
i1
, x
i
] =g

(x) linear
g

(x) = M
i1
x
i
x
h
i
+ M
i
x x
i1
h
i
f ur x [x
i1
, x
i
]
g

(x) =
M
i1
h
i
(x
i
x)
2
2
+
M
i
h
i
(x x
i1
)
2
2
+ A
i
g(x) =
M
i1
h
i
(x
i
x)
3
6
+
M
i
h
i
(x x
i1
)
3
6
+ A
i
(x x
i1
) + B
i
mit gewissen Integrationskonstanten A
i
, B
i
Interpolationsforderungen:
g(x
i
) = f
i
, g(x
i1
) = f
i1
Interpolation/Approximation von reellen Funktionen 44
= f
i1
=
M
i1
h
2
i
6
+ B
i
f
i
=
M
i
h
2
i
6
+ A
i
h
i
+ B
i
=
B
i
= f
i1

M
i1
h
2
i
6
A
i
=
f
i
f
i1
h
i

h
i
6
(M
i
M
i1
)
Fazit: Jedes Polynom g(x)
3
[x
i1
, x
i
] ist linear von den Zahlen M
i
abhangig.
Bedingung g

(x
i
0) = g

(x
i
+ 0) einarbeiten, um die Zahlen M
i
zu bestimmen.
f ur x [x
i1
, x
i
]:
g

(x) =
M
i1
2h
i
(x
i
x)
2
+
M
i
2h
i
(x x
i1
)
2
+ A
i
g

(x
i
0) =
M
i
h
i
2
+
f
i
f
i1
h
i

M
i
h
i
6
+
M
i1
h
i
6
= d
i
+
h
i
6
M
i1
+
h
i
3
M
i
mit
d
i
=
f
i
f
i1
h
i
f ur x [x
i
, x
i+1
]
g

(x
i
+ 0) =
M
i
h
i+1
2
+ A
i+1
= d
i+1

h
i+1
3
M
i

h
i+1
6
M
i+1
also: g

(x
i
0) = g

(x
i
+ 0)
h
i
6
M
i1
+
h
i
+ h
i+1
3
M
i
+
h
i+1
6
M
i+1
= d
i+1
d
i
i = 1, ..., n 1
n 1 Gleichungen f ur (n + 1) Unbekannte M
i
noch 2 frei
wahlbare Bedingungen hinzunehmen z. B.
g

(a) = M
0
= 0
g

(b) = M
n
= 0
=(n 1) Gleichungen mit (n 1) Unbekannten
Interpolation/Approximation von reellen Funktionen 45
Gleichungssystem:
_

_
a
1
b
2
c
2
.
.
.
.
.
.
.
.
.
.
.
. b
n1
c
n1
a
n1
_

_
_

_
M
1
.
.
.
.
.
.
M
n1
_

_
=
_

_
d
2
d
1
d
3
d
2
.
.
.
d
n
d
n1
_

_
mit a
i
=
h
i
+ h
i+1
3
, b
i
=
h
i
6
= c
i
=
h
i
6
.
Diese Matrix ist stets streng diagonal dominant und somit regular
=M
1
...M
n1
stabil berechenbar.
Konvergenzverhalten:
Anders als bei Polynominterpolation konvergiert der Spline gegen f wenn n
3.4.2 B-Splines **
Denition 3.7 (sehr allgemein)
Seien M N
0
und u
0
< u
1
... u
K1
< u
K
. Der Knotenvektor u =
(u
j
)
j=0,...,K
deniert eine Zerlegung des Intervalls [u
0
, u
k
) in halboene
Intervalle [v
i
, v
i+1
)(i = 0, ...,

K1), wobei u
0
, ..., u
K
= v
0
, ..., v

K
mit
v
0
< ... < v

K
und jedes der v
i
genau l
i
mal in (u
j
)
j=0,...,K
vorkommt.
Es gelte l
i
M + 1 f ur alle 1 i

K 1.
Der Splineraum S
u, M
ist dann deniert durch
S
u, M
:= f : [u
0
, u
K
) R : Es existieren Polynome p
0
, ..., p

K1
Grad M mit f(x) = p
i
(x) f ur x [v
i
, v
i+1
) und f ur Ml
i
0
ist an der Stelle v
i
M l
i
mal stetig dierenzierbar
Dabei ist mit 0-maliger Direnzierbarkeit die Stetigkeit gemeint.
u wird als Knotenvektor, M als Grad des Splineraumes S
u, M
und
l
i
als Vielfachheit des Knotens v
i
bezeichnet.
Denition 3.8
B
j,0,u
(x) =
_
1 falls u
j
x u
j+1
0 falls x < u
j
oder x u
j+1
fur j = M, M + 1, ..., K + M 1, x R, und
B
i, l+1, u
(x) :=
x u
j
u
j+l+1
u
j
B
j, l, u
(x) +
u
j+l+2
x
u
j+l+2
u
j+1
B
j+1, l, u
(x)
fur j = M, M + 1, ..., K + M l 2, l = 0, 1, .., M 1x R,
Denition 3.9
Sei f : X

R eine vorgegebene Funktion. Dann heit die abgeschlossene
H ulle der Mengex X[f(x) ,= 0 der Trager der Funktion und man schreibt
Interpolation/Approximation von reellen Funktionen 46
tr f = x X[f(x) ,= 0
Bemerkung 3.10
B- Splines haben einen endlichen Trager.
Durch Denition 3.8 sind die B-Splines B
j, M, u
auf ganz R deniert.
Durch Linearkombinationen der B-Splines entsteht dann ein Raum von
auf ganz R denierten Funktionen, welcher mit S
u, M
bezeichnet wird.
S
u, M
:=
K1

j=M
a
j
B
j, M, u
: a
j
Rj
3.5 Alternative Interpolation
Rationale Interpolation
/= rationale Funktionen
p
n
(x)
q
m
(x)

schwieriger zu handhaben
Vorteile bei Extrapolation: Pole exakt (gesucht Naherung f( x) : x , [a, b])
Trigonometrische Interpolation
/= span (1, e
ix
, e
2ix
, ..., e
(n1)ix
)
f ur eine auf [0, 2) periodische Funktion f;
haug wird auch x
k
=
k 2i
n
sein, so f uhrt dieses Problem auf sehr einfache
Losung:
setzen: = e
2i
n
erste nte Einheitswurzel
(x) = e
ix
=/= span ((x)
0
,
1
(x), ...,
n1
(x))
Interpolation:
f
k
=
n1

j=0

j
(x
k
) k = 0, .., n 1 ges.:
j
(x
k
) = e
2ki
n
=
k
=f
k
=
n1

j=0

kj
k = 0, ..., n 1
Fb = f b = (
0
...
n1
)
T
f = (f
0
... f
n1
)
T
F = (
jk
)
n1
j,k=0
eventuell komplex
Interpolation/Approximation von reellen Funktionen 47
a) symmetrisch aber komplex
b) F

F =

FF = nI also (
1

n
F) ist unitar.
bzw. F

F = nI F
1
=
1
n
F

=
1
n

F also Gleichungssystem Fb = f stets


losbar und b =
1
n

Ff
also
k
=
1
n
n1

j=0

kj
f
j

kj
= e

kj2i
n
= cos(
2kj
n
) i sin(
2kj
n
)
d.h. es sind Summen der Art

f
j
cos(
2kj
n
) bzw.

f
j
sin(
2kj
n
)
notwendig ubliche Summation aufwendig O(n
2
) und instabil
besonderer Algorithmus FFT

Fast Fourier Transformation, schnelle Fou-


rier Transformation beachtet die vielen Rekursionen dieser Zahlen

jk
1. schnell dh. nur O(nln n)Operationen
2. stabil
stets volle Summation Ff oder

Ff zugleich, n mu eine Zweierpotenz
sein (Verallg. auf anderen Zahlen moglich, aber nicht so eektiv)
COOLEY-TUKEY-Algorithmus
3.6 Approximation
a) geg.: Funktion f (in der Regel stetig)
b) geg.: / Funktionsmenge
(in der Regel span(
0
(x), ...,
n
(x)))
c) G utekriterium: eine Norm |f g|
Aufgabe: Finde g
f
/ so da |f g
f
| = inf
g/
|f g|
g
f
heit

beste Approximation von f bez uglich | |


Bemerkung 3.11
betrachte nur lineare Approximationsprobleme wo
/= span (
1
...
n
) also g =

i
g /
(auch / mit nichtlinearen Parametern
j
denkbar)
Interpolation/Approximation von reellen Funktionen 48
Normen:
|f(x)|
p,
= (
b
_
a
(x)[f(x)[
p
dx)
1
p
werden benutzt (schreiben |f|
p
= |f|
p,1
)
bei | |

= max
x[a,b]
[f(x)[

gleichmaige Approximation
bei | |
2,(x)

Approximation im Mittel
3.6.1 Approximation im Mittel
Betrachte
f(x), g(x))

=
b
_
a
(x)f(x) g(x)dx
hierzu gehort die Norm |f|
2,
= f, f)
1
2

(x) sei auf [a, b] erklart und positiv (auer in endlich vielen Punkten) C[a, b] wird
mit < , >

zum unitaren Raum und kann zum Hilbertraum H

vervollstandigt
werden.
Betrachte Raum /= span (
0
(x), ...,
n
(x)) H

, so kann die Basis stets


als Orthonormalsystem (ONS)gewahlt werden:

i
(x),
j
(x))

=
ij
N
j
(ONS :

i

N
i
)
Beispiel 3.12
a) /=
n
(Polynomapproximation)
[a, b] (x)
k
(t) N
1
k
Name
[1, 1] 1
1
2
k
k!
d
k
dt
k
(t
2
1)
4
k +
1
2
LEGENDREPolynome
[1, 1] (1 t
2
)

1
2
cos(k arccos t)
1
n
,
2
n
(k > 0) TSCHEBYSCHEWPolynome
[0, ) e
t
k

j=0
_
k
j
_
(t)
j
j!
1 LAGUERREPolynome
(, ) e

t
2
2
(1)
k
e
t
2
2
d
k
dt
k
e

t
2
2
1
k!

2
HERMITEPolynome
b) /= span (1, e
ix
, e
2ix
, ..., e
nix
) ((x) = 1, auf [, ])
N
k
= 2
FOURIER-approximation bzw. im reellen:
/= span (1, sin x, cos 2x, ..., cos 2x, ..., cos nx, sin x, sin 2x, ..., sin nx)
mit N
0
= 2 N
k
= (k > 0)
Interpolation/Approximation von reellen Funktionen 49
Berechnung der besten Approximation g
f
=
n

i=0

i
(x)
|f g|
2
= |f|
2
+|g|
2
2f, g)
= |f|
2
+

[
i
[
2
N
i
2

i
f,
i
)
D = diag (N
0
...N
n
) : a
T
Da 2b
T
a + c min
a
a R
n+1
a = (
0
...
n
)
T

b = (f,
i
))
n
i=0
Da = b

i
=
b
i
N
i
=
f,
i
)
N
i
Satz 3.13
Gilt
i
,
j
) = N
i

ij
f ur die Basis in /, so ist
g
f
=
n

i=0
f,
i
)
i
N
i
die beste Approximation von f in / bez uglich | | = , )
1
2
Bemerkung 3.14
Die
f,
i
)

N
i
sind sogenannte FOURIER-Koezienten bez uglich der Ba-
sis
0
...
n
(aus Verallgemeinerung von trigonometrischen Funktionen
(Bsp. b))
g
f
=
0
+
n

k=1
(
k
cos kt +
k
sin kt)
Abbruch der FOURIER-Reihe nach Gliedern cos nt/ sin nt.
Satz 3.15
Aus |f g
f
|
2
min
g/
folgt Orthogonalitat des Fehlers zu / :
f g
f
, g) = 0 g /
Beweis:
f

i
,
k
) =
k
N
k

k
N
k
= 0 k = f ur jede Funktion aus /
Abschatzen des Fehlers / Konvergenz gegen Null
Interpolation/Approximation von reellen Funktionen 50
|f g
f
|
2
= f g
f
, f) f g
f
, g
f
)
= |f|
2
g
f
, f) 0
g
f
, f) =
n

i=0
f,
i
)
2
N
i
=
n

i=0
f,

i

N
i
)
2
|f|
2
n
BESSELsche Ungleichung
a) lim
n

f,

i

N
i
)
2
= |f|
2
f ur beliebige Funktion f
= Fehler geht gegen Null f
ein solches Basissystem
i

i=0
heit fundamental
b) lim

f,

i

N
i
)
2
|f|
2
d
2
d > 0
f ur eine Funktion f =f hat einen

Abstand d vom Unterraum span (


0
,
1
...)
Viele orthogonale Funktionensysteme sind fundamental f ur f C[a, b], so
z. B.
trigonometrische Funktion ( = 1, [, ])
LEGENDRE-Polynome ( = 1, [1, 1])
TSCHEBYSCHEW-Polynome ( = (1 t
2
)

1
2
, [1, 1])
3.6.2 Gleichmassige oder Tschebyschew-Approximation
hier: |f|

= max
x[a,b]
[f(x)[
also: |f g
f
|

min
g/
heit kleinstmogliche Abweichung der Funktion g von f
(d.h. nur BANACH-Raum C[a, b], | |

deshalb kein Skalarprodukt moglich).


Losung g
f
ist i.a. nicht explizit angebbar, sondern mu iterativ bestimmt werden
(mittels REMES-Algorithmus)
Ausnahme:
f(x) = x
n
, /=
n1
[1, 1]
(also x
n
durch Polynom hochstens (n 1)-Grades approximieren)
Losung: x
n
g
f
(x) ist Tschebyschew-Polynom, n-ten Grades
x
n
g(x) = T
n
(x)/2
n1
Kapitel 4
Nichtlineare Gleichungen
4.1 Allgemeine Aufgabenstellung
A) geg.: Funktion f
k
von n Veranderlichen x
1
... x
n
ges.: f
k
(x
1
, ..., x
n
) = 0 k = 1 ... n
x =
_

_
x
1
.
.
.
x
n
_

_
, F =
_

_
f
1
.
.
.
f
n
_

_
wobei F(x) = 0
B) Verallgemeinerung: Anzahl der Funktionen ,= Anzahl der Unbekannten
_

_
f
1
.
.
.
f
m
_

_
= F, x =
_

_
x
1
.
.
.
x
n
_

_
m > n
im allgemeinen F(x) = 0 nicht losbar aber min
x
|F(x)| moglich.
Sonderfall: n = 1 f(x) = 0 NullstellenBestimmung der reellen Funktion f
4.2 Nullstellenbestimmung mit Interpolations-
ideen
Idee:
nehmen einige St utzstellen x
0
...x
k
berechnen f(x
0
)... f(x
k
)
Konstruieren Interpolationspolynom g(x)
neue Naherung f ur Nullstellen x

ist Nullstelle x
k+1
von g(x)
51
Nichtlineare Gleichungen 52
1. Sekantenverfahren (regula falsi)
n = 1, g(x)
1
:
Lagrange-Interpolation g(x) = f
0
x x
1
x
0
x
1
+ f
1
x x
0
x
1
x
0
Nullstelle x
2
=
f
0
x
1
f
1
x
0
f
0
f
1
Verfahren:
x
k+1
=
f(x
k1
)x
k
f(x
k
)x
k1
f(x
k1
) f(x
k
)
g unstig wenn: x
k1
< x

< x
k
(f(x
k
) f(x
k1
) < 0) gilt
Diejenige St utzstelle aus x
k1
, x
k
jetzt auswahlen um damit wieder
f( x
k
) f(x
k+1
) < 0 zu erreichen.
2. Newton-Verfahren: n = 1, g(x) aus Hermite Interpolation g
1
x
0
, f(x
0
), f

(x
0
) =g(x) = f(x
0
) + (x x
0
)f

(x
0
)
Nullstelle x
1
= x
0

f(x
0
)
f

(x
0
)
Verfahren:
x
k+1
= x
k

f(x
k
)
f

(x
k
)
3. Interpolation der Umkehrfunktion
hier beliebig hoher Polynomgrad moglich:
geg.: x
0
, ... , x
k
St utzstellen
y
0
, ... , y
k
Funktionswerte y
j
= f(x
j
)
Sei f monoton = Umkehrfunktion x
j
= f
1
(y
j
)
g(x)
k
Lagrange-Interpolationspolynom f ur f
1
Nutzen:
f(x

) = 0 x

= f
1
(0) also nicht Nullstellen von g(x) benotigt,
sondern
x

= f
1
(0) g(0) = x
k+1
Nichtlineare Gleichungen 53
4. Andere Verfahren
n = 1, g
2
Hermite-Interpolationspolynom Newtonverfahren 2. Grades
n = 2, g
2
Lagrange-Interpolation MULLERsches Parallelverfahren
Verfahren mit noch hoheren Polynomen sind ungebrauchlich weil neue Null-
stelle schwer zu berechnen.
Bemerkung 4.1
k = 1 (x
0
, x
1
, y
0
, y
1
benutzt) ergibt x
2
wie bei Sekantenverfahren, von nun an
bessere Naherung, da stets alle x
i
benutzt; vorteilhaft wird Newton-Interpolationspolynom
benutzt
4.3 Das Newton-Verfahren f ur n > 1
(Verallgemeinerung obiger Form)
F =
_

_
f
1
(x
1
...x
n
)
.
.
.
f
k
(x
1
...x
n
)
_

_
F(x) = 0
f
k
(x) hat Taylorentwicklung:
f(x) = f
k
(x
(j)
) +f
T
k
(x x
(j)
) +O(|x x
(j)
|
2
)
f
k
= (
f
k
x
1
, ...,
f
k
x
n
)
T
F ur den ganzen Vektor F aufgeschrieben:
F(x) = F(x
(j)
) +
_

_
f
T
1
.
.
.
f
T
n
_

_
(x x
(j)
) +O(|x x
(j)
|
2
)
F

(x) =
_
f
k
x
j
_
n
k,j=1
=x x
(j)
= +(F

(x))
1
F(x) +O(|x x
(j)
|
2
)
Naherung von x

x
(k+1)
, x x
(k)
weglassen des Restgliedes
Nichtlineare Gleichungen 54
x
(k)
x
(k+1)
= (F

(x
(k)
))
1
F(x
(k)
)
Verfahren:
F(x
(k)
) = (F

(x
(k)
))(x
(k)
)
x
(k+1)
= x
(k)
x
(k)
Bemerkung 4.2
lokale Konvergenz, falls F

(x
k
) k regular
F ur jedes k ist ein Gleichungsystem zu losen und die Systemmatrix andert
sich mit k teuer
verbessertes Newton Verfahren:
F

(x
0
)(x
(k)
) = F(x
(k)
)
x
(k+1)
= x
(k)
+x
(k)
Bemerkung 4.3
Jetzt liegt ein Gleichungssystem mit konstanter Systemmatrix vor.
Diese sollte LU faktorisiert werden.
4.4 Fixpunktiteration
f(x

) = 0 wird in iterierfahige Form gebracht x

= (x

) wobei x

Fixpunkt
von heit
Verfahren:
x
k+1
:= (x
k
)
Konvergenzbetrachtung
Denition 4.4
Eine Folge x
k
mit Grenzwert x

hat die Konvergenzordnung p, wenn


[x
k+1
x

[ C[x
k
x

[
p
gilt. (bei p = 1 ist C < 1 notwendig, p = 1 heit lineare Konvergenz).
Satz 4.5
Gilt in einer Umgebung U

(x

) : [

(x)[ q < 1, so konvergiert die


Fixpunkt-Iteration f ur jeden Startwert x
0
U

(x

) mindestens linear
gegen x

.
Nichtlineare Gleichungen 55
Beweis:
x
0
U

(x

)
x
1
x

= (x
0
) (x

)
= (x
0
x

()
zwischen x
0
und x

= U

(x

)
[

()[ q < 1 =
usw.
[x
1
x

[ q[x
0
x

[
[x
k
x

[ q
k
[x
0
x

[ 0
nach obiger Denition liegt lineare Konvergenz vor, wenn
[x
k+1
x

[ q[x
k
x

[ k q fest, q < 1
gilt.

Satz 4.6
Ist (x) in der Umgebung U

(x

) gen ugend oft dierenzierbar, mit

(k)
(x

) = 0 k = 1, ..., p 1

(p)
(x

) ,= 0
so konvergiert die Fixpunktiteration mit der Ordnung p (falls uberhaupt
Konvergenz vorliegt).
Beweis:
x
k+1
x

= (x
k
) (x

)
=
(p)
(x

)
(x
k
x

)
p
p!
+
(p+1)
()
(x
k
x

)
p+1
(p + 1)!
[x
k+1
x

[
[x
k
x

[
p
=

(p)
(x

)
p!
+

(p+1)
()
(p + 1)!
(x
k
x

Beispiel 4.7
x cos x = 0 x
k+1
= cos x
k
(x) = cos x

(x) = sin x
sin x

< 1 lineare Konvergenz.


Nichtlineare Gleichungen 56
Beispiel 4.8
Newtonverfahren mit x
k+1
= x
k

f(x
k
)
f

(x
k
)
(x) = x
f(x)
f

(x)
Sonderfall einer Fixpunktpunktiteration

(x) = 1
(f

(x))
2
f

f
(f

)
2
=
f

f
(f

)
2
= 0

(x) =
(f

f + f

)(f

)
2
2f

(f

)
2
f
(f

)
4
=
f

f + f

(f

)
2
2f
2
f
(f

)
3
=
f

(x)
f

(x)
,= 0
Ist f

(x

) ,= 0,so konvergiert das Newtonverfahren mindestens quadra-


tisch gegen x

(nach Satz 4.6) .


4.5 Fixpunktiteration f ur n > 1
x = (x
1
, ... , x
n
)
T
R
n
, F(x) = 0, F: R
n
R
n
betrachte eine nichtlineare Fixpunktgleichung
x

= (x

) R
n
Iterationsverfahren:
x
(k+1)
= (x
(k)
)
Denition 4.9
heit kontrahierende Abbildung, wenn
|(x) (y)| q|x y| x, y U

(x

) und q < 1
mit U

(x

) = x R
n
: |x x

| < .
Satz 4.10
Ist in U

(x

) kontrahierend, so konvergiert die Fixpunktiteration mindestens


linear gegen x

.
Nichtlineare Gleichungen 57
Beweis analog zu Satz 4.5
lineare Konvergenz : |x
(k+1)
x

| q|x
(k)
x

|, q < 1
Konvergenzordung p : |x
(k+1)
x

| C|x
(k)
x

|
p
Bemerkung 4.11
Wenn F(x) = Ax b linear ist, so folgt aus der analogen Umformung aus
Abschnitt 2
A = C N
F(x

) = 0 x

= Bx

+ c
mit B = C
1
N
c = C
1
b
(x) = Bx + c
kontrahierend

|(x) (y)| q|x y|


|B(x y)| q|x y|x, y

|Bz| q|z| z

|B| q < 1
Die Bedingung |B| q < 1 an Konvergenz des Iterationsverfahrens
x
(k+1)
= Bx
(k)
+ c ist ein Sonderfall von einer

kontrahierenden Abbildung.
4.6 Besonderheiten bei Polynomgleichungen
Betrachte wieder den 1-dimensionalen Fall:
f(x

) = 0 x R wobei f(x) =
n

i=0
a
i
x
i
Polynom n-ten Grades.
Moglichkeiten:
- Newtonverfahren
- Sekantenverfahren
- Parabelverfahren usw.
notwendig: eektive Berechnung von
f(x
k
) =
n

i=0
a
i
x
i
k
Nichtlineare Gleichungen 58
= Horner Schema erfordert n wesentliche Operationen!
f(x) = a
0
+ x(a
1
+ x(a
2
+ ... + x(a
n1
+ a
n
x)))...)
einfacher Algorithmus
f := a
n
for i = n 1 down to 0 do
f := f x
0
+ a
i
Bemerkung 4.12
Alle angegebenen Iterationsverfahren haben nur lokale Konvergenz (d.h. Start-
wert x
0
U

(x

)), i.a. ist diese Startumgebung U

(x
0
) unbekannt.
Satz 4.13
Hat das Polynom f
n
nur reelle Nullstellen x

i
, so konvergiert das
Newton-Verfahren f ur alle reellen Startwerte x
0
mit x
0
> max
i
x

i
gegen
die grote Nullstelle.
Beweis: (klar am Bild)
Sei o.B.d.A.
lim
n
= Sei x
0
< min
i
x

i
:= x

man zeigt
(1) x
n+1
> x
n
(2) x
n+1
< x

x
n
ist monoton wachsende beschrankte Folge
x
n
x x

x
n+1
= x
n

f(x
n
)
f

(x
n
)
x = x
f( x)
f

( x)
x x

ist Nullstelle x = x

f(x) = (x x
0
)f
1
(x)
Herleitung der Koezienten von f
1
(x) =
n1

i=0
b
i
x
i
Nichtlineare Gleichungen 59
f(x) = (x x
0
)f
1
(x) + f(x
0
)
= (x x
0
)
n1

i=0
b
i
x
i+1

n1

i=0
b
i
x
i
x
0
+ f(x
0
)
n

i=0
a
i
x
i
= b
n1
x
n
+
n1

i=0
(b
i1
b
i
x
0
)x
i
b
0
x
0
+ f(x
0
)
Koezientenvergleich ergibt
x
n
: b
n1
= a
n
x
i
: b
i
= b
i1
b
i
x
0
i = 1, ..., n 1
b
i1
= a
i
+ b
i
x
0
x
0
: a
0
= b
0
x
0
+ f(x
0
)
f(x
0
) = a
0
+ b
0
x
0
verbesserter Algorithmus
b
n1
= a
n
for i = n 1 down to 0 do
b
i1
:= b
i
x
0
+ a
i
=b
1
= f(x
0
)
f
1
(x) =
n1

i=0
b
i
x
i
,
f(x) = f
1
(x)(x x
0
) + b
1
Bemerkung 4.14
Aus dem Satz 4.13 folgt, da eine Konstruktion einer kleinsten/groten
Nullstelle x
0
moglich ist. Weitere Nullstellen erhalt man durch Betrach-
tung des reduzierten Polynoms. Dessen Koezienten erhaelt man nach
dem HORNER - Schema.
Bemerkung 4.15
Konstruktion von x
0
somit aus irgendeiner Abschatzung der Nullstellen
von Polynomen moglich, z. B.
[x

i
[ max
1in1
_

a
n
a
0

, 1 +

a
i
a
0

_
[x

i
[ max
_
1,
n

i=1

a
i
a
0

_
[x

i
[ max
_

a
n
a
n1

, 2

a
n1
a
n2

, ..., 2

a
1
a
0

_
Nichtlineare Gleichungen 60
Das Verfahren von BAIRSTOW
Bei reellem Startwert x
0
sind alle iterierten x
k
reell, somit auf diese Weise
keine komplexen Nullstellen berechenbar.
Ausweg:
Iteration f ur (konjugiert komplexe) Paare von Nullstellen, also x
2
rxq
ist Teiler von f(x) f(x) hat die beiden Nullstellen von (x
2
rxq).
Ansatz:
f(x) = f
1
(x)(x
2
rx q) + Ax + b
. .
Rest
=
A(r, q) = 0
B(r, q) = 0
Nichlineares Gleichungssystem mit 2 Unbekannten
Rest bei Division von f(x) durch x
2
rx q soll Null werden.
Benutzung des Newtonverfahrens f ur 2 gekoppelte
Gleichungen mit 2 Unbekannten:
_
r
k+1
q
k+1
_
=
_
r
k
q
k
_
D
1
_
A(r
k
, q
k
)
B(r
k
, q
k
)
_
D =
_
A
r
A
q
B
r
B
q
_

(r
k
,q
k
)
Geg.: r = r
k
, q = q
k
Dann ist zur Bestimmung von r
(k+1)
, q
(k+1)
die Berechnung von A, B, A
, r
, A
, q
B
, r
, B
, q
notwendig. Die Berechnug der Ableitungswerte ist mit einer weiterer
Division von f
1
(x) durch x
2
rx q moglich:
f
1
(x) = f
2
(x)(x
2
rx q) +

Ax +

B
A
, q
=

A, B
, q
=

B, A
, r
= r

A+

B, B
, r
= q

A
Die Division von f(x) (bzw. F
i
(x)) durch x
2
rx q wird besten mit einem
Horner-ahnlichen Schema durchgf uhrt.
Nichtlineare Gleichungen 61
Herleitung:
f(x) =
n

i=1
a
i
x
i
= (x
2
rx q)f
1
(x) + Ax + B
= (x
2
rx q)
n2

i=0
b
i
x
i
+ Ax + B
=
n2

i=0
b
i
x
i+2
r
n2

i=0
b
i
x
i+1
q
n2

i=0
b
i
x
i
+ Ax + B
=
n

i=2
b
i2
x
i+2
r
n1

i=0
b
i1
x
i
q
n2

i=0
b
i
x
i
+ Ax + B
=
n2

i=2
(b
i2
rb
i1
qb
i
)x
i
+ b
n2
x
n
+(b
n3
rb
n2
)x
n1
+ (Arb
1
qb
1
)x + (B qb
0
)
Koezientenvergleich:
a
n
= b
n2
i = n 2, ... 2
a
n1
= b
n3
rb
n2
a
i
= b
i2
rb
i1
qb
i
a
1
= Arb
0
qb
1
a
0
= B qb
0
Kapitel 5
Numerische Integration
5.1 Vorbemerkungen
Ziel: naherungsweise Berechnung von
b
_
a
f(x)dx f ur moglichst beliebige Funktio-
nen f
Bemerkung 5.1
f C[a, b], so ist I(f) =
b
_
a
fdx ein stetiges beschranktes lineares Funktional
von f uber C[a, b]. I(f) wird wie folgt durch stetige beschrankte lineare
Funktionen approximiert:
Q
n
(f) =
n

i=0

i
f(x
i
) (5.1)
mit den reellen Integrationsgewichten
i
und den St utzstellen
x
0
= a < x
1
< < x
n
= b)
Man bezeichnet 5.1 als

Quadraturformel
Satz 5.2
Mit wachsenden n werden die Koezienten
i
betragsmaig immer groer.
Andererseits gilt
b a =
n

i=0

i
Bemerkung 5.3
Q
n
(f) benutzt nur endlich viele Funktionswerte nicht alle Funktionen
werden gleich gut integriert (von einer Quadraturformel)
Ziel: Konstruktion von Quadraturformeln
62
Numerische Integration 63
5.2 Newton-Cotes-Quadratformeln
St utzstellen a = x
0
< x
1
< x
n
= b werden willk urlich festgelegt, ersetzen I(f)
durch Integration uber Lagrange - Interpolationspolynom
Q
n
(f) =
b
_
a
n

i=0
f(x
i
)L
i
(x)dx
=
n

i=0
f(x
i
)
b
_
a
L
i
(x)dx

i
=
b
_
a
L
i
(x)dx Integrationsgewichte
Bemerkung 5.4
Die Integrationsgewichte
i
hangen nur von x
i
ab und nicht von f !!!!
Insbesondere: aquidistante St utzstellen
setzen
x = a + sh mit [0, n]
dx = hds
x
k
= a + ih mit h =
b a
n
dann folgt
L
i
(x) =
n

j=0
j=i
x
i
x
j
x
i
x
j
=

j,=i
a + sh a jh
a + ih a jh
=

j,=i
sh jh
ih jh
=

j,=i
s j
i j

i
=
n
_
0
h

j,=i
s j
i j
ds.
(feste Zahlen, nur abhangig von n)
Numerische Integration 64
Beispiel 5.5
n = 1 h = b a

0
=
1
= h
1
_
0
s0
10
ds = h
1
_
0
s1
1
ds =
h
2
Q
1
(f) =
ba
2
(f(x
0
) + f(x
1
)) Trapezregel
n = 2 h =
ba
2

0
=
2
=
ba
6

1
= 2
ba
3
Q
2
(f) = (b a)(
1
6
f(a) +
2
3
f(
a+b
2
) +
1
6
f(b)) Simpson Regel
n = 3

0
=
3
=
ba
8

1
=
2
=
3
8
(b a)
3
8
Regel
n = 4

0
=
4
=
7
90
(b a)
1
=
3
=
16
45
(b a)

2
=
6
45
(b a)
usw. bis n=6 danach werden einige der Integrationsgewichte
i
negativ,
was zur Instabilitat f uhrt
Bemerkung 5.6
aus der Konstruktion folgt, da
Q
n
(f) =
b
_
a
f(x)dx gilt, wenn f ein Polynom vom Grade n ist.
Spezialfall: bei f(x) 1
n
b
_
a
fdx = b a
Q
n
(f) =
n

i=0

i
= b a Kontrolle
Bemerkung 5.7
Deniere noch Q
0
(f) = (b a)f(
a+b
2
) als Mittelpunktsregel
Fehlerfunktional
R
n
(f) = I(f) Q
n
(f)
Numerische Integration 65
ergibt sich aus der Fehlerbetrachtung der Polynom-Interpolation bei der Funk-
tion f, die (n + 1)-mal stetig dierenzierbar sei.
R
n
(f) =
b
_
a
(f(x) P
n
(x))dx
=
1
(n + 1)!
b
_
a
f
(n+1)
((x))
n

i=0
(x x
i
) dx
x = a + sh
=
h
n+2
(n + 1)!
n
_
0
f
(h+1)
((s))
n

i=0
(s i) ds
( P
n
das LagrangeInterpolationspolynom von f )
Beispiel 5.8
n = 1 [ R
1
(f) [ =
h
3
2!

1
_
0
f

((s))s(s 1) ds

MWS Integralrechnung : [ R
1
(f) [ =
h
3
2
[f

(
0
)[
1
_
0
s(s 1)ds
[ R
1
(f) [
(b a)
3
12
max
x[a,b]
[ f

(x) [
Beispiel 5.9 Fehler bei
Trapezregel: f C
2
[a, b] [ R
1
(f) [
h
3
12
| f

h = (b a)
Simpson-Regel: f C
4
[a, b] [ R
2
(f) [
h
5
90
| f
(4)
|

h =
(ba)
2
3
8
Regel: f C
4
[a, b] [ R
3
(f) [
3h
5
80
| f
(4)
|

h =
(ba)
3
Bemerkung 5.10
Q
0
integriert exakt falls f
1
Q
1
integriert exakt falls f
1
Q
2
integriert exakt falls f
3
Q
3
integriert exakt falls f
3
Bemerkung 5.11
n i.a. keine Konvergenz Q
n
(f) gegen I(f)
Numerische Integration 66
5.3 Zusammengesetzte Newton-Cotes-Formeln
Ausweg f ur hohere Genauigkeit:
unterteilen [a, b] =
n

i=1
[x
i1
, x
i
]
und benutzen auf jeden Teilintervalle eine Newton-Cotes-Formel mit
niedrigeren Grad.
Beispiel 5.12
Zusammengesetzte Trapezregel:
Q
(1)
n
(f) =
b a
2n
(f(x
0
) + 2f(x
1
) + + 2f(x
n1
) + f(x
n
))
x
n
= a + kh
ergibt den Fehler
[ R
(1)
n
(f) [ =[ I(f) Q
(1)
n
(f) [
1
12
_
b a
n
_
3
[

i
f

(
i
) [

(b a)
3
12
1
n
2
| f

0 mit n
Beispiel 5.13
Zusammengesetzte (verallgemeinerte) SIMPSON-Regel:
Sei n gerade, h =
b a
n
, auf [x
0
, x
2
], [x
2
, x
4
], , [x
n2
, x
n
] wird
SIMPSON-Regel angewandt:
Q
(2)
n
(f) =
ba
3n
(f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + 2f(x
4
)+
+ 2f(x
n2
) + 4f(x
n1
) + f(x
n
))
Fehlerfunktional
[ R
(2)
n
(f) [

_
(ba)
n
_
5
1
90
[ f
(4)
(
k
) [

n
2
| f
(4)
|

(ba)
5
n
5

1
90
=
(ba)
5
n
4
180
| f
(4)
|

Numerische Integration 67
5.4 ROMBERG-Integration
betrachte stets aquidistante St utzstellen x
k
= a + kh (h =
ba
n
) so ist zusam-
mengesetzte Trapezregel (oder zusammengesetzte SIMPSON-Regel) eine Folge
Q
(1)
n
(f)

n=1
von Naherungen f ur I(f). In der Berechnung gibt es eine besonders
g unstige
Teilfolge:
_
Q
(1)
1
, Q
(1)
2
, Q
(1)
4
, Q
(1)
8

_
da jeweils nur 2
k1
neue St utzstellen hinzukommen.
Algorithmus 5.14
Q
(1)
m/2
(f) =
ba
n
(f(x
0
) + 2f(x
2
) + 2f(x
4
) + + f(x
m/2
))
Q
(1)
n
(f) =
1
2
Q
(1)
n/2
(f) +
ba
n

k unger.
f(x
k
)
Start : Q
(1)
1
(f) = Q
1
(f) =
ba
2
(f(a) + f(b))
Weiter Verbesserung:
aus der Folge Q
(1)
2
k

k0
wird durch sogenannte RICHARDSON - Extrapola-
tion eine schneller konvergente Folge gebildet:
Q
(2)
n
= Q
(1)
n
+
1
3
_
Q
(1)
n
Q
(1)
n/2
_
ist identisch mit Zusammengesetzter SIMPSON-Regel (somit schneller
konvergent), Fortsetzung diese Prozesses:
Q
(k+1)
n
= Q
(k)
n
+
1
4
k
1
_
Q
(k)
n
Q
(k)
n/2
_
n = 1, 2, 4, 6 ,
ROMBERG-Quadratur
Schema:
Q
(1)
1
.
.
.
Q
(1)
2
Q
(2)
2
.
.
.
.
.
.
Q
(1)
4
Q
(2)
4
Q
(3)
4
.
.
.
.
.
.
.
.
.
Q
(1)
8
Q
(2)
8
Q
(3)
8
Q
(4)
8

I(f) I(f) I(f) I(f)
Numerische Integration 68
Bemerkung 5.15
Die Konvergenzgeschwindigkeit nimmt mit steigenden n und auch
steigenden k zu.
5.5 Gau-Integration
Wir wissen das f ur Newton-Cotes-Formel gilt:
Q
n
(f) = I(f) f
n
dabei waren St utzstellen x
i
fest vorgegeben.
jetzt: St utzstellen x
0
x
n
zusatzlich frei wahlbar, so da
Q
G
n
(f) =
n

i=0

i
f(x
i
) = I(f) f
2n+1
(2n + 2 Freiheitsgrade )
Beispiel 5.16
n=1 Q
G
1
(f) =
0
f(x
0
) +
1
f(x
2
)
betrachte [a, b] = [1, 1] soll exakt f ur Polynom bis 3. Grad sein:

o
:
0
+
1
= 2 =
1
_
1
dx

1
:
o
x
0
+
1
x
1
= 0 =
1
_
1
xdx da Funktion ungerade

2
:
0
x
2
0
+
1
x
2
1
=
2
3
=
1
_
1
x
2
dx

3
:
0
x
3
0
+
1
x
3
1
= 0 =
1
_
1
x
3
dx
4 nichtlineare Gleichungen mit 4 Unbekannten
Losung:
0
=
1
x
0
= x
1
=
1
3

3
Gausche Quadratformel: n = 1; [a, b] = [1, 1]
Q
G
1
(f) = f
_

1
3

3
_
+ f
_
1
3

3
_
(Groere Genauigkeit als SIMPSON-Regel mit 3 St utzstellen.)
n > 1 Nichtlineares Gleichungssytem schwer losbar, anderer Weg:
x
i
sind Nullstellen orthogonaler Polynome betrachte Gewichtsfunktion (x)
mit Skalarprodukt wie fr uher < f, g >=
b
_
a
(x)f(x)g(x)dx
jetzt naherungsweise Berechnung von I(f) =
b
_
a
(x)f(x)dx durch
Gau-Integrationsformel
Numerische Integration 69
Q
G
n
(f) =
n

i=0

i
f(x
i
)
wobei wir
i
und x
i
suchen so da,
I(f(x)) = Q
G
n
(f(x)) f
2n+1
Vorbemerkung: Sind x
i
bestimmt, dann ist

k
= Q
G
n
(L
k
(x)) = I(L
k
(x))
mit L
k
die Lagrangepolynome uber die St utzstellen x
i
Satz 5.17
Mit w(x) =
n

i=0
(x x
i
) gilt:
Q
G
n
(f) ist exakt
b
_
a
(x)w(x)z(x)dx = 0
f ur alle f
2n+1
f ur alle z(x)
n
Beweis
(a)

= w(x)
n+1
, z(x)
n
: w(x)z(x)
2n+1
=Q
G
n
(w(x)z(x)) = I(w(x)z(x))

i
w(x
i
)z(x
i
) = 0 z(x)
(b)

= f(x)
2n+1
beliebig
f(x) = w(x)z(x) + y(x)
w
n+1
, z
n
: y
n
Rest
I(f) = I(w z + y) = I(w z) + I(y)
I(f) = I(y)
y
n
, y = p
n
(x) Lagrange auf (n + 1) St utzstellen
auf x
0
x
n

I(f) = I(y) = Q
G
n
(y) =

i
y(x
i
)

i
f(x
i
) = Q
G
n
(f)

Numerische Integration 70
Bemerkung 5.18
Also Konstruktion x
0
, , x
n
durch andere Interpretation des Satzes:
w(x) Polynom (n + 1)-Grades mit Nullstelle x
0
x
n
und ist orthogonal zu
allen Polynomen n-ten Grades.
also: Sind p
0
, p
1
, p
n+1
die orthogonalen Polynome zum Gewicht (x) und zu
[a, b], so sind x
0
, , x
n
als Nullstellen des Polynoms p
n+1
zu wahlen.
Beispiel 5.19
[a, b] = [1, 1], (x) 1 LEGENDRE-Polynome (mit c= const)
_
p
k
(x) = c
d
k
dx
k
(x
2
1)
k
_
n = 0 : x
0
= 0,
0
= 2 MITTELpunktregel
n = 1 : p
2
(x) = ((x
2
1)
2
)

= (2(x
2
1)2x)

= (4x
3
4x)

= 12x
2
4
x
2

1
3
= 0 x
0
=
1
3

3
x
0
= x
1
=
1
3

3
0
=
1
= 1
n = 2 : x
2
0
x
2
=
_
3
5
x
1
= 0

0
=
2
=
5
9

1
=
8
9
usw. (tabellarisch erfat)
Fehlerfunktional bei Gau - Integration
Ist f C
2n
[a, b], so gilt
b
_
a
(x)f(x)dx Q
G
n
(f) =
f
(2n)
()
(2n)!
p
n
, p
n
)

wobei p
n
das n-te orthogonale Polynom ist bzgl. , )

mit hochsten
Koezient 1 (p
2
n
x
n
+ )
Fehler 0 f ur n
(aber Nachteil: standig neue St utzstellen)
Numerische Integration 71
Nullstellen Orthogonaler Polynome
Beispiel 5.20
(x) = (1 x
2
)

1
2
[a, b] = [1, 1]
bei diesen Tschebysche-Polynomen sind Nullstellen bekannt
p
n+1
(x) = cos(n + 1)(arcos x
i
) = 0 [ x [< 1
(n + 1) arccos x
i
=

2
+ k
x
k
= cos
_

2n+2
+
k
n+1
_
= cos
_
2k+1
2n+2

_
k = 0 n
Die Gewichte sind hierbei unabhangig von St utzstellen:
k
=

n+1
k
allgemeiner Fall:
Nullstellen x
i
des Polynoms p
(x)
n+1
sind stabil als Eigenwerte einer
Tridiagonalmatrix berechenbar.
Satz 5.21
Die orthogonalen Polynome haben folgende 3-gliedrige Rekursionsformel:
p
1
(x) = 0
p
0
(x) = 1
p
n+1
(x) = (x
n
)p
n
(x)
2
n
p
n1
(x) n = 0, 1, .
Beweis: Zeigen, da p
i
, p
j
) = 0 i ,= j dabei wird die Wahl von
n
,
n
mit angegeben.
1. n=0
p
1
(x) = (x
0
)p
0
(x) = xp
0
(x)
0
p
0
(x)
p
1
, p
0
) = 0 = xp
0
, p
0
)
0
p
0
, p
0
)
also
0
=
xp
0
, p
0
)
p
0
, p
0
)
2. n > 0
sei p
i
, p
j
) = 0 i ,= j, i, j n
p
n+1
(x) = xp
n
(x)
n
p
n
(x)
2
n
p
n1
(x)

n
= xp
n
(x), p
n
(x))/
2
n
,
2
n
= p
n
(x), p
n
(x))
p
n+1
, p
n1
) = 0 = xp
n
, p
n1
)
2
n

2
n1
Numerische Integration 72

2
n
= p
n1
, xp
n
)/
2
n1
= p
n
, xp
n1
)/
2
n1
= p
n
, p
n
+
n1
p
n1
+
n1
p
n2
)/
2
n1

2
n
=
2
n
/
2
n1
j < n 1
p
n+1
, p
j
) = 0 automatisch, da:
= xp
n
, p
j
)
n
p
n
, p
j
)
2
n
p
n1
, p
j
)
= p
n
, xp
j
)
p
n
, xp
j
) = p
n
, p
j+1
+
j
p
j
+
2
j
p
j1
) = 0
(wegen: j < n 1 heit j + 1 < n)
Bemerkung 5.22
Wichtigste Voraussetzung ist Symmetrie des Operators /p(x) = xp(x)
bzgl. p, q) =
_
(x)p(x)q(x)dx
/p, q) = p, /q)
Satz 5.23
Die Tridiagonalmatrix

T =
_

0

2
1
1
.
.
.
.
.
.
2
n
.
.
.
.
.
.
1
n
_

_
bzw. T =
_

0

1

1
.
.
.
.
.
.
.
.
.
.
.
.
n

n

n
_

_
hat die Eigenwerte x
0
, , x
n
(Nullstellen von p
n+1
)
Beweis: Deniere q
k+1
(x) = det (xI T
k
)
k+1
f ur alle k = 0, 1, ..., n
T
k
=
_

0

2
1
1
.
.
.
.
.
.
.
.
.
2
k
1
k
_

_
Eigenwerte von T
k
=

T sind Nullstellen von q
k+1
(x)
zeigen: q
k
= p
k
k q
0
= p
0
= 1
q
1
= x
0
= p
1
q
k+1
= det (xI T
k
) entwickelt nach letzter Zeile und dann nach letzter Spalte
ergibt gleiche Rekursion wie f ur p
k+1
.
Mit T = D

TD
1
Numerische Integration 73
D = diag (1,
1
,
1

2
,
1

3
, )
haben also T und

T gleiche Eigenwerte.
T symmetrische Tridiagonalmatrix, davon besonders stabil Eigenwerte
berechenbar.
Gewinnung der (
n
,
n
) i.a. ahnlich schwierig

Beispiel 5.24 Tschebysche-Polynom:


T
0
= 1 T
1
(x) = x
T
k+1
= 2 xT
k
T
k1
p
n
(x) =
1
2
n1
T
n
(x)
p
k+1
(x) =
1
2
k
T
k+1
=
1
2
k
(2xT
k
T
k1
)
=
1
2
k
(2x2
k1
p
k
(x) 2
k2
p
k1
(x))
= xp
k
(x)
1
4
p
k1
(x)

n
= 0k,
2
n
=
1
4
k
5.6 Gau-Integration in Mehrdimensionalen
Die Verallgemeinerung der

Mittelpunktsregel im Mehrdimensionalen
f(x) skalare Funktion von Ort

X R
d
(d = 1, 2, 3)
gesuchte Naherung f ur
I(f) =
_

f(x)d R
d
Gebiet
d = 2 Flachenelement
d = 3 Volumenelement
einfachster Fall: 1Punkt Gau - Integration
I(f) Q
G
1
(f) = f(x
0
) = mes f(x
0
)
mes =
_

d und ist x
0
der Schwerpunkt von
Q
G
1
exakt f ur lineare Funktion f
Numerische Integration 74
x
0
=
1
mes
_

xd
bessere Genauigkeit:
a) achsenparallelles Rechteck (d = 2) = [a, b] [c, d]
_

f(x)d =
b
_
a
d
_
c
f(x, y)dxdy
zwei eindimensionale Integrale mit Gauintegration
b) d = 2, Dreieck (d = 3, Tetraeder)
I(f)
n

i=0

i
f(x
i
)
unter Benutzung der Gaupunkte x
i

ubliche Vorgehensweise:
Transformation des gegebenes Dreiecks auf sogenanntes Masterdreieck

x = A x + b
Eckpunkte x
(1)
E
= A
_
0
0
_
+ b
x
(2)
E
= A
_
1
0
_
+ b
x
(3)
E
= A
_
0
1
_
+ b
mit A =
_
x
(2)
E
x
(1)
E
[x
(3)
E
x
(1)
E
_
_

f(x) =
_

f(A x + b) [ detA [ d

=
1
_
0
1 x
1
_
0

f( x
1
, x
2
)d x
2
d x
1

i=0

i

f( x
(i)
)
dabei sind die Gaupunkte x
(i)


und Gewichte
i
tabelliert zu nden
Numerische Integration 75
Beispiel 5.25 (n=0)
x
(0)
=
_1
3
1
3
_

0
=
1
2
exakt f ur lineare Funktionen
Beispiel 5.26 (n=1)
x
(i)
Seitenmitten
_
0,
1
2
_

_
1
2
, 0
_

_
1
2
,
1
2
_


i
=
1
6
oder
x
(1)
=
_
1
6
,
1
6
_

x
(2)
=
_
4
6
,
1
6
_

x
(3)
=
_
1
6
,
4
6
_


i
=
1
6
Kapitel 6
Numerische Dierentiation
geg.: f(x) Stelle x
ges.: f

( x) naherungsweise
insbesondere: f nur aus diskreten Werten x
0
< x
1
< ... < x
n
(aquidistant)
mit f
k
= f(x
k
) gegeben
Wichtigster Spezialfall:
x
k
= x benutzen hierzu Daten in der Umgebung von x
k
(x
k1
und x
k+1
)
und setzen x
k+1
x
k
= h = x
k
x
k1
Vorwartige Dierenz:
f(x
k+1
) f(x
k
)
h
= f

(x
k
) +O(h)
da nach Taylor: f(x
k
+ h) = f(x
k
) + hf

(x
k
) +
h
2
2
f

(x
k
) + ...
r uckwartige Dierenz
f(x
k
) f(x
k1
)
h
= f

(x
k
) +O(h)
da nach Taylor: f(x
k
h) = f(x
k
) hf

(x
k
) +
h
2
2
f

(x
k
) +O(h
3
)
zentrale Dierenz:
f(x
k+1
) f(x
k1
)
2h
= f

(x
k
) +O(h
2
)
da nach Taylor: f(x
k
+ h) f(x
k
h) = 2hf

(x
k
) +O(h
2
)
Approximation von f

(x
k
):
1. zentrale Dierenz

x
k
+
h
2
f

(x
k
+
h
2
) =
f(x
k+1
) f(x
k
)
h
+O(h
2
)
76
Numerische Dierentiation 77
2. zentrale Dierenz

x
k

h
2
f

(x
k

h
2
) =
f(x
k
) f(x
k1
)
h
+O(h
2
)
3. zentrale Dierenz [
x
k
f

(x
k
) =
f

(x
k
+
h
2
) f

(x
k

h
2
)
h
+O(h
2
)
einsetzen ergibt f

(x
k
) =
(f
k+1
)f(x
k
)
h

f(x
k
)f(x
k1
)
h
h
f

(x
k
) =
2f(x
k
) + f(x
k+1
) + f(x
k1
)
h
2
+ O(h
2
)
Kapitel 7
Anfangswertaufgaben f

ur
gew

ohnliche
Dierentialgleichungen
Betrachten hier Dierentialgleichungen von einer Veranderlichen (meist Zeit t)
Ges.: Vektorfunktion y(t
0
) R
n
Geg.: Anfangswert y(t
0
) ublich t
0
= 0
allgemein y(t) =
d
dt
y(t) = f(t, y(t)) Vektorfunktion
Spezialfall: lineare DGL y + Ay = g(t) mit A R
n,n
Anwendungen:
Mehrkorperdynamik/Bewegung von Korpern in Kraftfeldern
Entwicklung von Populatinen
chemische Reaktion
bei elektrischen Schaltkeisen
allgemeine Dierentialgleichung der Ordnung K:
y
(K)
= f(t, y, y, ..., y
(k1)
) y
(j)
=
d
j
dt
j
y
konnen durch Substitution z
j
(t) = y
(j1)
(t) j = 1, ..., K auf groeres
System 1. Ordnung zur uckgef uhrt werden:
z
k
= f(t, z
1
, z
2
, ..., z
k
)
z
k1
= z
k
z
k2
= z
k1
z =

f(t, z) z R
kn
.
.
.
z
1
= z
2
78
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 79
y =
_

_
z
1
z
2
.
.
.
z
k
_

_
R
kn
y = F(t, y)
Deshalb ist Betrachtung von y(t) = f(t, y(t)) ausreichend.
Beachte: i.a. y, f R
n
(Spezialfall n = 1 enthalten)
Vorgehen: gesuchte Funktion y(t) t > 0(bei gegebenen y(0))
numerisch: bestimmen y
(k)
y(t
k
) f ur diskrete Zeitpunkte 0 < t
1
< t
2
... und
y
(0)
= y(0)
7.1 Einfachste Grundideen / einfachste Verfah-
ren
y
(0)
= y
(0)
gegeben
Sei y
(k)
y(t
k
) bestimmt
bezeichne t
k+1
= t
k
+ mit als Zeitschrittweite
ges.: y
(k+1)
y(t
k
+) unter Benutzung von y
(k)
und (Einschrittformel)
y = f(t, y(t))
1. Moglichkeit: Approximation y(t): Sei t = t
k
a) betrachte t = t
k
und benutzen vorwartige Dierenz
Approximation
y
(k+1)
y
(k)

= f(t
k
, y
(k)
)
= Verfahren y
(k+1)
= y
(k)
+ f(t
k
, y
(k)
)
explizit Euler (alt: Eulersches Polygonzugverfahren)
b) betrachte t = t
k
+ und benutzen r uckwartige Dierenz
y(t
k
+ ) = f(t
k
+ , y(t
k
+ ))
Approximation
y
(k+1)
y
(k)

= f(t
k+1
, y
(k+1)
)
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 80
= Verfahren y
(k+1)
= y
(k)
+ f(t
k+1
, y
(k+1)
)
implizit Euler
c) betrachten t = t
k
+

2
, und benutzen zentrale Dierenz
y(t
k
+

2
) = (f
k
+

2
, y(t
k
+

2
)
Approximation
y
(k)
y
(k)

f(t
k
+

2
, y(t
k
+

2
))
y(t
k
+

2
)
y
(k+1)
+ y
(k)
2
= Verfahren y
(k+1)
= y
(k)
+ f(t
k
+

2
,
1
2
(y
(k)
+ y
(k+1)
))
d) analog zu c) aber y(t
k
+

2
) mit explizit Euler
= Verfahren y
(k+1)
= y
(k)
+ f(t
k
+

2
, y
(k)
+

2
f(t
k
, y
(k)
))
explizit, verbessertes (modiziertes) Polygonzugverfahren
andere Schreibweise:

k
(1)
= f(t
k
, y
(k)
)
k
(2)
= f(t
k
+

2
, y
(k)
+

2
k
(1)
)
y
(k+1)
= y
(k)
+ k
(2)
Predictor-Korrektor-Schritt
2. Moglichkeit:
y(t) = f(t, y(t)) t = t
k
bei gegeben y
(k)
t
k+1
_
t
k
y(t)dt = y(t
k+1
) y(t
k
) =
t
k+1
_
t
k
f(t, y(t))dt
Approximation des Integrals mit Integrationsformeln
y(t
k+1
) mittels Newton-Cotes Formeln
a) Rechteckregel
b
_
a
g(x)dx (b a)g() wahlen = t
k
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 81
y
(k+1)
= y
(k)
+ f(t
k
, y
(k)
)
a) explizit EULER
b) Rechteckregel mit = t
k+1
y
(k+1)
= y
(k)
+ f(t
k+1
, y
(k+1)
)
implizit EULER
c) Mittelpunktsregel =
a+b
2
y
(k+1)
= y
(k)
+ f(t
k
+

2
, y(t
k
+

2
))
wieder wie vorher y
(k+1)
= y
(k)
+ f(t
k
+

2
,
1
2
(y
(k)
+ y
(k+1)
)
d) Trapezregel
y
(k+1)
= y
(k)
+

2
(f(t
k
, y
(k)
) + f(t
k
+ , y
(k+1)
))
entweder implizit so, oder wieder Prediktor
k
(1)
= f(t
k
, y
(k)
)
k
(2)
= f(t
k
+ , y
(k)
+ k
(1)
)
y
(k+1)
= y
(k)
+

2
(k
(1)
+ k
(2)
)
Prediktor-Korrektor-Verfahren
EULER-HEUN-Verfahren
usw. mit weiteren Newton-Cotes-Formeln entstehen viele weitere Moglich-
keiten
= Bewertung dieser Verfahren? allg. Konstruktionsprinzip?
7.2 Konsistenz
alle expliziten Formeln lassen sich als

k := g(t
k
, y
(k)
, )
y
(k+1)
= y
(k)
+ k
(1)
schreiben mit einer gewissen

Zuwachsfunktion g(t
k
, y
(k)
, )
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 82
Beispiel 7.1
a) explizit EULER: g(t, y, ) = f(t, y)
d) modiziertes Polygonzugverfahren: g(t, y, ) = k
(2)
= f(t +

2
, y +

2
k
(1)
)
e) EULER-HEUN:
g(t, y, ) =
1
2
(k
(1)
+ k
(2)
)
=
1
2
(f(t, y) + f(t + , y + f(t, y)))
Denition 7.2 (Konsistenz)
Die explizite Vorschrift (1) heit konsistent, wenn g(t, y, )
deniert ist 0 < <
max
(t, y) D
f
(f(t, y)) und wenn
lim
0
g(t, y, ) = f(t, y)
Beispiel 7.3
bei a), d), e) oenbar erf ullt
Die G ute der Konsistenz beschreibt die Konsistenzordnung betrachten
entsprechend (1) die Funktion von (t, y, )
R(y) =
y(t+)y(t)

g(t, y, )
durch Taylorentwicklung an der Stelle t in y(t +) und in g(t, y, ) ergibt sich
f ur r(y) =
p
d(t) +O(
p+1
)t beliebiger Vektor unabhangig von .
Denition 7.4
Das Verfahren zur Losung von y = f(t, y) hat die Konsistenzordnung p,
wenn die Taylorentwicklung f ur R(y) an der Stelle t als niedrigsten Term

p
d(t)
ergibt.
Beispiel 7.5
a)
R(y) =
y(t + ) y(t)

f(t, y)
=
y(t) + y +
2 1
2
y y(t) f(t, y)

= y(t) +

2
y(t) + ... f(t, y)
=

2
y(t) +O(
2
) p = 1
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 83
e) EULER-HEUN
y(t + ) y(t)

= y(t) +

2
y(t) +O(
2
) ()
g(t, y, ) =
1
2
(f(t, y) + f(t + , y + f(t, y))
=
1
2
(f + f + f
t
..
R
n
+ f
y
..
(nn)
f
..
R
n
) +O(
2
) ()
() () y =
d
dt
y =
d
dt
f(t, y) = f
t
f
y
f
R(y) = ( y f) +

2
( y f
t
f
y
f) +O(
2
)
Konsistenzordnung p = 2
analog f ur d)
7.3 Allgemeine Form: explizite Runge -Kutta -
Verfahren
Herleitung von Verfahren hoherer Konsistenzordnung nicht uber Quadraturfor-
meln, sondern mit Taylorabgleich R(y) =
p
d(y) + ...
allgemeine Form
Prediktor
_

_
k
(1)
= f(t
k
, y
(k)
k
(2)
= f(t
k
+ a
2
, y
(k)
+ b
21
k
(1)
)
k
(3)
= f(t
k
+ a
3
, y
(k)
+ (b
31
k
(1)
+ b
32
k
(2)
)
.
.
.
.
.
.
k
(s)
= f(t
k
+ a
s
, y
(k)
+

i<s
b
si
k
(i)
)
schlielich
Korrektor
_

_
k = g(t
k
, y
(k)
, ) =
s

i=1
c
i
k
(i)
( also: y
(k+1)
= y
(k)
+
s

i=1
c
i
k
(i)
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 84
d.h. das jeweilige Verfahren ist durch die Konstanten
0 0 0 0
a
2
b
21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
s
b
s1
b
s,s1
0
c
1
c
s1
c
s

a B
c
T
c, a R
s
(a
1
= 0) und B R
s,s
strenge untere Dreiecksmatrix bestimmt,
wobei (aus Konsistenzgr unden):
a
2
= b
21
a
3
= b
31
+ b
32
usw.
_
Be = a
c
T
e = 1
_
e =
_

_
1
.
.
.
1
_

_
R
s
Beispiel 7.6
a) explizit Euler:
0 0
1
s = 1 p = 1
d) modiziertes Polygonzugfverfahren
0
1
2
1
2
0 1
s = 2 p = 2
e) EULER-HEUN Vefahren
0
1 1
1
2
1
2
s = 2 p = 2
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 85
Um p = 4 zu erreichen ist s = 4 notwendig, aber die Konstante nicht
eindeutig bestimmt mehrere explizite Runge-Kutta-Verfahren
Bemerkung 7.7
Im allgemeinen p = n s = n
Beispiel 7.8
mit s = 4, p = 4 einfachstes (besonders g unstig f ur Handrechnung) ist
klassisches Runge-Kutta-Verfahren
0
1
2
1
2
1
2
0
1
2
1 0 0 1
1
6
1
3
1
3
1
6
k
(1)
= f(t
k
, y
(k)
)
k
(2)
= f(t
k
+

2
, y
(k)
+

2
k
(1)
)
k
(3)
= f(t
k
+

2
, y
(k)
+

2
k
(21)
)
k
(4)
= f(t
k
+ , y
(k)
+ k
(31)
)
y
(k+1)
= y
(k)
+ (
k
(1)
6
+
k
(2)
3
+
k
(3)
3
+
k
(4)
6
)
es gibt mindestens 4 weitere bekannte Formeln

3
8
-Formel
vierstuge England - Formel
Gill-Modikation der Runge-Kutta-Formel
Kunthmann Formel
Bemerkung 7.9
Um p = 5 zu erreichen, ist s = 6 notwendig (ebenfalls wieder mindestens
4 Formeln bekannt).
7.4 Implizite Runge-Kutta-Formeln
Denition der Konsistenzordnung analog zu expliziten Formeln nur ist jetzt:
R(y) =
y(t+)y(t)

g(t, y, ) und g(t, y, ) enthalt y(t + )


Beispiel 7.10 implizit Euler
y
(k+1)
= y
(k)
+ f(t
k
+ , y
(k+1)
)
g(t, y, ) = f(t + , y(t + ))
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 86
R(y) =
y(t + ) y(t)

f(t + , y(t + ))
Taylorentwicklung

= y(t) +

2
y + ... f(t + , y + y +

2
2
y + ...)
= y(t) +

2
y + ... [f + f
t
(t, y)) +f
t
(t, y) + (f
y
)( y)]
= (
1
2
y) +O(
2
)
also Konsistenzordnung auch p = 1
Allgemein ist bei impliziten Verfahren an mindestens einer Stelle ein
nichtlineares Gleichungssystem zur Denition eines Predictors k
(j)
zu losen,
d.h. gleiche Formeln wie beim expliziten Runge-Kutta-Verfahren nur jetzt
eventuell b
jj
,= 0 in der Matrix B (oder gar B keine Dreiecksmatrix mehr).
s-stuges implizites Runge-Kutta-Verfahren
1 Gleichungssystem
_
k
(i)
= f(t
k
+ a
i
, y
(k)
+
s

j=1
b
ij
k
(i)
) i = 1 s
k = g(t, y, ) =
s

i=1
c
i
k
(i)
y
(k+1)
= y
(k)
+ k
s
2
+ 2s Koezienten:
a B
c

_
Be = a
c

e = 1
_
Verfahren
explizit, wenn B(s s) strenge untere Dreiecksmatrix
diagonal implizit, wenn B untere -Matrix
(s einzelne nichtlineare Gleichungssysteme f ur jedes k
(i)
B volle Matrix ein nichtlineares Gleichungssystem k
(i)
Beispiel 7.11
b) implizit EULER
1 1
1
y
(k+1)
= y
(k)
+ k
(1)
= y
(k)
+ f(t
k
+ , y
(k+1)
)
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 87
c) implizite Mittelpunktregel
y
k+1
= y
(k)
+ f(t
k
+

2
,
1
2
(y
(k)
+ y
(k+1)
))
k
(1)
=
y
(k+1)
y
(k)

also:
k
(1)
= f(t
k
+

2
, y
(k)
+

2
k
(1)
)
y
(k+1)
= y
(k)
+ k
(1)
1
2
1
2
1
aber p = 2 !
e) aus Trapezregel
y
(k+1)
= y
(k)
+

2
(f(t
k
, y
(k)
) + f(t
k
+ , y
(k+1)
))
k
(1)
= f(t
k
, y
(k)
)
k
(2)
= f(t
k
+ , y
(k)
+

2
k
(1)
+

2
k
(2)
)
y
(k+1)
= y
(k)
+

2
(k
(1)
+ k
(2)
)
s = 2
0 0 0
1
1
2
1
2
1
2
1
2
ebenfalls p = 2
7.5 Stabilitat - Vergleich explizit-implizit
Betrit jetzt die Fortpanzung eines Fehlers y
(k)
y(t
k
) in weiteren gehen wir
von einen linearen Dierentialgleichungssystem aus
_

_
y + Ay = 0
y(0) = y
(0)
geg.
f(t, y) = Ay
A bzgl. t konstant und symmetrisch positiv denite Matrix
einfachste Verfahren: a) explizit EULER
b) implizit EULER
c) CRANK-NICOLSON
Mittelpunktregel/Trapezregel
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 88
a) y
(k+1)
= y
(k)
+ f(t
k
y
(k)
) = y
(k)
Ay
(k)
y
(k+1)
= (I A)y
(k)
b)
y
(k+1)
= y
(k)
+ f(t
k
+ , y
(k+1)
)
= y
(k)
Ay
(k+1)
also
(I + A)y
(k+1)
= y
(k)
y
(k+1)
= (I + A)
1
y
(k)
c)
y
(k+1)
= y
(k)
+ f(t
k
+

2
,
1
2
(y
(k)
+ y
(k+1)
)
y
(k+1)
= y
(k)

1
2
A(y
(k)
+ y
(k+1)
)
(I +

2
A)y
(k+1)
= (I

2
A)y
(k)
y
(k+1)
= (I +

2
)
1
(I +

2
)y
(k)
Verallgemeinerung:
y + Ay = 0

y
(k+1)
y
(k)

Ay
(k)
+ (1 )Ay
(k+1)
y + Ay = 0
y
(k+1)
y
(k)

+ Ay
(k)
+ (1 )Ay
(k+1)
= 0
(I + (1 )A)y
(k+1)
= (I A)y
(k)
[0, 1]
= 1 explizit EULER (p = 1)
= 0 implizit EULER (p = 1)
=
1
2
CRANK-NICOLSON (p = 2)
Somit haben die expliziten und impliziten 1-Schrittverfahren f ur y + Ay = 0
letztlich die Gestalt
y
(k+1)
:= M()y
(k)
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 89
Stabilitat
sehr vielschichtiger Begri
1. Es gibt verschiedene Stabilitatsbegrie f ur die gegebene DGL
Bspw. y + Ay = 0 0(y) = y
(0)
hat Losung y(t) = e
tA
y
(0)
mit e
tA
=

k=0
(tA)
k
k!
da A positiv denit sind Eigenwerte
i
> 0 = Dampfung.
2. Stabilitat des Runge - Kutta - Verfahren mu diese Eigenschaft der DGL
mitmachen
Fehler wird in weiteren Schritten nicht aufschaukelt, sondern gedampft
(dazu recht gro Theorie vorhanden)
Beispiel 7.12
y
(k+1)
= M()y
(k)
(M()) > 1 Fehleraufschaukelung
= Formel unbrauchbar
(M()) < 1 Fehler gedampft
= Formel

stabil
a) explizit EULER
M() = I A

i
(M) = 1
i
(A)
[ 1 (A) [ < [
i
(M) [< 1
(1 (A)) < 1, > 0
<
2
(A)
diese explizite Formel ist bedingt stabil bei gen ugend kleinem .
b) implizit EULER
M() = (I + A)
1

i
(M) =
1
1 +
i
(0, 1)
= unbedingt stabil
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 90
c) CRANK-NICOLSON bzw. allgemeiner Fall
M() = (I + (1 )A)
1
(I A)
hat EW
i
(M()) =

(1 )
i
1 + (1 )
i

< 1
[ 1
i
[ < 1 + (1 )
i
1
i
< 1 + (1 )
i
gilt immer
(1
i
) < 1 + (1 )
i
(2 1)
i
< 0
a) (2 1) 0
f ur
1
2
Formel immer stabil
b) (2 1) 0
<
2
(21)(A)
bedingt stabil
typische Erkenntnis:
- explizite Formeln bedingt stabil und [[ < Schranke
- implizite Formeln unbedingt stabil aber oft groere wahlbar
7.6 Steife Dierentialgleichungen
betrit wieder y + Ay = 0 mit y(0) = y
(0)
Losung: y(t) = e
tA
y
(0)
betrachten Eigenproblem f ur A
Aq
(i)
=
i
q
(i)
mit
i
EW und q
(i)
EV
sei A = A
T
> 0 o.B.d.A. (q
i
, q
j
) =
ij
zerlegen y
(0)
=
n

i=1

i
q
(i)
=y(t) =

(
i
e
(t
i
)
. .
q
i
Koordinaten von y(t) in Eigenbasis

1

2
...
k
Anfangswertaufgaben f ur gewohnliche Dierentialgleichungen 91
(a) bei groen Eigenwerten wesentliche Vorgange in (0,
0
)
0
<< 1
(b) bei kleinen Eigenwerten langsame Annaherung an stationaren Zustand
allgemeiner:
A hat auch komplexe Eigenwerte die Zeitabhangig sind
Losung ist hier

Uberlagerung von
(a) starke Oszillation in kleinen Zeiten
(b) langsam annahern an stationaren Zustand
Denition 7.13
Dierentialgleichungen mit stark unterschiedlichen Eigenwerten
heien steife Dierentialgleichungen.
Bemerkung 7.14
Losung solcher steifer DGLs erfordert Umschalten zwischen expliziten und
impliziten Verfahren und einen Schrittweitensteuerung.
kleine Zeiten kleines und explizites Verfahren
spater vergroern und Wechsel zu impliziten Verfahren
Kapitel 8
Randwertprobleme - (RWP)
8.1 Vorbemerkungen
Besondere Bedeutung haben Randwertprobleme bei partiellen Dierentialglei-
chungen vorallem f ur gesuchte Funktionen im 2- bzw. 3-dimensionalen
Beispiel 8.1
Warmeverteilung in R
2
wenn am Rand Temperatur oder Fl ue
gegeben sind.
u
w
= 0 an allen anderen Randern
u = f(

x ) in bei Temperaturquellen und -senken


mit =

2
x
2
+

2
u
2
betrachten analog zu Kapitel 7 nur Funktionen von einer reellen
Veranderlichen x:
ges.: u(x) mit
u

(x) = f(x)[
[a,b]
geg.: u(a) = u
a
u(b) = u
b
allgemeiner:
(x)u

(x) + (x)u

(x) + (x)u(x) = f(x)


u(a) = u
a
u(b) = u
b
(oder auch u

(a), u

(b) vorgegeben)
unter gewissen Einschrankungen von (x), (x), (x)
z.B.
(x)
0
< 0x
(x) 0
bei solchen linearen Dierentialgleichungen im RWP spielt die Diskretisierung
zentrale Rolle.
92
Randwertprobleme 93
8.2 Dierenzenverfahren
Grundidee: Geben diskrete Punkte
a = x
0
< x
1
< ... < x
n1
< x
n
= b
vor, an denen u
k
u(x
k
) zu berechnen sind. (u
0
= u
a
, u
n
= u
b
gegeben)
betrachten o.E.d.A.: aquidistante Diskretisierungspunkte
x
k
= a + kh h =
ba
n
Dierenzenverfahren sind Naherungsverfahren zur Losung von RWP, die
durch Annaherung von u

(x
k
) entstehen.
Beispiel 8.2
betrachte
_
u

(x) = f(x) [
[a,b]
u(a) = u
a
u(b) = u
b
aus Kapitel 6:
u

(x) =
u(x
k
h)2u(x
k
)+u(x
k
+h)
h
2
+O(h
2
)
andererseits soll u

(x
k
) = f(x
k
) k = 1, ..., n 1
ersetzen u(x
k
) durch gesuchte Naherung u
k
=u
k1
+ 2u
k
u
k+1
= h
2
f(x
k
) k = 1, ..., n 1
=(n1) Gleichungen mit (n1) Unbekannten u
1
...u
n1
da u
0
, u
n
gegeben
Frage:
Wird bei k 0 u
k
u(x
k
) konvergieren?
Typische Untersuchung: einsetzen der exakten Losung u(x
k
) in
das Naherungsproblem
(a) u
k1
+ 2u
k
u
k+1
= h
2
f(x
k
) gilt exakt k
(b) u(x
k1
) + 2u(x
k
) u(x
k+1
) = h
2
f(x
k
)
aus Taylorentwicklung folgt
u(x
k+1
) = u(x
k
) + hu

(x
k
) +
h
2
2
u

(x
k
) +
h
3
3!
u

(x
k
) +
h
4
4!
u
(iv)
+O(h
5
)
u(x
k1
) = u(x
k
) hu

(x
k
) +
h
2
2
u

(x
k
)
h
3
3!
u

(x
k
) +
h
4
4!
u
(iv)
+O(h
5
)
Randwertprobleme 94
2u(x
k
) h
2
u

(x
k
)
h
4
12
u
(iv)
(x
k
) +O(h
5
) = h
2
f(x
k
) + h
4
const
Tu = b u =
_

_
u
1
.
.
.
u
n1
_

_
Naherung b = (h
2
f(x
k
))
n1
k=1
Tu
ex
= b u
ex
=
_

_
u(x
1
)
.
.
.
u(x
n1
)
_

_
exakt
T(u u
ex
) =
h
4
12
(u
(iv)
(x
k
) +O(h)) heit Approximation
Bemerkung 8.3
Achtung k 0 nicht so einfach moglich, da T sonst wachst.
aus oben =|u u
ex
| |T
1
|
h
4
12
|u
(iv)
| +O(h
5
) |T
1
| hangt von h ab!
T symmetrisch =|T|
2
=
max
(T)
|T
1
|
2
=
min
(T)
1

min
(T) = 4 sin
2
k
n
= 4

b a
h
2
+O(h
3
)
=|u u
ex
|
2
= O(h
2
) 0 f ur h 0
besser benutze Maximumnorm: |uu
ex
|

u
4
|T
1
|

|
1
12
u
(k)
(x
k
)+O(h)|

=
_

_
2 1
1
.
.
.
.
.
.
.
.
.
.
.
. 1
1 2
_

_
_

_
u
1
.
.
.
.
.
.
u
n1
_

_
=
_

_
h
2
f(x
1
) + u
a
h
2
f(x
2
)
.
.
.
h
2
f(x
n2
)
h
2
f(x
n1
) + u
b
_

_
Systemmatrix ist tridiagonal mit tridiag (1, 2, 1) regular, symmetrisch
und diagonal dominant
=u
1
...u
n1
n(h) stabil berechenbar h 0

Ahnliche Vorgehensweise im mehrdimensionalen Beispiel:


Randwertprobleme 95
u(x, y) = f(x, y)[

u = g(x, y)[

Diskretisierung in beide Raumrichtungen


x k 1 k k + 1
j + 1
j
j 1
u(x
k
, y
j
) u
kj

2
u
x
2

(x
k
,y
j
)

u
k1 j
+ 2u
kj
+ u
k+1 j
h
2

2
u
y
2

(x
k
,y
j
)

u
k j1
+ 2u
kj
u
k j+1
h
2
= entsteht der sogenannte 5-Punkte-Stern im 2 dimensionalen
u[
x
k
, q
j
(
1
h
2
4u
kj
u
k1 j
u
k+1 j
u
k j1
u
k j+1
)
analog im 3 dimensionalen.
Schwierigkeiten bei der Approximation machen hier die Randbedingungen,
wenn nicht z.B. ein Rechteck o.a. ist.
8.3 Finite Elemente Methode - FEM
Grundidee:
betrachten wieder Diskretisierungspunkte um Naherungswerte von u(x
k
) zu
erhalten. Aber: es wird eine Naherungsfunktion berechnet mit Hilfe eines
Projektionsverfahrens in einen endlich -dimensionalen Teilraum. Dieser
Teilraum wird bei FEM durch einfache Spline- Funktion mit kleinem Trager
aufgespannt.
Vorgehensweise:
a) Bilineares Funktional a(u, v) (sogenannte schwache Formulierung) zur Re-
prasentation der Dierentialgleichung.
b) Festlegen der Basis, Projektion von a(u, v) in endlich dimensionalen Teil-
raum
c) Losen des Gleichungssystems Aa = b
Randwertprobleme 96
Beispiel 8.4 zu a)
Aufgabe
_
u

(x) = f(x)[
[a,b]
u(a) = u(b) = 0
(1)
= u

(x)v(x) = f(x)v(x) v C[a, b]

b
_
a
u

vdx =
b
_
a
fvdx
wahlen v(a) = v(b) = 0 und sei v C st uckweise dibar
= ges. u(x) mit u(a) = u(b) = 0 nach partieller Integration
b
_
a
u

(x)v

(x)dx =
b
_
a
f(x)v(x)dx v C
1
[a, b], v(a) = v(b) = 0
Aufgabe:
a(u, v) = f, v)
u(a) = u(b) = 0
mit f, v) =
b
_
a
fvdx
(2)
Bemerkung 8.5
Abschlieung dieser Funktionenraume ergibt eine Formulierung in allgemeinen
Raumen (sogenannte verallgemeinerte Ableitungen f ur u und v existieren
also auch st uckweise dibare Funktionen sind zugelassen!) bezeichnet mit V
0
.
b) jetzt: Naherungslosung u
h
V
0
dadurch, da (1) in endlichen
dimensionalen Teilraum V
h
V
0
projiziert wird.
Beispiel 8.6 zu b)
V
h
= span (
1
, ...,
n1
)

k
sogenannte H utchenfunktion (B-Spline)
a = x
0
< x
1
< ... < x
n1
< x
k
= b

k
(x) sei linear in allen Teilintervallen [x
i1
, x
i
] und
k
(x
j
) =
ij
Randwertprobleme 97

k
stetig, st uckweise dibar mit k = 1, ..., n 1
u
h
(x) =
n1

j=1

j
(x)
Projektion von (1) in V
h
heit:
ges.: u
h
(x) V
h
: a(u
h
, v) = f, v) v V
h
V
0
Bemerkung 8.7 zu c)
1. Die gesuchten DGL- Koezienten
k
sind haug gleichzeitig Funktionswer-
te der Naherungsfunktion
u
h
(x
h
) =

i
(x
h
) =
k
2. Berechnung der
k
aus einem Gleichungssystem
a(

j
,
i
) = f,
i
) i = 1, ..., n 1
Aa = b
mit A = (a(
j
,
i
))
k1
i,j=1
b = (f,
i
))
k1
i=1
a =
_

1
.
.
.

n1
_

_
=
_

_
u
k
(x
1
)
.
.
.
u
k
(x
n1
)
_

_
Beispiel 8.8
A : a(
i
,
j
) =
b
_
a

j
dx und a
kk
= a(
i
,
j
) =
_

1
h
j = i 1
2
h
j = i
0 sonst
Randwertprobleme 98
mit x
i+1
x
i
= h
=a
kk
=
x
k
_
x
k1
_
1
h
_
2
dx +
x
k+1
_
x
k
_

1
h
_
2
dx =
2
h
a
kk+1
=
x
k+1
_
x
k
_

1
h
__
1
h
_
dx =
1
h
(a
kj
= 0 j > k + 1)
=A =
1
h
_

_
2 1
1
.
.
.
.
.
.
.
.
.
.
.
. 1
1 2
_

_
wie bei Dierenzenverfahren aber leicht andere rechte Seite b.
Kapitel 9
Eigenwertprobleme bei Matrizen
9.1 Grundlagen der linearen Algebra
Denition 9.1
A C
n,n
(n n Matrix)
(, w) nennt man Eigenpaar zu A ( Eigenwert, w C
n,n
Eigenvektor)
mit Aw = w
Bemerkung 9.2 i.A. C
n,n
bei A = A

R, w R
n
Denition 9.3
Eigenwert nennt man als Nullstelle des charakteristischen Polynoms
(t) = det(tI A)
n
wenn - fache Nullstelle, dann nennt man algebraische Vielfachheit von

bei > 1 gibt es linear unabhangige Eigenvektoren von mit 1


und nennt man geometrische Vielfachheit von
Denition 9.4
Falls < f ur mindestens einen Eigenwert von A, dann heit A defektiv.
Satz 9.5
A ist diagonalisierbar, falls = und es existiert
W = (w
1
[...[w
n
)

W
(1)
AW = = diag(
1
, ...,
n
)
99
Eigenwertprobleme bei Matrizen 100
Denition 9.6
A heit normal AA

= A

A Eigenvektoren bilden Orthonormalbasis


Bemerkung 9.7
falls A = A

hermitesch oder A = A

symmetrisch, so ist A auch normal


Satz 9.8
Alle normalen Marizen sind diagonalisierbar.
Satz 9.9 Cayley - Hamilton
Sei K ein Korper und A K
n,n
mit dem charakteristischen Polynom
A
().
Dann erf ullt A die Gleichung

A
(A) = A
n
+ a
1
A
(n1)
+ ... + a
n1
A+ a
n
I
n
= 0
9.2 Ungeeignete Verfahrensideen
Bemerkung 9.10
Fast alle Verfahren die etwas mit dem charakteristische Polynom () zu tun
haben sind numerisch instabil oder zu aufwendig.
(a) Verfahren die Koezienten von () berechnen:
(t) = t
n
+
n1

i=0
a
i
t
i
(b) Verfahren zur Nullstellenbestimmung: (t) = 0 (ohne Koezienten zu be-
stimmen)
z.B.: Sekantenverfahren
t
k+1
=
t
k
(t
k1
)t
k1
(t
k
)
(t
k1
)(t
k
)
jeweils eine Determinante pro Iteration
(1) Aufwand O(n
3
)
(2) Funktionwert mittels det(t
k
I A) ist eventuell sehr kleine/groe Zahl
ausserhalb des Zahlendarstellung
Eigenwertprobleme bei Matrizen 101
Bsp.:
_

_
1 1
2 1 1
.
.
.
.
.
.
.
.
. 1
n
_

_
hat det(A) = n!
Bemerkung 9.11 Ausnahme
Bei Tridiagonalmatrizen existiert ein stabiler Ausweg (siehe 9.3)
veraltetes Verfahren
basiert auf Satz 9.9 (Verfahren von DERVINDUE)
(A) = 0 (A)x
(0)
= 0
_
A
n
+
n1

i=0
a
i
A
i
_
x
(0)
= 0
setzen x
(i+1)
= A
(i)
x
(i)
i = 0, ..., n 1
x
(n)
+
n

i=0
a
i
x
i
= 0
X
_

_
a
0
.
.
.
a
n1
_

_
= x
(n)
mit X = (x
0
[x
1
[...[x
(n1)
)
also ist (a
0
, a
1
, ..., a
n1
) ist Losung dieses Gleichungssytems
instabil:
(a)

Uberlauf, Unterlauf bei x
(i+1)
= Ax
(i)
(b) X extrem schlecht konditioniert
9.3 Iterative Berechnung von Eigenwerten bei
symm. Tridiagonalmatrizen
Bezeichnung: T
k
f uhrende Hauptuntermatrix von
T = T
n
=
_

1

1

1
.
.
.
.
.
.
.
.
.
.
.
.
n

n

n
_

_
Eigenwertprobleme bei Matrizen 102
und
k
(t) = det(tI T
k
)
f ur gegebene Zahl lat sich (t) =
1
(t) rekursiv berechnen (eventuell
instabil)

0
(t) = 1

1
(t) = t
1
.
.
.
.
.
.

k
(t) = (t
k
)
k1
(t)
2
k

k2
(t) k = 2, ..., n
Bemerkung 9.12
Somit iterative Verfahren zur Bestimmung einer Nullstelle von
n
(t) moglich.
Jetzt nur noch O(n) Operationen pro Schritt aber
k
(t) evtl. sehr
groe/kleine Zahlen instabil.
Vermeidung der Instabilitat durch
deniere: f
k
(t) =

k
(t)

k1
(t)
stabil t berechenbar
f
k
(t) = (t
k
)
2
k
1
f
k1
(t)
f
1
(t) = t
1
Satz 9.13
Benutzen dies f ur T mit
i
,= 0 i
(sonst berechnen Eigenwerte von 2 Teilblocken einzeln)
a
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n

k
,= 0 i
alle Eigenwerte von T sind einfach
Nullstellen von
k
(t) separieren sich
Folgerung 9.14
Benutzen also Nullstellenbestimmungsverfahren f ur f
n
(t) = 0
Eigenwertprobleme bei Matrizen 103
(a) Sekantenverfahren
(b) Newton-Verfahren (noch f

k
(t) = 1
2
k
f

k1
(t)
(f
k1
(t))
2
mit Start f

1
(t) = 1 mit
Rekursion f ur f
k
(t) mitrechnen)
(c) Bisektion (Intervallhalbierung) zur Berechnung z.B.: des n- ten Eigenwertes
mit

1
<
2
< ... <
n
Eigenwerte
Ausnutzen
k
(t)
n
k=0
bilden Sturmsche Kette
Satz 9.15
Betrachten t = t fest und
0
(t), ...,
n
(t)
Anzahl der Vorzeichenwechsel dieser Zahlen Anzahl der der Eigenwerte
oberhalb von t f
1
(t), ...., f
n
(t) berechenbar
Anzahl der negativen f
k
(t) Anzahl der Eigenwerte mit > t
Verfahrensidee
betrachten Intervall [a,b] mit f
k
(a) und f
k
(b)
c =
c+b
2
f
k
(c)
m- ter Eigenwert in [c,b] [a,b] := [c,b]
m- ter Eigenwert in [a,c] [a,b] := [a,c]
f
k
(a) und f
k
(b)
9.4 Berechnung von Eigenwerten und Eigenvek-
toren durch Transformation
Seien w
1
...w
n
Eigenvektoren zu
1
...
n
von A
W = (w
1
[w
2
[...[w
n
) = W
1
AW = diag(
1
...
n
)
Verfahrensidee
A
0
= A A
(k+1)
= (X
(k)
)
1
A
(k)
X
(k)
mit X so da A naher an Diagonalgestalt
einfache Fehlerbetrachtung
A
(k)
+ F
(k)
mit|F
(k)
| klein
A
(k+1)
= (X
(k)
)
1
(A
(k)
+ F
(k)
)X
(k)
= (X
(k)
)
1
A
(k)
X
(k)
+ (X
(k)
)
1
F
(k)
X
(k)
hatten gern
Eigenwertprobleme bei Matrizen 104
|(X
(k)
)
1
F
(k)
X
(k)
|
2
|F
(k)
|
2
(X
(k)
) mit Konditionszahl (X
(k)
) > 1
Ziel: (X
(k)
) = 1
nur bei orthogonalen/unitaren Matrizen
also benutzen nur orthogonale Matrizen zur Transformation
bei A ,= A

Diagonalisierung nicht immer moglich


SCHURsche Normalform
Satz 9.16
U unitare Matrix mit
U

AU = = obere Dreiecksmatrix
sogenannte Blockschurform falls A reell:
Qorthogonal mit
Q

AQ =
_

_
A
1
B
i
B
j
.
.
.
.
.
.
.
.
.
.
.
. B
m
A
n
_

_
wobei A
i
eine (1 1) Matrix bei reellen Eigenwerten oder (2 2) Matrix mit
konjugiert komplexen Eigenwerten
z.B.:
_


_
hat Eigenwerte i
bester Vertreter dieser Kategorie ist QR- Algorithmus
Algorithmus 9.17 Grundalgorithmus
(1) A
(k)
= Q
(k)
R
(k)
QR- Zerlegung
mit Q
(k)
(Q
(k)
)

= I und R
(k)
obere Dreiecksmatrix
(2) A
(k+1)
= R
(k)
Q
(k)
Bemerkung 9.18
zu (1) R
(k)
= (Q
(k)
)

A
(k)
zu (2) A
(k+1)
= (Q
(k)
)

A
(k)
Q
(k)
also A
(k)
Folgen ahnlicher Matrizen mit A
(k)
obere Blockdreiecksma-
trix (bei gewissen Voraussetzungen an das Spektrum von A)
Bemerkung 9.19
Konvergenzgeschwindigkeit hangt von Quotienten

i > j ab, wenn


Eigenwertprobleme bei Matrizen 105
[
1
[ ... ... [
n
[ (diese Anordnung auf der Diagonalen der Dreiecksmatrix
geordnet)
Bemerkung 9.20
Konvergenzgeschwindigkeit ist bei Nebendiagonalen am langsamsten
Hieraus wurden durch folgende Zusatze hochsteektive Verfahren entwickelt:
(1) Verschiebungsstrategie
(1) A
(k)
s
k
I = Q
(k)
R
(k)
(2) A
(k)
= Q
(k)
R
(k)
+ s
k
I
NR.: R
(k)
= Q
(k)
(A
(k)
s
k
I)
= (Q
(k)
)

(A
(k)
s
k
I)Q
(k)
+ s
k
I
= (Q
(k)
)

(A
(k)
Q
(k)
s
k
I + s
k
I)
Bemerkung 9.21
Aus
[
i
s
k
[
[
j
s
k
[
folgt, da wenn s
k
sehr nahe am Eigenwert
i
ist, sich der
Eigenwert
i
sehr schnell abspaltet, da der Konvergenzgeschwindigkeits-
quotient sehr gro ist. letzte Zeile von A
(k+1)
sehr klein
Verfahren aber aufwendig.
(2) Hessenberg Form
Denition 9.22
H heit Hessenbergmatrix wenn Eintrage h
i,j
= 0 j < i 1
Algorithmus wir nicht auf volle Matrix angewendet sondern auf Hessenberg -
Matrix.
A
(0)
= Q

AQ = H
Bemerkung 9.23
Der QR Algorithmus ist invariant bez uglich dieser Struktur
alle A
(k)
sind Martrizen mit Hessenbergstruktur.
Eigenwertprobleme bei Matrizen 106
9.4.1 Spiegelungsmatrizen
Denition 9.24
Eine Matrix S(v) heit Spiegelungsmatrix wenn sie die Form
S(v) = I 2vv

f ur |v| = 1 hat (hier immer |.| = |.|


2
)
Satz 9.25
Diese Matrix hat folgende Eigenschaften:
S(v) = S

(v)
S

S = S
2
= I 4vv

+ 4v(v

v)v

= I
S(v)v = v 2vv

v = v
xv : S(v)x = x 2vv

x = xy
Nutzen
gegebener Vektor a R
n
dann S(v)a = |a|e
1
Konstruktion v =
u
|u|
S(v)a = a 2
uu

a
|u|
2
= a
_
2u

a
|u|
2
_
u =
_

_
|a|
0
.
.
.
0
_

_
setzen (u
2
, ..., u
n
)

= (a
2
, ..., a
n
)

u =
_

_
u
1
a
2
.
.
.
a
n
_

_
und Abk urzung: S
2
=
n

i=2
a
i
a
2u

a
|u|

u = a
2(u
1
a
1
+s
2
)
u
2
1
+s
2
u
soll ab Position 2 Nullen ergeben
1
2(u
1
a
1
+ s
2
)
u
2
1
+ s
2
= 0
u
2
1
+ s
2
2u
1
a
1
2s
2
= 0
u
1
= a
1

_
a
2
1
+ s
2
= a
1
|a|
beide Vorzeichen sind erlaubt aber zur Vermeidung von Stellenausloschung
Eigenwertprobleme bei Matrizen 107
u
1
= a
1
+|a|sign(a
1
)
Fazit
Geg.: a R
n
def.: u
1
= a
1
+|a|sign(a
1
)
u
i
= a
i
i 2
S
_
u
|u|
_
a = a
2u

a
|u|
2
u = |a|e
1
mit festen Vorzeichen
9.4.2 Nutzung der Spiegelungen zur QR- Zerlegung
Ziel: A = QR (mit Q,R wie oben)
Idee: (n 1) Spiegelungen von links
(1)
S
1
A =
_

_
r
11
r
12
r
1n
.
.
. a
22
a
2n
.
.
.
.
.
.
.
.
.
0 a
n2
a
nn
_

_
durch S
1
=
_
u
(1)
|u
(1)
|
_
u
(1)
=
_

_
a
11
+|a
(1)
|sign(a
11
)
a
21
.
.
.
a
2n
_

_
(2)
S
2
S
1
A =
_

_
r
11
r
12
r
1n
.
.
. r
22
r
2n
.
.
.
.
.
. REST
0 0
_

_
durch S
2
=
_
u
(2)
|u
(2)
|
_
u
(2)
=
_

_
0
a
22
+| a
(1)
|sign( a
22
)
a
23
.
.
.
a
2n
_

_
Eigenwertprobleme bei Matrizen 108
usw. S
n1
S
2
S
1
. .
A = R
orthogonal
A = S
1
S
n1
. .
R
Q
So w urde die QR- Zerlegung in 9.4 aussehen.
ABER 1 Zerlegung kostet O(n
3
) Operationen Gesamtaufwand ist mit min-
destens O(n
4
) zu teuer
Bemerkung 9.26
QR- Zerlegung ist auch f ur lineare Gleichungsystem interessant.
Ax = b
S
n1
S
1
A
. .
x = S
n1
S
n
. .
b
R x =

S b
9.4.3 Transformation auf Hessenberg Gestalt
_

_
h
11
h
21
.
.
. h
ij
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 h
nn1
h
nn
_

_
= H = Q

AQ durch n-2 Spiegelungen


S
1
so, da S
1
A =
_

_
a
11
a
1n
h
21
h
2n
0
.
.
.

A
0
_

_
mit S
1
=
_
u
1
|u
1
|
_
u
1
=
_

_
0
a
21
+| a
(1)
|sign( a
21
)
a
31
.
.
.
a
n1
_

_
andert Zeilen 2 bis n
S
1
AS
(1)
1
= S
1
AS
1
andert nur noch Spalten 2 bis n
H = S
n2
S
1
. .
A S
1
S
n2
. .
H = Q A Q

Ahnlichkeitstransformationen)
Eigenwertprobleme bei Matrizen 109
Bemerkung 9.27
Ist A = A

= (Q

AQ)

= Q

A
T
Q = H dh. H ist Tridiagonalmarix.
Aufwand:

2
3
n
3
bei A = A

5
3
n
3
sonst
9.4.4 Der Doppelschritt QR nach FRANCIS
Bemerkung 9.28
A = A

1.) A tridiagonalisiert
2.) QR Algorithmus f ur Tridiagonalmatrix
Weiterhin jetzt A ,= A

:
(1) A H Hessenberg Matrix
(2) QR Algorithmus f ur H
Grundalgorithmus:
H
(k)
s
k
I = Q
(k)
R
(k)
H
(k+1)
:= R
(k)
Q
(k)
+ s
k
I
Doppelschritt:
H
1
s
1
I = Q
1
R
1
H
2
= R
1
Q
1
+ s
1
I
_
1. Schritt H
2
= Q

1
H
1
Q
1
H
2
s
2
I = Q
2
R
2
H
3
= R
2
Q
2
+ s
2
I
_
2. Schritt H
3
= Q

2
Q

1
H
1
Q
1
Q
2
Suchen Matrix um direkt von H
1
H
3
zu kommen.
Betrachten
P = (H
1
s
1
I)(H
1
s
2
I) = Q
1
R
1
(Q
1
R
1
+ (s
1
s
2
)I)
= Q
1
R
1
Q
1
. .
R
1
+ (s
1
s
2
)Q
1
R
1
= Q(H
2
s
1
I)R
1
+ (s
1
s
2
)Q
1
R
1
= Q
1
((H
2
s
2
I)R
1
= (Q
1
Q
2
)(R
2
R
1
)
=

Q

R
Eigenwertprobleme bei Matrizen 110
Die beiden Verschiebungen s
1/2
sind stets die EW der (2 2) Matrix
in H =
_

_
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.


_

_
_
h
n1n1
h
n1n
h
nn1
h
nn
_
evtl. s
1
= s s
2
= s (konjugiert komplexes Parchen)
=P = H
2
(2Res)H +[s[
2
I (reelle Matrix)
Idee
f ur H
k
deniere Q
k
als Q- Faktor von P
k
= (H
k
s
1
I)(H
k
s
2
I)
H
k+1
:= Q

k
H
k
Q
k
Exaktes Vorgehen
(1) Berechnung der 1. Spalte von P
k
(2) Berechnen der Spiegelung S
1
die S
1
q = [q[e
1
(3)

H := S
1
H
k
S
1
(4) Transformiere

H wieder auf Hessenberg Gestalt = H
k
+ 1
Aufwand
pro Schritt: O(n
2
)
Gesamt: O(n
3
)
9.5 Vektoriteration
Zur Berechnung von einen Eigenwert und Eigenvektor.
Potenzmethode
x
0
Startvektor mit |x
0
| = 0
y
(k)
:= Ax
(k)
x
(k+1)
:= t
k
y
(k)
k = 0, 1...
t
k
ist Normierungsfaktor:
(a) t
k
= |y
(k)
|
1
Eigenwertprobleme bei Matrizen 111
(b) t
k
= Ax
(k)
, x
(k)
)
1
= y
(k)
, x
(k)
)
1
Satz 9.29 Konvergenz
Sei A diagonalisierbar
Sei
1
der einzige Eigenwert mit
(a) = [
1
[ > [
2
[ ... [
n
[
=x
(k)
konvergiert gegen w
(1)
(Eigenvektor zu
1
)
Beweis:
x
(0)
=
n

i=1
w
(i)
sei
1
,= 0
x
(k)
= t
k1
Ax
(k1)
= t
k1
t
k2
A
2
x
(k2)
=
k1

j=0
t
j
A
k
x
(0)
x
(k)
=
_

t
j
_
n

j=1

k
i
w
(i)
=
k
1

t
j
(
1
w
(1)
+
n

i=2
_

1
_
k
w
(i)
)
= =lineare Konvergenz

2
0
Schnellere Konvergenz und Berechnung von anderen Eigenwerten mittels
Inverser Iteration (WIELANDT- Iteration)
Sei eine Naherung f ur
k
: [
k
[ < [
i
[ i k
Benutzen die Potenzmethode f ur (AI)
1
Iteration: Lose
(A I)y
(k)
= x
(k)
x
(k+1)
= t
k
y
k
_
k = 0, 1...
Ist [
k
[ << [
i
[ i k
=
[
k
[
[
i
[
<< 1 = schnellere Konvergenz
Bemerkung 9.30
(A I) sehr gro, wenn gute Eigenwertnaherung
= hier trotzdem sehr gute Ergebnisse (Fehler in Richtung des gesuchten
Eigenvektors)
notwendig: Losungstechnik f ur Gleichungssysteme (AI) mittels Gau
besser QR- Zerlegung
Eigenwertprobleme bei Matrizen 112
9.6 Der Lanczos Algorithmus f ur groe Eigen-
wertprobleme
Sei A = A

R
n,n
mit n gro und ublicherweise A schwach besetzt (Tridiagona-
lisierung entsprechen 9.4.3 ist aus Speicherplatzgr unden nicht moglich)
betrachten Lanczos Prozess
betrachte z
(0)
R
n
, mit |z
(0)
| = 1 beliebiger Startvektor
z
(k+1)
= Az
(k)

k
z
(k)

k
z
(k1)
z
(k+1)
=
z
(k+1)
| z
(k+1)
|
_
k = 0, 1... mit B
0
= 0
mit z
(i)
, z
(j)
) =
ij
durch:
k
= Az
(k)
, z
(k)
)

k
= Az
(k)
, z
(k1)
)
= z
(k)
, Az
(k1)
)
= z
(k)
,

z
(k)
) = |

z
(k)
|
analog zu orthogonalen Polynomen folgt
z
(k+1)
, z
(j)
) = 0 j < k 1
Bemerkung 9.31
Der Grund f ur die Analoie zur Konstruktion orthogonaler Polynome ist:
xp(x) symmetrischer Operator bzgl. < , >=
_

AZ ist symmetrischer Operator bzgl. < , >= euklidisches Skalarprodukt
Bemerkung 9.32
Implizit werden auch hier orthogonale Polynome erzeugt.
z
(k+1)
= p
k
(A)z
(0)
p
k
(t)
k
z.B.: p
0
(t) = 1
p
1
(t) = (t
0
)/
1
=z
(i)
, z
(j)
) =
ij
= p
i
(A)z
(0)
, p
j
(A)z
(0)
)
Bemerkung 9.33
z
(0)
, z
(1)
, ... , z
(k)
bilden eine Orthonormalbasis im sogenannten Krylovraum
K(A, z
(0)
) = span(z
(0)
, Az
(0)
, A
2
z
(0)
, A
k
z
(0)
)
Eigenwertprobleme bei Matrizen 113
Fazit:
Az
(k)
= b
k+1
z
(k+1)
+ a
k
z
(k)
+ B
k
z
(k1)
k = 0, ...
Z
k
= (z
(0)
[z
(1)
[...[z
(k1)
)
K
k1
(A, z
(0)
) = span (z
(k)
)
AZ
k
= Z
k
T
k
+ (0[0...[B
k
z
(k)
) mit T
k
=
_

1

1

1
.
.
.
.
.
.
.
.
.
.
.
.
n1

n1

n1
_

_
AZ
k
= Z
k
T
k
+
k
z
(k)
e

k
und Z

k
Z
k
= I
Z

k
AZ
k
= T
k
+
k
Z

k
z
(k)
. .
e

k
= T
k
0
Fall 1: k = n
z
n
= (z
(0)
z
(n1)
) Orthonormalbasis im R
n
jetzt Z
n
orthogonale (n n) Matrix
Z

n
AZ
n
= T
n
T
n
ahnlich zu A
T
n
und A haben gleiche Eigenwerte und die Eigenwerte von T
k
sind gut
berechenbar z.B. mittels QR- Algorithmus f ur Tridiagonalmatrizen
=Algorithmus ist nicht zu gebrauchen da obige Identitt dadurch gestort,
da die z
(k)
ab gewissen k kein exaktes Orthonormalsystem bilden
Fall 2: Lanczos Phanomen
schon f ur kleine k sind einige Eigenwerte von T
k
gute Naherungen f ur
die Eigenwerte von A
Instabilitaten werden insbesondere durch gut konvergierte Eigenwerte
bewirkt
Algorithmus 9.34 Lanczos Verfahren
Bilde z
(0)
z
(k)
und somit Z
k
= (z
(0)
[...[z
(k1)
) und
i
und
i
bilden obige
Tridiagonalmatrix T
k
Berechnen Eigenwerte und Eigenvektoren von T
k
, T
k
u = u
, Z
k
u) Naherung f ur ein Eigenpaar von A mit |u| = 1
Eigenwertprobleme bei Matrizen 114
Berechnen Residuum:
|A(Z
k
u) (Z
u
)| = |Z
k
T
k
u +
k
z
(k)
e

k
u Z
k
u|
=
k
[ e

k
u [
= B
k
und die letzte Komponente des Eigenvektors von T
k
bringen die
Information ob der Eigenwert

konvergiert hat
also: - Berechnen von Eigenwerten und der letzten Komponenten der Eigenvek-
toren von T
k
- Tests ob
k
[ e

k
u [ klein
= , Z
k
u) akzeptables Eigenpaar von A
- lose (T
k
I)u = 0 (mittels inverser Iteration)
berechne Y = Z
k
u als Eigenvektor von A
jetzt k:=k+1
+ weitere Lanczosvektoren z
(i)
bzgl. y nachorthogonalisieren
Bemerkung 9.35
Welche Eigenwerte von A spalten sich schnel ab ?
etwa solche die

aussen oder gut vom Restspektrum abgetrennt liegen