Sie sind auf Seite 1von 31

Zusammenfassung Numerische

Methoden erster Test

27. April 2015

Inhaltsverzeichnis
1 Vorlesung 1
1.1 Numerische Ableitungen . . . . . . . . . . . . . . . . . .
1.1.1 Gleitkommazahlen . . . . . . . . . . . . . . . . .
1.1.2 Methoden . . . . . . . . . . . . . . . . . . . . . .
1.2 Nullstellenbestimmung . . . . . . . . . . . . . . . . . .
1.2.1 Sekantenverfahren . . . . . . . . . . . . . . . . .
1.2.2 Regular falsi . . . . . . . . . . . . . . . . . . . . .
1.2.3 Newton-Raphson-Verfahren . . . . . . . . . . .
1.3 Integration . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Trapezregel . . . . . . . . . . . . . . . . . . . . .
1.3.2 Rhombergintegration . . . . . . . . . . . . . . .
1.3.3 Simpson-Regel . . . . . . . . . . . . . . . . . . .
1.3.4 Offene Grenzen . . . . . . . . . . . . . . . . . . .
1.4 Zufallszahlen . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Berechnung nicht gleichverteilter Zufallszahlen

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

4
4
4
6
8
8
10
10
11
12
12
12
13
13
14

2 Vorlesung 2
2.1 Lineare Algebra in der Physik . . . . . . . . . . . . .
2.1.1 Nherung fr den Zeitentwicklungsoperator
2.1.2 explizites Eulerverfahren . . . . . . . . . . .
2.1.3 implizites Eulerverfahren . . . . . . . . . . .
2.1.4 Crank-Nicolson-Verfahren . . . . . . . . . . .
2.2 Tridiagnoale Gleichungssysteme . . . . . . . . . . .
2.2.1 Thomas-Algorithmus . . . . . . . . . . . . .
2.2.2 LU (LR)-Faktorisierung . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

16
16
16
17
18
18
19
19
19

3 Vorlesung 3
3.1 Polynom-Interpolation . . . . . . . . . . .
3.1.1 Vandermonde-Matrix . . . . . . .
3.1.2 Lagrange-Interpolationspolynome
3.1.3 Newton-Interpolation . . . . . . .
3.1.4 Spline-Interpolation . . . . . . . .
3.2 Anpassungsprobleme . . . . . . . . . . . .
3.3 Integration . . . . . . . . . . . . . . . . . .
3.3.1 Gauss-Integration . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

21
21
21
21
22
22
24
24
25

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

4 Vorlesung 4
26
4.1 Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4.2

Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.1 Gauss-Elimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.2 LU-Faktorisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5 Vorlesung 5: Eigenwertanalyse, Eigenvektoren


5.1 Eigenwerte einer Tridiagonalmatrix . . . .
5.2 Givens-Transformation . . . . . . . . . . . .
5.3 Jacobi-Methode . . . . . . . . . . . . . . . .
5.4 QR (QL) - Zerlegung . . . . . . . . . . . . .
5.5 Rayleigh-Ritz-Verfahren . . . . . . . . . . .
5.6 Lanczos-Verfahren . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

28
28
29
29
30
30
31

1 Vorlesung 1
1.1 Numerische Ableitungen
1.1.1 Gleitkommazahlen
Prinzipiell wird in einem Computer eine Gleitkommazahl dargestellt als:
x = (1)s m be

(1.1)

Dabei ist s das Vorzeichenbit, m die Mantisse, b die Basis und e der Exponent. Die Basis
ist (normalerweise) immer 2, wird daher nicht abgespeichert. Um sich ein weiteres Bit
zu sparen, wird immer die Mantisse darauf hin getrimmt, dass sie ungleich null ist. Bei
einem Binren System muss sei also immer 1 sein (hidden bit).
Bei Addition und Subtraktion kommt es auf Grund von einer endlich verfgbaren BitAnzahl zu zwei Effekten, die die Genauigkeit beeinflussen. Absorption und Cancellation. Dazu muss man sich bewusst sein, dass bei einer Addition bzw. Subtraktion wie
folgt abluft: Es werden die Exponenten angeglichen und dann die Mantissen addiert
und das Ergebnis dann wieder auf die typische Fliekomma-Darstellung zurcktransformiert. Liegen die Summanden in sehr unterschiedlichen Grenordnungen, wird der
kleinere Summand absorbiert (Subtraktion analog). Bsp: Man hat zwei Nachkommastellen zur Verfgung:
1.00 102 + 1.00 102 = 1.00 102 + 0.00|01 102 = 1.00 102

(1.2)

Die Cancellation tritt auf, wenn zwei hnlich groe Zahlen subtrahiert werden. Bsp:
Man hat zwei Nachkommastellen zur Verfgung:
3.14 = 3.14|159... 100 3.14 100 = 0.00 100

(1.3)

Prinzipiell knnen Gleitkommazahlen umso genauer dargestellt werden, umso nher


sie um die Stelle null liegen. Als Maschinengenauigkeit bezeichnet man die kleinste Zahl em bei der die Operation 1 + em ein Ergebnis grer null liefert (siehe Abbildung1.1).

Abbildung 1.1: Maschinengenauigkeit

1.1.2 Methoden
Man geht von der mathematischen Definition der Ableitung aus:
f 0 ( x ) = lim

h 0

f ( x + h) f ( x )
h

(1.4)

Man hat in der Numerik keine Mglichkeit, Limiten zu bilden. Daher eine erste Nherung mit Taylorreihe:
h2 00
h3
f ( x ) + f 000 ( x ) + O(h4 )
(1.5)
2
6
h2
h3
f ( x h) = f ( x ) h f 0 ( x ) + f 00 ( x ) f 000 ( x ) + O(h4 )
(1.6)
2
6
f ( x + h) f ( x )
1
f 0 ( x ) + h f 00 ( x ) + ...
(1.7)
h
2
Dabei wird ab der zweiten Ableitung abgeschnitten und nur (1.5) verwendet. Prinzipiell muss h mglichst klein gewhlt werden, um mathematisch mglichst genau auf
den Wert der Ableitung zu kommen. Allerdings ist es nicht mglich, h beliebig klein zu
whlen, da die Maschinengenauigkeit und die Cancellation-Effekte dem Gewinn der
Genauigkeit durch whlen eines kleineren h stark entgegenwirken (siehe Abbildung
1.2. Eine genauere erste Ableitung bzw. ein Ausdruck fr die zweite Ableitung kann
durch Addieren bzw. Subtrahieren von (1.5) und (1.6) gewonnen werden. Durch Subtraktion ergibt sich:
f ( x + h) f ( x h)
+ O(h3 )
(1.8)
f 0 (x) =
2h
Analog ergibt sich durch Addition:
f ( x + h) = f ( x ) + h f 0 ( x ) +

f ( x + h) 2 f ( x ) + f ( x h)
+ O(h4 )
(1.9)
h2
Auerdem hngt das h nicht mehr von der Quadratwurzel, sondern von der kubischen
Wurzel von der Maschinengenauigkeit in etwa ab. Verbessert kann das Verfahren werden, indem man die Ableitung fr mehrere Werte von h berechnet und die Ergebnisse
ber Polynominterpolation nach h = 0 extrapoliert.
f 00 ( x ) =

Eine weitere Mglichkeit der Extrapolation, die analog zur Rhombergintegration ist, ist
die Richardson-Extrapolation.
Auerdem besteht auch die Mglichkeit, die Funktion in eine Reihe zu entwickeln.
f (x) =

ci Fi (x)

f 0 (x) =

ci Fi0 (x)

(1.10)

Dabei bieten sich fr Fi die Tschebyscheff-Polynome an, da sie orthogonal sind (also eine
Basis bilden) und die Ableitungen analytisch einfach zu bestimmen sind. Es werden oft
nur wenige Koeffizienten c j bentigt. Allerdings ist die Methode nur dann numerisch
Effizient, wenn f ( x ) analytisch bekannt ist.

Abbildung 1.2: Fehler bei der Wahl von h

1.2 Nullstellenbestimmung
Die Suche von Nullstellen erfolgt zwischen zwei Punkten a und b. Prinzipiell sucht
man diese Punkte a und b indem man annimmt, dass f ( a) < 0 und f (b) > 0 ist. Es
kann zu verschiedenen Problemen fhren: Es kann keine (z.B. f ( x ) = x2 + 1), mehrere
(z.B. f ( x ) = x2 1) oder unendlich viele (z.B. f ( x ) = sin 1/x) Nullstellen zwischen den
Punkten geben, bzw. eine Singularitt.
1.2.1 Sekantenverfahren

Abbildung 1.3: Sekantenverfahren


Wie man in Abbildung 1.3 sieht, wird hier zwischen den Funktionswerten der ersten
beiden Punkte (x1 und x2 bzw. f ( x1 ) und f ( x2 )) eine Sekante gezogen. Die Nullstelle der
Sekante dient als neuer Punkt x3 . Es wird wieder eine Sekante gezogen und die Nullstelle dieser bestimmt, allerdings wird der lteste Punkt x1 verworfen und durch x3 ersetzt.
Dieses Prinzip wird bis zur Konvergenz durchiteriert.

Abbildung 1.4: Regular falsi - An sich ein schei Beispiel, weil der erste Punkt unter
null liegt und alle anderen ber null, es sich also der Anfangspunkt nie
ndert

1.2.2 Regular falsi


Regular falsi (Abbildung 1.4) funktioniert wie das Sekantenverfahren, allerdings wird
der ltere Punkt nur verworfen, wenn sich das Vorzeichen des Funktionswerts vom
neuen Punkt vom Vorzeichen des Funktionswerts des alten Punkts nicht mehr unterscheidet.
1.2.3 Newton-Raphson-Verfahren

Abbildung 1.5:
Das Newton-Raphson-Verfahren (Abbildung 1.5) bentigt nur einen Anfangspunkt. Es
wird an diesem Punkt die Tangente an der Funktion bestimmt und deren Nullstelle bestimmt. Diese Nullstelle ist der neue Ausgangspunkt fr die Berechnung einer neuen
Tangente an der Funktion an dem Punkt, deren Nullstelle bestimmt wird, usw. Konvergiert schnell und kann auch auf die komplexe Ebene erweitert werden. Problem: f 0 ( x )
muss analytisch bekannt sein. Erreicht man zufllig einen Extremwert der Funktion,
divergiert die Methode.

10

1.3 Integration
Gesucht ist das bestimmte Integral einer Funktion. Bevor man eine Lsungsverfahren
auswhlt, muss folgendes bedacht werden:
Integral analytisch lsbar?
Funktion integrabel?
Funktion glatt?
Liegen die Grenzen im unendlichen?
Gibt es Sinularitten am Rand oder innerhalb vom Intervall?
Ist es ein mehrdimensionales Integral?
Kennt man die Funktion analytisch ( f ( x )) oder handelt es sich um diskrete Messwerte
f ( x i )?
Prinzipiell nhert man ein Integral numerisch durch:
I=

Z b
a

f ( x )dx =

wi f (ai ) + En ()

(1.11)

i =0

Es stellt sich die Frage, ob die Funktion durch eine Transformation vereinfacht werden
kann. Fr die Wahl der Sttzstellen ai ist zu beachten:
Minimierung der Anzahl der Sttzstellen
Sind sie durch ein Experiment vorgegeben?
Positionen?
wie sehen die daraus abgeleiteten Gewichte wi aus?
Fehlerabschtzung?

11

Abbildung 1.6: Trapezregel


1.3.1 Trapezregel
Bei geschlossenen Integralen mit equidistanten Sttzstellen ai ist es am einfachsten, die
Trapezregel (siehe Abbildung 1.6) zu verwenden.
Ein Teilschritt in erster Ordnung kann wie folgt beschrieben werden:
Z a i +1
ai

f ( x )dx =

h
( f ( ai ) + f ( ai + h)) + O(h3 f 00 )
| {z }
2

(1.12)

a i +1

Das ganze Integral ergibt sich zu:


Z b
a

n 1

f ( x )dx

i =0

h
( f ( ai ) + f ( ai+1 ))
2

(1.13)

1.3.2 Rhombergintegration
Es werden Trapeze mit verschiedenen Schrittweiten unter die Funktion gelegt. Man
fngt mit sehr wenigen groen Trapezen an und verkleinert bzw. vermehrt die Trapeze.
Mit einer Rekursion kann ber eine Mittelung der Trapeze mit verschiedenen Schrittweiten genauere Ergebnisse erhalten. Sobald sich die verschiedenen Stufen der Rekursion nicht mehr, als e unterscheiden, kann man von Konvergenz sprechen.
1.3.3 Simpson-Regel
Die Simpson-Regel funktioniert hnlich wie die Trapez-Regel, allerdings wird hier bei
jedem Schritt ber drei statt zwei Sttzstellen eine Flche approximiert. Prinzipiell knnen mit der Simpson-Regel Polynome des Grades 2 exakt gelst werden (per Definition). Dies liegt daran, dass hier im Prinzip die Funktion mit einem Polynom zweiten Grades interpoliert wird. Es gibt auch eine Abwandlung, die Simpson-3/8-Regel.

12

1.3.4 Offene Grenzen


Man spricht von offenen Grenzen, wenn das Integral am Rand unbekannte oder falsch
gemessene Funktionswerte aufweist. Man kann diese Integrale lsen, in dem man die
letzten unbekannten Punkte extrapoliert. Man kann auch ber Variablentransformationen Singularitten an den Rndern beseitigen. Anwendung: Fourier-Analyse

1.4 Zufallszahlen
Die meisten Zufallszahlengeneratoren generieren blicherweise nur Pseudozufallszahlen. Ein Zufallszahlengenerator sollte vorher statistische Tests bestanden haben. Man
erkennt bei schlechten Generatoren wiederkehrende Muster. Beispiele fr schlechte Generatoren:
Lineare Kongruenzmethode: ai+1 = ( ai b + c) mod(m)
Fibonacci-Generator: ai+1 = ( ai + ai1 ) mod(m)
von-Neumann-Generator: ai+1 = ai ai
Dabei muss man bei jedem dieser Generatoren mit einer Zahl a0 beginnen. a, b, c sind
Konstanten, mod(m) der Divisonsrest einer sehr groen Zahl m 2 1031 und ai eine
Zahlenfolge aus der Mitte von ai .
Moderne Zufallszahlengeneratoren sind XOR-Shift-Generatoren, Mersenne twister und
WELL (well equidistributed long-period linear). Diese liefern allerdings alle nur Pseudozufallszahlen.
Um wahre Zufallszahlen zu generieren, muss man physikalische Prozesse herbeiziehen.
Z.B.
radioaktiver Zerfall
thermisches Rausche
Radio/Mikrofon-Rauschen
Rauschen eines CCD-Sensors
In der Natur kommen selten gleichverteilte Zufallszahlen vor. Man kann sich ber die
Erwartungswerte eines Datensatzes von gemessenen Zufallsgren berechnen, ob die
Zufallszahlen gleichverteilt sind.

13

1.4.1 Berechnung nicht gleichverteilter Zufallszahlen


Transformationsmethode
Siehe Abbildung 1.7

Abbildung 1.7: Transformationsmethode


1. Computer whlt eine Zufallszahl R [0, 1)
2. Man sucht den Funktionswert F(x) = R wobei gilt:
F(x) =

Z x
0

p( x 0 )dx 0

(1.14)

und p(x) die gewnschte Verteilungsfunktion ist.


3. Man erhlt die nicht-gleichverteilte Zufallszahl ber x = F 1 ( R)
Dabei muss aber die Wahrscheinlichkeitsverteilung auf 1 normiert werden! Falls die
Umkehrfunktion F 1 ( R) nicht bekannt ist, muss man eine Tabelle von F ( x ) anlegen
und x ber einen direkten Vergleich mit R finden.
Zurckweisungsmethode
Man whlt zwei Zufallszahlen R1 und R2 (Bsp. in Abbildung 1.8: R1 [250, 450] und
R2 [0, 5]. Falls der Punkt (R1 ,R2 ) unter der Verteilungsfunktion p( x ) liegt, ist die
Zufallszahl x = R1 . Man kann die Methode verbessern, indem man eine analytisch
bekannte Verteilungsfunktion f ( x ) > p( x ) whlt und man x aus R1 der Transformationsmethode whlt und und x als Zufallszahl akzeptiert, wenn gilt: R2 p( x )/ f ( x ). Dadurch erhlt man weniger zurckgewiesene Zufallszahlen. Siehe Abbildung 1.9.

14

Abbildung 1.8: Zurckweisungsmethode

Abbildung 1.9: Verbesserung


der
Zurckweisungsmethode
Transformationsmethode

15

mit

Hilfe

der

2 Vorlesung 2
2.1 Lineare Algebra in der Physik
Meistens beschftigt man sich mit der Lsung der Schrdingergleichung

ih

h 2

( x, t)
( x, t) = H( x, t) =

+
V
(
x
)
2me

t
| {z }

(2.1)

Meist whlt man atomare Einheiten, also me = e = h = 1.


Da in der Numerik nur diskrete Orts- und Zeitschritte gewhlt werden knnen, werden
Wellenfunktionen als Vektoren geschrieben und Operatoren als Matritzen.

( x0 , t j )
( x1 , t j )
..
.

( x, t) =
( xi , t j )

..

.
( x N , t j )

(2.2)

2.1.1 Nherung fr den Zeitentwicklungsoperator


Die zeitliche Fortpflanzung der Wellenfunktion um einen numerischen Schritt t berechnet man ber den Zeitentwicklungsoperator:

U (t t + t) = eiHt = e



2
it 2x +V ( x )

(2.3)

Die Propagation ergibt sich ber


( x, t j + t) = ( x, t j+1 ) = eiHt ( x, t j )

(2.4)

Fr den Zeitentwicklungsoperator gibt es verschiedene Mglichkeiten der Nherung.


U (t t + t) = eiHt = ei(T +V )t = eiTt eiVt + O(t2 )

16

(2.5)

Der Fehler ergibt sich durch e A e B = e A+ B e[ A,B]/2 . Man kann (2.6) besser nhern durch:
eiHt = eiTt/2 eiVt eiTt/2 + O(t3 )

(2.6)

Dabei ist die e-Funktion mit der kinetischen Energie im Impulsraum diagonal und die
e-Funktion mit dem potentiellen Term im Ortstraum diagonal. Man kann das Problem
dann durch Fast Fourier Transformationen zwischen Matrix-Vektor-Multiplikationen
lsen.
Alternativ kann man auch die e-Funktion in eine Reihe entwickeln.
eiHt 1 iHt

( Ht)2 i ( Ht)3
+
+ ...
2
6

(2.7)

2.1.2 explizites Eulerverfahren


Fr die Lsung der Schrdingergleichung verwendet man (1.7) und (1.9) und den Fakt,
dass man die e-Funktion wie in (2.7) entwickeln kann.
( xi1 , t j ) 2( xi , t j ) + ( xi+1 , t j )
x2

(1, j)

..

2 1
0
.

1 2 1
(i 1, j)
1

.. .. ..
(i, j)

.
.
.

x2
(i + 1, j)

1 2 1

..

0
1 2
.
(n, j)

2x (i, j)

( x i , t j +1 ) ( x i , t j )
=
x2

(1, j + 1)
(1, j)
..
..

.
.

(i 1, j + 1) (i 1, j)

(i, j)
(i, j)

(i + 1, j + 1) (i + 1, j)

..
..

.
.
(n, j + 1)
(n, j)

(2.8)

t (i, j)

Man kann nun in die Schrdingergleichung einsetzen und erhlt:

17

(2.9)

(1, j + 1)
..
.

(i 1, j + 1)

(i, j)

(i + 1, j + 1)

..

.
(n, j + 1)

2 1
0

1 2 1


it


.. .. ..
=

ik
.
.
.

2x2

1 2 1

0
1 2

(1, j)
..
.

(i 1, j)

(i, j)

it
V
(
x
)

ik
k

(i + 1, j)

..

.
(n, j)
(2.10)

Das Problem beim expliziten Eulerverfahren liegt darin, dass es nummerisch nur stabil
ist, wenn man t x2 /2 whlt. Da die Propergationsmatrix nicht unitr ist, muss die
Wellenfunktion nach jedem Schritt neu normiert werden.
2.1.3 implizites Eulerverfahren
Hier geht man in den Zeitschritten rckwrts (U ( x, t j+1 ) = ( x, t j ). Man erhlt ein
lineares Gleichungssystem.

(1, j)
..
.

(i 1, j)

(i, j)

(i + 1, j)

..

.
(n, j)

2 1
0

1 2 1


it


.. .. ..

= ik
.
.
.
2

2x

1 2 1

0
1 2

(1, j + 1)
..
.

(i 1, j + 1)

(i, j)
+ itik V ( xk )

(i + 1, j + 1)

..

.
(n, j + 1)
(2.11)

Im Gegensatz zum expliziten Eulerverfahren, bei dem Matrix-Vektor-Multiplikationen


bei jedem Schritt durchgefhrt werden, muss hier in jedem Schritt ein Gleichungssystem gelst werden. Allerdings ist das Verfahren numerisch stabil, jedoch nicht Normerhaltend, da die Matrix wieder nicht unitr ist.
2.1.4 Crank-Nicolson-Verfahren
Beim Crank-Nicolson-Verfahren wird ausgentzt, dass es eine Funktion gibt, die eine
hnliche Reihenentwicklung, wie die e-Funktion hat.

18

eiHt

1 iHt
( Ht)2 i ( Ht)3
1 iHt
+
+ ...
1 + iHt
2
4

(2.12)

iHt
Die Funktion 11+
iHt ist bis zum dritten Glied mit der Reihenentwicklung der e-Funktion
identisch, also genauer, als die Verwendung der ersten zwei Glieder, wie bei den Eulerverfahren. Das Verfahren ist unitr, konsistent und stabil.

2.2 Tridiagnoale Gleichungssysteme


2.2.1 Thomas-Algorithmus
Es soll ein Gleichungsystem der Form

b1 c1
0
a2 b2
c2

..
.
.
..
.
A~x =
.
.

a n 1 bn 1 c n 1
0
an
bn

x1
f1
.. ..
. .

xi = f i
. .
.. ..
xn
fn

(2.13)

gelst werden. Dafr wird eine Vorwrts- und Rckwrtsrekursion bentigt. Vorwrts:
ci
c
mit c10 = 1
0
bi c i 1 a i
b1

(2.14)

f i f i01 ai
f
=
mit c10 = 1
0
bi c i 1 a i
b1

(2.15)

xi = f i0 c10 xi+1 mit xn = f n0

(2.16)

ci0 =
f i0
Rckwrts:

2.2.2 LU (LR)-Faktorisierung
Analog zum Thomas-Algorithmus gibt es ein Verfahren, das bei mehreren Ergebnisvektoren effizienter ist. Das Gleichungssystem wird aufgeteilt in:
A~x = L(U~x ) = L~y = ~f

19

(2.17)

Dabei gilt fr die Matrizen:

1 0
2 1
0

..
..
L=
.
.

n 1
0

d1 c1
0 d2 c2

.. ..
..
U=
.
.
.

0 d n 1
0
0

20

..

1 0
n 1

c n 1
dn

(2.18)

(2.19)

3 Vorlesung 3
3.1 Polynom-Interpolation
Es existiert nur ein Polynom vom Grad n oder kleiner, das n+1 reele Funktionswerte
f ( ai ) and den Sttzstellen a0 bis an interpoliert. Man kann dies leicht Beweisen, indem
(
(
man annimmt, dass zwei Polynome pn 1) und pn 2) existieren. Subtrahiert man sie, erhlt man wieder ein Polynom vom Grad n, das aber an allen Stellen ai eine Nullstelle
besitzen msste (da ja f ( ai ), die Sttzstellen fr beide Polynome den gleichen Funktionswert haben mssen). Das Polynom msste also n+1 Nullstellen haben, da es n+1
Sttzstellen/Funktionswerte gibt. Dies ist fr kein Polynom vom Grad n erfllt, da ein
Polynom vom Grad n immer n Nullstellen besitzt.
3.1.1 Vandermonde-Matrix
Das einfachste Verfahren besteht darin, das Polynom direkt ber ein Gleichungssystem
zu finden. Als Basissystem whlt man die Polynome Pi ( x ) = xi
n

pn ( x ) =

ci Pi (x) = c0 + c1 x + c2 x2 + ... + cn xn

(3.1)

i =0

Man setzt voraus, dass pn ( ai ) =


eine Matrix schreiben kann:

1 a0 a20
1 a1 a21

1 a2 a22
. .
.. ..
1 an a2n

f ( ai ) ist. Man erhlt n Gleichungssysteme, die man in


...
...
..

.
...

a0n

a1n

..

ann


c0
f ( a0 )
.. ..
. .

ci = f ( ai )
.
..
. ..
cn
f ( an )

(3.2)

3.1.2 Lagrange-Interpolationspolynome
Mit Hilfe der Lagrange-Interpolationspolynome kann man auch das Interpolationspolynom finden:
n

pn ( x ) =

k =0

21

f ( ak ) lk ( x )

(3.3)

wobei

lk ( x ) =

i =0 i 6 = k

x ai
a k ai

(3.4)

Wegen lk ( a j ) = jk ist pn ( a j ) = f ( a j ) erfllt. Das Verfahren bentigt im besten Fall O(n2 )


Additionen, O(n2 ) Multiplikationen und O(n) Divisionen.
3.1.3 Newton-Interpolation
Als Basisfunktionen whlt man
i 1

Ni ( x ) =

( x a j )

(3.5)

j =0

mit N0 ( x ) = 1. Wegen der Forderung pn ( ai ) = f ( ai ) erhlt man

f ( a0 )
1
0
c0
.. ..
1 N1 ( a1 )

. .
..

. ci = f ( ai )
1 N1 ( a2 ) N2 ( a2 )
.
. .
..
...
..
.. ..
.
1 N1 ( an )
. . . Nn ( an )
cn
f ( an )

(3.6)

Die Koeffizienten werden ber die dividierenden Differenzen berechnet. Der Aufwand
zur EINMALIGEN Berechnung von den Koeffizienten ist O(n2 ). Die Berechnung von
p n( x ) kann ber das Hornerschema mit O(n) durchgefhrt werden.
p i ( x ) = p i 1 ( x ) x + c n i

(3.7)

Wenn die dividierenden Differenzen gespeichert sind, ist es sehr einfach (O(n)) einen
zustzlichen Sttzpunkt zu berechnen. Die dividierenden Differenzen knnen als Analogie zur Taylorreihe gesehen werden.
3.1.4 Spline-Interpolation
Da Polynome hohen Grades sehr stark oszillieren knnen und bei vielen Sttzstellen
dadurch schlecht interpolieren, gibt es die Spline-Methode, wo immer nur zwischen
zwei Sttzstellen interpoliert wird (meist mit einem Polynom vom Grad 3, kubischer
Spline). Die Funktion, mit der interpoliert wird, muss zwei mal stetig an den Sttzstellen differenzierbar sein, um die Daten auf dem Intervall [ ai , ai+1 ] zu interpolieren. Fr
den kubischen Spline kann man schreiben:
(i )

(i )

(i )

(i )

p3 ( x ) = c3 ( x a i )3 + c2 ( x a i )2 + c1 ( x a i ) + c0

22

(3.8)

Abbildung 3.1: Problem der


Polynome

Polynominterpolation:

Oszillationen

hochgradiger

Es mssen nun die ersten und zweiten Ableitungen der verschiedenen Spline-Polynome
an den Sttzstellen stetig sein. Diese Bedingungen kann man in in eine tridiagonales
Gleichungssystem umschreiben.

0
2
0
S0
y1
0 + 1

0 + 1
...
...
.. ..

. .

1
0
2
(3.9)

Si = y i
0 + 1
0 + 1

.. ..
..
..

.
.
.
.

n 1
n 2
Sn
y n 1
0
2
n 2 + n 1
n 2 + n 1
(i )

Dabei ist Si = 2c2 und i = ai+1 ai . Die brigen Koeffizienten knnen leicht aus
diesen Ergebnissen hergeleitet werden. S0 und Sn mssen vorgegeben werden, da das
Gleichungssystem sonst unterbestimmt ist:
natrlicher Spline: beide werden null gesetzt
Extrapolation aus den vorherigen Koeffizienten S
Vorgabe oder Schtzwert
Vollstndiger Spline: Definition zustzlicher y

23

Periodischer Spline: erste und zweite Ableitungen am Rand gleich (Achtung: Verlust
der tridiagonalitt)

3.2 Anpassungsprobleme
Man unterscheidet zwischen linearen und nicht-linearen Anpassungsproblemen. Linear:
M

f (x) =

a k Xk ( x )

(3.10)

k =1

Nicht-Linear:

f (x) =

a k X k ( bk x )

(3.11)

k =1

Die Anpassung sollte die Fitparameter, eine Abschtzung des Fehlers fr jeden Paramter und eine Abschtzung fr die Qualitt des Fits liefern. Man will NICHT die Punkte
durch eine mglichst glatte Kurve ersetzen (Interpolation) oder eine optisch ansprechende Kurve durch die Datenpunkte legen, denn dies erlaubt keine Aussage ber den
physikalischen Prozess.
Als Ma fr die Abweichung wird
2 =

j =1

y j f ( x j ; a1 ...an )
j

!2
(3.12)

definiert. Dabei sind y j die Messwerte, f die Fitfunktion und sigma j der Messfehler. Man
erhlt den Fit durch Ableiten nach den Fitparametern und Nullsetzen von . Man erhlt
ein lineares Gleichungssystem. Wenn j nicht bekannt ist, wird er 1 gesetzt und kann
nach dem Lsen des Anpassungsproblems bestimmt werden.

3.3 Integration
Bereits besprochene Anstze, die zur Integration verwendet werden knnen: Integration von
Fitfunktionen
Interpolationspolynom
(kubischen) Splines

24

3.3.1 Gauss-Integration
Wird verwendet, wenn es kompliziert ist, die Funktionswerte an den Sttzstellen zu berechnen oder zu messen. Bisher wurden n+1 quidistante Sttzstellen verwendet, um
n+1 Gewichtsfaktoren zu bestimmen und ber ein Polynom des Grades n an die Funktion zu approximieren und zu integrieren. Mit der Gauintegration kann ein Polynom
vom Grad 2n-1 an die Funktion approximiert werden, wenn n Sttzstellen bekannt sind.
Der Ansatz lautet hnlich wie bisher:
Z b
a

f ( x )dx =

f ( a i ) wi

(3.13)

i =1

Dabei sind wi wieder Gewichtungsfaktoren und f(x) ein Polynom von Grad 2n-1. Fr
ai setzt man die Nullstellen der des jeweiligen Basisvektors (z.B. bestimmes Legendrepolynoms) ein, dem der Gewichtungsfaktor zugeordnet ist. Man verwendet nun orthogonale Polynome, in die man die zu integrierende Funktion entwickelt. Die Legendrepolynome zum Beispiel entsprechen auf einem Intervall von -1 bis 1 dieser Forderung.
n

ci Pi (x)

(3.14)

f ( x ) Pi ( x ) dx

(3.15)

f (x) =

i =0

2i + 1
ci =
2

Z 1
1

Rb
Es knnen auch Integrale der Form a W ( x ) pn ( x ) dx fr beliebige Gewichtungsfunktionen W ( x ) mit den zugehrigen orthogonalen Polynomen ausgewertet werden. Dadurch kann auch das Intervall zwischen a und b angepasst werden. Aus den Gewichtungsfunktionen knnen die Gewichtungsfaktoren ausgerechnet werden. Allgemein gilt
dann:
Z b
a

n f ( a j )w j

(3.16)

W ( x )l j ( x ) dx

(3.17)

W ( x ) f ( x ) dx =

j =1

wj =

Z b
a

Dabei sind a j wieder die Nullstellen des geweiligen Polynoms l j ( x ) der gewhlten Polynombasis.

25

4 Vorlesung 4
4.1 Fouriertransformation
Auf Computern kann man eine Fouriertransformation nur in diskreter Form durchfhren. Es kann dabei zum Leck-Effekt kommen, bei dem ein Signal an ungnstigen Punkten abgetastet wird und zustzliche Frequenzanteile, die tatschlich nicht vorkommen,
in der Transformation auftauchen. Dies passiert wenn eine bestimmte gesuchte Frequenz nicht am diskreten Raster vorkommt (siehe Abbildung 4.1).

Abbildung 4.1: Leckeffekt


Fr die diskrete Fouriertransformation gibt es eine Verbesserung (Fast Fourier Transform FFT), die mit O( Nlog2 ( N )) statt mit O( N 2 ) Schritten auskommt.

26

4.2 Lineare Gleichungssysteme


Es gibt direkte Verfahren, bei denen ein exaktes Ergebnis in endlich vielen Schritten
erzielt wird und indirekte Verfahren, bei denen ein exaktes Ergebnis erst theoretisch
nach unendlich vielen Schritten gefunden werden kann.
4.2.1 Gauss-Elimination
Die Gauss-Elimination ist ein direktes Verfahren, bei dem die Matrix des Gleichungssystems zuerst auf eine Dreiecksform gebracht wird und dann durch eine Rckwrtssubstitution gelst wird. Der Prozess, die Matrix auf eine Dreiecksform zu bringen, kann
zu Problemen fhren, wenn ein Diagonalelement 0 ist. Dann werden Zeilen vertauscht,
man whlt normalerweise das grte Element der verbleibenden Submatrix.
4.2.2 LU-Faktorisierung
Wenn man mehrere Ergebnisvektoren hat, ist es ratsam, ein Problem mit einer LUFaktorisierung zu lsen. Wie bereits in der zweiten Vorlesung erwhnt, kann man das
Problem in mehrere Probleme unterteilen:
A~x = L(U~x ) = L~y = ~f

(4.1)

Aus der Gauss-Elimination erhlt man die untere Dreiecksmatrix L, die in der Diagonale immer 1 stehen hat und die obere Dreiecksmatrix U. Man lst zuerst das Problem L~y = ~f (vorwrts einsetzten) und dann das Problem U~x = ~y (rckwrts einsetzen). Anwendung: Berechnung der Inversen: Spaltenweise lsen von n Gleichungssystemen.
Ann x~n = b~n
(4.2)
Dabei ist

1
0
..
1

b0 = . b1 = ..
0
.
0
0

27

0
..

... bn = .
0
1

(4.3)

5 Vorlesung 5: Eigenwertanalyse, Eigenvektoren


hnlichkeitstransformationen ndern die Eigenwerte einer Matrix nicht. Durch Transformation einer Matrix auf eine hnliche Form kann die Suche nach Eigenwerten und
Eigenvektoren erleichtert werden. Oft wird nur ein bestimmter Eigenwert/Eigenvektor
gesucht. Die Eigenwerte einer Matrix knnen leicht ber die Gershgorin-Kreise abgeschtzt werden: Alle Eigenwerte einer Matrix befinden sich in Kreisen in der komplexen
Ebene um die Diagonalelemente. Es gilt zeilenweise:

|i cii

|cij |

(5.1)

|c ji |

(5.2)

i6= j

analog spaltenweise:

|i cii

i6= j

Siehe Abbildung 5.1

Abbildung 5.1: Gershgorin-Kreise

5.1 Eigenwerte einer Tridiagonalmatrix


Die Eigenwerte einer Tridiagonalmatrix kann, wie immer, ber das charakteristische
Polynom bestimmt werden:

a11
a12
0

a21
a22 a23

..
..
..

.
.
.
P() = det

.
...

..


0
ann1 ann

28

(5.3)

Das charakteristische Polynom kann einfach rekursiv bestimmt werden indem man die
Matrix in Submatrizen (Unterrume) aufteilt. Beginnend oben links mit einer 1 1 Matrix, 2 2 Matrix usw. bis man alle Eigenwerte sukzessiv bestimmt hat. Die Nullstellen
knnen mit der Newton-Raphson-Methode bestimmt werden, da die Ableitungen vom
charaktistschen Polynom einfach implementiert werden knnen. Die Eigenwerte liegen
auerdem innerhalb der Gershgorin-Kreise.

5.2 Givens-Transformation
Um eine Tridiagonalform zu erhalten, kann die Givens-Transformation verwendet werden, wenn nur wenige Elemente der Matrix nicht null sind. Dabei wird die folgende
Matrix eingefhrt:

1 ...
.. . .
.
.

0 . . .
.
G (i, k, ) =
..
0 . . .

.
..
0 ...

0
..
.

...

cos
..
.

...
..
.
sin . . .
..
.
0

...

0
..
.

...

sin . . .
..
.
cos . . .
..
..
.
.
0

...

0
..
.

0
..
.

..
.
1

(5.4)

Dabei beschreibt G T (i, k, )~x eine Drehung um in der i,k-Ebene. Es wird nun diese
Transformation angewendet um die neue Matrix A0 = G T (i, k, ) AG (i, k, ) zu erhalten. Dabei sollen mglichst die Elemente aik udn aki null gesetzt werden. ber diese Bedingung kann man sich auch den Drehwinkel ausrechnen. Das transformierte Element
wird nicht verndert und es werden insgesamt n2 /2 Rotationen bentigt.

5.3 Jacobi-Methode
Bei der Jacobi-Methode wird eine Matrix auf eine Diagonalform transformiert (D =
T
Q T AQ). Dabei ist Q eine Mehrfachanwendung der Givens-Matrix. Mit A0 = Gi,k
AGi,k
wird immer wieder das betragsmig grte Element aki null gesetzt und durch diese
Rotation alle unteren Nebendiagonalelemente behandelt. Nach und nach nhert sich A0
einer Diagonalmatrix an.

29

5.4 QR (QL) - Zerlegung


Mit Hilfe von mehreren Givens-Rotationen wird die Ausgangsmatrix auf eine obere
(R) oder untere (L) Dreiecksform gebracht. Dabei werden, falls das Eigenwertspektrum
nicht entartet ist, die Eigenwerte aufsteigend nach ihrem Betrag in der diagonale der
neuen Dreiecksmatrix angeordnet. Es gilt A = QR. Weiters gilt:
Gnn1 Gnn2 Gn1n2 ...G31 G21 A = R

(5.5)

Also ist Q = Gnn1 T Gnn2 T Gn1n2 T ...G31 T G21 T . Bei Bei entarteten Eigenwerten kann
der p-fach entartete block diagonalisiert werden.

5.5 Rayleigh-Ritz-Verfahren
Man geht vom Rayleigh-Quotienten aus:
(~z, A) =

~z T A~z
~z T~z

(5.6)

Fr die reele, symmetrische n n-Matrix A gilt, dass 1 = min(~z, A) = min(~


x1 , A )
ist, wobei 1 der kleinste Eigenwert und x~1 der zugehrige Eigenvektor ist. Analoges
gilt fr den maximalen Eigenwert und zugehrigen Eigenvektor (maximum, statt minimum). Dabei ist z eine Linearkombination von Testfunktionen.
Beim Rayleigh-Ritz-Verfahren geht man wie folgt vor:
1. Whle m beliebige Vektoren ~
s1 bis s~m Rn
2. Orthonomiere diese Vektoren. ~si ~qi
3. Bilde H = Q T AQ (H Rmm ) und bestimme die Eigenwerte und Eigenvektoren zu
H.
4. Der kleinste Eigenwert von H entspricht nherungsweise dem kleinsten Eigenwert
von A, gilt analog fr die grten Eigenwerte der Matrizen. Der Eigenvektor zum
kleinsten Eigenwert von A kann nherungsweise berechnet werden, indem man Q
auf den kleinsten Eigenwert von H anwendet. Fr den Eigenvektor zum grten
Eigenwert gilt analoges.
Die Matrix Q wird aus den Vektoren ~qi zusammengesetzt.

30

5.6 Lanczos-Verfahren
Es basiert auf dem Rayleigh-Ritz-Verfahren. Als Basisvektoren wird allerdings die KrylowBasis S gewhlt.
S = [~
s1 , ..., s~m ] = [~
s1 , A~
s1 , A2 ~
s1 , ..., Am1 ~
s1 ]

(5.7)

s1 ist ein beliebiger normierter Startvektor. Der Vorteil liegt hier, dass die Matrix H tridiagonal wird. Fr sehr kleine m im Verhltnis zu n, konvergiert diese Methode sehr
schnell zu extremalen Eigenwerten und ist sehr memory-effizient. Nachteile sind die
Rechenungenauigkeit auf Grund des Verlusts der Orthognonalitt.
Varianten:
Verwende m = 2: Bestimmen der beiden Eigenvektoren, Eigenvektor zu kleinerem
Eigenwert ist neuer Startvektor. Iteration, bis der Eigenwert von A konvergiert.
Suche nach k kleinsten Eigenwerten, bei Wahl von m > k. Man bestimmt nun die
Eigenwerte und Eigenwerte der m m Matrix und verwendet als neuen Startvektor
eine Linearkombination der gefunden Eigenvektoren und iteriert bis zur Konvergenz.

31