Sie sind auf Seite 1von 127

Ingenieurmathematik I

Sommersemester 2021 Prof. Dr. C. Möller

Literaturempfehlungen:
• Karpfinger, Höhere Mathematik in Rezepten, 3. Auflage, Springer 2017
• Arens et al., Mathematik, 4. Auflage, Springer 2018
• Bärwolff, Höhere Mathematik für Naturwissenschaftler und Ingenieure, 3. Auflage, Springer 2017

Die genannten Werke sind bequem via OPAC digital verfügbar. Zu [Karpfinger] und [Arens] ist zudem ein separates
Arbeitsbuch mit ausführlichen Lösungen zu allen Übungsaufgaben verfügbar.
Inhaltsverzeichnis

1 Grundlegendes 1
1.1 Junktoren und Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Rechenzeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Von den natürlichen zu den reellen Zahlen 5


2.1 Natürliche, ganze und rationale Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Natürliche Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2 Ganze Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.3 Rationale Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Folgen und Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Das Vollständigkeitsaxiom und die reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3 Funktionen 13
3.1 Begriffe und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Umkehrabbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.2 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1 Rechenregeln für das Differenzieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3.2 Extremwerte und geometrische Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.3 Differentiationsregel für die Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Reihe, Potenzreihen und spezielle Funktionen 29


4.1 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1 Exponentialfunktion, Sinus und Cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.2 Umkehrfunktion zur Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2.3 Potenzen und Logarithmen zu allgemeinen Basen . . . . . . . . . . . . . . . . . . . . . . 35

5 Das Newton-Verfahren 37

6 Vektorräume 41
6.1 Skalarprodukte, Winkel- und Längenmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.1.1 Geometrische Interpretation des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Vektorprodukt im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.3 Linearkombination und Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

7 Lineare Abbildungen und Matrizen 55


7.1 Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung . . . . . . . . . . . . . . . . . 55
7.2 Verkettung von linearen Abbildungen und das Matrizenprodukt . . . . . . . . . . . . . . . . . . . 60
7.3 Lineare Gleichungssysteme und der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . 66
7.3.1 Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.3.2 Folgerungen aus dem Gauß-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.4 Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
7.4.1 Struktur des Raums der Matrizen: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7.5 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.5.1 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

8 Komplexe Zahlen 77
8.1 Die komplexe Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.1.1 Geometrische Interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2 Der Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

9 Eigenwerte und Eigenvektoren 89


9.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.2 Symmetrische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.3 Diagonalisierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.4 Orthogonale Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

10 Eindimensionale Integration 103


10.1 Definition über Riemann-Summen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
10.2 Zusammenhang Integration – Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
10.3 Integrationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
10.3.1 Integration durch Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.3.2 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.4 Integration rationaler Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

11 Taylorentwicklung, Interpolation und numerische Integration 115


11.1 Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
11.2 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
11.3 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

Hinweis: In diesem Dokument wird lediglich eine knappe Zusammenfassung der wichtigsten Kozepte gegeben. Es
eignet sich in großen Teilen nicht zum alleinigen Selbststudium. Vielmehr bildet es ein Gerüst, mit dessen Hilfe
die dort definierten Inhalte in der angegebenen Literatur erarbeitet werden können.
KAPITEL 1

Grundlegendes

In diesem Kapitel geht es darum, grundlegende Notationen einzuführen. Konkret sind das:
• Junktoren: Verändern bzw. verknüpfen Aussagen
• Quantoren: Treffen Aussagen über die Anzahl
• Mengen: Ansammlung von beliebigen Objekten
• Rechenzeichen: Summen- und Produktzeichen ermöglichen die knappe und exakte Angabe von (langen)
Summen bzw. Produkten.
Eine ausführlichere Einführung dieser Begriffe finden Sie in [Karpfinger, Kap. 1].

1.1 Junktoren und Quantoren


Seien A und B Aussagen.
• Nicht: + A ist die Negation von A.
• Und: A ∧ B es gilt:
– A ∧ B ist wahr, wenn A wahr und B wahr ist.
– A ∧ B ist falsch, wenn A falsch oder B falsch ist.
• Oder: A ∨ B es gilt:
– A ∨ B ist wahr, wenn eine der Aussagen wahr ist.
– A ∨ B ist falsch, wenn beide Aussagen falsch sind.
• Implikation: Wenn A gilt, dann gilt auch B: A ⇒ B
• Äquivalenz: Genau dann gilt A wenn B gilt, kurz: A ⇒ B und B ⇒ A, noch kürzer: A ⇔ B
Quantoren erfassen die Anzahl:
• ∀ für alle bzw. zu jedem
• ∃ es gibt
• ∃! es gibt genau ein
• @ es gibt kein

1
1.2. Mengen

1.2 Mengen
Eine Menge ist eine Zusammenfassung bestimmter, wohlunterschiedlicher Objekte, die man Elemente nennt:

A = {a1 , a2 , a3 }
|{z} | {z }
Menge Elemente

Dabei gibt es die Explizite Darstellung

A = {a, b, c} oder N = {1, 2, 3, . . . }

oder die Darstellung über eine Eigenschaft

A = {n ∈ N| 1 ≤ n ≤ 7}

Begriffe und Notationen bei Mengen

• a ∈ A: a ist Element von A

• a∈
/ A: a ist kein Element von A

• A ⊂ B: A Teilmengen von B: a ∈ A ⇒ a ∈ B

• A 6⊂ B: A keine Teilmenge von B: ∃ a ∈ A : a ∈


/B

• A = B: A ist gleich B: A ⊂ B ∧ B ⊂ A

• ∅: die leere Menge, die Menge ohne Elemenge

• A ∩ B = {x| x ∈ A ∧ x ∈ B}: Durchschnitt von A und B

A B
A∩B

• A ∪ B = {x| x ∈ A ∨ x ∈ B}: Vereinigung von A und B

A B
A∪B

• A\B = {x| x ∈ A ∧ x ∈
/ B}: Mengendifferenz von A und B

A B
A\B

• A × B = {(a, b)| a ∈ A ∧ b ∈ B}: kartesisches Produkt von A und B

2
1.3. Rechenzeichen

• An = A × A × A × · · · × A = {(a1 , a2 , . . . , an )| ai ∈ A ∀ i = 1, . . . , n}
| {z }
n mal

• |A|: die Mächtigkeit von A, also die Anzahl der Elemente von A falls A endlich ist, ∞ sonst.
• Zwei Mengen A und B mit A ∩ B = ∅ heißen disjunkt.

A B

1.3 Rechenzeichen
P Q
Das Summenzeichen und das Produktzeichen sind Abkürzungen:

k
X
a1 + a2 + a3 + · · · + ak = ai
i=1
k
Y
a1 · a2 · a3 · · · · · ak = ai
i=1

Die Fakultät von n ∈ N ist definiert als das Produkt aller natürlichen Zahlen von 1 bis n:

n
Y
n! := n · (n − 1) · (n − 2) · · · · · 1 = i
i=1
0! := 1

Beispiel 1.1:
Hier ein paar Beispiele für Summen- und/oder Produktzeichen:
P100 i
• 1 2 3
i=1 2 = 2 + 2 + 2 + · · · + 2
100

Q100
• i=1 i12 = 11 · 212 · 312 · · · · · 100
1
2

P10 Q5 
• i=1 j=1 i · j = | 1 · 2 ·{z 3 · 4 · 5} + |2 · 1 · 2 · 2 · 2{z
· 3 · 2 · 4 · 2 · 5} + · · · + 10
| · 20 · 30
{z · 40 · 50}
i=1 i=2 i=10

Pn P 
n−1
• i=0 ai = a0 + i=1 ai + an

3
1.3. Rechenzeichen

4
KAPITEL 2

Von den natürlichen zu den reellen Zahlen

In diesem Kapitel werden die grundlegenden Zahlenmengen N, Z, Q und R, sprich die natürlichen, ganzen, ratio-
nalen und reellen Zahlen eingeführt, siehe [Arens, Kap. 2.5], [Karpfinger, Kap. 2]. Bei den natürlichen Zahlen wird
das wichtige Prinzip der vollständigen Induktion eingeführt, welches es erlaubt, die Gültigkeit einer Aussage für
unendlich viele (natürliche) Zahlen zu zeigen.
Ebenso werden Folgen und Grenzwerte thematisiert, siehe [Arens, Kap. 6], [Karpfinger, Kap. 20], auf deren Basis
dann die reellen Zahlen über das Vollständigkeitsaxiom eingeführt werden.

2.1 Natürliche, ganze und rationale Zahlen


2.1.1 Natürliche Zahlen
Natürliche Zahlen nehmen wir als gegeben an:

N = {1, 2, 3, . . . }
N0 = {0} ∪ N = {0, 1, 2, 3, . . . }

Aussagen für alle natürlichen Zahlen lassen sich durch vollständige Induktion beweisen:

Beweisprinzip der vollständigen Induktion


Für eine ausführliche Beschreibung siehe auch [Arens, Kap. 3.5].
Gegeben ist für ein n0 ∈ N0 die Aussagen A(n0 ). Wir begründen, dass die Aussage A(n) für alle n ≥ n0 gilt, in
dem wir folgende Schritte tun:

1. Induktionsanfang: Zeige, dass A(n0 ) gilt.


2. Induktionsbehauptung: Nimm an, dass A(n) für ein n ∈ N mit n ≥ n0 gilt.
3. Induktionsschluss: Zeige, dass die Aussage A(n + 1) gilt.

Der wesentliche Schritt, d.h. der, in dem die Arbeit steckt, ist der Induktionsschluss. Hier zeigt man, dass –
vorausgesetzt die Aussage gilt für n – die Aussage für n + 1 gilt. Zusammen mit dem Induktionsanfang ist damit
gezeigt, dass die Aussage für alle n ≥ n0 gilt. Ein einfaches Analogon ist eine Reihe von nebeneinander aufgestellten
Dominosteinen. Stehen diese so nahe beieinander, dass ein umfallender Stein seinen Nachbarn umstößt, so ist
der Induktionsschluss vorhanden (fällt der n-te Stein, so fällt auch der n + 1-te). Diese Info alleine reicht noch
nicht aus. Zeigt man aber zusätzlich, dass etwa der fünfte Stein umfällt (z.B. indem man ihn umstößt), so folgt
zusammen mit dem Induktionsschluss automatisch, dass alle – möglicherweise unendlich vielen – Dominosteine
ab dem fünften umfallen. Über die Steine eins bis vier wird hier keine Aussage getroffen.

5
2.1. Natürliche, ganze und rationale Zahlen

Beispiel 2.1:
Pn n(n+1)
Wir zeigen dass i=1 i = 2 .

1. Die Aussage gilt für n0 = 1:


1
X 1(1 + 1)
i=1 = 1=
i=1
2

2. Annahme: Formel gilt für alle n ≥ 1

3.
n+1 n
X X n(n + 1) n(n + 1) + 2n + 2 n2 + 3n + 2 (n + 1)(n + 2)
i= i +(n+1) = +n+1 = = =
i=1 i=1
2 2 2 2
|{z}
n(n+1)
= 2

2.1.2 Ganze Zahlen

Z := {. . . , −3, −2, −1, 0, 1, 2, 3, . . . }


= {0, ±1, ±2, ±3, . . . }

Für alle a, b ∈ Z gilt


• a < b ⇒ −a > −b Vorsicht: Hier dreht sich das Ungleichheitszeichen um!
• ab > 0 ⇒ (a, b > 0 ∨ a, b < 0)

2.1.3 Rationale Zahlen


nm o
Q := | m ∈ Z, n ∈ N
n
Aber: Nicht alle Zahlen sind rational, Q hat Löcher. Um dies zu zeigen betrachten wir die Diagonale eines
Quadrats mit Seitenlänge 1 und verwenden den SAtz von Pythagoras.

1 a Pythagoras: a 2 = 12 + 12 = 2
1
Wir wollen zeigen, dass a kein Element von Q ist. Dazu nehmen wir an, dass a ∈ Q und führen die Aussage zu
einem Widerspruch.
Beweis: Annahme: a ∈ Q, also a = pq mit p, q ∈ N, komplett gekürzt, d.h. p und q teilerfremd.

p2
⇒ 2 = a2 =
q2
⇒ p2 = 2q 2 also ist p2 gerade und somit p gerade,
also p = 2k für ein k ∈ N
2 2 2 2
⇒ 2q = p = (2k) = 4k
⇒ q 2 = 2k 2 also ist q 2 gerade und somit ist q gerade.
Dies kann nicht sein, da p und q teilerfremd sind.
⇒ a∈
/ Q.

6
2.2. Folgen und Grenzwerte

2.2 Folgen und Grenzwerte

Definition 2.1 (Folgen):


Ordnet man jeder natürlichen Zahl n ∈ N (oder n ∈ N0 ) eine Zahl an aus einer angeordneten Zahlenmenge
K (genauer: angeordneter Körper) (z.B. K = Q oder K = R) zu, so bezeichnet man diese Zuordnung
als Folge. Dabei verwenden wir folgende Schreibweise:

(an )n∈N = (a1 , a2 , a3 , . . . )

Eine Folge (an )n∈N heißt konvergent gegen einen Grenzwert a ∈ K, wenn es zu jedem ε > 0 ein N =
N (ε) ∈ N gibt, so dass gilt
|an − a| < ε ∀ n ≥ N (ε)

Uε (a) := {x ∈ R| |x − a| < ε} nennt man ε-Umgebung von a.

Konvergent heißt also, dass es zu jeder ε-Umgebung von a einen Index N gibt (dieser darf von ε abhängen, daher
schreibt man N (ε)), ab dem alle Folgenglieder in der Umgebung Uε (a) liegen. Wir schreiben
lim an = a.
n→∞

Beispiel 2.2:
Wir betrachten ein paar Beispiele für Folgen und deren Grenzwert:
1. (an )n∈N = (1, 1, 1, . . . ) ⇒ limn→∞ an = 1 mit N (ε) = 1 für alle ε > 0.
1
2. an = 2 + n Behauptung: limn→∞ an = 2
Beweis: Wann ist an in einer ε-Umgebung von 2?

1 1 n∈N 1
|an − 2| = 2 + − 2 = = <ε
n n n
1
⇔ n>
ε
Wähle also N (ε) = d 1ε e (Gauß-Klammer: Aufrunden).
Dann gilt |an − 2| < ε falls n ≥ N (ε) = d 1ε e.

3. an = q n Behauptung: Falls |q| < 1 folgt limn→∞ an = 0


Beweis: Falls q = 0 ist die Behauptung klar.
Falls q 6= 0 zeigen wir die Behauptung folgendermaßen:
1 1
r := −1 ⇒ = r + 1.
|q| |q|
r>−1
also (1 + r)n ≥ 1 + nr (Bernoulli-Ungleichung).

7
2.2. Folgen und Grenzwerte

Somit gilt
1 1 1 1
|q n − 0| = |q|n = n
≤ ≤ ≤
(r + 1) 1 + nr nr n|r|
l m
1 1
Damit nun n|r| < ε, wählen wir N (ε) = ε|r| . Daraus folgt dann |q|n < ε.

4. Die Folgen (1, −1, 1, −1, 1, −1, . . . ) oder (1, 2, 3, 4, 5, . . . ) konvergieren nicht.
5. (an )n∈N sei definiert durch:

a0 = 1 rekursive Darstellung
 n+1  2  3  n+1
1 1 1 1 1
an+1 = an + =1+ + + + ··· +
2 2 2 2 2
 
3 7 15 31
⇒ (an )n∈N = 1, , , , , . . .
2 4 8 16

Behauptung:  n
2n+1 − 1 1 ⇒
an = =2− Beispiel 3 lim an = 2
2n 2 n→∞

Beweis: Mit vollständiger Induktion

n = 0 : a0 = 1
20+1 − 1 2−1 1
= = = 1 = a0
20 1 1
 n+1  n+1
1 = 2n+1 − 1 1
n → n + 1 : an+1 = an + IA +
2 2n 2
n+1 n+2
2(2 − 1) + 1 2 −2+1 2n+2 − 1
= n+1
= n+1
= .
2 2 2n+1

Satz 2.1 (Geometrische Reihe):


Sei a0 = 1 und an+1 = an + q n+1 . Dies können wir schreiben als
n
X
an = 1 + q + q 2 + q 3 + q 4 + · · · + q n = qk .
k=0

Dann gilt
n
X 1 − q n+1
qk =
1−q
k=0

Für 0 ≤ q < 1 gilt


n
X 1
lim qk =
n→∞ 1−q
k=0

8
2.2. Folgen und Grenzwerte

Beweis: Mit vollständiger Induktion


n=0: a0 = 1
0
X
qk = q0 = 1
k=0
1 − q n+1
=
n → n + 1 : an+1 = an + q n+1 IA + q n+1
1−q
1 − q n+1 + (1 − q)q n+1 1 − q n+1 + q n+1 − q n+2
= =
1−q 1−q
n+2
1−q
=
1−q
Die Aussage für den Grenzwert folgt dann unmittelbar.

Beispiel 2.3:
Für q = 21 gilt also
n  k n+1 2n+1 −1
X 1 1 − 21 2n+1 2n+1 − 1 1
= 1 = 1 = =2− n
2 1− 2 2
2n 2
k=0

Schreibweise: Da Grenzwerte von Folgen eine sehr wichtige Rolle spiele, verwendet man oft folgende abkürzende
Notationen:
n→∞
• limn→∞ an = a ⇔ an −→ a
Pn P∞
• limn→∞ k=0 ak =: k=0 ak

Beispiel 2.4:

∞ ∞ ∞
X 2k X 2k 1 X 2k
= = =?
5k+1 5 · 5k 5 5k
k=1 k=1 k=1
 
∞   k   0    
1 X 2 2  1 1 1 5 2
Möglichkeit A: ? =   −  = 2 −1 = −1 =
5 5 5  5 1− 5
5 3 15
k=0 | {z }
1
∞  k+1 ∞  k ∞  k
1 X 2 1 X 2 2 1 2 X 2 2 1 2 5 2
Möglichkeit B: ? = = = · · = · 2 = · =
5 5 5 5 5 5 5 5 25 1 − 5
25 3 15
k=0 k=0 k=0

Definition 2.2 (Divergenz, Beschränktheit): • Eine Folge heißt divergent, falls sie keinen Grenzwert
besitzt.
• Eine Folge heißt beschränkt, wenn es eine Zahl M gibt mit

|an | ≤ M ∀ n ∈ N.

Beispiel 2.5 (Harmonische Reihe):


n
X 1
an =
k
k=1

9
2.2. Folgen und Grenzwerte

Diese Reihe divergiert.

2n        
X 1 1 1 1 1 1 1 1 1 1 1 1
=1+ + + + + + + + ··· +
+ + ··· + + · · · +
k 2 3 4 5 6 7 8 9 16 2n−1 + 1 2n
k=1
     
1 1 1 1 1 1 1 1 1
≥1+ + + + + + + + ··· + + . . .
2 4 4 8 8 8 8 2n 2n
1 1 1 1 1
= 1 + + + + ··· + (n Summanden )
2 2 2 2 2
n n→∞
=1+ −→ ∞
2

Satz 2.2 (Rechenregeln für Folgen und Grenzwerte):


n→∞ n→∞
Seien (an )n∈N und (bn )n∈N Folgen mit an −→ a und bn −→ b. Dann gilt
n→∞
• an + bn −→ a + b
n→∞
• an · bn −→ a · b
an n→∞ a
• Falls bn 6= 0 und b 6= 0, so gilt auch bn −→ b

Beispiel 2.6:
Folgen mit gebrochen rationalen Termen:
n→∞
an −→ 3
z }| {
17
3n2 + 17n 3+ 3
cn = = n ⇒
n→∞
cn −→
7n2 − 5 5 7
7− 2
| {zn }
n→∞
bn −→ 7

Verallgemeinerung:

 0 falls r < s
ar nr + ar−1 nn−1 + · · · + a1 n + a0 falls r > s und absr > 0

+∞
n→∞
cn = ⇒ cn −→
bs ns + bs−1 ns−1 + . . . b1 n + b0 
 −∞ falls r > s und absr < 0
 ar
bs falls r = s

10
2.3. Das Vollständigkeitsaxiom und die reellen Zahlen

2.3 Das Vollständigkeitsaxiom und die reellen Zahlen

Definition 2.3 (Cauchy-Folgen):


Eine Folge (an )n∈N heißt Cauchy-Folge, wenn es zu jedem ε > 0 ein N (ε) ∈ N gibt, so dass

|an − am | < ε für alle n, m ≥ N (ε).

Satz 2.3:
Jede konvergente Folge ist eine Cauchy-Folge.

n→∞ ε
Beweis: Es gilt an −→ a. Es gibt also ein N (ε) ∈ N, so dass |an − a| < 2 für alle n ≥ N (ε). Deshalb gilt
ε ε
|an − am | = |an − a + a − am | ≤ |an − a| + |a − am | < + =ε
|{z} 2 2
Dreiecksungleichung

für alle n, m ≥ N (ε).

Definition 2.4 (Vollständigkeit):


Ein angeordneter Körper K heißt vollständig, wenn jede Cauchy-Folge einen Grenzwert besitzt.

Vollständigkeitsaxiom: In den reellen Zahlen R hat jede Cauchy-Folge einen Grenzwert.

R erhält man durch Vervollständigung von Q, d.h. man nimmt√ alle Grenzwerte von Cauchy-Folgen hinzu.
Praktisch: Füge alle Dezimalzahlenentwicklungen hinzu: z.B. 3 (1, 1.7, 1.73, 1.732, . . . , 1.7320508, . . . )

Definition 2.5 (Intervalle): [a, b] = {x ∈ R| a ≤ x ≤ b} abgeschlossenes Intervall


(a, b) = {x ∈ R| a < x < b} offenes Intervall

[a, b) = {x ∈ R| a ≤ x < b} halboffenes Intervall


(a, b] = {x ∈ R| a < x ≤ b} halboffenes Intervall

Definition 2.6 (Monotonie):


Eine Folge (an )n∈N heißt monoton wachsend (fallend), falls für alle n ∈ N gilt an+1 ≥ an (an+1 ≤ an ).

Satz 2.4:
Jede monotone Folge (d.h. monoton steigend oder monoton fallend), die beschränkt ist, hat in R einen
Grenzwert.

11
2.3. Das Vollständigkeitsaxiom und die reellen Zahlen

12
KAPITEL 3

Funktionen

In diesem Kapitel werden grundlegende Begriffe, die im Zusammenhang mit Funktionen wichtig sind, eingeführt.
Ebenso werden wichtige elementare Funktionen beispielhaft behandelt; diese Funktionen sollten bereits aus der
Schule bekannt sein. Auch die hier erläuterten Konzepte wurden im Wesentlichen bereits in der Schule behandelt,
allerdings wohl auf eine weniger exakte Art. Insofern ist es wichtig, dass bereits vorhandenes, sehr anschauliches
Wissen mit neuen formalen Konzepten verbunden wird. Die eingeführten formalen Konzepte bilden die Grundlage,
um etwa in Ingenieurmathematik II auch Funktionen mit mehreren Variablen behandeln zu können.
Zu all den im Folgenden genannten Themen finden Sie umfangreiche Erläuterungen sowie Beispiele und Übungs-
aufgaben in den drei genannten Literaturempfehlungen, z.B. [Karpfinger, Kap. 23].

3.1 Begriffe und Beispiele

Definition 3.1 (Grundlegende Begriffe bei Funktionen):


Seien D, W ⊂ R Teilmengen von R. Dann versteht man unter eine reellen Funktion auf D eine Abbildung
f : D → W , d.h. jedem Element x ∈ D wird genau ein Element f (x) ∈ W zugeordnet. D heißt
Definitionsmenge und W heißt Wertemenge von f . Man schreibt auch

f : x 7→ f (x),

dabei heißt x Urbild und f (x) heißt Bild.


Der Graph von f ist die Menge

Gf := {(x, y) ∈ D × W | y = f (x)}.

D darf nur Elemente x enthalten, für die f (x) ausgewertet werden kann.

Beispiel 3.1:
Wir betrachten einige Beispiele:
1. p : R → R; x 7→ p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ist ein Polynom vom Grad n (falls
an 6= 0)

2. | · | : R → R+ ; x 7→ |x| ist die Betragsfunktion mit



x falls x ≥ 0
|x| =
−x falls x < 0

13
3.1. Begriffe und Beispiele

x+|x|
3. (·)+ : R → R+ ; x 7→ (x)+ = 2 ist der “positive Anteil”

1
4. f : R\{0} → R; x 7→ x

Werden mehrere Funktionen hintereinander ausgeführt (d.h. das Ergebnis einer Funktionsauswertung wird als
Argument für eine weitere Funktion verwendet), so spricht man von Verkettung. Wichtig dabei ist, dass das
Ergebnis der ersten Auswertung im Definitionsbereich der zweiten Funktion liegt.

Definition 3.2 (Verkettung von Funktionen):


Zu f : D → R und g : E → R mit f (D) ⊂ E (hierbei heißt f (D) = {y ∈ R| y = f (x) mit x ∈ D})
definieren wir die verkettete Funktion (sprich: ”g nach f ”)

(g ◦ f ) : D → R (g ◦ f )(x) = g(f (x)).

Beispiel 3.2:
Wir betrachten die beiden Funktionen f und g mit

f (x) = |x|, g(z) = z, mit D = R und E = R+
0,
f (D) = E
p
(g ◦ f )(x) = g(f (x)) = g(|x|) = |x|
(g ◦ f ) : R → R

Bisher hatten wir nur gefordert, dass eine Funktion f einem x ∈ D genau ein (also ein eindeutiges) f (x) ∈ W
zuordnet. Ob nun “ganz W erreicht werden kann” bleibt offen. Außerdem ist es möglich, dass ein Element
der Wertemenge “von mehreren Elementen der Definitionsmenge erreicht wird”. Diese Eigenschaften spielen
insbesondere bei der Umkehrbarkeit einer Funktion eine entscheidende Rolle. Wir definieren daher:

Definition 3.3 (Injektivität, Surjektivität):


Eine Abbildung f : D → W heißt

• injektiv, falls [f (x1 ) = f (x2 ) mit x1 , x2 ∈ D ⇒ x1 = x2 ],


• surjektiv, falls zu jedem y ∈ W ein x ∈ D existiert mit f (x) = y,
• bijektiv, falls sie injektiv und surjektiv ist.

14
3.1. Begriffe und Beispiele

Beispiel 3.3:
Injektivität und Surjektivität hängen nicht allein am Funktionsterm, sondern werden wesentlich durch die
gewählten Definitions- und Wertemengen beeinflusst. Wir betrachten die Funktion mit dem Funktionsterm
f (x) = x2 und wählen unterschiedliche Definitions- und Wertemengen:
1. f1 : R → R
• nicht injektiv, denn f (−1) = f (1),
• nicht surjektiv, denn es existiert kein x mit f (x) = −1.

2. f2 : R → R+
0

• nicht injektiv, wie oben,



• surjektiv, denn für jedes y ∈ R+
0 gilt mit x := y: f (x) = y.

3. f3 : R+ → R
• injektiv, denn
f (x1 ) = f (x2 )
x21 = x22 ⇔ (x21 − x22 ) = 0
⇔ (x1 − x2 ) (x1 + x2 ) = 0
| {z }
>0
⇔ x1 − x2 = 0
⇔ x1 = x2

• nicht surjektiv, wie oben.

15
3.1. Begriffe und Beispiele

4. f4 : R+ → R+ ist bijektiv, wie oben.

Eine weitere wichtige und oft nützliche Eigenschaft von Funktionen ist die Symmetrie.

Definition 3.4 (Symmetrie):


Sei f : D → R. Dann heißt f
• gerade oder achsensymmetrisch, wenn f (−x) = f (x) ∀ x ∈ D.
• ungerade oder punktsymmetrisch, wenn f (−x) = −f (x) ∀ x ∈ D.

3.1.1 Umkehrabbildungen

Bijektive Abbildungen sind umkehrbar in folgendem Sinn: Falls f : D → W bijektiv, dann gibt es zu jedem y ∈ W
(Surjektivität) ein x ∈ D mit f (x) = y. Dieses x ist eindeutig bestimmt (Injektivität). Damit definieren wir eine
Abbildung g, die jedem y ∈ W eben dieses x ∈ D zu geordnet:

g:W →D

g hat die Eigenschaften

1. g ◦ f : D → D, (g ◦ f )(x) = g(f (x)) = g(y) = x, d.h. g ◦ f = idD ,

2. f ◦ g : W → W , (f ◦ g)(y) = y, d.h. f ◦ g = idW .

Man schreibt für dieses g meist f −1 , die sogenannte Umkehrabbildung. Sei f : D → W . Dann gilt

f ist umkehrbar ⇔ f bijektiv

oder gleichbedeutend

f ist umkehrbar ⇔ es gibt eine Abbildung g : W → D mit g ◦ f = idD und f ◦ g = idW

Dabei ist f −1 = g. Zusammenfassend lässt sich festhalten: Ist f −1 bijektiv, so ist f die Umkehrabbildung von
f −1 .

Beispiel 3.4: q
1 1
f : R>0 → R> 12 , f (x) = 2 1+ x2

• f ist bijektiv: nachrechnen X

16
3.1. Begriffe und Beispiele

• Bestimme f −1 :

y = f (x) auflösen nach x :


r
1 1
y= 1+ 2
2 x
2 1
(2y) = 1 + 2
x
2 1
4y − 1 = 2
x
2 1 1
x = 2 ⇔ x= p =: g(y)
4y − 1 4y 2 − 1

Setze nun
1
f −1 (x) := √
4x2 − 1
f −1 : R> 12 → R>0

3.1.2 Polynome

Eine ausführliche Darstellung zu Polynomen finden Sie z.B. in [Karpfinger, Kap. 5] oder [Arens, Kap. 4.2].
Ein Ausdruck der Form

p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0

heißt Polynom (ai ∈ R, i = 1, . . . , n) n-ten Grades falls an 6= 0. Im Zusammenhang mit Polynomen spielen
Nullstellen eine wichtige Rolle.

Definition 3.5 (Nullstelle):


Eine Funktion f : D → R hat eine Nullstelle x0 ∈ D falls f (x0 ) = 0.

Der Grund, weshalb Nullstellen eine so wichtige Rolle spielen, ist dass man damit Polynome in gewisser Weise
faktorisieren kann. Dies ist die Aussage des

Satz 3.1 (Fundamentalsatz der Algebra – Light-Variante):


Ist x1 eine Nullstelle eines Polynoms pn vom Grad n, so gilt

pn (x) = (x − x1 )pn−1 (x)

wobei pn−1 ein Polynom vom Grad n − 1 ist. Hat das Polynom weitere Nullstellen, so kann das Verfahren
iterativ fortgesetzt werden.

Die hier angegebene Version ist eine “Light-Variante” des Satzes, da wir hier eine Nullstelle brauchen, um das
Polynom zu reduzieren. Der Satz trifft keine Aussage darüber, ob ein Polynom eine Nullstelle hat. Spoiler: Es
gibt Polynome, die keine reelle Nullstelle haben, diese haben dann aber eine komplexe Nullstelle (siehe Komplexe
Zahlen → später).

Beispiel 3.5:

x3 − 2x − 1 = (x + 1)p2 (x)

17
3.2. Stetigkeit

Wir berechnen p2 durch Polynomdivision.

(x3 − 2x − 1) : (x + 1) = x2 − x − 1 =: p2 (x)
x3 + x2
− x2 − 2x
−x2 − x
−x−1
−x − 1
− −

Nullstellen von p2 :
!
x2 − x − 1 = 0

1 √ 1 5
⇒ x1,2 = (1 ± 1 + 4) = ±
2 2 2
also √ ! √ !
3 1 5 1 5
x − 2x − 1 = (x + 1) x − − x− +
2 2 2 2

3.2 Stetigkeit

Ausführlich dargestellt sind die hier knapp präsentierten Inhalte beispielsweise in [Karpfinger, Kap. 25], [Arens,
Kap. 7], [Bärwolff, Kap. 2].

Definition 3.6 (Folgenstetigkeit):


Wir schreiben limx→a f (x) = c, falls für jede Folge
n→∞
(xn )n∈N mit xn −→ a gilt: lim f (xn ) = c.
n→∞

Eine Funktion f : D → R heißt stetig in a ∈ D, genau dann wenn

lim f (x) = f (a)


x→a

Diese Definition der Stetigkeit wird Folgenstetigkeit genannt.

Beispiel 3.6:
Wir betrachten die Stetigkeit einfacher Funktionen:

1. f : R → R mit f (x) = x ist stetig, denn:


n→∞
Sei (xn )n∈N mit xn −→ a.

⇒ |f (xn ) − f (a)| = |xn − a| ≤ ε für alle ε > 0 falls nur n ≥ N (ε)

⇒ f ist stetig in a und da a ∈ D beliebig, ist f stetig auf D.

18
3.2. Stetigkeit

2. f : R → R mit 
1 falls x ≥ 0
f (x) =
0 sonst
ist unstetig in 0. ¡br¿
n→∞
Sei (xn )n∈N mit xn −→ 0 und xn < 0 für alle n.

⇒ |f (xn ) − f (0)| = |0 − 1| = 1

⇒ lim f (xn ) 6= f (0) also lim f (x) 6= f (0).


n→∞ x→0

3. Summen und Produkte stetiger Funktionen sind stetig.

4. Polynome sind stetig (wg. 1. und 3. und da f (x) = c ebenfalls stetig ist.)
5. x 7→ |x| ist stetig, da ||xn | − |a|| ≤ |xn − a|. Dies folgt aus der Dreiecksungleichung: ||x| − |y|| ≤
|x − y|.
Beweis:

|x| = |x − y + y| ≤ |x − y| + |y|
⇒ |x| − |y| ≤ |x − y|

Vertausche x und y:

⇒ |y| − |x| ≤ |y − x|

|x| − |y|
⇒ ||x| − |y|| = ≤ |x − y|
|y| − |x|

6. Sei h(x) = fg(x)


(x)
mit f, g stetig auf R. Dann ist h stetig auf R\Ng , wobei Ng die Menge der
Nullstellen von g ist.
1
z.B. 1−x ist stetig auf R\{1}

19
3.2. Stetigkeit

Definition 3.7 (Stetige Ergänzbarkeit):


Es sei f : D → R stetig, a ∈ / D und limx→a f (x) = c. Dann nennt man f stetig ergänzbar (oder
fortsetzbar) in a durch den Wert c.

Beispiel 3.7:
Stetige Ergänzbarkeit spielt insbesondere eine Rolle bei gebrochen rationalen Funktionen:
x2 −1
1. f (x) = x−1 ist für x = 1 nicht definiert, aber:

(x + 1)(x − 1)
lim f (x) = lim = lim x + 1 = 2
x→1 x→1 x−1 x→1

Daher ist x 7→ f (x) in 1 stetig ergänzbar durch 2.


2. x 7→ sin x1 kann in 0 nicht stetig ergänzt werden.


3. x 7→ x sin x1 kann für x = 0 stetig ergänzt werden durch den Wert 0:




   
x sin 1 = |x| sin 1 ≤ |x| x→0

−→ 0
x x
| {z }
≤1

Satz 3.2 (Stetigkeit verketteter Funktionen):


Es seien f : D → R und g : E → R zwei stetige Funktionen mit f (D) ⊂ E, dann ist (g ◦ f ) stetig auf D.

Definition 3.8 (Cauchy-Kriterium, ε-δ-Definition der Stetigkeit):


Eine Funktion f ist stetig in a ∈ R genau dann, wenn zu jedem ε > 0 ein δ > 0 existiert, so dass für alle
|x − a| < δ gilt |f (x) − f (a)| < ε. Eine Funktion f : D → R heißt stetig, wenn f für alle a ∈ D stetig ist.

Es liegen nun zwei unterschiedliche Definitionen von Stetigkeit vor. Daher ist es wichtig zu zeigen (machen wir
nicht) bzw. festzuhalten, dass diese Definitionen äquivalent sind und somit kein Widerspruch besteht. Je nach
Situation kann die eine oder die andere Definition besser geeignet sein.

Satz 3.3:
Die beiden Definitionen der Stetigkeit über Folgenstetigkeit bzw. das Cauchy-Kriterium sind äquvalent.

Eine anschauliche Eigenschaft stetiger Funktionen ist es, dass sie “nicht springen”. Dies konkretisiert sich in
folgendem Satz:

20
3.2. Stetigkeit

Satz 3.4 (Zwischenwertsatz):


Sei f : [a, b] → R, (a < b) eine stetige Funktion. Dann gibt es zu jedem c ∈ R zwischen f (a) und f (b)
ein x zwischen a und b mit f (x) = c.

Wenn eine Funktion nun “nicht springen” kann und wir sie nur auf einem beschränkten Intervall betrachten, so
ist es intuitiv naheliegend, dass sie auf diesem Intervall einen größten und kleinsten Wert annehmen muss. Dies
soll nun konkretisiert werden; dafür brauchen wir ein paar Begriffe:

Definition 3.9:
Für eine nichtleere Teilmenge A ⊂ R führen wir folgende Bezeichnungen ein:
Obere Schranke: s ∈ R ist obere Schranke von A, falls für alle a ∈ A gilt: a ≤ s.
Untere Schranke: s ∈ R ist untere Schranke von A, falls für alle a ∈ A gilt: a ≥ s.
sup A ∈ R ist die kleinste obere Schranke von A bzw. ∞ wenn es
Supremum:
keine obere Schranke gibt.
inf A ∈ R ist die größte untere Schranke von A bzw. −∞ wenn es
Infimum:
keine untere Schranke gibt.

Satz 3.5:
Jede Funktion, die auf einem abgeschlossenen Intervall stetig ist, nimmt dort ihr Maximum und Minimum
an. Das heißt, falls f : [a, b] → R stetig ist, so gibt es xmin , xmax ∈ [a, b] mit f (xmin ) ≤ f (x) ≤ f (xmax )
für alle x ∈ [a, b].

Beispiel 3.8:
Wir betrachten die Maxima und Minima ausgewählter Funktionen:
1. f (x) = x nimmt auf [0, 1] sein Minimum an der Stelle 0 und sein Maximum an der Stelle 1 an.

2. f (x) = x2 nimmt auf [−1, 1] nimmt sein Minimum an der Stelle 0 und sein Maximum an der Stelle
±1 an.
3. f (x) = x nimmt auf (0, 1) weder Minimum noch Maximum an, da 1 und 0 nicht als Bilder f (x) für
x ∈ (0, 1) auftreten.
⇒ Abgeschlossenheit ist wichtig!

x+1 für x < 0
4. f (x) =
x−1 für x ≥ 0
nimmt sein Minimum bei x = 0 an, aber nimmt das Maximum nicht an, da f (x) < 1 für alle
x ∈ [−1, 1].
n→∞
Genauer: xn → 0 mit xn < 0 dann gilt f (xn ) −→ 1, aber f (x) 6= 1 für alle x ∈ [−1, 1].
⇒ Stetigkeit ist wichtig!

21
3.3. Differenzierbarkeit

3.3 Differenzierbarkeit

Definition 3.10 (Differenzierbarkeit):


Eine Funktion f : D → R heißt differenzierbar in x ∈ D, wenn der Grenzwert

f (x + h) − f (x)
lim
h→0 h

existiert. Wir schreiben f 0 (x) := limh→0 f (x+h)−f


h
(x) df
oder auch dx .
Wir nennen die Funktion f : D → R differenzierbar (auf D), wenn f in jedem x ∈ D differenzierbar ist.
Mit f 0 : D → R, x 7→ f 0 (x) bezeichnen wir die Ableitungsfunktion oder kurz Ableitung von f auf D.

Beispiel 3.9:
Wir bestimmen hier die Ableitungen von grundlegenden Funktionen:
1. f (x) = c ⇒ f 0 (x) = 0.
Denn
f (x + h) − f (x) c−c
lim = lim =0
h→0 h h→0 h

2. f (x) = mx + b ⇒ f 0 (x) = m.
Denn
f (x + h) − f (x) m(x + h) + b − mx − b mh
lim = lim = lim = lim m = m
h→0 h h→0 h h→0 m h→0

3. f (x) = x2 ⇒ f 0 (x) = 2x.


Denn
f (x + h) − f (x) (x + h)2 − x2 x2 − 2hx + h2 − x2 h→0
= = = 2x + h −→ 2x
h h h

4. f (x) = x ⇒ f 0 (x) = 1

2 x
für x 6= 0.
Denn
√ √
f (x + h) − f (x) x+h− x x+h−x 1 h→0 1
= = √ √ =√ √ −→ √
h h h( x + h + x) x+h+ x 2 x

22
3.3. Differenzierbarkeit

Satz 3.6 (Differenzierbarkeit und Linearisierung):


Eine Funktion f : D → R ist genau dann in x ∈ D differenzierbar, wenn eine Zahl a ∈ R und eine
Funktion o : R → R existieren mit
o(h) h→0
f (x + h) = f (x) + ah + o(h) und −→ 0.
h

Beweis: Für a ∈ R definiere o(h) := f (x + h) − f (x) − ha. Also muss

o(h) f (x + h) − f (x)
= −a
h h
für h → 0 konvergieren und zwar gegen 0. Das gilt genau dann, wenn f diffbar ist und f 0 (x) = a.

Korrolar 3.1:
Falls eine Funktion f : D → R diffbar in x ∈ D, so ist f auch stetig in x ∈ D.

Beweis:
h:=y−x h→0
|f (y) − f (x)| = |f (x + h) − f (x)| = |ah + o(h)| −→ 0

3.3.1 Rechenregeln für das Differenzieren


Wir betrachten nun Regeln, mit deren Hilfe die Ableitung von “Verknüpfungen” von Funktionen aus den Ablei-
tungen der einzelnen Funktionen bestimmt werden kann. Seien f, g : D → R diffbar, dann gilt:

• f + g ist diffbar auf D: (f + g)0 (x) = f 0 (x) + g 0 (x) (Linearität)

• α ∈ R, αf ist diffbar auf D: (αf )0 (x) = αf 0 (x) (Linearität)

• f · g ist diffbar auf D: (f · g)0 (x) = f 0 (x)g(x) + f (x)g 0 (x)


 0
f 0 (x)g(x)−f (x)g 0 (x)
• f
g ist diffbar auf D: f
g (x) = g(x)2

• f : D → R, g : E → R diffbar und f (D) ⊂ E: g ◦ f ist diffbar auf D: (g ◦ f )0 (x) = g 0 (f (x)) · f 0 (x)

Beispiel 3.10: 1. Wie ändert sich das Volumen einer Kugel, wenn der Radius um 1% vergrößert wird?
4 3 dV
V (r) = r π = 4r2 π
3 dr
V (r + 0.01r) − V (r) (4r2 π) · 0.01r + o(0.01r) o(0.01r)
= 4 3 = 3 · 0.01 + ≈ 3%
V (r) 3r π
V (r)
| {z }
uninteressant, da klein

23
3.3. Differenzierbarkeit

2. Wie sensitiv hängt h bei festem c von d ab?


p
h(d) = c2 − d2

h(d) = g(f (d)) mit g(y) = yund f (d) = c2 − d2
1 −d
h0 (d) = g 0 (f (d)) · f 0 (d) = √ · (−2d) = √
2
2 c −d 2 c − d2
2

h(d + δ) − h(d) −d 1 o(δ) −dδ o(δ)


⇒ =√ ·δ· √ + = 2 2
+
h(d) 2
c −d 2 2
c −d 2 h(d) c − d h(d)

d=0 keine Sensitivität


d=c “∞“ Sensitivität

3. f : R+
0 → R, x 7→ x ist nicht diffbar in x = 0, denn:

h−0 1
lim = lim √ = ∞
h→0 h h→0 h

4. f : R → R; x 7→ |x| ist nicht diffbar in x = 0, denn


|h|−|0| h
h>0: limh→0 h = limh→0 h =1

|h|−|0| −h
h<0: limh→0 h = limh→0 h = −1
|h|−|0|
⇒ Es existiert kein endeutiger Grenzwert limh→0 h .
⇒ f ist nicht diffbar in x = 0.
5. Es gibt Funktionen, die überall diffbar sind, aber deren Ableitung nicht stetig ist.

0  x=0
f (x) :=
x2 sin x1 x 6= 0

für x 6= 0 gilt:
       
0 1 2 −1 1 1 1
f (x) = 2x sin + x 2 cos = 2x sin − cos
x x x x x
⇒ f ist auf R\{0} diffbar. Ist f in x = 0 diffbar?
1

h2 sin
 
0 f (h) − f (0) h 1
f (0) = lim = lim = lim h sin =0
h→0 h h→0 h h→0 h

D.h. f 0 (0) = 0. Aber:    


0 1 1
f (x) = 2x sin − cos
x x
| {z } | {z }
→0 konvergiert nicht

konvergiert nicht für x → 0. Also ist die Ableitung nicht stetig!

24
3.3. Differenzierbarkeit

3.3.2 Extremwerte und geometrische Eigenschaften

Satz 3.7 (Maxima und Minima):


Sei f : D → R diffbar in x, der Punkt x liege im Inneren von D und x sei ein lokales Maximum (bzw.
Minimum) der Funktion f , d.h. es gibt eine ε-Umgebung Uε (x), so dass f (y) ≤ f (x) (bzw. f (y) ≥ f (x))
für alle y ∈ Uε (x) ∩ D. Dann gilt:
f 0 (x) = 0.

Beweis: Betrachte nur das Maximum in x. Dann gilt f (x + h) ≤ f (x) für kleine h. Also


f (x + h) − f (x) ≥0 falls h<0
h ≤0 falls h>0

f (x + h) − f (x)
⇒ f 0 (x) = lim ≥0
h→0 h

und zugleich

f (x + h) − f (x)
f 0 (x) = lim ≤0
h→0 h

⇒ f 0 (x) = 0.

Definition 3.11 (Kritische Punkte):


Einen Punkt x ∈ D mit f 0 (x) = 0 nennt man kritischen Punkt.

Satz 3.8 (Notwenidge Kriterien für Extremwerte):


Ist f : D → R stetig und auf (a, b) ⊂ D diffbar (ggf. zweimal diffbar), so gilt für eine kritische Stelle
x0 ∈ (a, b):
• x0 ist ein lokales Minimum, falls es ein ε > 0 gibt mit f 0 (x) < 0 für alle x ∈ (x0 − ε, x0 ) und
f 0 (x) > 0 für alle x ∈ (x0 , x0 + ε).
• x0 ist ein lokales Maximum, falls es ein ε > 0 gibt mit f 0 (x) > 0 für alle x ∈ (x0 − ε, x0 ) und
f 0 (x) < 0 für alle x ∈ (x0 , x0 + ε).

25
3.3. Differenzierbarkeit

• x0 ist Stelle eines lokalen Minimums, falls f 00 (x0 ) > 0.


• x0 ist Stelle eines lokalen Maximums, falls f 00 (x0 ) < 0.

Beispiel 3.11:
Wir betrachten die Funktion f : [0, 1] → R mit
f (x) = (1 − 2x)2 x = 4x3 − 4x2 + x
1. Bestimme Ableitung: f 0 (x) = 12x2 − 8x + 1
2. Bestimme kritische Stelle(n): f 0 (x) = 0
1 √ 1 1
x1,2 = (8 ± 64 − 48) = ±
24 3 6
1 1
x1 = und x2 =
2 6
3. Entscheide, ob ein Maximum oder Minimum (oder beides nicht!) vorliegt. Hier untersuchen wir die
zweite Ableitung: f 00 (x) = 24x − 8
1
⇒ f 00 (x1 ) = 12 − 8 = 4 > 0 Min in x1 = , f (x1 ) = 0
2
1 2
f 00 (x2 ) = 4 − 8 < 0 Max in x2 = , f (x2 ) =
6 27
4. Somit wissen wir:
• bei x1 liegt ein lokales Minimum vorliegt
• bei x2 liegt ein lokales Maximum vorliegt
5. Ob es sich dabei um globale Extremwerte handelt, ist noch unklar, da wir bisher nur das Innere des
Intervalls betrachtet haben. Wir betrachten nun also noch die Ränder:
1
f (0) = 0 globales Minimum bei x = 0 und x =
2
f (1) = 1 globales Minimum bei x = 1

26
3.3. Differenzierbarkeit

Satz 3.9 (Satz von Rolle):


f : [a, b] → R sei differenzierbar mit f (a) = f (b), dann existiert ein x0 ∈ (a, b) mit f 0 (x0 ) = 0.

Satz 3.10 (Mittelwertsatz):


Sei f : [a, b] → R differenzierbar. Dann gibt es ein x0 ∈ (a, b) mit

f (b) − f (a)
f 0 (x0 ) = .
b−a

3.3.3 Differentiationsregel für die Umkehrfunktion


f : [a, b] → R sei diffbar und es ei f 0 > 0 (aus dem Mittelwertsatz folgt f ist streng monoton steigend), dann gilt
0 1
f −1 (y) = mit y = f (x)
f 0 (x)

Beispiel 3.12:
Wir veranschaulichen diese Regel anhand zweier einfacher Funktionen:
i) f : R+ → R+ ; x 7→ x2

also y = x2 ⇒ x = y = f −1 (y)
0 1 1 1
f −1 (y) = = 0 √ = √
f 0 (x) f ( y) 2 y

ii) f : R\{0} → R\{0}


f (x) = x1 ⇒ y = x1 . Also x = 1
y =: g(y)
 −1
0 1 1 1
⇒ g (y) = 0 = − 2 = −x2 = −
f (x) x y2

27
3.3. Differenzierbarkeit

28
KAPITEL 4

Reihe, Potenzreihen und spezielle Funktionen

In diesem Kapitel geht es primär darum, die wichtigen trigonometrischen Funktionen Sinus und Cosinus sowie
die Exponentialfunktion einzuführen. Für eine saubere Definition verwenden wir das auch sonst sehr hilfreiche
Konzept der Potenzreihen, welches in Abschnitt 4.2 eingeführt wird. Zuvor behandeln wir jedoch in Abschnitt
4.1 allgemein das Konzept der Reihen. Bei diesen handelt es sich um Folgen, die eine spezielle Form haben.
Ausführlichere Darstellungen finden Sie z.B. in

• Karpfinger, Kap. 22, 24

• Arens, Kap. 8, 9

• Bärwolff, Kap. 3.1, 3.4

Wir wollen spezielle Funktionen betrachten, diese lassen sich über sogenannte Potenzreihen darstellen:

x2 x3 x4 X xk
exp(x) = 1 + x + + + + ··· =
2 6 24 k!
k=0

Weiteres Beispiel:

x3 x5 x7 X x2k+1
sin(x) = x − + − ± ··· = (−1)k
3! 5! 7! (2k + 1)!
k=0

Zur Erinnerung die geometrische Reihe:



X 1
qk = für q ∈ [0, 1)
1−q
k=0

4.1 Reihen
Pn
Wir bezeichnen jede Folge (an )n∈N der Form an = k=0 ck als Reihe. Explizit notiert sieht eine solche Folge so
aus: !
X 1 2
X 3
X 4
X
(an )n∈N = ck , ck , ck , ck , . . . .
k=0 k=0 k=0 k=0

Jedes Folgenglied ist also eine sog. Partialsumme. Die Summanden ck bezeichnet man als Glieder der Reihe. Somit
gilt: m
X
n,m→∞
(an )n∈N Cauchy-Folge ⇔ |am − an−1 | = ck −→ 0


k=n
29
4.1. Reihen

Lemma 4.1:
Eine Reihe mit nicht-negativen Gliedern konvergiert genau dann, wenn die Folge der Partialsummen be-
schränkt ist.

Beweis: Wende Satz über monotone Folgen an.

Definition 4.1: Pn
Eine Reihe (an )n∈N , an = k=0 ck heißt absolut konvergent,
wenn die Reihe !
X n
|ck |
k=0 n∈N

konvergiert.

Lemma 4.2:
Eine absolut konvergente Reihe ist konvergent.

Beweis:
m m
X X n,m→0
ck ≤ |ck | −→ 0, da absolut konvergent


|{z}
k=n Dreiecksungleichung k=n
n
!
X
⇒ ck ist eine Cauchy-Folge ⇒
|{z} die Reihe konvergiert.
k=0 n∈N Vollständigkeitsaxiom

Satz
Pn 4.1 (Majorantenkriterium):
( k=0 ck )n∈N sei konvergent, es sei N ∈ N0 und es gelte |bk | ≤ ck für alle k ≥ N . Dann ist die Reihe
Pn
( k=0 bk )n∈N absolut konvergent.

Beweis: m
X m m
X X n,m→∞
|bk | ≤ |bk | ≤ ck −→ 0


|{z} |{z}
k=n Dreiecksungl. k=n k=n
≤ck

Beispiel 4.1:
Wir betrachten die geometrische Reihe, die verallgemeinerte geometrische Reihe und die harmonische
Reihe:
Pn 1
1. k=1 k2 konvergiert, denn
n
X 1 1 1 1
an := = 1 + 2 + 2 + ··· + 2
k2 2 3 n
k=1
1 1 1
<1+ + + ··· +
1·2 2·3 (n − 1) · n
     
1 1 1 1 1
=1+ 1− + − + ··· + −
2 2 3 n−1 n
1
= 2 − < 2 (Teleskopsummen)
n
⇒ an ist beschränkt. Da an außerdem monoton ist, folgt an konvergiert.

30
4.2. Potenzreihen

Pn 1

2. k=1 kα n∈N konvergiert absolut für α > 2, denn:
n
!
1 1 X
bk = α ≤ 2 =: ck und ck konvergiert.
k k
k=0 n∈N
Pn 1

3. k=1 k n∈N konvergiert nicht (harmonische Reihe!)

Satz 4.2 (Quotientenkriterium):


Pn
( k=0 ak )n∈N sei eine Reihe und N ∈ N0 , so dass ak 6= 0 für alle k ≥ N und aak+1 < q für ein q < 1

k
und alle k ≥ N . Dann konvergiert die Reihe absolut.

4.2 Potenzreihen

Erinnerung: Wir schreiben


∞ n
!
X X
ck := lim ck
n→∞
k=0 k=0

falls der Grenzwert existiert.


P∞ Pn
Ebenso schreiben wir k=0 ck anstelle der Notation ( k=0 ck )n∈N für die Folge.

Definition 4.2:
Eine Reihe der Form

X
ak xk , ak ∈ R, k ∈ N, x ∈ R
k=0

heißt Potenzreihe.

Beispiel 4.2: P∞
Die geometrische Reihe k=0 xk ist für |x| < 1 eine konvergente Potenzreihe mit Koeffizienten ak = 1.
Gemäß Satz 2.1 gilt für |x| < 1

X 1
xk = .
1−x
k=0

Lemma 4.3:
Konvergiert eine Potenzreihe für eine Zahl x0 6= 0, dann konvergiert sie für alle x mit |x| < |x0 | absolut.

Beweis:
k
x x
|ak xk | = |ak xk | ≤ M qk mit q = < 1
| {z 0} x0 x0
n→∞
≤M,da an xn
0 −→ 0

Das Majorantenkriterium impliziert


m m
X X n,m→∞
|ak xk | ≤ M |q k | −→ 0 da |q| < 1
k=n k=n

31
4.2. Potenzreihen

4.2.1 Exponentialfunktion, Sinus und Cosinus


Nun wollen wir wie zu Beginn des Kapitels angekündigt die wichtigen Funktionen Sinus und Cosinus sowie die
Exponentialfunktion definieren. Dies geschieht über Potenzreihen:

Definition 4.3 (Exponentialfunktion, Sinus und Cosinus):

xk
P∞ 
exp(x) := k=0 k! 





k x2k+1
P∞
sin(x) := k=0 (−1) (2k+1)! definiert für alle x ∈ R




k x2k
P∞ 
cos(x) := k=0 (−1) (2k)!

Damit diese Definition Sinn ergibt, muss noch gezeigt werden, dass diese Potenzreihen für alle x ∈ R konvergieren.
Wir führen den Nachweis für die Exponentialreihe mit dem Quotientenkriterium:
n+1
x
(n+1)! x |x|
x n + 1 = n + 1 ≤ q < 1
n =
n!

für n ≥ N := |x|
q − 1. Die Beweise für sin und cos gehen analog (Übung).

Bemerkung: Diese Definition erlaubt es nun prinzipiell die Exponential-, Sinus- und Cosinusfunktion nicht unr für
reelle Zahlen zu definieren, sondern letztendlich für alles, wofür Potenzen (also Produkte) und Summen definiert
werden können – dies wird z.B. auch bei den später eingeführten Matrizen möglich sein.

Definition 4.4 (Konvergenzradius):


Der Konvergenzradius einer Potenzreihe ist definiert durch

( )
X
k
r := sup |x| : ak x konvergiert (absolut)
k=0

Mit dieser Definition erhalten wir für das Konvergenzverhalten einer Potenzreihe:
• Eine Potenzreihe mit Konvergenzradius f konvergiert auf (−r, r) absolut. Das ist eine direkte Konsequenz
aus Lemma 4.3
• Für |x| > r konvergiert die Reihe niemals (per Definition).
• Für |x| = ±r konvergiert sie manchmal, eine allgemeine Aussage ist nicht möglich.

Satz 4.3 (Differenzierbarkeit


P∞ von Potenzreihen):
Sei f (x) = k=0 ak xk eine Potenzreihe mit Konvergenzradius r. Dann ist die Funktion f : (−r, r) → R
stetig und diffbar und es gilt

X
f 0 (x) = kak xk−1
k=1

d.h. die Potenzreihe wird gliedweise differenziert. Die gliedweise abgeleitete Reihe hat den selben Konver-
genzradius r.

Beispiel 4.3:
Wir bestimmen die Ableitung der Exponentialfunktion und der Sinusfunktion. Außerdem sehen wir ein
Beispiel, wie man “auf Umwegen” den Grenzwert einer Reihe bestimmen kann:

32
4.2. Potenzreihen

1. !0
∞ ∞  n 0 ∞ ∞ ∞
0
X xn X x X nxn−1 X xn−1 X xn
exp (x) = = = = = = exp(x)
n! n=0
n! n=1
n! n=1
(n − 1)! n=0 n!
k=0

2.
∞  2n+1
0 X ∞ ∞
0
X
n x (2n + 1)x2n X x2n
sin (x) = (−1) = (−1)n = (−1)n = cos(x)
n=0
(2n + 1)! n=0
(2n + 1)! n=0
(2n)!

3.
∞ ∞ ∞ ∞
X X X 1 X
f (q) = qn ⇒ f 0 (q) = nq n−1 = (n + 1)q n ⇒ = (n + 1)q n
n=0 n=1 n=0
(1 − q)2 n=0

Satz 4.4 (Eigenschaften der Exponentialfunktion):


Die Exponentialfunktion hat folgende Eigenschaften:
i) Die Exponentialfunktion ist eindeutig bestimmt als differenzierbare Funktion f : R → R, für die gilt:

f 0 (x) = f (x) und f (0) = 1 (?)

ii) exp(x + y) = exp(x) · exp(y)


iii) exp(−x) = exp(x)−1
iv) exp(x) > 0 ∀ x ∈ R

Beweis: Wir gehen die Eigenschaften einzeln durch:


iii) Definiere g(x) := exp(x) · exp(−x). Dann gilt

g 0 (x) = exp0 (x) · exp(−x) + exp(x) · exp0 (−x) = exp(x) exp(−x) − exp(x) exp(−x) = 0
| {z } | {z }
exp(x) − exp(−x)

⇒ g(x) = K konstant
g(0) = 1 ⇒ g(x) = 1 also exp(x) exp(−x) = 1
−1
⇔ exp(−x) = exp(x)

iv) Aus der Definition folgt direkt dass exp(x) > 0 ∀x ≥ 0.


Für x < 0 folgt: exp(x) = exp( −x )−1 > 0
|{z}
>0

i) Zu zeigen ist:
a) exp(x) ist die Lösung von (?).
b) Es gibt nur eine Lösung.
zu a)

exp0 (x) = exp(x) X


exp(0) = 1 X

zu b) Sei f eine Lösung von (?). Dann ist


=f (x)
0 z }| {
f 0 (x) exp(x) − f (x) exp(x)

f
(x) = =0
exp exp(x)2
| {z }
möglich, da exp(x)6=0

33
4.2. Potenzreihen

f (x) f (0) 1
Daher ist exp(x) konstant und das Einsetzen von x = 0 liefert exp(0) = 1 = 1. Damit gilt f (x) =
exp(x) für alle x ∈ R.
ii) Wähle y fest und definiere

g(x) := exp(x + y) − exp(x) exp(y)


⇒ g 0 (x) = exp(x + y) − exp(x) exp(y) = g(x)
g(x)
Nach dem Beweis von i) folgt damit dass exp(x) = K, außerdem gilt g(0) = exp(y) − exp(y) = 0 und
damit K = 0. Also gilt g(x) = 0.

Mit Hilfe der Exponentialfunktion können wir nun die wichtige sog. Euler’sche Zahl e einführen:

Definition 4.5 (Euler’sche Zahl):

e := exp(1) = 2.71828 . . .

Bisher haben wir die Exponentialfunktion als Potenzreihe definiert und einige ihrer Eigenschaften betrachtet. Diese
(und natürlich der Name) legen folgende Frage nahe: Gilt exp(x) = ex ? Diese wollen wir nun beantworten, indem
wir sie zuerst für natürliche Zahlen x, dann für ganze, rationale und schließlich auch für reelle betrachten:
i) Für x = n ∈ N gilt

exp(n) = exp(1 + 1 + · · · + 1) = exp(1) · exp(1) . . . exp(1) = exp(1)n = en


| {z } | {z }
n-mal n-mal

ii) Für ganze Zahlen: n ∈ N


−1
exp(−n) = exp(n)−1 = (en ) = e−n
⇒ exp(n) = en ∀n ∈ Z
m
iii) Für rationale Zahlen n ∈ Q mit m ∈ Z, n ∈ N.

 
 n
1 1 1 1
 n + n + · · · + n  = exp
e = exp(1) = exp  
| {z } n
n-mal
 
1 1
⇒ e n = exp
n
•  
 m  
m 1 1 1 1 1 m m
exp  n + n + · · · + n  = exp
= exp  = en = en

n | {z } n
m-mal

iv) Für beliebige reelle Zahlen x ∈ R definieren wir

ex := exp(x)

4.2.2 Umkehrfunktion zur Exponentialfunktion


Die Exponentialfunktion ist eine sehr wichtige Funktion und daher wollen wir sie näher untersuchen. Insbesondere
hat sie folgende Eigenschaften:
• exp0 (x) = exp(x) > 0

34
4.2. Potenzreihen

x→∞
• exp(x) −→ ∞, da exp(x) > 1 + x für x > 0.
x→∞
• exp(−x) = exp(x)−1 −→ 0

Daraus folgt, dass exp : R → R+ , x 7→ exp(x) bijektiv und damit umkehrbar ist. Folglich gibt es eine Umkehr-
funktion, die man (natürlichen) Logarithmus ln nennt:

ln : R+ → R (natürlicher Logarithmus)
mit ln(exp(x)) = x für alle x ∈ R
ln(y) = exp−1 (y) für alle y ∈ R+


Mit Hilfe der Regel für Differentiation der Umkehrfunktion folgern wir:

1 1
ln0 (y) = =
exp(x) |{z} y
x=ln(y)

Folgende Rechenregeln gelten für den Logarithmus. Sie können als Übung nachgerechnet werden.

ln(1) = 0; ln(e) = 1

ln(ab) = ln(a) + ln(b)

ln (an ) = n ln(a)

ln a1 = − ln(a)


4.2.3 Potenzen und Logarithmen zu allgemeinen Basen


Mit Hilfe der Exponentialfunktion (definiert per Potenzreihe) konnten wir ex für beliebige x ∈ R definieren. In
diesem Spezialfall können wir also Potenzen mit beliebigem (reellen) Exponenten bestimmen. Dies wird nun auf
allgemeine Basen erweitert.

Definition 4.6 (Allgemeine Potenzen und Logarithmen):

ax = exp (ln(a)x) für a > 0


ln(y)
loga (y) :=
ln(a)

Das ist konsistent zu den bekannten Rechenregeln für Potenzen:


n
• exp(ln(a)n) = (exp(ln(a))) = an
1
• a n ist definiert als Zahl b mit bn = a

⇔ ln (bn ) = ln(a)
n ln(b) = ln(a)
1
ln(b) = ln(a)
n  
1 1
a n = b = exp(ln(b)) = exp ln(a)
n

Für den allgemeinen Logarithmus gilt

ln(ay ) y ln(a)
loga (ay ) = = =y
ln(a) ln(a)

35
4.2. Potenzreihen

Somit ist der allgemeine Logarithmus loga (·) zur Basis a die Umkehrfunktion der allgemeinen Potenz a(·) mit
Basis a. Es gilt:

ax ay = ax+y
y
(ax ) = a(x·y)
ax bx = (ab)x

Mit der Kettenregel folgt für f (x) = ax : f 0 (x) = ln(a)ax .

36
KAPITEL 5

Das Newton-Verfahren

Das Newton-Verfahren ist eine Methode zur Lösung von nicht-linearen Gleichungen. Derartige Verfahren sind wich-
tig, da nicht jede Gleichung analytisch, d.h. duch Umformulieren von Termen gelöst werden kann. Beispielsweise
ist es nicht möglich, die Gleichungen
x = sin(x) + 1
analytisch zu lösen. Das Newton-Verfahren ist ein iteratives Verfahren, d.h. es bestimmt ausgehend von einem
(hoffentlich geschickt) geratenen ersten Lösungsvorschlag x0 (der natürlich noch nicht korrekt ist) einen neuen
Lösungsvorschlag x1 , der (hoffentlich) schon besser ist als x0 . Im zweiten Schritt wird dann aus dem Vorschlag
x1 wiederum ein neuer (hoffentlich wieder besserer) Lösungsvorschlag x2 berechnet usw. Das Newton-Verfahren
generiert also eine Folge von Werten (x0 , x1 , x2 , . . . ), die (hoffentlich) gegen die korrekte Lösung konvergiert.
Wie diese Folge bestimmt wird, betrachten wir nun im Folgenden.
Wir starten mit einer Vorüberlegung, die die Problemstellung vereinheitlicht: Jede Gleichung kann stets (durch
Äquivalenzumformungen) auf die Form f (x∗ ) = 0 gebracht werden. Im obigen Beispiel wäre also f (x) = x −
sin(x) − 1. Somit ist das Ziel des Newton-Verfahrens die Bestimmung einer Nullstelle einer Funktion:

Finde x∗ ∈ R, so dass f (x∗ ) = 0

Da die gegebene Funktion f zu kompliziert ist, als dasss wir eine Nullstelle bstimmen könnten, ist die Idee, die
Funktion zu vereinfachen und erst einmal das entstehende einfachere Problem zu lösen: Ansatz: Für festes x0 ist

l(x) = f (x0 ) + f 0 (x0 )(x − x0 )

eine affine Approximation (deutlich einfacher!) an die Funktion f . Denn:

f (x0 + h) = f (x0 ) + f 0 (x0 )h + o(h) aus Definition der Ableitung


mit x = x0 + h
⇒ f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + o(x − x0 )
Anstatt einer Nullstelle von f suchen wir zunächst eine Nullstelle von l:
!
l(x) = f (x0 ) + f 0 (x0 )(x − x0 ) = 0
f 0 (x0 )(x − x0 ) = −f (x0 )
f (x0 )
x − x0 = − f 0 (x0 ) 6= 0
f 0 (x0 )
f (x0 )
⇔ x = x0 − 0
f (x0 )

• Schritt 1

37
• Schritt 2

• Schritt 3

Das Newton-Verfahren

x0 Startwert
f (xn )
xn+1 = xn −
f 0 (xn )

Beispiel 5.1:
Wir führen zwei Schritte des Netwon-Verfahrens zur Bestimmung der Nullstelle von f (x) = x2 − 1 durch.
Hier können wir die Lösung natürlich auch einfach analytisch berechnen, es gilt x∗ = 1 oder x∗ = −1.
Für die Ableitung ergibt sich f 0 (x) = 2x.

x0 = 2
f (2) 3 5
x1 = 2 − =2− =
f 0 (2) 4 4
5 25
5 f( ) 5 −1 41
x2 = − 0 45 = − 16 5 =
4 f (4) 4 2
40

Der Wert x2 = 1.025 ist schon recht nahe an der korrekten Nullstelle.

Achtung: Das Newton-Verfahren konvergiert nicht für alle Startwerte x0 :

38
Beispiel 5.2:

f (x) = (x2 − 1)x


1
x0 = √
5
x1 = −x0
x2 = x0
x3 = −x0 . . .

39
40
KAPITEL 6

Vektorräume

In diesem Kapitel beginnen wir die Lineare Algebra, deren Ziel es ist, die Eigenschaften linearer Zusammenhänge
und Strukturen, zu lernen und zu nutzen. Das Konzept der Linearität spielt hierbei folglich die wesentliche Rolle.
Linearität ist ein recht einfaches Konzept welches sich vereinfacht (und nicht ganz vollständig) ausdrücken lässt
als
“Doppelter Input =⇒ Doppelter Output.”
Im täglichen Leben legen wir es oft implizit zugrunde:
• Wenn ich 20% mehr Schokolade kaufe, kostet es 20% mehr.
• Wenn ich doppelt so schnell laufe, komme ich doppelt so weit (in der gleichen Zeit).
• etc.
Allerdings sind nicht alle Zusammenhänge linear: Wenn ich doppelt so viel lese, weiß ich doppelt so viel???

 
2
v = (2, 1) oder auch v=
1
 
1
w=
1
     
2 1 3
v+w = + =
1 1 2
   
−1 · 2 −2
−v = (−1) · v = =
−1 · 1 −1

41
Definition 6.1 (Vektoren, Addition, skalare Multiplikation):
Sei n ∈ N.

• Ein Vektor in Rn ist eine Anordnung von reellen Zahlen x1 , x2 , . . . , xn . In der Notation verwendet
man typischerweise runde Klammern:

(x1 , x2 , x3 , . . . , xn )

• Wir definieren eine Addition für zwei Vektoren im Rn . Dies geschieht durch Addition der einzelnen
Komponenten (welche ja reelle Zahlen sind und die wir somit addieren können). Man nennt dies
“komponentenweise Addition”:

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) := (x1 + y1 , x2 + y2 , . . . , xn + yn )

• Ebenso definieren wir die Multiplikation eines Vektors mit einem Skalar α ∈ R, indem jede
Komponente des Vektors (welche ja eine reelle Zahl ist) mit eben diesem Skalar multipliziert wird:

α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )

Folgende Notationen und Begriffe werden verwendet:


 
x1
 x2 
• x = (x1 , x2 , . . . , xn ) schreiben wir auch als  . 
 
 .. 
xn

• Die einzelnen Bestandteile xi , i = 1, . . . , n, eines Vektors x nennen wir Komponenten oder Koordinaten.

• Wir schreiben auch x = (xi )i=1,...,n oder auch (xi )i .

Aufgrund der obigen Definition der Addition und skalaren Multiplikation, welche direkt die entsprechende Re-
chenoperation der reellen Zahlen nutzen, ergeben sich folgende Regeln. Diese werden sozusagen von den reellen
Zahlen “vererbt”. Für x, y, z ∈ Rn , α, β ∈ R gilt:

(A1) (x + y) + z = x + (y + z)

(A2) x + y = y + x

(A3) x + (0, 0, . . . , 0) = x, wir schreiben auch 0 = (0, 0, . . . , 0)

(A4) x + (−x1 , −x2 , . . . , −xn ) = 0, wir schreiben −x = (−x1 , −x2 , . . . , −xn )

(S1) α(βx) = (αβ)x

(S2) 1x = x

(D1) α(x + y) = αx + αy

(D2) (α + β)x = αx + βx

Der Rn ist nicht der einzige Raum der Vektoren.

Beispiel 6.1:
Alle Funktionen von R nach R
f : R → R; x 7→ f (x)
Dann können wir die Summe (g + f ) von zwei Funktionen f und g definieren:

(g + f ) : R → R; x 7→ f (x) + g(x)

42
Außerdem definieren wir die Funktion (αf ) für α ∈ R und eine Funktion f :

(αf ) : R → R; x 7→ αf (x)

Definition 6.2 (Vektorraum):


Sei K ein Körper. Dann ist ein K-Vektorraum eine Menge V mit zwei Verknüpfungen

“Plus”: +:V ×V →V
(x, y) 7→ x + y

und

“Mal”: ·:K×V →V
(α, x) 7→ αx

für die die folgenden Eigenschaften (Vektorraumaxiome) erfüllt sind:

(A1) (x + y) + z = x + (y + z) ∀ x, y, z ∈ V
(A2) x + y = y + x ∀ x, y ∈ V
(A3) Es gibt ein Element 0 ∈ V mit 0 + x = x ∀ x ∈ V
(A4) Zu jedem x ∈ V gibt es ein Element −x ∈ V mit x + (−x) = 0

(S1) α(βx) = (αβ)x ∀ α, β ∈ K, ∀ x ∈ V


(S2) 1x = x für 1 ∈ K, ∀ x ∈ V
(D1) α(x + y) = αx + αy ∀α ∈ K, ∀ x, y ∈ V

(D2) (α + β)x = αx + βx ∀ α, β ∈ K, ∀ x ∈ V

Beispiel 6.2 (Gerade als Vektorraum):


Wie betrachten die Menge (diese stellt eine Gerade im R2 dar)

V = {x ∈ R2 | 2x1 + 3x2 = 0}.

Die Vektorraum Operationen + und · seien wie in R2 definiert. Ist V ein Vektorraum? Dazu seien x, y ∈ V
und α ∈ R. Zuerst müssen wir zeigen, dass die Operatoren “+” und “·” innerhalb des Vektorraums bleiben,
also dass + : V × V → V bzw. · : R × V → V .

(1) x + y ∈ V :

43
x + y = (x1 , x2 ) + (y1 , y2 )
= (x1 + y1 , x2 + y2 )
2(x1 + y1 ) + 3(x2 + y2 ) = 2x1 + 3x2 + 2y1 + 3y2 = 0
| {z } | {z }
=0, da x∈V =0, da y∈V

(2) αx ∈ V :

αx = α(x1 , x2 ) = (αx1 , αx2 )


2(αx1 ) + 3(αx2 ) = α (2x1 + 3x2 ) = 0
| {z }
=0, da x∈V

Die Eigenschaften (A1-A4), (S1, S2), (D1, D2) sind erfüllt, da + und · wir in R2 definiert sind.

Es sind z.B. (3, −2) und (−3, 2) ∈ V , da 2 · 3 + 3 · (−2) = 0 und 2 · (−3) + 3 · 2 = 0. V ist eine Gerade
im R2 , die durch 0 läuft.

Damit haben wir gezigt, dass diese spezielle Gerade V = {x ∈ R2 | 2x1 + 3x2 = 0} in der Tat ein Vektorraum
ist. Es stellt sich die Frage, bo alle Geraden G im R2 Vektorräume sind. Das ist nicht der Fall, wie folgendes
Gegenbeispiel zeigt:

Beispiel 6.3:
Wir betrachten eine Gerade G wie im Bild und stellen fest, dass offenbar die Plusoperation nicht “auf der
Geraden landet”:

44
x, y ∈ G
aber x + y ∈
/G
⇒ G kein Vektorraum

Definition 6.3 (Untervektorraum):


Sei V ein Vektorraum, dann heißt eine Teilmenge U ⊂ V Untervektorraum (oder linearer Unterraum)
von V , falls U mit den selben Verknüpfungen + und · wie V wieder ein Vektorraum ist. Für einen
Untervektorraum U von V und ein x ∈ V bildet

G := x + U = {x + y| y ∈ U }

einen affinen Unterraum.

Zurück zum Beispiel 6.3:

Beispiel 6.4:
Allgemeine Geraden G ⊂ R2 sind affine Unterräume.

G = {v + u| u ∈ U } = {v + tr| t ∈ R} mit r ∈ U, r 6= 0 heißt Richtungsvektor.

Lemma 6.1:
Jede Gerade im R2 kann in der Form

{y ∈ R2 | n1 y1 + n2 y2 = d}

geschrieben werden, wobei n21 + n22 = 1 ist. (Normalform)

   
r1 x1
Beweis: Es sei G = {x + tr| t ∈ R}, r = ,x= . Für ein beliebiges y ∈ G gilt:
r2 x2

y1 = x1 + tr1 ⇒ r2 y1 = r2 x1 + tr1 r2
y2 = x2 + tr2 ⇒ −r1 y2 = −r1 x2 − tr1 r2
⇒ r2 y1 − r1 y2 = r2 x1 − r1 x2

p
teile durch r12 + r22 .
r −r1 r2 x1 − r1 x2
p 2 y1 + p 2 y2 = p 2
2
r +r 2 r +r 2 r1 + r22
| 1{z 2} | 1{z 2} | {z }
=:n1 =:n2 =:d

Offensichtlich gilt: n21 + n22 = 1.

45
6.1. Skalarprodukte, Winkel- und Längenmessung

Beispiel 6.5:

    
1 −3
G= +t | t ∈ R = {y ∈ R2 | 2y1 + 3y2 = 2}
0 2
 
2 3 2
= y ∈ R2 | √ y1 + √ y2 = √
13 13 13

Ebenen im R3

E = {x + tr + sq| t, s ∈ R} mit r, q ∈ R3 \{0} und r 6= αq ∀ α ∈ R

Lemma 6.2:
Eine Ebene im R3 kann geschrieben werden in der Form

{y ∈ R3 | n1 y1 + n2 y2 + n3 y3 = d}

mit n21 + n22 + n23 = 1.

Beweis: Analog zu Geraden im R2 .

Definition 6.4 (Lineare Unabhängigkeit):


Zwei Vektoren x, y ∈ V heißen linear abhängig genau dann, wenn es α, β ∈ R mit α 6= 0 oder β 6= 0 gibt,
so dass
αx + βy = 0
Anderenfalls heißen x und y linear unabhängig (wenn also αx + βy = 0 nur die triviale Lösung α = β = 0
besitzt.)

Im Spezialfall von nur zwei Vektoren x und y gilt: x und y sind linear abhängig genau dann, Wenn

• x = 0 oder

• y = 0 oder

• x = γy (mit γ = β
α ), d.h. x und y sind Vielfache voneinander.

6.1 Skalarprodukte, Winkel- und Längenmessung

46
6.1. Skalarprodukte, Winkel- und Längenmessung

Definition 6.5 (Euklidisches Skalarprodukt und euklidische Norm):


Die Abbildung g : Rn × Rn → R mit
n
X
(x, y) 7→ g(x, y), g(x, y) = xi yi
i=1

heißt euklidisches Skalarprodukt auf Rn .


Wir schreiben dafür

x · y := g(x, y) oder
hx, yi := g(x, y)

für x, y ∈ Rn . x, y ∈ Rn heißen orthogonal, wenn x · y = 0. Die euklidische Norm ist gegeben durch

n
! 21
p X
||x|| := hx, xi = x2i
i=1

Rechenregeln: Für das Skalarprodukt gilt mit x, y, z ∈ Rn , α ∈ R:

• Positive Definitheit:
hx, xi ≥ 0 und hx, xi = 0 ⇔ x = 0

• Symmetrie:
hx, yi = hy, xi

• Linearität: 
hx + y, zi = hx, zi + hy, zi
hαx, yi = αhx, yi

Eigentlich geht man hier andersrum vor und definiert: Eine Funktion g : V × V → R, die die obigen Eigen-
schaften (positive Definitheit, Symmetrie und Linearität) besitzt, heißt Skalarprodukt. Dann zeigt man in einem
zweiten Schritt, dass das euklidische Skalarprodukt eben diese Eigenschaften erfüllt. Die folgende geometrische
Interpretation des Skalarprodukts beruht ausschließlich auf diesen drei Eigenschaften. Somit ist eine entsprechende
Vorstellung für alle Skalarprodukte (und es gibt in der Tat mehrere davon) gültig, sinnvoll und hilfreich.

6.1.1 Geometrische Interpretation des Skalarprodukts


Vorbereitete Hilfsrechnung:

2
||y − x|| = (y − x) · (y − x) = y · y − 2y · x + x · x
2 2
= ||y|| − 2y · x + ||x||
1 2 2 2

⇒ x·y = ||x|| + ||y|| − ||y − x||
2
Wir betrachten nun ein Dreieck, das wie dargestellt von den Vektoren x, y ∈ R2 aufgespannt wird.

47
6.1. Skalarprodukte, Winkel- und Längenmessung

Mit den Bezeichnungen wie in der Skizze erhalten wir durch den Satz des Pythagoras:
||x|| = a + b
2
||y|| = a2 + h2
2
||y − x|| = b2 + h2
Nun betrachten wie den Term, für den wir uns eigentlich interessieren, das Skalarprodukt x · y:
1 2 2 2

⇒ x·y = ||x|| + ||y|| − ||y − x||
2
1
(a + b)2 + a2 + h2 − b2 − h2

=
2
1 2
a + 2ab + b2 + a2 + h2 − b2 − h2

=
2
1 2
a + 2ab + a2

=
2
1
= a(2a + 2b) = a(a + b) = a ||x||
2
Folglich erhalten wir x · y = a ||x||. Dies können wir anhand der obigen Skizze interpretieren als: Das Skalarprodukt
von zwei Vektoren x und y gibt die Länge des Anteil von y in Richtung x an.

Diese Beziehung ist Offensichtlich symmetrisch (denn das Skalarprodukt ist es ja per Definition). Somit gilt also:
x · y = a ||x|| = c ||y||

48
6.2. Vektorprodukt im R3

Durch Überlegungen in dem entstehenden rechtwinkligen Dreieck erhalten wir auch einen Zusammenhang des
Skalarprodukts zum Winkel zwischen den beiden Vektoren, denn es gilt:
a x·y
cos(α) = =
||y|| ||x|| ||y||

Somit gilt insbesondere: Zwei Vektoren schließen einen rechten Winkel ein genau dann, wenn ihr Skalarprodukt
Null ist.
π
|α| = ⇐⇒ x·y =0
2
Es ergibt sich auch unmittelbar die sogenannte Cauchy-Schwartz-Ungleichung

|x · y| = |a| ||x|| ≤ ||x|| ||y||


|{z}
≤||y||

Beispiel 6.6:
Abstand eines Punktes von einer Gerade im R2 .

G := {x + tr| t ∈ R}, x, r ∈ R2

2
f (t) := ||y − (x + tr)|| soll minimiert werden

d d
(y1 − (x1 + tr1 ))2 + (y2 − (x2 + tr2 ))2

f (t) =
dt dt
= −2(y1 − (x1 − tr1 ))r1 − 2(y2 − (x2 + tr2 ))r2
!
=0
r
⇔ t = (y − x) · 2 (nachrechnen!)
||r||

Damit ergibt sich der Abstand


!
r r r
d = y − x + (y − x) 2 r = (y − x) + (y − x) · ·

||r|| ||r|| ||r||

6.2 Vektorprodukt im R3

Definition 6.6 (Vektorprodukt):

49
6.3. Linearkombination und Basis

   
x1 y1
Seien x = x2  und y = y2  Vektoren im R3 . Dann definieren wir
x3 y3
     
x1 y1 x2 y3 − x3 y2
x × y := x2  × y2  = −(x1 y3 − x3 y1 )
x3 y3 x1 y2 − x2 y1

Der Operator × wird als Vektorprodukt bzw. Kreuzprodukt bezeichnet.

Das Vektorprodukt ist ausschließlich in R3 definiert. Es gelten folgende Rechenregeln:


     
1 0 0
• Für e1 := 0, e2 := 1, e3 := 0 gilt
0 0 1
e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2

• Das Vektorprodukt ist linear in jedem Faktor:

(αx + βy) × z = α(x × z) + β(y × z)

• Das Vektorprodukt ist anti-kommutativ:

x × y = −y × x und x × x = 0

• x, y sind orthogonal zu x × y:

hx × y, xi = 0
hx × y, yi = 0

Diese Eigenschaft kann als Übung nachgerechnet werden. Sie ist besonders hilfreich, das sie eine einfache
Möglichkeit bietet, einen Vektor zu bestimmen, der orthogonal zu zwei gegebenen Vektoren ist.

6.3 Linearkombination und Basis

     
3 1 0
x= =3 +2
2 0 1
   
5 −1 1 −1
=− −
2 −1 2 1
50
6.3. Linearkombination und Basis

Definition 6.7:
Sei V ein K-VR, dann heißen k Elemente aus V

v1 , v2 , . . . , vk ∈ V

linear abhängig, wenn es α1 , α2 , . . . , αk ∈ K gibt, mit mindestens einem αm 6= 0, 1 ≤ m ≤ k und

α1 v1 + α2 v2 + · · · + αk vk = 0

Das heißt, ein Vektor ist als Linearkombination der anderen darstellbar:
1
vm = − (α1 v1 + α2 v2 + · · · + αm−1 vm−1 + αm+1 vm+1 + · · · + αk vk )
αm
Andernfalls heißen die Vektoren linear unabhängig. Eine solche Summe von Vektoren mit skalaren Koef-
fizienten heißt Linearkombination.

Beispiel 6.7:
Wir verwenden diese Definition, um lineare Unabhängigkeit zu prüfen:
   
1 2
• v1 = −1 und v2 = −2 sind linear abhängig, denn 2v1 − v2 = 0.
2 4

• Im Vektorraum der Polynome mit p(t) = a0 + a1 t + a2 t2 + · · · + ak tk für k ∈ N sind die Monome

v0 :=(t 7→ 1) v1 := (t 7→ t)
v2 :=(t 7→ t2 ) vk := (t 7→ tk )

linear unabhängig.

α0 v0 + α1 v1 + · · · + αk vk = 0
⇔ p(t) = α0 + α1 t + · · · + αk tk = 0 für alle t
⇔ α0 = 0, α1 = 0, . . . , αk = 0

denn:
!
p(0) = α0 = 0
!
p0 (0) = α1 = 0
!
p00 (0) = α2 = 0
..
.
!
p(k) (0) = αk = 0

Definition 6.8:
Ist A ⊂ V eine Teilmenge eines K-Vektorraums V , dann heißt die Menge der Linearkombinationen
( k )
X
span(A) := αi vi | αi ∈ K, vi ∈ A
i=1

lineare Hülle von A oder der von A aufgespannte Raum oder der Span von A.

51
6.3. Linearkombination und Basis

Lemma 6.3:
Für jede Menge A ⊂ V ist span(A) ein Untervektorraum von V .

Definition 6.9 (Basis):


Sind v1 , . . . , vn ∈ V linear unabhängig und ist span{v1 , . . . , vn } = V , so nennt man {v1 , . . . , vn } eine
Basis von V .

Satz 6.1 (Eindeutigkeit der Basisdarstellung):


Ist {v1 , . . . , vn } eine Basis von V , dann gibt es für jeden Vektor x ∈ V eine eindeutige Darstellung
n
X
x= αi vi .
i=1

Die Koeffizienten αi heißen Koordinanten von x bzgl. der Basis {vi }i=1,...,n .

Beweis:
• Darstellung existiert, da span{v1 , . . . , vn } = V .
• Eindeutigkeit: Wir geben zwei Darstellungen von x an und zeigen, dass diese übereinstimmen:
n
X n
X
x= αi vi = βi vi
i=1 i=1
Xn Xn n
X
⇔ 0= αi vi − βi vi = (αi − βi )vi
i=1 i=1 i=1
⇒ (da v1 , . . . , vn linear unabhängig) αi − βi = 0 ⇔ αi = βi

 
0
 .. 
.
 
0
n
  n
Beispiel 6.8: 1. {e1 , e2 , . . . , en } ist eine Basis des R , wobei ei = 
1 ← i-te Komponente ∈ R

0
 
 .. 
.
0
2. V = Raum der Polynome vom Grad ≤ 2k mit p(x) = p(−x):
t 7→ 1, t 7→ t2 , t 7→ t4 , . . . , t 7→ t2k

ist Basis von V.
   
−1 −1
3. , ist Basis von R2 . Wir zeigen zuerst die lineare Unabhängigkeit:
−1 1
   
−1 −1
α1 + α2 =0
−1 1

−α1 − α2 = 0

−α1 + α2 = 0
⇒ α1 = α2
⇒ −α2 − α2 = 0,
also − 2α2 = 0 ⇒ α2 = 0, ⇒ α1 = 0

52
6.3. Linearkombination und Basis

   
−1 −1
Nun muss noch gezeigt werden, dass span , = R2 :
−1 1
 
x1
Sei x ∈ R2 beliebig, x =
x2
     
x1 −1 −1
= α1 + α2
x2 −1 1
x1 = −α1 − α2
x2 = −α1 + α2
⇒ α2 = x2 + α1
⇒ x1 = −2α1 − x2
−x1 − x2 −x1 + x2
⇒ α1 = und α2 =
2 2
   
−1 −1
Also ist , eine Basis von R2
−1 1

Satz 6.2:
Die Anzahl von Basisvektoren eines Vektorraums V ist eine feste Zahl.

Definition 6.10 (Dimension):


Sei V ein Vektorraum mit Basis {v1 , . . . , vn }, dann heißt n die Dimension von V , n = dimV .

Satz 6.3:
Seien v1 , . . . , vk linear unabhängig aber u, v1 , . . . , vk linear abhängig. Dann ist u darstellbar als
k
X
u= αi vi
i=1

Beweis: Aus u, v1 , v2 , . . . , vk linear abhängig folgt, dass es α, α1 , α2 , . . . , αk ∈ R gibt mit

αu + α1 v1 + · · · + αk vk = 0

und mindestens ein αi 6= 0. Es gilt α 6= 0, denn falls α = 0 folgt αi = 0 für ein i = 1, . . . , k. Dies ist aber ein
Widerspruch zur linearen unabhängikeit von v1 , . . . , vk .
Also folgt
1
u = − (α1 v1 + α2 v2 + · · · + αk vk )
α

Satz 6.4:
Sei V ein n-dimensionaler Vektorraum und v1 , . . . , vn linear unabhängig. Dann ist v1 , . . . , vn eine Basis.

Satz 6.5 (Basisergänzungssatz):


Sei dimV = n und v1 , . . . , vr linear unabhängig mit r < n. Dann kann v1 , . . . , vr zu einer Basis ergänzt
werden, d.h. es gibt Vektoren vr+1 , . . . , vn , so dass {v1 , . . . , vn } eine Basis ist.

53
6.3. Linearkombination und Basis

54
KAPITEL 7

Lineare Abbildungen und Matrizen

In diesem Kapitel betrachten wir die wesentlichsten Objekte der linearen Algebra: die linearen Abbildungen. Diese
kann man sich sehr gut vorstellen, denn es sind sehr einfache Abbildungen. Konkret ist es aus meiner Sicht
am besten, sich eine lineare Abbildung in einem euklidischen Raum niedriger Dimension, also etwa dem R2
oder dem R3 vorzustellen: Ein zweidimensionaler (oder auch dreidimensionaler) Punkt wird auf einen anderen
zweidimensionalen (oder eben dreidimensionalen) Punkt abgebildet.
Um Ihnen bereits vorab eine geeignete Vorstellung zu ermöglichen, greife ich deutlich vor und behaupte: Lineare
Abbildungen sind (grob gesprochen) entweder
• Streckungen
• Drehungen
• Spiegelungen
• oder “nicht allzu komplizierte Verzerrungen“.
Ein wesentlicher Punkt wird sein, ein Konzept einzuführen, wie man diese wichtigen Abbildungen exakt angeben
oder schriftlich festhalten kann. Genau das ist die Aufgabe der Matrizen.

7.1 Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung

Definition 7.1:
Eine Abbildung f : V → W zwischen zwei K-VR V und W heißt linear, falls

f (αv) = αf (v) ∀ v ∈ V, ∀ α ∈ K
f (u + v) = f (u) + f (v) ∀ v, u ∈ V

Beispiel 7.1: • V, W = R, f : R → R mit f (x) = λx, λ ∈ R ist linear (jede linear Funktion von R
nach R sieht so aus.)
• V = R2 , W = R, f (x) = λx1 + µx2 , λ, µ ∈ R
   
1 1
• V, W = R , f (x) = x1
2
+ x2 .
−1 1
 
y1
Interpretation: Wenn f (x) = , dann sind y1 , y2 die Koordinaten des Bildvektors f (x) bzgl. der
y2

55
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung

   
1 1
Standardbasis; x1 , x2 sind die Koordinaten des Bildvektors f (x) bzgl. der Basis , .
−1 1

• V = {p : t 7→ α0 + α1 t + α2 t2 + · · · + αk tk | αi ∈ R, k ∈ N} ist der Polynomraum mit f : V → V ,


p 7→ p0 mit p0 : t 7→ α1 + 2α2 t + 3α3 t2 + · · · + kαk tk−1

f (αp) = (αp)0 = αp0 = αf (p)



⇒ f linear!
f (p + q) = (p + q)0 = p0 + q 0 = f (p) + f (p)

Satz 7.1:
Seien V und W Vektorräume und {v1 , . . . , vn } Basis von V . Außerdem seien w1 , . . . , wn ∈ W beliebig.
Dann gibt es genau eine lineare Abbildung f : V → W mit f (vi ) = wi ∀ i = 1, . . . , n.

Beweis: Jedes v ∈ V hat die eindeutige Darstellung


v = α1 v1 + · · · + αn vn
f linear ⇒ f (v) = f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + α2 f (v2 ) + · · · + αn f (vn )
⇒ Eindeutigkeit
f insgesamt linear

Es ist naheliegend, diese Eindeutigkeit zu nutzen, um damit eine lineare Abbildung anzugeben: Seien V, W Vek-
torräume mit dimV = n, dimW = m, {v1 , . . . , vn } Basis von V und {w1 , . . . , wm } Basis von W . Eine lineare
Funktion f : V → W ist eindeutig bestimmt durch die Bilder (f (vj ))j=1,...,n der Basisvektoren von V . Diese
darstellbar (eindeutig) in der Basis von W :
m
X
f (vj ) = aij wi für j = 1, . . . , n
i=1

Die Zahlen aij mit i = 1, . . . , m und j = 1, . . . , n ordnen wir in dem Schema


 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
Af :=  . ..  = (aij )i=1,...,m,j=1,...,n
 
..
 .. . . 
am1 am2 ... amm
Diese Schema mit m Zeilen und n Spalten bezeichnet man als m × n-Matrix Af , die Menge aller m × n-Matrizen
mit reellen Einträgen nennen wir Rm×n .

Folgerungen:
1. Die Matrix Af charakterisiert eindeutig die lineare Abbildung f : V → W bzgl. gegebener Basen von V
und W .
2. In den Spalten von Af stehen die Koeffizienten der Bilder f (vj ) der Basisvektoren von V bzgl. der Basis
{w1 , . . . , wm } von W .
Pn
3. Sei x ∈ V mit der Basisdarstellung x = j=1 xj vj , dann folgt:
!  
n
X Xn m
X Xm Xn
f (x) = f (vj )xj = aij wi xj =  aij xj  wi
j=1 j=1 i=1 i=1 j=1
| {z }
x1
 

 x2 
 
 
=ai · . 

 .. 

 
xn

56
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung

wobei ai die i-te Zeile von Af ist. Ist also (x1 , . . . , xn ) Basisdarstellung von x, dann ist der Vektor (ai ·
(x1 , . . . , xn ))i=1,...,m bestehend aus dem euklidischen Skalarprodukt der i-ten Zeile von Af mit (x1 , . . . , xn )
der Koeffizentenvektor von f (x) bzgl. der Basis von W .

Merkregel: Matrix und die Koeffizienten von x ergeben die Koeffizienten von f (x) mit dem Matrix-Vektor-
Produkt:
    
−a1 − x1 a1 · (x1 , . . . , xn )
 −a2 −   x2   a2 · (x1 , . . . , xn ) 
Ax =  .   .  = 
    
..
 ..   ..  

. 
−am − xn am · (x1 , . . . , xn )

4. Der einfache Fall: V = Rn , W = Rm , {e1 , . . . , en } als Basis von V , {e1 , . . . , em } als Basis von W . Dann
stimmen Vektor x und seine Koeffizienten bzgl. der Basis überein.
   
a1 · ej a1j
 a2 · ej   a2j 
f (ej ) =  .  =  . 
   
 ..   .. 
a m · ej amj
| {z }
=aj

die j-te Splate von Af . Die Bilder der Einheitsvektoren stehen also in den Spalten von Af .

Beispiel 7.2: 1. Projektion auf eine Gerade im R2 Darstellung von f : R2 → R2 ,

f (x) = x − (x · n)n

Diese Abbildung ist linear, nachrechnen!

Matrixdarstellung von f bzgl der Basis {e1 , e2 } im Urbild und Bild

f (e1 ) = e1 − (e1 · n)n = e1 − n1 n


f (e2 ) = e2 − (e2 · n)n = e2 − n2 n

 
| | 1 1
1 − n21
  
−n2 n1
⇒ Af = e1 − n1 n e2 − n 2 n = = 2
1
2
1
1 − n22

−n1 n2
| | 2 2

57
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung

Was ist f (x)?  1


x + 1x
 
a1 · (x1 , x2 )
f (x) = Af x = = 21 1 21 2
a2 · (x1 , x2 ) 2 x1 + 2 x2

Matrixdarstellung von f bzgl der Basis {r, n} im Urbild und Bild



f (r) = r − (r · n) n = r = 1 · r + 0 · n 

| {z }  
1 0

=0
⇒ Af =
f (n) = n − (n · n) n = 0 = 0 · r + 0 · n 0 0
| {z } 
=1

2. Drehung

58
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung

f : R2 → R2 anschaulich klar: f linear


Matrixdarstellung von f bzgl {e1 , e2 }
   
cos(θ) − sin(θ)
f (e1 ) = , f (e2 ) =
sin(θ) cos(θ)
 
cos(θ) − sin(θ)
⇒ Af = ∈ R2×2
sin(θ) cos(θ)

3. Streckung im R3    
x1 αx1
f : R 3 → R3 x = x2  7→ f (x) = βx2 
x3 γx3

59
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt

ist linear (nachrechnen!). Matrixdarstellung


  
α·1 

f (e1 ) = β · 0 = αe1 



γ · 0


  
  
α·0 α 0 0



f (e2 ) = β · 1 = βe2
  ⇒ Af =  0 β 0
γ · 0  0 0 γ




α·0




f (e3 ) = β · 0 = γe3 
  


γ·1

4. Identische Abbildung

f : V → V, x 7→ x
 
1 0 0 ... 0
0 1 0 . . . 0
.. 
 

Af = 0 0 1
 . =: E = En
 .. .. . .
. . .. 
. . 
0 0 0 1
| {z }
n Zeilen, nSpalten

Sei V ein Vektorraum mit Basis B = {v1 , v2 , . . . , vn }. Dann kann x ∈ V als Linearkombination bzgl. B geschrieben
werden mit den Koordinaten xB = (xB i )i=1,...,n .
Für den Rn mit Standardbasis E = {e1 , e2 , . . . , en } gilt x = xE also Vektor = Koordinatenvektor.
Für f : Rn → Rn mit Standardbasen gilt also

f (x) = Af x

7.2 Verkettung von linearen Abbildungen und das Matrizenprodukt

Satz 7.2:
Seien U, V, W Vektorräume und g : U → W und f : W → V linear. Dann ist f ◦ g : U → V linear.

Beweis:

• (f ◦ g)(λx) = f (g(λx)) |{z} = λf (g(x)) = λ(f ◦ g)(x)


= f (λg(x)) |{z}
g linear f linear

• analog: (f ◦ g)(x + y) = (f ◦ g)(x) + (f ◦ g)(y)

Beispiel 7.3: √ 
2 2 1 3 √1
Sei r : R → R mit Darstellungsmatrix R = 2 und s : R2 → R2 mit Darstellungsmatrix
−1 3
 
2 0
S=
0 − 21

60
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt

Hintereinanderausführung:

    √ 
2 2 3
(r ◦ s)(e1 ) = r(s(e1 )) = r(S(e1 )) = r =R =
0 0 −1
   1 
−√4
 
0 0
(r ◦ s)(e2 ) = r(s(e2 )) = r(S(e2 )) = r = R =
− 21 − 21 − 43
√ !
3 −√14
⇒ Darstellungsmatrix C= − 3
−1 4

Seien f : W → V und g : U → W linear mit Darstellungsmatrizen A bzw. B. Was ist die Darstellungsmatrix von
f ◦ g?

g f
U −→ W −→ V
Basen F E D
Dimension k m n
Vektor x z y

also z = g(x) und y = f (z) = f (g(x))


z E = BxF y D = Az E = A(BxF )
Pk Pm
zjE = l=1 Bjl xF
l yiD = j=1 Aij zjE
Pm Pk F
= j=1Aij l=1 B jl xl
Xm
Pk
= l=1  Aij Bjl  xF l
j=1
| {z }
=:Cil

Pm
Die Matrix C ∈ Rn×k mit Cil := j=1 Aij Bjl ist also die Darstellungsmatrix von f ◦ g bzgl. der Basen F und
D. Wir schreiben C = AB (Matrixprodukt) und können die Koordinaten y = (f ◦ g)(x) berechnen:

y D = A(BxF ) = (AB)xF = CxF

Merkregel: Sei A ∈ Rn×m und B ∈ Rm×k . Dann ist das Matrizenprodukt AB ∈ Rn×k definiert als

61
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt

 
| | |
b1 b2 ... bk 
| | |
a1 · b1 a1 · b2 a1 · bk
  
  − a1 − ...
Xm − a2 −  a2 · b1
  ... 
AB =  Aij Bjl  =
 
..   .. 
j=1
 .  . 
i=1,...,n,l=1,...,k
− an − an · b1 ... an · bk

Beispiel 7.4:
Sei V = R2 , W = R3 , U = R2 , und B ∈ R3×2 , A ∈ R2×3 .
 
1 0  
1 2 0
B= 0 1
  A=
2 1 1
1 1

A(Bx) = (AB)x

 
  1 0  
1 2 0  1 2
AB = · 0 1 =
2 1 1 3 2
1 1

Bemerkungen:

1. Wenn die Matrix B nur eine Spalte hat, so entspricht das Matrizenprodukt dem Matrix-Vektor-Produkt.

2. Da (f ◦ g) ◦ h = f ◦ (g ◦ h) für Abbildungen f, g, h gilt, muss auch (AB)C = A(BC) für Matirzen A, B, C.


Das Matrizenprodukt ist also assoziativ.

3. Das Matrizenprodukt ist nicht kommutativ, d.h. im Allgemeinen AB 6= BA.

4. Die Matrizen müssen “kompatible Dimensionen” haben:

A · |{z}
|{z} B = |{z}
C
m×n n×k m×k

Beispiel 7.5:
Spiegelung U = V = W = R2 , f (x) = x − 2(x · n)n

62
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt

Matrixdarstellung:
A
z }| {
f (x) = (E − 2nnT ) x denn:
 
|
n = n Spaltenvektor ⇒ nT = (−n−) ∈ R1×2 Zeilenvektor
|
nT x = x − 2n(n · x)
Ex −2n |{z}
f (x) = |{z}
x n·x

Betrachte nun (f ◦ f )(x) = . . . (nachrechnen) · · · = x


In Matrix-Form:

(E − 2nnT )(E − 2nnT ) = |{z}


EE − E(2nnT ) − (2nnT )E + (2nnT )(2nnT )
| {z } | {z } | {z }
E 2nnT 2nnT 4nnT nnT
T T T
= E − 4nn + 4nn nn
   
| |
= E − 4nnT + 4 n (−n−) n(−n−)
| |
| {z }
n·n=||n||2 =1

= E − 4nnT + 4nnT
=E

Bei einer linearen Abbildung f mit Definitionsbereich V und Wertebereich W , als f : V → W spielt noch eine
weitere Menge eine wichtige Rolle: die Menge all derjenigen Elemente in V , die auf die Null (in W ) abgebildet
werden. Diese Menge nennt man den Kern der Abbildung:

Definition 7.2 (Kern und Bild):


Sei f : V → W linear. Dann heißt

kern f := {v ∈ V | f (v) = 0} der Kern von f


Bild f := {f (v) ∈ W | v ∈ V } das Bild von f

Bei gegebenen Basen von V und W und einer Darstellungmatrix A von f schreiben wir auch kern A bzw.
Bild A.

Eine lineare Abbildung f : V → W “macht aus den Elementen in V Elemente in W ”. Allerdings muss das nicht
immer in eineindeutiger Weise (d.h. bijektiv) passieren, sondern es kann vorkommen, dass “viele” Elemente aus V
in “der Null (in W ) verschwinden”. Diese Elemente aus V , die sozusagen verloren gehen und alle zusammen in der
Null verschwinden, bilden den Kern von f . Dieser ist so wichtig, da alle anderen Elemente in gewisser Weise schon
eineindeutig abgebildet werden. Genauer: Wenn w ∈ W ein beliebiges Element aus dem Bild ist, dann gibt es ein
v ∈ V aus dem Urbild, welches auf w abgebildet wird, also f (v) = w. Betrachten wir nun noch ein v0 ∈ kern(f ),
also ein Element aus dem Kern (d.h. f (v0 ) = 0). Dann wird dieses in die Null abgebildet (klar!), darüber hinaus
verhält es sich aber auch “neutral”, nämlich gilt f (v + v0 ) = w. D.h. wenn man v um v0 verändert, dann ändert
das nichts am Ergebnis.

Beispiel 7.6: 1. V = W = P k Polynome vom Grad ≤ k

f (p) = p0
⇒ kern f = P 0
Bild f = P k−1

63
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt

 
1 2 1
2. Lineare Abbildung mit Darstellungsmatrix A = 1 0 1.
0 2 0

kern A = {x ∈ R3 | Ax = 0}

x1 +2x2 +x3 = 0
⇔ x1 +x3 = 0
2x2 =0


x1 +x3 = 0

x2 = 0

x1 = −x3

x2 = 0
   
 1 
⇔ kern A = t  0  | t ∈ R
−1
 

Das ist eine Gerade im R3 .

Bild A = {b ∈ R3 | Es gibt ein x ∈ R3 mit Ax = b}



x1 +2x2 +x3 = b1
⇔ x1 +x3 = b2
2x2 = b3


x1 +x3 = b1 − b3
⇔ x1 +x3 = b2
1
x2 = 2 b3


x1 + x3 = b1 − b3
1
⇔ x2 = 2 b3
0 = b1 − b2 − b3

⇔ Bild A = b ∈ R3 | b1 − b2 − b3 = 0


   
1 b1
−1 · b2  = 0
−1 b3
Das ist eine Ebene im R3 .
Allgemein gilt: Falls {v1 , . . . , vn } Basis von V :

Bild f = {f (v)| v ∈ V } = {f (v)| v ∈ span{v1 , . . . , vn }}


= span{f (v1 ), f (v2 ), . . . , f (vn )}

Also gilt für eine Matrix A:


 
| | |
Bild A = span{Ae1 , Ae2 , . . . , Aen } = span a1 , a2 , . . . , an
| | |
 

Im Beispiel:    
 1 2 
Bild A = span 1 , 0
0 2
 

64
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt

Satz 7.3:
kern f ist ein Untervektorraum von V , Bild f ist ein Untervektorraum von W (nachrechnen!).

Der Kern einer Matrix spielt eine entscheidende Rolle für die Eindeutigkeit der Lösung linearer Gleichungssysteme.
• kern A ist die Lösungsmenge der homogenen Gleichung
Ax = 0 : kern A = {x ∈ V | Ax = 0}

• Sei x0 eine Lösung der inhomogenen Gleichung Ax = b, dann ist


{x + x0 | x ∈ kern A}
die Lösungsmenge.
Denn:
– A(x0 + x) = Ax0 + |{z}
Ax = b + 0 = b
|{z}
=b =0
– Sei y eine beliebige Lösung von Ax = b. Wir betrachten x := y − x0 :
Ax = A(y − x0 ) = Ay − Ax0 = 0
|{z} |{z}
=b =b
⇒ x ∈ kern A.
⇒ Diese Lösungsmengen sind also affine Unterräume.

Betrachte folgendes A ∈ Rm×n




 
a11 a12 ... a1n  


 0 a22 ... a2n 
 

..
 
 .. 

 . . 


A= 
 0 akk . . . akn 
 m Zeilen

 0 0 ... 0... 0 


 .. .. .. 
. . . 
  


0 0 ... 0 


| {z }

n Spalten

es gelte aii 6= 0.

 
 X n 
kern A = x ∈ Rn | aij xj = 0 für alle i = 1, . . . , k
 
j=i
 
n
 X a ij

= x ∈ Rn | x i = − xj für all i = 1, . . . k

j=i+1
aii 

Es sind also die Komponenten xk+1 , . . . , xn frei wählbar. Anschließend kann xk berechnet werden:
n
X akj
xk = − xj
akk
j=k+1

Daraus kann dann auch xk−1 , . . . , x1 berechnet werden.

Für Bild A gilt:


Bild A = {b ∈ Rm | bk+1 = bk+2 = · · · = bm = 0}

Beobachtungen:

65
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus

• Für x ∈ kern A können xk+1 , . . . , xn frei gewählt werden ⇒ dim(kern A) = n − k.

• Für b ∈ Bild A können k Komponenten frei gewählt werden ⇒ dim(Bild A) = k

⇒ dim(kern A) + dim(Bild A) = n = dim(Urbildraum)

7.3 Lineare Gleichungssysteme und der Gauß-Algorithmus

Wie wir im vorherigen Abschnitt gesehen haben, haben Matrizen viel mit linearen Gleichungssystemen zu tun.
Diesen Zusammenhang werden wir in diesem Kapitel genauer untersuchen. Wir werden die (geometrischen) Vor-
stellungen zu Matrizen (bzw. den zugehörigen linearen Abbildungen) nutzen, um ein tieferes Verständnis für lineare
Gleichungssysteme zu entwickeln, insbesondere, was deren Lösbarkeit betrifft.
Aufgrund der Definition des Matrix-Vektor-Produkts, können wir ein lineares Gleichungssystem mit m Gleichungen
und n Unbekannten äquivalent auf zwei Arten schreiben:

Explizit, d.h. als m skalare Gleichungen mit In Matrix-Vektor-Form, d.h. als eine vektori-
jeweils n Variablen elle Gleichung in n Dimensionen, wobei der
Vektor auf der linken Seite als Produkt Ax
 dargestellt wird
a11 x1 + a12 x2 + · · · + a1n xn = b1 

a21 x1 + a22 x2 + · · · + a2n xn = b2 

.. ⇔ A · |{z}
x = |{z}
b
.  |{z}
∈Rn ∈Rm
∈Rm×n


am1 x1 + am2 x2 + · · · + amn xn = bm

Beispiel 7.7:
Wir betrachten das Gleichungssystem

x1 + x2 + 2x3 = 1
2x1 + x3 = 2
x1 + x3 = 3
 
x1
Dieses lässt sich in “Matrixschreibweise” darstellen als Ax = b. Dabei enthält der Vektor x = x2  die
x3
unbekannten Variablen x1 , x2 , x3 als Komponenten; die Matrix A und der Vektor b sind gegeben wie
folgt:
   
1 1 2 1
A = A(1) = 2 0 1 b = b(1) = 2
1 0 1 3

   
1 1 2 1 I
A(2) = 0 −2 −3 b(2) = 0 II − 2I
0 −1 −1 2 III − I

   
1 1 2 1 I
A(3) = 0 −2 3 b(3) = 0 II
1
0 0 2 2 III − 12 II

66
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus

Wir setzen nun rückwärts ein:


 
x1
A(3) x2  = b(3)
x3
1
x3 = 2 ⇒ x3 = 4
2
−2x2 − 3 · 4 = 0 ⇒ x2 = −6
x1 + (−6) + 2 · 4 = 1 ⇒ x1 = −1

Man kann die Zeilenoperationen auch darstellen also Matrixmultiplikation. Dazu definieren wir
   
1 0 0 1 0 0
L(1) = −2 1 0 und L(2) = 0 1 0
−1 0 1 0 − 21 1

und stellen fest, dass

A(2) = L(1) A(1) b(2) = L(1) b(1)


A(3) = L(2) A(2) b(3) = L(2) b(2)

7.3.1 Gauß-Algorithmus
Der Gauß-Algorithmus dient dem Lösen eines linearen Gleichungssystems. Konkret formt er ein Gleichungssystem
derart um, dass

• die Lösung invariant ist, d.h. die Lösung des umgeformten Gleichungssystems ist die selbe, wie die des
Ausgangsgleichungssystems, und

• das umgeformte Gleichungssystem einfach zu lösen ist, da die beteiligte Matrix Dreiecksgestalt hat.

1. Schritt: (Für den Fall a11 6= 0)


Multipliziere die erste Zeile mit − aa11
i1
, addiere dazu die i-te Zeile und lege das Ergebnis in der i-ten Zeile ab.

a11 x1 + a12 x2 + · · · + a1n xn = b1


     
a21 a21 a21 a21
− a11 + a21 x1 + − a12 + a22 x2 + · · · + − a1n + a2n xn = − b1 + b2
a11 a11 a11 a11
| {z }
=0
..
.
     
am1 am1 am1 am1
− a11 + am1 x1 + − a12 + am2 x2 + · · · + − a1m + amn xn = − b1 + bm
a11 a11 a11 a11
| {z }
=0

Diese linear Gleichungssystem kann geschrieben werden als

A(2) x = b(2) .

Die Matrix A(2) ist dabei entstanden, indem eine Zeile der Matrix A(1) mit einer Zahl multipliziert wurde und zu
einer anderen Zeile von A(1) addiert wurde. So etwas nennt man “Zeilenoperationen”. Zeilenoperationen kann man
auf einfache (oder zumindest strukturierte) Weise angeben, indem man die Matrix, in der die Zeilenoperationen
durchgeführt werden sollen, von links mit einer anderen Matrix multipliziert. Im konkreten Fall können wir A(2)

67
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus

schreiben als A(2) = L(1) A(1) und b(2) = L(1) b(1) mit L(1) ∈ Rm×m und A(1) := A, b(1) := b.
 (2) (2)

a11 ... a1n
(2) (2) 
 0 a22 . . . a2n 

(2)
A = .  .. .. .. 
 .. .

. . 
(2) (2)
0 am2 ... amn
1 0 ... 0
 
 
1 0 ... 0 (1)
 −l21 1 0 . . . 0
 − aa21 1 0  (1)
 
.. .. 

 11
L(1) = . .  −l31
..  =  0 1 . .
 .. 0 .. .  . .. .. ..

 ..

− aam1 0 ... 1 . . . 0
11 (1)
−lm1 0 ... 0 1

(1)
mit li1 := aa11
i1
. Das sollte man einmal nachrechnen und sich dabei klar machen, dass die Multiplikation von links
tatsächlich Zeilenoperationen durchführt.
Da wir diese Zeilenoperationen in gleicher Art und Weise auch für den Vektor b durchgeführt haben (dieser hat
sehr kurze Zeilen – enthalten jeweils nur ein Element) ändert sich an der Lösungsmenge des Gleichungssystems
nichts, d.h. Ax = b ⇔ A(2) x = b(2) . Dies ist die erste oben genannte Eigenschaft des Gauß-Algorithmus. 2.

(2)
Schritt: (Für den Fall a22 6= 0)
(2)
ai2
Multipliziere die zweite Zeile mit − (2) , addiere dazu die i-te Zeile und lege das Ergebnis in der i-ten Zeile ab.
a22
Es ergibt sich das neue Gleichungssystem A(3) x = b(3) mit

A(3) x = L(2) A(2) und b(3) = L(2) b(2)

wobei 
1 0

 1 
(2)
..
 
(2)
. (2) ai2
L(2)
 
= −l32  mit li2 = (2)
.. a22
 
 .. 
 . . 
(2)
−lm2 1
(k)
k. Schritt (Für den Fall akk 6= 0)

A(k+1) x = b(k+1) mit


A(k+1) x = L(k) A(k) und b(k+1) = L(k) b(k)
wobei
1 0
 
..
.
 
 
1
 
(k)
 
(k) aik
L(k) = .. mit lik =
 
(k) (k)
−lk+1,k .

  akk
..
 
 .. 
0 . . 
(k)
−lm,k 1

(k)
Was macht man, wenn akk = 0?

• Zeilen vertauschen (entspricht Umnummerieren der Gleichungen)

• Spalten vertauschen (entspricht Umnummerieren der Variablen)

68
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus

Wenn beides nicht geht, dann sind bereits alle Zeilen ab der k-ten Zeile nur mit Nullen gefüllt.

   
a11 b1
 0 (2)  b2 (2) 
a22 
 .. 
   
 . .. 
 . .  . 
 .

  
(k)  (k−1) 
A = (k)
b(k) = bk−1 
 
 ak−1,k−1 ... 
  (k) 
 0 ... 0 ... 0  bk 
 . 
 .. .. 
 
 . 
 . .  . 
(k)
0 ... 0 ... 0 bm

Betrachte Lösbarkeit von A(k) x = b(k) (denn A(k) x = b(k) ⇔ Ax = b)


(k) (k) (k)
1. Fall bk = bk+1 = · · · = bm = 0 ⇔ Das Gleichungssystem ist lösbar und xk , . . . , xn sind frei wählbar.

dim(kern A(k) ) = n − (k − 1)

(k)
2. Fall bi 6= 0 für ein i ∈ {k, . . . , m} ⇔ Das Gleichungssystem ist nicht lösbar.

Wenn das Verfahren bis zum Ende durchgeführt werden kann, erhalten wir eine Gleichung der Form
 
r11 r12 . . . r1n  
b1
 r22   b2 
.. 
   
  b3 
Rx = b mit R =  r33 .  b =  

.
  .. 

 0 . .

 .
rnn bn

Das kann man von unten nach oben durch Einsetzen lösen.

7.3.2 Folgerungen aus dem Gauß-Verfahren


• Dimensionsformel: Sei f : V → W linear mit dim V endlich, dann gilt:

dim V = dim(kern f ) + dim(Bild f )

• Rang: Der Spaltenrang, definiert als die Dimension des von den Matrixspalten aufgespannten Raums, ist
gleich dem Zeilenrang, definiert als die Dimension des von den Matrixzeilen aufgespannten Raums.

Zeilenrang = Spaltenrang

Man nennt den Zeilen- bzw. Spaltenrang kurz Rang A.


• Sei A ∈ Rn×n und Rang A = n (“maximaler bzw. voller Rang”). Dies ist äquivalent zu jeder der folgenden
Aussagen:
1. Die Zeilen- und Spaltenvektoren bilden eine Basis des Rn .
2. kern A = {0} (also dim(kern A) = 0).
3. Das Gleichungssystem Ax = b hat für jedes b ∈ Rn genau eine Lösung.

Beispiel 7.8:
Wir betrachten lineare Gleichungssysteme in den drei Fällen
• mehr Unbekannte als Gleichungen;

• mehr Gleichungen als Unbekannte;

69
7.4. Inverse Matrizen

• gleich viele Unbekannte und Gleichungen:

1. Mehr Unbekannte als Gleichungen

x1 + 2x2 + 3x3 = 4
2x1 + 4x2 + 6x3 = 10

1 2 3 4
2 4 6 10 !
0x1 + 0x2 + 0x3 = 2 keine Lösung!
1 2 3 4 I
0 0 0 2 II − 2I

2. Mehr Gleichungen als Unbekannte:

2 4 2
3 6 3
5 10 5
2 4 2 I 2x1 + 4x2 = 2
0 0 0 II − 32 I x1 und x2 beliebig
0 0 0 II − 52 I x1 und x2 beliebig

  
x1
⇒ Lösungsmenge = ∈ R2 | 2x1 + 4x2 = 2 =: L
x2
⇔ x1 + 2x2 = 1

 
1 0
Einsetzen: x1 = 0 : x2 = also 1 ∈ L
2
 2
1
x2 = 0 : x1 = 1 also ∈L
0
    
1 −1
⇒ L= x ∈ R2 | x = +α 1
0 2

3. Drei Gleichungen für drei Unbekannte:

1 1 2 2
2 2 −1 1
3 4 2 2
1 1 2 2 I
0 0 −5 −3 II − 2I
0 1 −4 −4 III − 3I
1 1 2 2 I x1 − 58 + 2 · 53 = 2 ⇒ x1 = 2 + 58 − 65 = 12
5
3
0 1 −4 −4 III x2 − 4 · 5 = −4 ⇒ x2 = 125 − 4 = −5
8

0 0 −5 −3 II −5x3 = −3 ⇒ x3 = 53
 12 
 5 
⇒ Lösungsmenge = − 85 
 3 
5

7.4 Inverse Matrizen


Für eine quadratische Matrix A ∈ Rn×n mit vollem Rang A = n gilt: Ax = b hat für jedes b ∈ Rn genau eine
Lösung x ∈ Rn . Somit ist die Abbildung x 7→ Ax umkehrbar. Diese Umkehrabbildung ist linear und daher als

70
7.4. Inverse Matrizen

Matrix darstellbar. Wir interessieren uns nun für diese Darstellungsmatrix. Dazu müssen wir bestimmen, “was die
Umkehrabbildung aus den Basisvektoren {e1 , . . . , en } macht”:

1. Löse die n Gleichungssysteme


 
|
A yi  = ei
|
Definiere damit die Matrix  
| | |
Y := y1 y2 ... yn 
| | |
als “Rechts-Inverse” von A.
Dann gilt
 
| | |
AY = e1 e2 ... en  = E
| | |

2. Löse die n Gleichungssysteme


(−xi −)A = (−ei −)

Definiere damit die Matrix  


− x1 −
− x2 −
X=
 
.. 
 . 
− xn −
als “Links-Inverse” von A.
Dann gilt
 
− e1 −
 − e2 −
XA =  =E
 
..
 . 
− en −

3. Es gilt X = Y , denn:
X = XE = X(AY ) = (XA)Y = EY = Y

Definition 7.3 (Invertierbarkeit, inverse Matrix):


Eine Matrix A ∈ Rn×n heißt invertierbar, falls es eine Matrix B ∈ Rn×n gibt mit AB = BA = E. Wir
schreiben
A−1 := B
Falls Rang A = n, so ist A invertierbar und A−1 kann berechnet werden wie oben. Die Matrix A−1 nennt
man inverse Matrix von A.

Beispiel 7.9:
Wir betrachten zwei Beispiele, bei denen wir aus der Anschauung bereits die Umkehrabbildungen kennen,
nämlich Drehungen und Spiegelungen.
1. Drehung um den Winkel ϕ im mathematisch positiven Sinn, d.h. gegen den Uhrzeigersinn. Die
Umkehrung davon ist anschaulich eine Drehung im entgegengesetzten Sinn oder anders gesagt
(machen wir, da wir wissen, wie die Drehmatrix einer Drehung entgegen des Uhrzeigersinns aussieht)
eine Drehung um den Winkel −ϕ gegen den Uhrzeigersinn. Wir rechnen nun nach, dass das wirklich

71
7.4. Inverse Matrizen

stimmt:
   
cos ϕ − sin ϕ cos(−ϕ) − sin(−ϕ)
A= ⇒ A−1 =
sin ϕ cos ϕ sin(−ϕ) cos(−ϕ)
 
cos ϕ sin ϕ
=
− sin ϕ cos ϕ

cos2 ϕ + sin2 ϕ
   
−1 0 1 0
AA = = =E
0 sin2 ϕ + cos2 ϕ 0 1

2. Spiegelung an einer Geraden mit der Normalen n: Die Umkehrung einer Spiegelung ist anschaulich
eben diese Spiegelung.
A = E − 2nnT A−1 = A

3. Irgendeine Matrix:
 −1  
1 1 1 −1
=
0 1 0 1

7.4.1 Struktur des Raums der Matrizen:


Auch für Matrizen können eine Addition und eine skalare Multiplikation definieren. Dazu seien A und B zwei
“gleich große” Matrizen, d.h. jeweils mit m Zeilen und n Spalten:

A = (aij )i=1,...,m,j=1,...,n B = (bij )i=1,...,m,j=1,...,n

Dann definieren wir

Skalare Multiplikation αA := (αaij )i=1,...,m,j=1,...,n für α ∈ R


Addition A + B := (aij + bij )i=1,...,m,j=1,...,n

Der Raum der m × n-Matrizen ist mit dieser Addition und skalaren Multiplikation ein Vektorraum mit Dimension
m · n.

Beispiel 7.10:
Basis des R2×2 :        
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

Damit haben wir für Matrizen die wichtigen Rechenoperationen + und · definiert. Wir betrachten nun die Re-
chengesetze, die wir schon bei den reellen Zahlen hatten: Für die Matrizenmultiplikation gilt für A, B, C ∈ Rn×n :

(AB)C = A(BC) Assoziativgesetz


(A + B)C = AC + BC Distributivgesetz

72
7.5. Determinanten

Aber: Im Allgemeinen gilt


AB 6= BA NICHT kommutativ
Außerdem ist die Matrizenmultiplikation nicht nullteilerfrei:

AB = 0 6⇒ A = 0 oder B = 0

Mit der inversen Matrix gilt:

Ax = b
−1 −1
⇔ | {z A} x = A b
A
E
⇔ x = A−1 b

7.5 Determinanten
Wir suchen eine Abbildung det: Rn×n → R mit folgenden Eigenschaften:

(D1) det ist in jeder Zeile linear, d.h.


     
− a1 − − a1 − − a1 −
 ..   ..   .. 

 . 


 . 


 . 

− a j−1 − − aj−1 −
 − aj−1 −
   
− αaj + βãj
det  − = α · det 
− aj − + β · det 
− ãj −
 

− aj+1 − − aj+1 − − aj+1 −
     
 ..   ..   .. 
 .   .   . 
− an − − an − − an −

(D2) Ist Rang A < n, so ist det A = 0.


Insbesondere gilt:
det A 6= 0 ⇒ Rang A = n also A invertierbar.

(D3)
det E = 1

Beispiel 7.11:
2 × 2-Matrizen:  
a b
det := ad − cb
c d
Diese Abbildung erfüllt (D1) - (D3):
(D1) nachrechnen

(D2)  
a b
Rang <2 ⇔ Zeilen sind linear abhängig
c d
d.h. c = µa und d = µb, also
 
a b
det = µab − µab = 0
µa µb

(D3)  
1 0
det =1·1−0·0=1
0 1

73
7.5. Determinanten

Satz 7.4 (Determinante):


Es gibt genau eine Abbildung det : Rn×n → R, die alle drei Eigenschaften (D1) - (D3) erfüllt. Diese
nennen wir Determinante und schreiben det A für A ∈ Rn×n .

Nun wissen wir, dass es eine deratige Abbildung für beliebige Dimensionen gibt, allerdings ist völlig unklar, wie
diese aussieht. Es stellt sich die Frage: Wie berechnet man die Determinante einer Matrix, die nicht die Form
2×2 hat? Eine Möglichkeit hierfür bietet der Laplace’sche Entwicklungssatz, der es ermöglicht, eine Determinante
rekursiv entlang einer Spalte zu bestimmen.

Satz 7.5 (Laplace’scher Entwicklungssatz):


Es sei A ∈ Rn×n , n > 1 und j ≤ n, j ∈ N ein beliebiger Spaltenindex. Dann gilt:
n
X
det A = (−1)i+j aij det Aij
i=1

Dabei ist Aij die (n − 1) × (n − 1)−Matrix, die aus A durch Streichen der i-ten Zeile und der j-ten Spalte
entsteht. Für n = 1 gilt:
det a = a

Die Formel gilt für jedes j mit 1 ≤ j ≤ n, man kann also die “Entwicklungsspalte” frei wählen (typischerweise
wählt man diejenige, die die meisten Nullen enthält). Allerdings erfordert die Berechnung der Determinante von A
die Berechnung der Determinante einer kleineren Matrix, welche ihrerseits die Berechnung der Determinante einer
noch kleineren Matrix erfordert, usw. Eine derartige Formel, die aus sich selbst referenziert, nennt man rekursiv.

Beispiel 7.12:
 
1 1 2
A = 2 3 1
1 1 1

     
(j=1) 2 3 1 3 1 2 4 1 2
det A = (−1) · 1 · det +(−1) · 2 · det +(−1) · 1 · det = −1
1 1 1 1 3 1
| {z } | {z } | {z }
2 −1 −5
    
(j=2) 2 1 1 2 1 2
det A = (−1) · det +3 · det +(−1) · det = −1
1 1 1 1 2 1
| {z } | {z } | {z }
1 −1 −3

Spezialfall n = 3: Die Sarrus-Regel


Der Laplace’sche Entwicklungssatz erlaubt es natürlich, eine allgemeine n × n Matrix A = (aij )i,j=1,...,n zu
definieren und deren Determinante zu berechnen. Das Ergebnis ist eine Formel, die ausschließlich die Elemente der
Matrix aij verwendet. Allerdings hat diese Formel keine “schöne” Struktur (sie hat die oben im Satz angegebene
rekursive Struktur). Für den Spezialfall n = 3 gibt es aber (neben der rekursiven Form) eine weitere Form, die sich
mit folgender Merkhilfe gut einsetzen lässt: Die Matrixeinträge werden entlang der grünen Diagonalen multipliziert
und addiert, die Produkte der roten Diagonalen werden davon abgezogen.

74
7.5. Determinanten

Wichtig: Diese Formel gilt nur für n = 3. Sie entspricht genau der Formel des Laplace’schen Entwicklungssatzes,
es ist lediglich eine Merkhilfe.

 
1 1 2
det 2 3 1 = 1 · 3 · 1 + 1 · 1 · 1 + 2 · 2 · 1 − 1 · 3 · 2 − 1 · 1 · 1 − 1 · 2 · 1
1 1 1
= −1

7.5.1 Rechenregeln für Determinanten

Definition 7.4 (Transponierte Matrizen):


Zu einer Matrix A ∈ Rm×n mit A = (aij )i=1,...,n,j=1,...,n ist die transponierte Matrix AT ∈ Rn×m
gegeben durch
AT = (aji )j=1...,n,i=1,...,m
d.h. Zeilen und Spalten werden vertauscht.

Rechenregeln
Es gilt für A, B ∈ Rn×n .
1. det(AT ) = det(A)
⇒ Die Determinante kann also auch nach einer beliebigen Zeile entwickelt werden.

2. det(AB) = det(A)det(B)
3. det(A−1 ) = det(A)
1

Denn det(A−1 )det(A) = det(A−1 A) = det(E) = 1.


4. Falls man à aus A durch Vertauschen zweier Zeilen erhält, so gilt:

det(Ã) = −det(A)

(analog für Spalten wegen (1.))


5. Falls man à aus A durch Multiplikation einer Zeile mit λ ∈ R erhält, so gilt:

det(Ã) = λdet(A)

(analog für Spalten wegen (1.))


6. Falls man à aus A erhält, indem man zu einer Zeile das Vielfache einer anderen addiert, so gilt

det(Ã) = det(A)

75
7.5. Determinanten

76
KAPITEL 8

Komplexe Zahlen

Bevor wir mit der Linearen Algebra weiter fortschreiten können, müssen wir erst dafür sorgen, dass wir für jedes
Polynom n-ten Grades auch n Nullstellen (in ihrer jeweiligen Vielfachheit gezählt) angeben können. Dies wird von
zentraler Bedeutung für das Konzept der Eigenwerte und Eigenvektoren sein. Die komplexen Zahlen, die wir
zur Lösung dieses Problems einführen werden, spielen auch eine große Rolle in Anwendungen, wie z.B. der Elektro-
technik, in der sie viele Rechnungen wesentlich vereinfachen und damit transpartente Konzepte ermöglichen. Auch
bei der Lösung gewöhnlicher Differentialgleichungen, wie wir sie nächstes Semester kennenlernen werden, sind
komplexe Zahlen von zentraler Bedeutung.
Wie bereits in Kapitel 2.1 stoßen wir auch hier wieder auf das Problem, dass eine Gleichung keine Lösung in der
verwendeten Zahlenmenge hat. Konkret hat
x2 = −1
keine Lösung in R.
⇒ Ausweg: Definiere i (imaginäre Einheit) so dass i2 = −1
Als neue Zahlenmenge betrachten wir
a + ib mit a, b ∈ R
Wir gehen mit i um als wäre es ein reeller Parameter und benutzen nur die Eigenschaft i2 = −1.
Summe:
(a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 )
Produkt:

(a1 + ib1 ) · (a2 + ib2 ) = a1 a2 + ib1 a2 + a1 ib2 + ib1 · ib2


| {z }
=i2 b 1 b2 =−b1 b2

= (a1 a2 − b1 b2 ) + i(a1 b2 + a2 b1 )

Beispiel 8.1:
Produkte komplexer Zahlen lassen sich einfach bilden:

(3 + i)(2 − i) = 6 + 1 + 2i − 3i = 7 − i

Um den Quotienten zweier komplexer Zahlen zu berechnen, muss man typischerweise folgenden Trick
(”Erweiteren mit dem konjugiert Komplexen“) anwenden:

3 + i Trick (3 + i)(2 − i) 7−i 7 1


= = = − i
2+i (2 + i)(2 − i) 4+1 5 5

77
Definition 8.1 (Komplexe Zahlen):
Unter der Menge der komplexen Zahlen C versteht man den R2 mit den folgenden Rechenregeln + und ·.

(a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , b1 + b2 )


(a1 , b1 ) · (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + a2 b1 )

Satz 8.1:
(C, +, ·) bildet einen Körper.

Beweis:

Addition:

(A1) Assoziativität nachrechnen

(A2) Kommutativität nachrechnen

(A3) Nullelement (0, 0)

(A4) Negatives Element zu (a, b) ist (−a, −b)

Multiplikation:

(M1) Assotiativität nachrechnen

(M2) Kommutativität nachrechnen

(M3) Einselement (a, b) · (1, 0) = (a, b)

(M4) Inverses Element: Es soll gelten

(a, b) · (x, y) = (1, 0)


!
⇔ ax − by = 1
!
ay + bx = 0

Gleichungssystem eindeutig lösbar falls (a, b) 6= (0, 0).

Falls b 6= 0:
a
x=− y
b
1 1 a a2 1
⇒ y = (ax − 1) = (a(− y) − 1) = − 2 y −
b b b b b
b a
⇒y=− 2 und x = 2
a + b2 a + b2

Falls a 6= 0: analog gleiches Ergebnis.


 
a b
⇒ (a, b)−1 = ,− 2 , falls (a, b) 6= (0, 0)
a2 + b2 a + b2

(D1) Distributivgesetz gilt, nachrechnen.

Definieren wir nun i = (0, 1), dann sehen wir, dass

i2 = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = (−1, 0)

78
Die reellen Zahlen können wir nun durch Zuordnung

R 3 a 7→ (a, 0) ∈ C

in die komplexen Zahlen einbetten. Dann können wir für z = (a, b) ∈ C auch schreiben

z = |{z}
a + |{z}
ib
(a,0) (0,b)

um z in der Basis {(1, 0), (0, 1)} darzustellen. Nun können wir wieder so rechnen wie oben und wir schreiben
z = a + ib. Für z1 · z2 schreiben wir z1 z2 , für z −1 = z1 .

Definition 8.2 (Konjugiert komplexe Zahlen):


Zu z = x + iy ∈ C definieren wir die konjugiert komplexe Zahl z̄ := x − iy. Wir definieren:

• |z| := x2 + y 2 Betrag von z


p

• Realteil von z: Re(z) := 12 (z + z̄) = x


• Imaginärteil von z: Im(z) := 1
2i (z − z̄) = y

Eigenschaften: Für alle z1 , z2 ∈ C gilt:

• |z̄| = |z|

• z1 + z2 = z¯1 + z¯2

• z1 z2 = z¯1 z¯2

• |z1 z2 | = |z1 ||z2 |

• |Re(z)| ≤ |z|

• |Im(z)| ≤ |z|

79
Allgemeine Beobachtung:
   
Re(z) 2 Re(z)
|z| =
, Norm im R , wobei ∈ R2
Im(z) Im(z)

⇒ Für den komplexen Betrag gelten die gleichen Eigenschaften wir für die Norm in R2 :

|z| ∈ R; |z| ≥ 0 und |z| = 0 genau dann wenn Re(z) = Im(z) = 0 ⇔ z=0

Es gilt die Dreiecksungleichung:


|z1 + z2 | ≤ |z1 | + |z2 |
Zur Konvergenz komplexer Zahlen gilt: “Eine Folge komplexer Zahlen konvergiert genau dann, wenn die (reelle)
Folge der Realteile und die (reelle) Folge der Imaginärteile konvergiert”. Das lässt sich folgendermaßen begründen:

zn → z falls |zn − z| → 0
⇔ ||zn − z||R2 → 0
⇔ Re(zn − z) → 0 und Im(zn − z) → 0
⇔ Re(zn ) → Re(z) und Im(zn ) → Im(z)

Beispiel 8.2:
Wir betrachten nun ein paar Rechenbeispiele zu Potenzen und Produkten komplexer Zahlen. Hierbei werden
wir einen wichtigen Zusammenhang feststellen: “Bei der Multiplikation komplexer Zahlen multipliziert sich
deren Betrag und die Winkel der Faktoren werden addiert”.
1. Potenzen von i

i=i
2
i = −1
i3 = i2 · i = −1 · i = −i
i4 = i · i3 = i · (−i) = −i2 = −(−1) = 1
i5 = i · i4 = i · 1 = i
i6 = i · i5 = −1
..
.=
√ √
2 2
2. Potenzen von z = 2 + 2 i

80
u √ !2 √ !2
v
u 2 2
|z| = t + =1
2 2
√ √ ! √ √ !
2 2 2 2
z2 = + i + i
2 2 2 2
√ √
1 1 2 2
= − +2 i=i
2 2 2 2
z3 = z2 · z
√ √ !
2 2
=i + i
2 2
√ √
2 2
=− + i
2 2
z 4 = z 2 · z 2 = i · i = −1

3. Multiplikation zweier komplexer Zahlen

(2 + i)(1 + 2i) = 2 − 2 + i + 4i = 5i


|2 + i| = 5

|1 + 2i| = 5
√ √
|5i| = 5 = 5· 5

81
8.1. Die komplexe Exponentialfunktion

8.1 Die komplexe Exponentialfunktion

Um den in vorherigem Beipsiel vermuteten Zusammenhang zwischen der Multiplikation komplexer Zahlen und
deren Betrag bzw. Winkel klar formulieren und beweisen zu können, benötigen wir die komlexe Exponential-
funktion. Dazu erinnern wir uns an die reelle Exponentialfunktion sowie an die Sinus- und Cosinusfunktion: Die
reellen Funktionen ex , sin(x) und cos(x) sind definiert über Potenzreihen. Das können wir direkt auf die komplexen
Zahlen ausdehnen:

Definition 8.3 (Komplexe Version von Exponential-, Sinus- und Cosinusfunktion):


Für z ∈ C definieren wir:

X zn z2 z3
exp(z) := =1+z+ + + ... für z ∈ C
n=0
n! 2! 3!

X z 2n z2 z4
cos(z) := (−1)n =1− + ± ...
n=0
(2n)! 2! 4!

X z 2n+1 z3 z5
sin(z) := (−1)n =z− + ± ...
n=0
(2n + 1)! 3! 5!

Satz 8.2 (Euler-Formel):


Es gilt
exp(iϕ) = cos(ϕ) + i sin(ϕ) für ϕ ∈ R

82
8.1. Die komplexe Exponentialfunktion

Beweis: Hier ein nicht ganz exakter, dafür aber verständlicher Beweis:

i2 ϕ2 i3 ϕ3 i4 ϕ4 i5 ϕ5 i6 ϕ6
exp(iϕ) = 1 + iϕ + + + + + + ...
2! 3! 4! 5! 6!
ϕ2 ϕ3 ϕ4 ϕ5 ϕ6
= 1 + iϕ − −i + +i − + ...
2! 3! 4! 5! 6!
ϕ2 ϕ4 ϕ6
=1− + − ± ... cos(ϕ)
2! 4! 6!
ϕ3 ϕ5
+ i(ϕ − + ± ...) i sin(ϕ)
3! 5!

Auch für die komplexe Exponentialfunktion gilt

• exp(z1 + z2 ) = exp(z1 ) · exp(z2 ) ∀ z1 , z2 ∈ C

• exp(z) 6= 0 ∀ z ∈ C, denn 1 = exp(0) = exp(z − z) = exp(z) exp(−z)

• exp(z) = exp(z), denn

exp(z) =
|{z} exp(x − iy) = exp(x) · exp(−iy)
z = x + iy
z = x − iy
=
|{z} exp(x) (cos(−y) + i sin(−y))
Euler-Formel

= exp(x) (cos(y) − i sin(y)) = exp(z)


| {z } | {z }
exp(x) =exp(iy)

8.1.1 Geometrische Interpretation

Wir können eine komplexe Zahl bequem dadurch angeben, dass wir ihre Richtung auf dem Einheitskreis festlegen
und diese dann mit dem Betrag der Zahl skalieren: z = |z| (cos(ϕ) + i sin(ϕ)), wobei

r = |z|
Re(z)
cos(ϕ) =
|z|
Im(z)
sin(ϕ) =
|z|
⇒ z = reiϕ

83
8.1. Die komplexe Exponentialfunktion

Für die Multiplikation von z1 = r1 eiϕ1 und z2 = r2 eiϕ2 , ergibt sich dann direkt

z1 z2 = r1 r2 eiϕ1 eiϕ2 = r1 r2 ei(ϕ1 +ϕ2 ) .

Somit haben wir begründet, was wir im Beispiel bereits vermutet hatten: Die Multiplikation komplexer Zahlen
entspricht einer

• Multiplikation der Beträge und

• Addtion der Winkel.

Die Multiplikation mit i entspricht somit einer Drehung um 90◦ bzw. π


2 gegen den Uhrzeigersinn.

π π π
i = ei 2 ⇒ iz = ei 2 · reiϕ = rei(ϕ+ 2 )

84
8.2. Der Fundamentalsatz der Algebra

8.2 Der Fundamentalsatz der Algebra

Nun wollen wir uns direkt dem Problem zuwenden, dass wir in der Einleitung als zu lösen genannt hatten: Die
Lösung von Gleichungen, die keine reelle Lösung haben. Wir betrachten zunächst quadratische Gleichungen, für
welche die Berechnung von Wurzeln nötig ist. Um die Wurzel einer komplexen Zahl zu bestimmen, schreiben wir
diese in Polarform und verwenden die Tatsache, dass bei der Multiplikation zweier komplexer Zahlen die Beträge
multipliziert und die Winkel addiert werden. Somit gilt

√ √ √ ϕ
z= reiϕ = rei 2 .

Angewendet auf die einfachste Gleichung z 2 = −1 ergibt sich einerseits (per Definition von i)

z 2 = −1 ⇔ z=i oder z = −i

85
8.2. Der Fundamentalsatz der Algebra

und andererseits aber auch


π
−1 = eiπ ⇔ z = ei 2 = i

−1 = ei3π ⇔ z = ei 2 = −i
i5π i 5π i 2 4π π
(−1 = e ⇔ z=e 2 = e|{z} ei 2 = i).
=ei2π =1
Im ersten Fall mussten wir aktiv daran denken, dass auch −i eine Lösung ist, im zweiten Fall wurde diese zweite
Lösung dadurch erreicht, dass wir die Zahl −1 durch einen anderen Winkel dargestellt haben. Analog können
wir auch zur Lösung allgemeiner quadratischer Gleichungen vorgehen, denn auch im “komplexen Fall” gilt die
“Mitternachtsformel”.

Beispiel 8.3:

1.
z 2 + 2z + 10 = 0

1 √  1√
z1,2 = −2 ± 4 − 40 = −1 ± −36
2 2
1 √
= 1 − ± · 6 · −1 = −1 ± 3i
2

2.
z 2 − (3i + 2)z − 1 + 3i = 0

1 p 
z1,2 = 3i + 2 ± (3i + 1)2 − 4 · (−1 + 3i)
2 
1 s
= 3i + 2 ± |−9 + 12i +{z4 + 4 − 12i}

2
−1

3 1 1 + 2i
= i+1± i=
2 2 1+i

Satz 8.3 (Fundamentalsatz der Algebra):


Jedes Polynom p(z) = a0 + a1 z + a2 z 2 + · · · + an z n mit ai ∈ C, das nicht konstant ist, hat mindestens
eine Nullstelle auf C.

Folgerung: Jedes Polynom p(z) der obigen Form mit an 6= 0 hat genau n Nullstellen auf C.
Beweisidee: Linearfaktoren abdividieren: p(z) = an (z − z1 )(z − z2 ) . . . (z − zn ) mit gegebenenfalls mehrfachen
Nullstellen z1 , . . . , zn ∈ C.

Beispiel 8.4:

1.
!
p(z) = z 4 + 1 = 0 ⇔ z 4 = −1

π
−1 = eiπ z1 = ei 4

−1 = ei3π z2 = ei 4


−1 = ei5π z3 = ei 4


−1 = ei7π z4 = ei 4

86
8.2. Der Fundamentalsatz der Algebra

2.
!
p(z) = z 3 + 1 = 0 ⇔ z 3 = −1

−1 = ei(2n+1)π , n = 0, 1, 2, . . .
i(2n+1) π
zn = e 3

Interessant nur für n = 0, 1, 2.

87
8.2. Der Fundamentalsatz der Algebra

88
KAPITEL 9

Eigenwerte und Eigenvektoren

9.1 Eigenwerte und Eigenvektoren


Es sei A eine n × n Matrix über einem Körper K (also K = R oder C). Eine in vielen Anwendungen wesentliche
Frage ist, ob es Richtungen gibt, in die die zu A gehörige lineare Abbildung lediglich streckt/staucht. D.h. gesucht
sind Richtungen x für die beispielsweise gilt Ax = 2x. Der Streckungsfaktor “2” ist hierbei jedoch willkürlich
gewählt. Möglicherweise gibt es keine Richtung, die genau um den Faktor 2 gestreckt wird, Richtungen, in
denen um den Faktor 1.5 gestreckt wird existieren aber. Somit wird klar, dass nicht nur die Richtung, sondern
auch der Streckungsfaktor unbekannt sind. Gesucht werden also stets Paare von Richtung x und zugehörigem
Streckungsfaktor λ. Diese Richtungen nennt man “Eigenvektoren”, die zugehörigen Streckungsfaktoren nennt
man “Eigenwerte”:

Definition 9.1 (Eigenwerte und Eigenvektoren):


Eine Zahl λ ∈ K heißt Eigenwert der n × n Matrix A, wenn es einen Vektor x 6= 0 gibt mit

Ax = λx

Der Vektor x heißt dann Eigenvektor zum Eigenwert λ.

Beispiel 9.1:

1. Wir beginnen mit einer Diagonalmatrix. Bei dieser ist anschaulich klar, dass jede Richtung er-
halten bleibtund der jeweils zugehörige Streckungsfaktor auf der Diagonalen abzulesen ist: A =

2 0 0
0 −1 0 hat die Eigenwerte 2, −1, 3 mit den zugehörigen Eigenvektoren e1 , e2 , e3 , denn
0 0 3

Ae1 = 2e1 X
Ae2 = −1 · e2 X
Ae3 = 3e3 X

2. Als nächstes betrachten wir eine Spiegelung Q ∈ Rn×n mit Q = E − 2wwT mit w ∈ Rn , ||w|| = 1,

89
9.1. Eigenwerte und Eigenvektoren

also  
1 − 2w1 w1 −2w1 w2 ... −2w1 wn
 −2w1 w2 1 − 2w2 w2 −2w2 wn 
Q=
 
.. .. .. 
 . . . 
−2w1 wn −2w2 wn ... 1 − 2wn wn
Wir wissen, dass Q die Spiegelung an der Ebene mit dem Normalenvektor w beschreibt.
Q hat den

• Eigenwert −1 mit dem zugehörigen Eigenvektor w, denn

Qw = (E − 2wwT )w = w − 2w |w{z
T
w} = w − 2w = −w
=||w||2 =1

• Eigenwert 1 mit zugehörigen Eigenvektoren v ⊥ w, denn

Qv = (E − 2wwT )v = v − 2w w T
|{z}v =v
w·v=0

3. Nun betrachten wir eine allgemeine Matrix, also eine, die wir nicht einfach in Worten als Drehung,
Spiegelung etc. beschreiben können:  
−2 6
A=
6 7
Es soll gelten Ax = λx mit x 6= 0. Somit darf diese Gleichung nicht eindeutig lösbar sein, denn
x = 0 ist ja stets eine Lösung der Gleichung, an der wir aber nicht interessiert sind. Wir formen die
Gleichung um:

⇔ Ax − λEx = 0
⇔ (A − λE)x = 0

Damit diese Gleichung nicht eindeutig lösbar ist, muss gelten rang(A − λE) < 2. Das bedeutet aber
auch det(A − λE) = 0. Da λ unbekannt ist (und als Teil der Problemstellung bestimmt werden
muss), kann bzw. muss dieses gerade so gewählt werden, dass det(A − λE) = 0. Durch diese
Gleichung können die Eigenwerte bestimmt werden:
Bestimmung der Eigenwerte
 
−2 − λ 6
det(A − λE) = det
6 7−λ
= (−2 − λ)(7 − λ) − 36 = λ2 + 7λ + 2λ − 14 − 36
!
= λ2 − 5λ − 50 = 0

1 √  5 15
⇔ λ1,2 = 5 ± 25 + 200 = ±
2  2 2
λ1 = 10
das sind die Eigenwerte von A
λ2 = −5

Bestimmung der Eigenvektoren zu λ1 = 10: Da nun ein Eigenwert festgelegt ist, können wir die

90
9.1. Eigenwerte und Eigenvektoren

lineare Gleichung für den zugehörigen Eigenvektor lösen:

(A − λ1 E)x = 0
 
−2 − 10 6
⇔ x=0
6 7 − 10
 
−12 6
⇔ x=0
6 −3

−12x1 + 6x2 = 0
⇔ ⇒ x2 = 2x1
6x1 − 3x2 = 0
 
1
⇔ x=
2
 
1
⇔ x ∈ span
2

Analog bestimmen wir den Eigenvektor für den Eigenwert λ2 = −5:

(A − λ2 E)x = 0
 
3 6
⇔ x=0
6 12
 
2
⇔ x=
−1
 
2
⇔ x ∈ span
−1

Beobachtung:    
1 2

2 −1
 
cos(ϕ) − sin(ϕ)
4. Es sei A = die Drehung um ϕ nach links. Anschaulich ist klar, dass bei einer
sin(ϕ) cos(ϕ)
Drehung keine Richtung erhalten bleibt, außer für die Spezialfälle ϕ = 0 bzw. ϕ = π. Wie äußert
sich das in den Gleichungen?
!
det(A − λE) = 0
 
cos(ϕ) − λ − sin(ϕ)
det = (cos(ϕ) − λ)2 + sin(ϕ)2
sin(ϕ) cos(ϕ) − λ
= λ2 − 2λ cos(ϕ) + cos(ϕ)2 + sin(ϕ)2
| {z }
=1
= λ2 − 2λ cos(ϕ) + 1
!
=0
1 p 
⇔ λ1,2 = 2 cos(ϕ) ± 4 cos(ϕ)2 − 4
2
1p
= cos(ϕ) ± 4(cos(ϕ)2 − 1)
2
s
= cos(ϕ) ± cos(ϕ)2 − 1
| {z }
=− sin(ϕ)2

= cos(ϕ) ± i sin(ϕ)

a) Wir erhalten nur dann reelle Eigenwerte wenn sin(ϕ) = 0 ⇔ ϕ = kπ, k ∈ N. In diesem
Fall gilt:
λ1,2 = cos(kπ) = (−1)k k ∈ N

91
9.1. Eigenwerte und Eigenvektoren

Als Eigenvektoren erhalten wir:

(A − λE)x = 0
 
cos(kπ) − cos(kπ) − sin(kπ)
⇔ x=0
sin(kπ) cos(kπ) − cos(kπ)
 
0 0
⇔ x=0
0 0
⇔ x ∈ span {e1 , e2 }

b) Falls sin(ϕ) 6= 0 gilt λ1,2 = cos(ϕ) ± i sin(ϕ) ∈ C. Wir bestimmen die Eigenvektoren zu
λ1 = cos(ϕ) + i sin(ϕ):

(A − λ1 E)x = 0
 
cos(ϕ) − (cos(ϕ) + i sin(ϕ)) − sin(ϕ)
⇔ x=0
sin(ϕ) cos(ϕ) − (cos(ϕ) + i sin(ϕ))
 
−i sin(ϕ) − sin(ϕ)
⇔ x=0
sin(ϕ) −i sin(ϕ)
 
−i −1
⇔ sin(ϕ) x=0
1 −i
 
1
⇒ x=
−i

denn          
−i −1 −i i 0
−i = + 2 =
1 −i 1 i 0
Das heißt  
1
x ∈ span (nachrechnen)
−i

Satz 9.1:
Die Menge aller Eigenvektoren zu einem Eigenwert λ ist der Kern von A − λE und damit ein Untervek-
torraum. Wir nennen diesen Untervektorraum Eigenraum.

Definition 9.2 (Charakteristisches Polynom):


P (λ) = det(A − λE) heißt charakteristisches Polynom von A. Die Nullstellen von P sind die Eigenwerte
von A und P ist ein Polynom n-ten Grades falls A ∈ Kn×n .

Nach dem Fundamentalsatz der Algebra hat P genau n Nullstellen (inklusive mehrfacher Nullstellen).
Achtung: Die Vielfachheit der Nullstellen sagt im Allgemeinen nichts über die Dimension des Eigenraumes aus! Es
gilt jedoch ein etwas subtilerer Zusammenhang, für den algebraische und geometrische Eigenschaften auseinander
halten müssen.

Definition 9.3 (Algebraische und geometrische Vielfachheit):


Es sei λ ein Eigenwert von A ∈ Kn×n . Ist λ eine r-fache Nullstelle des charakteristischen Polynoms, so
definieren wir die algebraische Vielfachheit

alg(λ) := r

Die Dimension des zugehörigen Eigenraums bezeichnet man als geometrische Vielfachheit

geo(λ) = dim {v ∈ Kn | Av = λv}

92
9.2. Symmetrische Matrizen

von λ.

Satz 9.2:
Es gilt geo(λ) ≤ alg(λ).

Beispiel 9.2:  
1 1
Wir bestimmen Eigenwerte und Eigenvektoren von A = .
0 1
Eigenwerte  
1−λ 1 !
det = (1 − λ)2 = 0 ⇒ λ1,2 = 1
0 1−λ
Eigenvektoren    
0 1 1
(A − 1E)x = 0 ⇔ x=0 x=
0 0 0

Satz 9.3:
Ist A ∈ Rn×n , so gilt:
λ Eigenwert mit Eigenvektor v ⇒ λ Eigenwert mit Eigenvektor v.

9.2 Symmetrische Matrizen

Definition 9.4 (Symmetrische Matrizen):


Eine Matrix A heißt symmetrisch, falls A = AT .

Beispiel 9.3:
   
1 2 4 1 2 4
A = 2 3 −2 AT = 2 3 −2
4 −2 −1 4 −2 −1

Lemma 9.1:
Sei A ∈ Rn×n symmetrisch, λ1 , λ2 ∈ R zwei verschiedene Eigenwerte. Dann sind die zugehörigen Eigen-
vektoren v1 , v2 zueinander orthogonal.

Beweis: Es gilt Av1 = λ1 v1 und Av2 = λ2 v2 .

⇒ λ1 v1 · v2 = Av1 · v2
=
|{z} v 1 · AT v 2 =
|{z} v1 · Av2
Rechenregel siehe ÜB A symmetrisch

= v1 · λ2 v2 = λ2 v1 · v2
⇔ λ1 v1 · v2 − λv1 · v2 = 0
⇔ (λ1 − λ2 ) v1 · v2 = 0
| {z }
6=0

⇔ v1 · v2 = 0

93
9.2. Symmetrische Matrizen

Satz 9.4:
Eine symmetrische n × n Matrix hat n Eigenwerte reelle λ1 ≤ λ2 ≤ · · · ≤ λn mit zugehörigen orthonor-
mierten Eigenvektoren u1 , u2 , . . . , un .

Die orthonormierten Vektoren u1 , . . . , un sind linear unabhängig, bilden also eine Basis des Rn . Jeder Vektor
x ∈ Rn lässt sich darstellen als

x = α1 u1 + α2 u2 + · · · + αn un
mit αi = x · ui für i = 1, . . . , n

Es folgt

Ax = A(α1 u1 + · · · + αn un )
= α1 Au1 + · · · + αn Aun
= α1 λ1 u1 + · · · + αn λn un .

Diagonalisierung symmetrischer Matrizen:


Fasse die Eigenvektoren u1 , . . . un als Matrix zusammen:
     
| | | | | | | | |
A u1 u2 . . . un  = Au1 Au2 . . . Aun  = λ1 u1 λ2 u2 ... λn un 
| | | | | | | | |
 
  λ1
| | |  λ2 
= u1 u2 ... un  
 
. .. 
| | |
 
| {z } λn
=:U | {z }
=:D

oder kurz:
AU = U D
T
Da u1 , . . . , un orthonormal sind, gilt U U = E.

Definition 9.5 (Orthogonale Matrizen):


Eine Matrix U ∈ Rn×n heißt orthogonal, falls U T = U −1 , d.h. U T U = U U T = E.

Satz 9.5:
Für jede symmetrische Matrix A ∈ Rn×n gibt es eine orthogonale Matrix U und eine Diagonalmatrix D
mit
A = U DU T
 
λ1  
 λ 2
 | | |
Dabei ist D =   mit Eigenwerten λ1 , . . . , λn und U = u1 u2 . . . un  mit den
 
..
 .  | | |
λn
zugehörigen Eigenvektoren u1 , . . . , un .

Beispiel 9.4:
Im vorherigen Beispiel ergibt sich:  
−2 6
A=
6 7

94
9.3. Diagonalisierbare Matrizen

   
1 1 1
λ1 = 10 x1 = u1 = √
2 5 2
   
2 1 2
λ2 = −5 x2 = u2 = √
−1 5 −1
   
1 1 2 10 0 1 2
⇒ A=
5 2 −1 0 −5 2 −1

9.3 Diagonalisierbare Matrizen

Wir wissen: Jede symmetrische Matrix A ist diagonalisierbar, d.h. es gibt eine invertierbare Matrix U und eine
Diagonalmatrix D mit
A = U DU −1

und hier gilt speziell U −1 = U T .

Definition 9.6 (Diagonalisierbarkeit):  


λ1
 λ2 
Eine Matrix A ∈ Kn×n ist diagonalisierbar, falls es eine Diagonalmatrix D =   gibt
 
..
 . 
λn
und eine invertierbare Matrix B ∈ Kn×n mit

A = BDB −1

oder AB = BD.

Bemerkung:
A = BDB −1 ⇔ B −1 AB = D

Die λ1 , . . . , λn sind dann die Eigenwerte von A und die Spalten von B die zugehörigen Eigenvektoren:
 
| | |
B = b1 b2 ... bn 
| | |

AB = BD ⇔ Abi = λi bi

Satz 9.6:
Eine n × n Matrix ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren besitzt.

Achtung: Nicht jede Matrix ist diagonalisierbar.

Beispiel 9.5:
 
1 1
A=
0 1
Eigenwerte:
!
det(A − λE) = (1 − λ)2 = 0 ⇔ λ1,2 = 1

95
9.3. Diagonalisierbare Matrizen

Eigenvektoren:
   
! 0 1 ! 1
(A − λE)x = 0 ⇔ ⇔ x=
x=0
0 0 0
 
1
bzw. genauer x ∈ span
0

⇒ Es existiert nur ein linear unabhängiger Eigenvektor ⇒ A nicht diagonalisierbar.

Satz 9.7:
Sind b1 , . . . , bk Eigenvektoren zu paarweise verschiedenen Eigenwerte λ1 , . . . , λk , dann sind die b1 , . . . , bk
linear unabhängig. Insbesondere ist eine Matrix A ∈ Kn×n mit n verschiedenen Eigenwerten diagonalisier-
bar.

Anwendung: Potenzen von Matrizen:


Sei A diagonalisierbar mit A = BDB −1 . Dann gilt

A2 = (BDB −1 )(BDB −1 ) = BD (B −1 B) DB −1 = BD2 B −1


| {z }
E
 2 
λ1
=B
 ..  −1
B
.
λ2n

Ak = (BDB −1 )(BDB −1 ) |{z}


. . . (BDB −1 ) = BDk B −1
k-mal

Beispiel 9.6:  
1 −3 3
Bestimme Diagonalisierung von A = 3 −5 3
6 −6 4

1. Bestimme Eigenwerte und Eigenvektoren


Eigenwerte
!
det(A − λE) = · · · = −λ3 + 12λ + 16 = 0
λ1 = 4. Polynomdivision:

(−λ3 + 12λ + 16) : (λ − 4) = −λ2 − 4λ − 4


−λ3 + 4λ2
− 4λ2 + 12λ
−4λ2 + 16λ
− 4λ + 16
−4λ + 16
−−−−

also

P (λ) = (λ − 4)(−λ2 − 4λ − 4) = −(λ − 4)(λ + 2)2


⇒ λ2 = λ3 = −2

96
9.4. Orthogonale Abbildungen und Matrizen

Eigenvektoren zu λ1 = 4.
     
−3 −3 3 0 1
3 −9 3 x1 = 0 x = 1
6 −6 0 0 2

zu λ2 = λ3 = −2.
       
3 −3 3 0 1 0
3 −3 3 x = 0 x2 = 1 x3 = 1
6 −6 6 0 0 1

Das sind zwei linear unabhängige Eigenvektoren, also ist A diagonalisierbar.


2. Gebe B,D an und berechne gegebenenfalls B −1
   
1 0 1 −2
B = 1 1 1 , D =  −2 
0 1 2 4

Mit dem Gauß-Algorithmus berechnen wir


 
1 1 −1
1
B −1 = −2 2 0
2
1 −1 1

Damit gilt A = BDB −1 .

9.4 Orthogonale Abbildungen und Matrizen

Orthogonale Abbildungen spielen eine wichtige Rolle, da sie Längen (und damit auch Winkel) erhalten. Diese
Eigenschaften machen sie auch intuitiv gut verstehbar.

Definition 9.7:
Sei V ein Vektorraum über R mit dem Skalarprodukt · und der zugehörigen Norm ||·||. Dann heißt eine
lineare Abbildung f : V → V orthogonal, falls

||f (x)|| = ||x||

für alle x ∈ V .

Satz 9.8 (Winkeltreue):


Es sei f : V → V orthogonal, dann gilt f (x) · f (y) = x · y für alle x, y ∈ V . Insbesondere gilt

|∠(f (x), f (y))| = |∠(x, y)|

Beweis: Für das Skalarprodukt gilt die Parallelogrammidentität

1
||x + y||2 − ||x − y||2

x·y =
4

denn
||x + y||2 − ||x − y||2 = ||x||2 + 2x · y + ||y||2 − ||x||2 − 2x · y + ||y||2 = 4x · y


97
9.4. Orthogonale Abbildungen und Matrizen

Damit erhalten wir:


1
||f (x) + f (y)||2 − ||f (x) − f (y)||2

f (x) · f (y) |{z}
=
4
PI
1
||f (x + y)||2 − ||f (x − y)||2

=
|{z} 4
f linear
1
||x + y||2 − ||x − y||2

=
|{z} 4
f orth.

= x·y
|{z}
PI

Für den Winkel gilt


f (x) · f (y) x·y
cos(∠(f (x), f (y))) = = = cos(∠(x, y))
||f (x)||||f (y)|| ||x||||y||

Definition 9.8 (Orthogonale Matrizen):


Die Matrix Af ∈ Rn×n zu einer orthogonalen Abbildung f : V → V mit dimV = n < ∞ heißt orthogonal.

Wir haben damit nun zwei Definitionen für orthogonale Matrizen (Definition 9.5 und Definition 9.8 von gerade
eben). Folgender Satz zeigt, dass diese konsistent sind, siehe auch Bemerkung im Anschluss an folgenden Satz.

Satz 9.9 (Eigenschaften orthogonaler Matrizen):


Sei A ∈ Rn×n orthogonal. Dann gilt:

i) Ax · Ay = x · y und ||Ax|| = ||x|| für alle x, y ∈ Rn .


ii) v ⊥ w ⇒ Av ⊥ Aw für alle v, w ∈ Rn .
iii) A ist invertierbar und A−1 ist orthogonal.
iv) A−1 = AT .

v) Die Spaltenvektoren von A bilden ein Orthonormalsystem.


vi) Die Zeilenvektoren von A bilden ein Orthonormalsystem.
vii) Für jeden Eigenwert λ von A gilt: |λ| = 1.
viii) A ist diagonalisierbar.

Beweis:
i) klar aus Definition und Satz über Winkeltreue
i)
ii) v ⊥ w ⇔ v · w = 0 ⇒ Av · Aw = 0 ⇔ Av ⊥ Aw.
iii)
i)
kern(A) = {x ∈ V | Ax = 0} = {x ∈ V | ||Ax|| = 0} = {x ∈ V | ||x|| = 0} = {0} ⇒ A invertierbar
A orth.
||A−1 x|| = ||AA−1 x|| = ||x|| ⇒ A−1 orthogonal

iv)
)
A−1 orth.
Ax · y = A−1 Ax · A−1 y = x · A−1 y ⇒ A−1 = AT
andererseits: Ax · y = x · AT y

98
9.4. Orthogonale Abbildungen und Matrizen

v)
 
| | |
A = a1 a2 ... an 
| | |

A orth. 0 i 6= j
ai = Aei , ai · aj = Aei · Aej = ei · ej =
1 i=j

iv)
vi) A orthogonal ⇒ AT = A−1 orthogonal ⇒ Spalten von AT bilden in Orthonormalsystem ⇒ Zeilen von A
bilden ein Orthonormalsystem.

vii) Sei λ ein Eigenwert mit zugehörigem Eigenvektor x ∈ Cn \{0}. Dann gilt Ax = λx.

||x||6=0
||x|| = ||Ax|| = ||λx|| = |λ|||x|| ⇒ 1 = |λ|

viii) ohne Beweis.

Bemerkung: Die Definition einer orthogonalen Matrix durch U T = U −1 ist äquivalent zur ”neuen Definition”:

iv)
⇒ Es gelte Ax · Ay = x · y ∀ x, y ∈ V ⇒ A−1 = AT
⇐ Es gelte A−1 = AT ⇒ Ax · Ay = x · AT Ay = x · A−1 Ay = x · y

Beispiel 9.7:
Drehungen und Spiegelungen sind anschaulich offensichtlich orthogonal (in dem Sinne, dass Längen er-
halten bleiben).

1. Drehung im R2 .
 
cos α − sin α
A=
sin α cos α
 
−1 1 cos α sin α
A = = AT
1 − sin α cos α
⇒ A orthogonal

2. Spiegelung im Rn an einer Ebene mit Normalvektor v ∈ Rn , ||v|| = 1:

Q = E − 2vv T
v T x = x − 2(v · x)v
Qx = x − 2v |{z}
=v·x
QT = (E − 2vv T )T = E T − 2(vv T )T = E − 2vv T = Q Symmetrie
2 T T T T
v v vT
Q = (E − 2vv )(E − 2vv ) = E − 2vv − 2vv + 4v |{z} T

=v·v=1
= E − 4vv T + 4vv T = E

⇒ Q = Q−1 und mit Symmetrie QT = Q = Q−1


also Q orthogonal.

Wir betrachten nun die Hintereinanderausführung von orthogonalen Abbildungen. Über die anschauliche Definition
(“Längen bleiben erhalten”) ist klar, dass diese wiederum orthogonal sind:

99
9.4. Orthogonale Abbildungen und Matrizen

Lemma 9.2: i) Sind A und B orthogonal, dann ist auch AB orthogonal.


ii) Ist A orthogonal, so gilt |det(A)| = 1.

Beweis:

i)
(AB)(AB)T = A |BB T T T
{z } A = AA = E
=E

ii)

(det(A))2 = det(A)det(A) = det(A)det(AT ) = det(AAT ) = det(E) = 1


⇔ det(A) = ±1

Definition 9.9 (Mengen orthogonaler Matrizen.):


Wir definieren

O(n) = A ∈ Rn×n | A−1 = AT



orthogonale Matrizen
n×n

SO(n) = A ∈ R | A ∈ O(n) und det(A) = 1 Drehungen

Bemerkung:

• Für O(n) gilt:

1. A, B ∈ O(n) ⇒ AB ∈ O(n)
2. E ∈ O(n)
3. A ∈ O(n) ⇒ A−1 ∈ O(n)

Eine Menge mit diesen drei Eigenschaften nennt man Gruppe. O(n) nenne man orthogonale Gruppe.

• Analog: SO(n) ist eine Gruppe, denn:

Seien A, B ∈ SO(n) ⇒ det(AB) = det(A) det(B) = 1 spezielle orth. Gruppe


| {z } | {z }
=1 =1

 
cos α − sin α
Wir zeigen: Jedes A ∈ SO(2) hat die Gestalt A = .
sin α cos α

Sei A ∈ SO(2), d.h. AAT = E und det(A) = +1.

a2 + c2 ab + cd
     
a c a b
A= ⇒ AT = ⇒ AAT =
b d c d ab + cd b2 + d2

d.h.

a2 + c2 = 1 ⇒ es gibt ein α ∈ [0, 2π) mit a = cos α und c = sin α


2
b +d =1 2
⇒ es gibt ein α0 ∈ [0, 2π) mit d = cos α0 und b = sin α0
ab + cd = 0 ⇒ cos α sin α0 + sin α cos α0 = 0
| {z }
=sin(α+α0 )

100
9.4. Orthogonale Abbildungen und Matrizen

oder

⇒ α + α0 ∈ {0, 2π}

d.h. α + α0 ∈ {π, 3π}

α = α0 = 0 ⇒ α = π − α0 oder α = 3π − α0
oder ⇒ sin α = sin α0 und cos α = − cos α0

sin α0 = − sin α

0 ⇒
α = 2π−α
cos α0 = cos α  
cos α sin α
⇒ A= ⇒ det(A) = −1
sin α − cos α
 
cos α sin α O(2)\SO(2)
A= ⇒ det(A) = 1
− sin α cos α

SO(2)

Satz 9.10 (Gestalt orthogonaler Matrizen im R2 ):

 
cos α − sin α
Ist A ∈ SO(2) ⇒ A= Drehung um α ∈ R
sin α cos α
 
cos α sin α
Ist A ∈ O(2)\SO(2) ⇒ A= Spiegelung, α ∈ R
sin α − cos α

π
    
A=
cos α cos 2 −α  =
cos α sin α
π
sin α − sin 2 −α
sin α − cos α

1.0 e2

0.5

α
2 e1
1.5 1.0 0.5 0.5 1.0 1.5 2.0
π −α
2

0.5 Ae2

101
9.4. Orthogonale Abbildungen und Matrizen

102
KAPITEL 10

Eindimensionale Integration

Fragestellung: f : [a, b] → R
Was ist die Fläche zwischen dem Graphen von f und der x-Achse. Anteile oberhalb der x-Achse zählen positiv,
Anteile unterhalb der x-Achse zählen negativ.

10.1 Definition über Riemann-Summen


Wir zerlegen [a, b]: a =: x0 < x1 < x2 < · · · < xn := b

ξ1 ξ2 ξ3 ξ4

x0 x1 x2 x3 x4
a b

h := max |xk − xk−1 |


k=1,...,n

In jedem Teilintervall [xk−1 , xk ] wählen wir eine Zwischenstelle ξk , dann ist der Flächeninhalt des Streifens

Sh = {(x, y)| xk−1 ≤ x ≤ xk , 0 ≤ y ≤ f (ξk )}

gegeben durch
|xk − xk−1 | · |f (ξk )|

103
10.1. Definition über Riemann-Summen

ξ2 ξ3
x0 ξ1 x1 x2 x3 ξ4x4
a b

Den vorzeichenbehafteten Flächeninhalt approximieren wir durch eine sogenannte Riemann-Summe

n
X
Sn = f (ξk )(xk − xk−1 )
k=1

Beispiel 10.1:
Wir betrachten die Integrale der einfachsten Funktionen, nämlich der konstanten Funktion und der Iden-
tität:
1. f (x) = c ist keine konstante Funktion

Sh = c((x1 − x0 ) + (x2 − x1 ) + (x3 − x2 ) + · · · + (xn − xn−1 )) = c(xn − x0 ) = c(b − a)

Wir schreiben: Z b
c dx = c(b − a)
a

104
10.1. Definition über Riemann-Summen

2. f (x) = x und ξk = xk = a + k b−a


n , k = 0, . . . , n.

n
X
Sh = f (ξk )(xk − xk−1 )
k=1
n n   
X b−a X b−a b−a
= ξk · = a+k
n n n
k=1 k=1
n   2
X b−a b−a
= a +k
n n
k=1
 2 X n
b−a b−a
=n·a + k
n n
k=1
| {z }
n(n+1)
= 2

(b − a)2 n(n + 1)
= a(b − a) +
n2 · 2
(b − a)2 (n + 1)
= ab − a2 +
2n
2
b − 2ab + a2 (b2 − 2ab + a2 )n
= ab − a2 + +
2n 2n
2 b2 a2 b2 − 2ab + a2
= ab − a + − ab + +
2 2 2n
n→∞ 1 2 1 2
−→ b − a
2 2
Wir schreiben: Z b
1 2 1
x dx = (b − a2 ) = (b − a)(b + a)
a 2 2

Definition 10.1:
Eine Funktion f heißt integrierbar, falls es eine Folge von Zerlegungen gibt, so dass unabhängig von der
Wahl von ξk die Folge Sh für h → 0 (gegen den selben Grenzwert) konvergiert. Dieser Grenzwert wird
bezeichnet als Z b
f (x) dx
a

und heißt das (Riemann-)Integral von f über [a, b].

105
10.1. Definition über Riemann-Summen

Satz 10.1:
Sei f : [a, b] → R stetig, dann ist f integrierbar auf [a, b].

Definition 10.2:
Sei f integrierbar auf [a, b], dann definieren wir:
Z a Z b
f (x) dx := − f (x) dx
Zb a a

f (x) dx := 0
a

Rechenregeln: Seien f, g integrierbar auf [a, b].

i) Linearität (Addition):
Z b Z b Z b
f (x) + g(x) dx = f (x) dx + g(x) dx
a a a

ii) Linearität (Multiplikation mit Skalar)


Z b Z b
cf (x) dx = c f (x) dx ∀ c ∈ R
a a

iii) Additivität
Z c Z b Z b
f (x) dx + f (x) dx = f (x) dx für a ≤ c ≤ b
a c a

iv) Monotonie
Z b Z b
f (x) ≤ g(x) ∀ x ∈ [a, b] ⇒ f (x) dx ≤ g(x) dx
a a

Satz 10.2 (Mittelwertsatz):


Zu einer stetigen Funktion f : [a, b] → R und einer stetigen, nicht-negativen Funktion p : [a, b] → R+
0
gibt es ein ξ ∈ [a, b], so dass
Z b Z b
f (x)p(x) dx = f (ξ) p(x) dx
a a
Spezialfall: p = 1:
Z b
f (x) dx = f (ξ)(b − a)
a

106
10.2. Zusammenhang Integration – Differentiation

Definition 10.3:
Sei f : [a, b] → R integrierbar, dann heißt
Z b
1
f¯ := f (x) dx
b−a a

der (Integral-) Mittelwert von f auf [a, b]

10.2 Zusammenhang Integration – Differentiation


Sei f stetig auf [a, b] und x0 ∈ [a, b] fest. Dann definiert
Z x
F (x) := f (t) dt
x0

eine Funktion F : [a, b] → R, eine sogenannte Stammfunktion von f .

Satz 10.3:
Die Funktion F ist differenzierbar und es gilt F 0 (x) = f (x).

Beweis:
!
x+h x x+h
F (x + h) − F (x)
Z Z Z
1 1
= f (t)dt − f (t)dt = f (t)dt = f (ξ)
h h x0 x0 h x

mit Integralmittel auf [x, x + h] für ξ ∈ [x, x + h] gemäß Mittelwertsatz.


Für h → 0 gilt ξ = ξ(h) → x und da f stetig ist, folgt f (ξ) → f (x).

Satz 10.4:
Sind F und G Stammfunktionen von f auf [a, b], d.h. F 0 = G0 = f , dann gibt es ein C ∈ R mit
F (x) = G(x) + C für alle x ∈ [a, b].

Beweis:

(F − G)0 (x) = F 0 (x) − G0 (x) = 0


⇒ (F − G)(x) = C
⇒ F (x) = G(x) + C

107
10.3. Integrationsregeln

Bemerkung:
Rx 
F (x) = a
f (t)dt Z b

Rx ⇒ C = F (x) − G(x) = f (t)dt


G(x) = f (t)dt
 a
b
R
Notation: Wir schreiben F = f (t)dt ( unbestimmtes Integral“) für eine beliebige Stammfunktion von f

(festgelegt bis auf additive Konstante).

Satz 10.5 (Hauptsatz der Differential- und Integralrechnung):


Sei f : [a, b] → R stetig und F : [a, b] → R Stammfunktion von f , dann gilt:
Z b
f (t)dt = F (b) − F (a)
a

Beweis: Z x
Fa (x) = f (t)dt
a

ist Stammfunktion und es gilt

F (x) = Fa (x) + C ⇔ Fa (x) = F (x) − C


Z b
⇒ f (t)dt = Fa (b) = Fa (b) − Fa (a) = (F (b) − C) − (F (a) − C) = F (b) − F (a)
a | {z }
=0

10.3 Integrationsregeln

Im Folgenden geben wir die Integrale bzw. Stammfunktionen grundlegender Funktionen an. Unter Verwendung
der in diesem Kapitel eingeführten Integrationsregeln können dann vielfältige Funktionen integriert werden (“Bau-
kastenprinzip”). Z
1
xα dx = xα+1 α ∈ R\{−1}
α+1
Z
ex dx = ex
Z
cos(x)dx = sin(x)
Z
sin(x)dx = − cos(x)
Z Z
1
x−1 dx = dx = ln(|x|)
x
Begündung der Stammfunktion von x1 : Was ist die Ableitung von ln(|x|)? Dazu gehen wir über die Ableitung
0
der Umkehrfunktion (Reminder: f −1 (x) = f 0 (f −1
1
(x)) ). Die Umkehrfunktion des natürlichen Logarithmus ist
−1
die e-Funktion: ln = exp . Da der Betrag |x| involviert ist, benötigen wir eine Fallunterscheidung x ≥ 0 bzw.
x < 0.
Für x > 0:
1 1
ln0 (x) = y = mit y = ln(x)
e x
Für x < 0:
1 1
ln0 (−x) = − = mit Kettenregel.
−x x

108
10.3. Integrationsregeln

10.3.1 Integration durch Substitution

Satz 10.6 (Substitutionsregel):


Sei f : [c, d] → R stetig und ϕ : [a, b] → R stetig differenzierbar mit ϕ([a, b]) ⊂ [c, d]. Dann gilt
Z b Z ϕ(b)
0
f (ϕ(t))ϕ (t)dt = f (s)ds
a ϕ(a)

Beweis: Sei F eine Stammfunktion von f . Dann

d
⇒ F (ϕ(t)) = f (ϕ(t))ϕ0 (t)
dt

Z ϕ(b) Z b
Hauptsatz f (s)ds = F (ϕ(b)) − F (ϕ(a)) = f (ϕ(t))ϕ0 (t)dt
ϕ(a) a

Dies entspricht der Kettenregel in der Differentiation.


Merkregel: s := ϕ(t) ⇒ ds
dt = ϕ0 (t) ⇒ ds = ϕ0 (t)dt

Beispiel 10.2:
Wir benutzen die Substitutionsregel zur Integration mehrerer Funktionen und halten uns dabei an die oben
eingeführte Nomenklatur:

1.
Z b
2t ds
dt ϕ(t) = s = t2 + 1, ϕ0 (t) = = 2t, ds = 2tdt
a t2 + 1 dt
Z b2 +1
2t 1 1 1
= · ds f (s) = , f (ϕ(t)) =
a2 +1 s 2t s t2 +1
Z b2 +1
1 2
= ds = ln(|s|)|ba2+1
+1
a2 +1 s
b2 + 1
 
2 2
= ln(b + 1) − ln(a + 1) = ln
a2 + 1
Z
2t
⇒ dt = ln(t2 + 1)
t2 + 1
2.
b
−x
Z
dy 1
√ dx y = 1 − x2 , = −2x, dx = − dy
a 1 − x2 dx 2x
1−b2
 
−x
Z
1
= − √dy
1−a2 2x y
Z 1−b2 2
1 1−b − 1
Z
1
= √ dy = y 2 dy
1−a2 2 y 2 1−a2
1 1 1 2
p p
= · 1 y 2 |1−b
1−a 2 = 1 − b2 − 1 − a2
2 2

−x
Z p
√ dx = 1 − x2
1−x 2

109
10.3. Integrationsregeln

3.
Z b
ds
sin(t) cos(t)dt s := cos(t), = − sin(t)
a dt
cos(b)
−1
Z
= sin(t) · s · ds
cos(a) sin(t)
1 cos(b) 1
= − s2 |cos(a) = − cos2 (b) − cos2 (a)

2 2
Z
1
⇒ sin(t) cos(t)dt = − cos2 (t)
2
4.
Z p
dx
1 − x2 dx x = sin(y), = cos(y)
dy
Z q
= 1 − sin2 (y) cos(y)dy denn sin2 (y) + cos2 (y) = 1 ⇔ 1 − sin2 (y) = cos2 (y)

| {z }
= cos2 (y)
Z
1
= cos2 (y)dy mit Additionstheorem cos2 (y) = (cos(2y) + 1)
2
Z
1
= (cos(2y) + 1) dy
2
Z Z
1 1
= cos(2y)dy + 1dy
2 2
| {z }
=y
1 1 1 1 1
= y+ · sin(2y) = arcsin(x) + cos(y) sin(y)
2 2 2 2 2
√ √
| {z } | {z } | {z }
=2 cos(y) sin(y) = 2
cos (y)= 1−sin2 (y) =x

1 1 p
= arcsin(x) + x 1 − x2
2 2
Anwendung: Fläche des Halbkreises:
p
x2 + y 2 = 1 ⇒ y= 1 − x2

Z 1 p 1 p  1
1 − x2 dx = arcsin(x) + x 1 − x2
−1 2 −1
1 1 π π π
= (arcsin(1) + 1 · 0 − arcsin(−1) − 0) = + =
2 2 2 2 2

110
10.4. Integration rationaler Funktionen

Notation: Wir schreiben


F (b) − F (a) = F (x)|bx=a = F (x)|ba

10.3.2 Partielle Integration

Satz 10.7 (Partielle Integration):


Seien f, g : [a, b] → R differenzierbar und f 0 , g 0 stetig. Dann gilt,
Z b Z b
f 0 (x)g(x)dx = (f (x)g(x)) |ba − f (x)g 0 (x)dx
a a

Beweis: Setze h(x) = f (x)g(x).


Z b
⇒ (f (x)g(x)) |ba = h(x)|ba = f 0 (x)g(x) + f (x)g 0 (x)dx
a

Das entspricht der Produktregel.

Beispiel 10.3: 1.
Z b Z b
xex dx = xex |ba − 1 · ex dx = (xex − ex ) |ba = ex (x − 1)|ba
a a
Z
⇒ xex dx = ex (x − 1)

2.
Z
I= sin(t) cos(t) dt vgl. Beispiel 3 oben
| {z } | {z }
=f 0 =g
Z
= − cos(t) cos(t) − (− cos(t)) · (− sin(t))dt
Z
= − cos2 (t) − sin(t) cos(t)dt = − cos2 (t) − I

also

I = − cos2 (t) − I
1
⇔ I = − cos2 (t)
2

3.
Z b Z b Z b
1 b
ln(x)dx = 1 · ln(x) dx = x ln(x)|ba − x· dx = [x ln(x) − x]a
a a
|{z} | {z } a x
=f 0 =g

10.4 Integration rationaler Funktionen

Betrachte

p(x) = a0 + a1 x + a2 x2 + · · · + an xn
q(x) = b0 + b1 x + b2 x2 + · · · + bm xm

111
10.4. Integration rationaler Funktionen

Gesucht: Z
p(x)
dx
q(x)
1. m = 0: Z
a1 2 a2 3 an n+1
p(x)dx = a0 x + x + x + ··· + x
2 3 n+1
2. n ≥ m: Hier verwenden wir Polynomdivision:

p(x) r(x)
= p̃(x) +
q(x) |{z} q(x)
m=0 | {z }
n<m

mit r ∈ Pl , p̃ ∈ Pn−m und l < m.

Daher braucht nur noch der Fall n < m betrachtet werden. Für diesen Fall betrachten wir nun die wesentlichen
Stammfunktionen, die wir dann später wieder verwenden werden.
Z
1
dx = ln(|a + x|)
a+x
Z
1
dx = − ln(|b − x|)
b−x
Z Z Z 1 1
1 1 2 2 1 1
dx = dx = + dx = ln(|1 + x|) − ln(|1 − x|)
1 − x2 (1 + x)(1 − x) 1+x 1−x 2 2
Z
x 1
dx = ln(1 + x2 )
1 + x2 2
Z
x 1
2
dx = − ln(|1 − x2 |)
1−x 2
Z
1
dx = arctan(x)
1 + x2
Mit diesen Hilfsmitteln stellen wir das Vorgehen zur Integration rationaler Funktionen anhand von Beispielen dar:

Beispiel 10.4:
Wir betrachten nur rationale Funktionen mit Grad zwei im Nenner. Dabei sind folgende Fälle möglich:

1. Nenner ohne reelle Nullstellen: Z


2x + 1
dx =?
x2
− 4x + 7
 2 
x−2
Es ist x2 − 4x + 7 = (x − 2)2 + 3 = 3 √
3
+ 1 . Jetzt machen wir eine Substitution mit

t = x−2
√ , dt = √1 , x =
3 dx 3
3t + 2.


2x + 1 √
Z Z Z
2x + 1 2( 3t + 2) + 1
2
dx = 3dt = √ dt
x − 4x + 7 3(t2 + 1) 3(t2 + 1)
Z √ Z Z
2 3t + 5 2t 5
= √ dt = dt + √ dt
3(t2 + 1) t2 + 1 3(t2 + 1)
Z Z
t 5 1
=2 dt + √ dt
t2 + 1 3 t2 + 1
5
= ln(t2 + 1) + √ arctan(t)
3
(x − 2)2
   
5 x−2
= ln + 1 + √ arctan √
3 3 3

112
10.4. Integration rationaler Funktionen

2. Nenner mit zwei einfachen Nullstellen:


A B
Z z }| { z }| {
−9
Z Z
2x + 5 2x + 5 11
dx = dx = + dx = −9 ln(|x − 2|) + 11 ln(|x − 3|)
x2 − 5x + 6 (x − 2)(x − 3) x−2 x−3

Bestimmung von A, B:
2x + 5 A B
= + (?)
(x − 2)(x − 3) x−2 x−3
2x+5 B(x−2)
(a) Durchmultiplizieren mit x − 2: x−3 =A+ x−3
Wähle x = 2: −9 = A + B · 0.
2x+5 A(x−3)
(b) Durchmultiplizieren mit x − 3: x−2 = x−2 +B
Wähle x = 3: 11 = A · 0 + B
Das funktioniert immer, denn:

(?) ⇔ 2x + 5 = A (x − 3) +B (x − 2)
| {z } | {z } | {z }
∈P1 ∈P1 ∈P1

Dabei sind x − 3 und x − 2 linear unabhängig und eine Basis von P1 .


3. Nennerpolynom mit doppelter Nullstelle:

Eine Zerlegung wir in (?) funktioniert nicht mehr, da (x − N S) keine Basis von P1 mehr erzeugt.
Verwende daher (x − N S) und (x − N S)2 .

3x + 2 3x + 2 A B
= = + (??)
x2 − 2x + 1 (x − 1) 2 (x − 1) 2 x−1
⇔ 1 +B (x − 1)
3x + 2 = A · |{z}
| {z } | {z }
∈P1 ∈P1 ∈P1

1 und x − 1 bilden eine Basis von P1 , also existiert genau ein A, B so dass (??) gilt.
Analog wie oben folgt A = 5, B = 3.
Z Z Z
3x + 2 5 3
2
dx = 2
dx + dx
x − 2x + 1 (x − 1) x−1
1
= −5 + 3 ln(|x − 1|)
x−1

113
10.4. Integration rationaler Funktionen

114
KAPITEL 11

Taylorentwicklung, Interpolation und numerische Integration

In diesem Kapitel sollen Methoden zur numerischen Berechnung von bestimmten Integralen erarbeitet werden. Es
geht also darum, den Zahlenwert eines Integrals zu approximieren. Dazu machen wir uns folgenden Umstand zu
Nutze:
1. Differenzierbare Funktionen können durch Polynome approximiert werden.
2. Polynome können leicht integriert werden.
Somit gehen wir zweistufig vor. Eine zu integrierende Funktion f wird zuerst durch ein Polynom approxi-
miert. Anstatt die ursprüngliche Funktion f zu integrieren, bestimmen wir das Inegral des approximierenden
Polynoms.

11.1 Taylorentwicklung
Erinnerung: f : R → R ist differenzierbar ⇐⇒ f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) +o(x − x0 )
| {z }
affine Approximation von f nahe x0

1.4

1.2

1.0 f
0.8

0.6

0.4

0.2

x0 0.5 1.0 1.5

Frage: Kann f durch Polynome höheren Grades besser approximiert werden?

Satz 11.1 (Taylorentwicklung):


f : [a, b] → R sei (n + 1)-mal stetig differenzierbar, dann gilt für x, x0 ∈ [a, b]:

f 00 (x0 ) f (n) (x0 )


f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + (x − x0 )2 + · · · + (x − x0 )n + Rn+1 (x)
2! n!

1 x
Z
mit Rn+1 (x) = (x − t)n f (n+1) (t)dt Restglied
n! x0

115
11.1. Taylorentwicklung

Es gilt:
f (n+1) (ξ)
Rn+1 (x) = (x − x0 )n+1 für ein ξ ∈ (x0 , x)
(n + 1)!

Definition 11.1 (Taylorpolynom):


Für f wie oben heißt
n
X f (k) (x0 )
Tn,f,x0 (x) := (x − x0 )k
k!
k=0

das n-te Taylorpolynom zu f im Entwicklungspunkt x0 .

Folgende Eigenschaften sind bemerkenswert:

1. Für den Rest (bzw. “Fehler”) gilt:


Z x
1
|Rn+1 (x)| ≤ |(x − t)n | |f (n+1) (t)| dt
n! x0 | {z } | {z }
≤|x−x0 |n ≤maxs∈[a,b] |f (n+1) |
Z x
1 n (n+1)

= |x − x0 | max f (s)
1dt
n! s∈[a,b] x
| 0{z }
=|x−x0 |
1
= |x − x0 |n+1 max f (n+1) (s)
n! s∈[a,b]

Der Fehler Rn+1 (x) wird also insbesondere klein, wenn |x − x0 | klein.

2. Für n = 1 ist die Aussage bekannt aus der Definition der Differenzierbarkeit: f (x) = f (x0 ) + f 0 (x0 )(x −
2 (x) x→x0
x0 ) + R2 (x) bekannt aus Differenzierbarkeit und es gilt R
x−x0 −→ 0.

3. Ist die betrachtete Funktion selbst schon ein Polynom k-ten Grades, also p ∈ Pk , so stimmt sie mit ihrem
(k)
Taylorpolynom überein: p(x) = p(x0 ) + p0 (x0 )(x − x0 ) + · · · + p k!(x0 ) (x − x0 )k + 0,
d.h. das Restglied verschwindet, da p(k+1) (x) = 0.

4. Für die Exponentialfunktion, die ja durch eine Potenzreihe definiert ist, ist das Taylorpolynom k-ten Grades
die entsprechende k-te Partialsumme der Potenzreihe: Dazu wählen wir also f (x) = ex , x0 = 0, dann gilt

f 00 (x0 ) f (k) (x0 )


f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + (x − x0 )2 + · · · + (x − x0 )k + Rk+1 (x)
2! k!
1 1
= 1 + x + x2 + · · · + xk +Rk+1 (x)
| 2! {z k! }
Partialsumme der Potenzreihe von ex

Satz 11.2:
Es gelte für eine Funktion f : R → R, dass

f (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + · · · + an (x − x0 )n + Rest((x − x0 )n+1 )

f 00 (x0 ) f (n) (x0 )


dann folgt a0 = f (x0 ), a1 = f 0 (x0 ), a2 = 2! , . . . , an = n!

Beweis: Wähle x = x0 f (x0 ) = a0 .

• Bilde f 0 und berechne f 0 (x0 ) = a1 .

• Bilde f 00 und berechne f 00 (x0 ) = 2a2 .

116
11.2. Interpolation

• Bilde f 000 und berechne f 000 (x0 ) = 3!a3 . . .

Beispiel 11.1:
Wir betrachten Taylorpolynome der natürlichen Logarithmusfunktion:

f (x) = ln(x) f (1) = 0


1
f 0 (x) = = x−1 f 0 (1) = 1
x
f 00 (x) = −1 · x−2 f 00 (1) = −1
f 000 (x) = (−1) · (−2) · x−3 = 2x−3 f 000 (1) = 2
f (4) (x) = (−1) · (−2) · (−3) · x−4 = −6x−4 f (4) (1) = −6
f (5) (x) = (−1) · (−2) · (−3) · (−4) · x−5 = 4!x−5 f (5) (1) = 4!
..
.
f (n) (x) = (−1)n+1 (n − 1)!x−n f (n) (1) = (−1)n+1 (n − 1)!

1 2 6
Tn,f,1 (x) = 0 + 1 · (x − 1) − (x − 1)2 + (x − 1)3 − (x − 1)4 +
2! 3! 4!
4! (n − 1)!
+ (x − 1)5 − · · · + (−1)n+1 (x − 1)n
5! n!
1 1 1 1
= x − 1 − (x − 1)2 + (x − 1)3 − (x − 1)4 ± · · · + (−1)n+1 (x − 1)n
2 3 4 n
Somit ergibt sich z.B. ln(1, 1) = f (1, 1) ≈ T5,f,1 (1, 1) = 0.0953103.

11.2 Interpolation

Bei der Interpolation geht es um folgende Problemstellung, welche sowohl auftritt, wenn diskrete Punkte durch
eine Kurve “verbunden” werden sollen, als auch für die numerische Integration nützlich ist: Gegeben sei eine
beliebige Funktion, die ggf. schwer auszuwerten ist. Eine Interpolationsaufgabe ist dann gegeben durch

Definition 11.2 (Interpolationsaufgabe (P)):


Zu einer Funktion f : [a, b] → R ist ein Polynom n-ten Grades p ∈ Pn gesucht, welches an n + 1 paarweise
verschiedenen vorgegebenen Punken (“Knoten”) x0 , x1 , x2 , . . . , xn ∈ [a, b] mit f übereinstimmt, d.h.

f (xi ) = p(xi ) für i = 0, 1, . . . , n

117
11.2. Interpolation

Satz 11.3 (Eindeutige Lösbarkeit des Interpolationsaufgabe):


Das Interpolationsproblem (P) ist eindeutig lösbar.

Definition 11.3 (Lagrange-Polynome):


Zu paarweise verschiedenen {xi }i=0,1,...,n sind die Lagrange-Polynome gegeben als die Polynome Li ∈ Pn
mit 
1 für i = j
Li (xj ) = δij :=
0 für i 6= j.

Die Lagrange-Polynome sind nach Satz 11.3 eindeutig bestimmt, da jedes Lagrange-Polynom Li eine Interpola-
tionsproblem lösen soll. Wir geben nun eine explizite Form der Lagrange-Polynome na:

Satz 11.4:
Die Lagrange-Polynome lassen sich schreiben als
n
Y x − xj
Li (x) =
xi − xj
j=0,j6=i
Pn
und p(x) = i=0 f (xi )Li (x) löst die Interpolationsaufgabe (P) zur Funktion f .

Beweis:

• Es gilt
n 
Y xk − xj 1 k=i
Li (xk ) = =
xi − xj 0 k 6= i da ein Faktor 0
j=0,j6=i

• z.z. p(xk ) = f (xk )


k
X
p(xk ) = f (xi ) Li (xk ) = f (xk )
| {z }
i=0
=δik

Beispiel 11.2:
Wir betrachten nun mehrere konkrete Beispiele für Lagrange-Polynome.
1. n = 3 Kubische Lagrange-Polynome: Wir wählen x0 = 1, x1 = 2, x2 = 3, x3 = 4

n
Y x − xj
Li (x) =
xi − xj
j=0,j6=i
3
Y x − xj x − x1 x − x2 x − x3
L0 (x) = = · ·
x0 − xj x0 − x1 x0 − x2 x0 − x3
j=0,j6=0
x−2 x−3 x−4 1
= · · = − (x − 2)(x − 3)(x − 4)
1−2 1−3 1−4 6
3
Y x − xj x − x0 x − x2 x − x3
L1 (x) = = · ·
x1 − xj x1 − x0 x1 − x2 x1 − x3
j=0,j6=1
x−1 x−3 x−4 1
= · · = (x − 1)(x − 3)(x − 4)
2−1 2−3 2−4 2

118
11.2. Interpolation

1.0 L0 L1 L2 L3
0.8

0.6

0.4

0.2

0.0
1.0 1.5 2.0 2.5 3.0 3.5 4.0
0.2

2. n = 2 Quadratische Lagrange-Polynome: Wir interpolieren die Funktion f (x) = 2x an den


Knoten x0 = 0, x1 = 1, x2 = 2 durch ein quadratisches Polynom. Die zugehörige Lagrange Basis
lautet.
1
L0 (x) = (x − 1)(x − 2)
2
L1 (x) = −(x − 2)x
1
L2 (x) = (x − 1)x
2

L2
1.5
L1
1.0

0.5
L0
0.5 0.5 1.0 1.5 2.0 2.5
0.5

1.0

Als Interpolationspolynom erhalten wir


1 1
p(x) = f (0) L0 (x) + f (1) L1 (x) + f (2) L2 (x) = x2 + x + 1
|{z} |{z} |{z} 2 2
=1 =2 =4

Wie groß ist der Fehler, der bei der Interpolation von f durch p entsteht?

Satz 11.5:
f : [a, b] → R sei n + 1 mal stetig differezierbar, p ∈ Pn sei die Lösung der Interpolationsaufgabe (P) zu
den Knoten x0 , x1 , . . . , xn . Dann gilt für alle x ∈ [a, b]:
1
|f (x) − p(x)| ≤ max f (n+1) (s) · (b − a)n+1
(n + 1)! s∈[a,b]

119
11.3. Numerische Integration

In Worten heißt das insbesondere: “Der Fehler ist klein, falls die Intervallbreite h := b − a klein ist.”
Typischerweise ist das Intervall, für das man sich interessiert, allerdings fest vorgegeben und kann damit nicht
direkt beeinflusst werden. Es stellt sich somit folgende
Frage: Wie erreicht man, dass die Intervallbreite und damit auch der Fehler klein wird?
Mögliche Lösung:
1. Zerlege [a, b] in N Teilintervalle.
2. Interpoliere f auf den Teilintervallen durch Polynome pi ∈ Pn .
Durch ein derartiges Vorgehen erreicht man dass der Interpolationsfehler auf jedem Teilintervall klein ist klein.
Somit ist der Fehler auch insgesamt klein, genauer: ≤ Chn+1 . Allerings ist hier Vorsicht geboten
3.0

2.5

2.0

1.5

1.0

0.5

0.0
1.0 1.5 2.0 2.5 3.0
a x0 x1 t1 x2 x3 b

Die gesamte Interpolierende g setzt sich zusammen aus den einzelnen Teilen

g(x) = pi (x) für x ∈ [ti , ti+1 ]

und ist damit nicht unbedingt stetig! Stetigkeit kann erzeugt werden, indem der linke und rechte Rand der
einzelnen Teilintervalle als Knoten gewählt werden.
3.0

2.5

2.0

1.5

1.0

0.5

0.0
1.0 1.5 2.0 2.5 3.0 3.5 4.0
a t1 b

11.3 Numerische Integration


Interpolation kann insbesondere verwendet werden, um Integrale numerisch zu approximieren. Konkret soll das
Rb
bestimmte Integral a f (x)dx berechnet werden, ohne hierfür eine analytische Stammfunktion von f zu bestim-
men. Dies ist eine weit verbreitete Aufgabe, da die Bestimmung von Stammfunktionen i.A. sehr aufwändig und
oftmals schlicht unmöglich ist. Wir sind daher an einer numerischen Approximation interessiert:
Z b n
X
f (x)dx ≈ (b − a) ωi f ( xi )
a |{z} |{z}
i=0 Gewichte Knoten

Idee: Ersetze f durch Interpolierende p und integriere diese. Verwende zur Interpolation Polynome, da diese sich
leicht integrieren lassen.

Beispiel 11.3:
Wir betrachten, wie die Integration funktioniert, falls als Interpolierende eine Konstante bzw. ein Polynom
ersten Grades verwendet wird.

120
11.3. Numerische Integration

a+b
1. n = 0, also p0 = P0 , d.h. p ist eine Konstante. Wähle x0 = 2
Z b Z b    
a+b a+b
f (x) dx ≈ f dx = (b − a)f
a |{z} a 2 2
≈p(x)=f ( a+b
2 )

(“Mittelpunktregel, Rechteckregel, Schwerpunktintegration”)

1.0
f(a +2 b )
0.8

0.6

0.4

0.2

0.0
1.0 1.5 2.0 2.5 3.0
a a+b b
2

2. n = 1, also p ∈ P1 . Wähle x0 := a, x1 := b
Z b Z b
f (a) + f (b)
f (x) dx ≈ p(x)dx = (b − a)
a |{z} a 2
≈p(x)

(“Trapezregel”)

1.0

0.8

0.6

0.4

0.2

0.0
1.0 1.5 2.0 2.5 3.0
a b

3. Verwendet man als Interpolierende ein allgemeines Polynome vom Grade n, so ergibt sich unter
Verwendung der Lagrange-Polynome:
n
X
p(x) = f (xj )Lj (x) ∈ Pn
j=0
Z b Z b
⇒ f (x) dx ≈ p(x)dx
a |{z} a
≈p(x)
Z n
bX n
X Z b
= f (xj )Lj (x)dx = f (xj ) Lj (x)dx
a j=0 j=0 a
n Z b
X 1
= (b − a) Lj (x)dx f (xj )
b
j=0 |
− a a
{z }
ωj

121
11.3. Numerische Integration

Satz 11.6: Rb
1
Für gegebene Knoten x0 , . . . , xn ∈ [a, b] erhalten wir mit der Wahl ωi := b−a a
Li (x)dx eine numerische
Integrationsformel, die exatk ist für Polynome mit grad ≤ n.

Satz 11.7 (Fehlerabschätzung):


f : [a, b] → R sei n + 1 mal stetig differenzierbar, dann gilt
Z n

b X
f (x)dx − (b − a) ωi f (xi ) ≤ chn+2


a
i=0

mit Intervallbreite h := b − a.

Beispiel 11.4:
Wir betrachten nun die entstehenden Fehler für n = 0, 1 2:
n = 0 Gemäß Satz 11.7 gilt:
Z 
b 
a + b Satz
f (x)dx − (b − a)f ≤ Ch0+2 = Ch2

2

a

Hier gilt (aufgrund der Symmetrie) sogar etwas Besseres:

f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + O((x − x0 )2 )


Z b
1
⇒ f (x)dx = (b − a)f (x0 ) − (b − a)x0 f 0 (x0 ) + f 0 (x0 )(b2 − a2 ) + (b − a)O((x − x0 )2 )
a 2
a+b 0 1
= (b − a)f (x0 ) + (−b + a) f (x0 ) + f 0 (x0 )(b2 − a2 ) + O((b − a)3 )
2 2
1 2 2 0 1 0
= (b − a)f (x0 ) + (a − b )f (x0 ) + f (x0 )(b2 − a2 ) + O((b − a)3 )
2 2

Z 
b 
a + b

a+b
  
a + b
⇒ f (x)dx − (b − a)f = (b − a)f + O((b − a)3 ) − (b − a)f

2 2 2

a
∼ Ch3

n = 1 Gemäß Satz 11.7 gilt:


Z
b f (a) + f (b) Satz
f (x)dx − (b − a) ≤ Ch3

2

a

n=2
a = 0, b=1
a+b 1
Knoten wählen wir bei x0 = a = 0, x1 = 2 = 2 und x2 = b = 1.

122
11.3. Numerische Integration

x − 12 x − 1
 
1
L0 (x) = = 2 x − (x − 1)
0 − 12 0 − 1 2
 
1
= 2 x2 − 12x − x + = 2x2 − 3x + 1
2
Z b Z 1
1
ω0 = (b − a) L0 (x)dx = 2x2 − 3x + 1dx =
a 0 6
2 2
L1 (x) = · · · = −4x + 4x ω1 =
3
1
L2 (x) = · · · = 2x2 − x ω2 =
6

L1
1.0 L0 L2
0.8

0.6

0.4

0.2

0.2 0.4 0.6 0.8 1.0

Z b    
1 2 a+b 1
⇒ f (x)dx ≈ (b − a) f (a) + f + f (b)
a 6 3 2 6
Das ist die sog. “Kepler’sche Faßregel”. Gemäß Satz 11.7 gilt für den Integrationsfehler ≤ Ch2+2 .
Durch Ausnutzen der Symmetrie erhält man auch hier ein noch besseres Ergebnis: ≤ Ch5

123

Das könnte Ihnen auch gefallen